KR20220075481A - 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치 - Google Patents

라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치 Download PDF

Info

Publication number
KR20220075481A
KR20220075481A KR1020200163582A KR20200163582A KR20220075481A KR 20220075481 A KR20220075481 A KR 20220075481A KR 1020200163582 A KR1020200163582 A KR 1020200163582A KR 20200163582 A KR20200163582 A KR 20200163582A KR 20220075481 A KR20220075481 A KR 20220075481A
Authority
KR
South Korea
Prior art keywords
camera
lidar
image
feature
camera image
Prior art date
Application number
KR1020200163582A
Other languages
English (en)
Inventor
박민규
윤주홍
김제우
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020200163582A priority Critical patent/KR20220075481A/ko
Priority to PCT/KR2021/010044 priority patent/WO2022114449A1/ko
Publication of KR20220075481A publication Critical patent/KR20220075481A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치가 제공된다. 본 발명의 실시예에 따른 캘리브레이션 방법은, 카메라 영상을 획득하여 정해진 형태의 지물을 추출하고, 라이다 영상을 획득하여 정해진 형태의 지물을 추출하며, 추출한 지물들의 외형들을 비교하여 카메라와 라이다 간 위치와 자세의 오차를 보정한다. 이에 의해, 형태가 미리 정해져 있고 알려져 있는 지물을 이용하여, 라이다-카메라 간 기하학적 오차를 계산하고 온라인으로 보정함으로써, 수정이 필요한 캘리브레이션 값을 간편하게 자동으로 보정할 수 있게 된다.

Description

라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치{Method and device for online calibration between LiDAR sensor and camera}
본 발명은 센서 캘리브레이션 기술에 관한 것으로, 더욱 상세하게는 한 대 이상의 카메라와 한 대 이상의 라이다 센서가 동시에 사용되는 장치(예: 자율주행 자동차)에서 기구적인 흔들림이나 뒤틀림에 의해 발생하는 기하학적 오차를 보정하는 방법 및 장치에 관한 것이다.
센서 캘리브레이션(calibration) 과정은 카메라 간 또는 카메라와 센서 간의 위치/자세 정보를 추정하는 과정으로 센서 정보 융합을 위해 반드시 선행되어야 하는 과정이다.
기존에는 이와 같은 캘리브레이션을 제품을 생산하는 단계에서 수행 한 뒤, 고정된 캘리브레이션 수치 값을 사용하는 형태였다고 할 수 있다.
하지만, 센서의 위치는 시간이 지남에 따라 여러 가지 요인에 의해 미묘하게 달라질 수 있으며 이와 같은 차이는 센서 융합 후 사용되는 알고리즘에까지 큰 영향을 미칠 수 있다.
캘리브레이션은 전문가에 의해 수행되어야 하므로 사용자 입장에서는 번거롭고 불편할 수 밖에 없다. 따라서, 수정이 필요한 캘리브레이션 값을 간편하게 자동으로 보정해주는 방법이 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 형태가 미리 정해져 있고 알려져 있는 지물을 이용하여, 라이다-카메라 간 기하학적 오차를 계산하고 온라인으로 보정하는 방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 캘리브레이션 방법은, 카메라 영상을 획득하는 제1 획득단계; 획득한 카메라 영상에서 정해진 형태의 지물을 추출하는 제1 추출단계; 라이다 영상을 획득하는 제2 획득단계; 획득한 라이다 영상에서 정해진 형태의 지물을 추출하는 제2 추출단계; 추출한 지물들의 외형들을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함한다.
지물은, 형상과 크기가 정해진 형태의 지물일 수 있다. 지물은, 교통 표지판일 수 있다.
카메라 영상은, 2D 카메라 영상 또는 3D 카메라 영상이고, 보정 단계는, 2D 카메라 영상 또는 3D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함할 수 있다.
카메라 영상은, 2D 카메라 영상과 3D 카메라 영상을 포함하고, 제1 추출단계는, 2D 카메라 영상과 3D 카메라 영상에서 지물의 외형을 각각 추출하고, 보정 단계는, 2D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형 간 비교 결과인 제1 비교 결과 및 3D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형 간 비교 결과인 제2 비교 결과를 이용하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함할 수 있다.
보정 단계는, 제1 비교 결과와 제2 비교 결과 중 하나에 가중치를 적용할 수 있다.
보정 단계는, 추출한 지물의 외형들을 정합하는 단계; 정합 오차가 최소가 되도록, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 캘리브레이션 장치는, 카메라 영상을 획득하는 제1 입력부; 획득한 카메라 영상에서 정해진 형태의 지물을 추출하는 제1 처리부; 라이다 영상을 획득하는 제2 획득부; 획득한 라이다 영상에서 정해진 형태의 지물을 추출하는 제2 처리부; 추출한 지물들의 외형들을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 캘리브레이션부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 형태가 미리 정해져 있고 알려져 있는 지물을 이용하여, 라이다-카메라 간 기하학적 오차를 계산하고 온라인으로 보정함으로써, 수정이 필요한 캘리브레이션 값을 간편하게 자동으로 보정할 수 있게 된다.
도 1은 카메라-라이다 센서 간 위치/자세 오차 보정 과정의 개념 설명에 제공되는 도면,
도 2는 2D 카메라 영상과 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도,
도 3은 3D 카메라 영상과 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도,
도 4는 2D 카메라 영상과 3D 카메라 영상 및 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도,
도 5는 본 발명의 다른 실시예에 따른 캘리브레이션 장치의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명의 실시예에서는 라이다(LiDAR) 센서와 카메라 간 온라인 캘리브레이션 방법을 제시한다.
구체적으로, 1대 이상의 라이다 센서와 1대 이상의 카메라가 장착된 자동차나 드론 등 다양한 장치에서, 지면의 요철, 기구적 흔들림, 외부 충격 등 외부적인 요인에 의해 센서의 위치가 미세하게 변경되었을 경우 변화된 정보를 추정하여 위치 정보를 보정하는 방법이다.
이를 위해, 일상에서 주기적인 온라인 캘리브레이션을 가능하도록 하기 위해, 본 발명의 실시예에서는, 형태가 미리 정해져 있고 알려져 있는 지형이나 지물(예: 교통표지판, 차량)을 이용한다.
도 1은 카메라-라이다 센서 간 위치/자세 오차 보정 과정의 개념 설명에 제공되는 도면이다.
도시된 바와 같이, 먼저, 카메라 영상을 획득하고, 획득한 카메라 영상에서 형상과 크기가 정해진 형태의 지형이나 지물(도 1의 경우는 교통 표지판을 예시함)을 추출한다.
그리고, 라이다 영상을 획득하고, 획득한 라이다 영상에서 동일한 지형이나 지물을 추출한다. 라이다 센서는 군집화(clustering) 과정을 통해 지형이나 지물을 분리할 수 있다.
카메라 영상과 라이다 영상으로부터 추출한 지물의 외형은 카메라와 라이다 센서의 대응 정보이며, 이를 캘리브레이션에 이용한다.
즉, 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형을 정합하고, 정합 오차가 최소가 되도록 카메라와 라이다 간 위치와 자세의 오차를 보정하여, 캘리브레이션을 수행한다.
라이다 영상은 3D 영상인 반면, 카메라 영상의 경우 3D 영상일 수 있지만 2D 영상일 수도 있다. 이하에서, 각각의 경우를 구분하여, 캘리브레이션 방법에 대해 상세히 설명한다.
도 2는 2D 카메라 영상과 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도이다. 카메라가 2D 카메라(1대의 RGB 카메라)인 경우가 이에 해당한다.
도시된 바와 같이, 먼저, 2D 카메라 영상을 획득하고(S110), 획득한 2D 카메라 영상에서 형상과 크기가 정해진 형태의 지형이나 지물을 추출한다(S120).
S120단계에서 추출할 지형이나 지물은 형상과 크기가 미리 정해져 있고 알려져 있으므로, 이에 대한 사전 지식을 바탕으로 3차원 정보를 역산할 수 있는 경우이다.
다음, 라이다 영상을 획득하고(S130), 획득한 라이다 영상에서 동일한 지형이나 지물을 추출한다(S140).
그리고, 2D 카메라 영상에서 추출한 지형이나 지물의 외형과 라이다 영상에서 추출한 지형이나 지물의 외형을 정합하고(S150), 정합 오차가 최소가 되도록 카메라와 라이다 간 위치와 자세의 오차를 보정한다(S160).
S170단계에서의 오차 보정은 다음의 수식 1에 제시된 목적 함수를 최소화하는 R(자세)과 T(위치)를 구하는 과정이다.
[수식 1]
Figure pat00001
여기서, l(R,T)는 목적 함수이고, πRT는 라이다 영상을 2D 카메라 영상 평면으로 워핑하기 위한 함수이며, XLiDAR는 라이다 영상이고, uimg는 2D 카메라 영상이다.
도 3은 3D 카메라 영상과 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도이다. 카메라가 3D 카메라(스테레오 RGB 카메라 또는 RGB 카메라 + 뎁스 카메라)인 경우가 이에 해당한다.
도시된 바와 같이, 먼저, 3D 카메라 영상을 획득하고(S210), 획득한 3D 카메라 영상에서 형상과 크기가 정해진 형태의 지형이나 지물을 추출한다(S220).
다음, 라이다 영상을 획득하고(S230), 획득한 라이다 영상에서 동일한 지형이나 지물을 추출한다(S240).
그리고, 3D 카메라 영상에서 추출한 지형이나 지물의 외형과 라이다 영상에서 추출한 지형이나 지물의 외형을 정합하고(S250), 정합 오차가 최소가 되도록 카메라와 라이다 간 위치와 자세의 오차를 보정한다(S260).
S270단계에서의 오차 보정은 다음의 수식 2에 제시된 목적 함수를 최소화하는 R(자세)과 T(위치)를 구하는 과정이다.
[수식 2]
Figure pat00002
여기서, l(R,T)는 목적 함수이고, XLiDAR는 라이다 영상이고, Ximg는 3D 카메라 영상이다.
도 4는 2D 카메라 영상과 3D 카메라 영상 및 라이다 영상을 이용한 캘리브레이션 방법의 설명에 제공되는 흐름도이다. 카메라 영상을 2D와 3D 모두 이용한다는 점에서 전술한 실시예들과 차이가 있다.
도시된 바와 같이, S311단계 내지 S315단계를 수행하는데, 이들은 도 2에 도시된 S110단계 내지 S150단계와 동일하다. 그리고, S321단계 내지 S325단계를 수행하는데, 이들은 도 2에 도시된 S210단계 내지 S250단계와 동일하다.
다음, S315단계와 S3125단계에서의 정합 오차가 최소가 되도록 카메라와 라이다 간 위치와 자세의 오차를 보정한다(S330).
S330단계에서의 오차 보정은 다음의 수식 3에 제시된 목적 함수를 최소화하는 R(자세)과 T(위치)를 구하는 과정이다.
[수식 3]
Figure pat00003
여기서, l(R,T)는 목적 함수이고, πRT는 라이다 영상을 2D 카메라 영상 평면으로 워핑하기 위한 함수이며, XLiDAR는 라이다 영상이고, uimg는 2D 카메라 영상이며, Ximg는 3D 카메라 영상이다. λ는 두 항을 균형있게 하기 위해 설정되는 가중치이다.
지금까지, 라이다 센서와 카메라 간 온라인 캘리브레이션 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.
본 발명의 실시예에서는, 1대 이상의 라이다 센서와 1대 이상의 카메라 센서가 장착된 자동차나 드론 등 다양한 장치에서 지면의 요철, 기구적 흔들림, 외부 충격 등 외부적인 요인에 의해 센서의 위치가 미세하게 변경되었을 경우 변화된 정보를 추정하여 위치 정보를 보정하여 캘리브레이션하는 방법을 제시하였다.
본 발명의 실시예에서 제시한 온라인 캘리브레이션의 대상이 되는 카메라와 라이다 센서는 설명의 편의를 위해 언급한 일 예에 해당한다. 이들을 다른 센서로 대체하는 경우에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다.
도 5는 본 발명의 다른 실시예에 따른 캘리브레이션 장치의 블럭도이다. 본 발명의 실시예에 따른 캘리브레이션 장치는, 도시된 바와 같이, 카메라 영상 입력부(410), 라이다 영상 입력부(420), 카메라 영상 처리부(430), 라이다 영상 처리부(440) 및 캘리브레이션부(450)를 포함하여 구성된다.
카메라 영상 입력부(410)는 카메라(미도시)에서 생성되는 영상을 수신하여 카메라 영상 처리부(430)로 전달한다. 카메라 영상 입력부(410)가 수신/전달하는 카메라 영상은 2D 카메라 영상 또는 3D 카메라 영상이거나 양자를 모두 포함할 수 있다.
카메라 영상 처리부(430)는 카메라 영상 입력부(410)로부터 전달된 카메라 영상에 대한 전처리를 수행하고, 전처리된 카메라 영상에서 정해진 지형이나 지물을 추출한다.
라이다 영상 입력부(420)는 라이다 센서(미도시)에서 생성되는 영상을 수신하여 라이다 영상 처리부(440)로 전달한다.
라이다 영상 처리부(440)는 라이다 영상 입력부(420)로부터 전달된 라이다 영상에 대한 전처리를 수행하고, 전처리된 라이다 영상에서 정해진 지형이나 지물을 추출한다.
캘리브레이션부(450)는 영상 처리부(430,440)들에 추출된 지형이나 지물의 외형들을 정합하고, 정합 오차가 최소화 되도록 카메라와 라이다 간의 위치와 자세를 보정한다.
캘리브레이션부(450)은 카메라와 라이다 간의 위치와 자세 보정이 주기적으로 수행한다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
410 : 카메라 영상 입력부
420 : 라이다 영상 입력부
430 : 카메라 영상 처리부
440 : 라이다 영상 처리부
450 : 캘리브레이션부

Claims (8)

  1. 카메라 영상을 획득하는 제1 획득단계;
    획득한 카메라 영상에서 정해진 형태의 지물을 추출하는 제1 추출단계;
    라이다 영상을 획득하는 제2 획득단계;
    획득한 라이다 영상에서 정해진 형태의 지물을 추출하는 제2 추출단계;
    추출한 지물들의 외형들을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함하는 것을 특징으로 하는 캘리브레이션 방법.
  2. 청구항 1에 있어서,
    지물은,
    형상과 크기가 정해진 형태의 지물인 것을 특징으로 하는 캘리브레이션 방법.
  3. 청구항 2에 있어서,
    지물은,
    교통 표지판인 것을 특징으로 하는 캘리브레이션 방법.
  4. 청구항 2에 있어서,
    카메라 영상은,
    2D 카메라 영상 또는 3D 카메라 영상이고,
    보정 단계는,
    2D 카메라 영상 또는 3D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함하는 것을 특징으로 하는 캘리브레이션 방법.
  5. 청구항 2에 있어서,
    카메라 영상은,
    2D 카메라 영상과 3D 카메라 영상을 포함하고,
    제1 추출단계는,
    2D 카메라 영상과 3D 카메라 영상에서 지물의 외형을 각각 추출하고,
    보정 단계는,
    2D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형 간 비교 결과인 제1 비교 결과 및 3D 카메라 영상에서 추출한 지물의 외형과 라이다 영상에서 추출한 지물의 외형 간 비교 결과인 제2 비교 결과를 이용하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함하는 것을 특징으로 하는 캘리브레이션 방법.
  6. 청구항 5에 있어서,
    보정 단계는,
    제1 비교 결과와 제2 비교 결과 중 하나에 가중치를 적용하는 것을 특징으로 하는 캘리브레이션 방법.
  7. 청구항 1에 있어서,
    보정 단계는,
    추출한 지물의 외형들을 정합하는 단계;
    정합 오차가 최소가 되도록, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 단계;를 포함하는 것을 특징으로 하는 캘리브레이션 방법.
  8. 카메라 영상을 획득하는 제1 입력부;
    획득한 카메라 영상에서 정해진 형태의 지물을 추출하는 제1 처리부;
    라이다 영상을 획득하는 제2 획득부;
    획득한 라이다 영상에서 정해진 형태의 지물을 추출하는 제2 처리부;
    추출한 지물들의 외형들을 비교하여, 카메라와 라이다 간 위치와 자세의 오차를 보정하는 캘리브레이션부;를 포함하는 것을 특징으로 하는 캘리브레이션 장치.
KR1020200163582A 2020-11-30 2020-11-30 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치 KR20220075481A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200163582A KR20220075481A (ko) 2020-11-30 2020-11-30 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치
PCT/KR2021/010044 WO2022114449A1 (ko) 2020-11-30 2021-08-02 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200163582A KR20220075481A (ko) 2020-11-30 2020-11-30 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220075481A true KR20220075481A (ko) 2022-06-08

Family

ID=81755154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200163582A KR20220075481A (ko) 2020-11-30 2020-11-30 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20220075481A (ko)
WO (1) WO2022114449A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102525563B1 (ko) * 2022-11-30 2023-04-25 주식회사 테스트웍스 다중 라이다 및 카메라 센서를 이용한 영상 획득 방법 및 이를 수행하는 컴퓨팅 장치
WO2023249188A1 (ko) 2022-06-21 2023-12-28 주식회사 엘지에너지솔루션 리튬 이차전지 및 이의 제조방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102012179B1 (ko) * 2018-04-30 2019-08-20 충북대학교 산학협력단 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법
CN113170079A (zh) * 2018-07-30 2021-07-23 小马智行 用于校准车载摄像头的***和方法
KR102470772B1 (ko) * 2018-11-06 2022-11-25 주식회사 스프링클라우드 자율 주행 차량의 통합 센서 자동 보정 장치 및 방법
JP7056540B2 (ja) * 2018-12-18 2022-04-19 株式会社デンソー センサ校正方法およびセンサ校正装置
US10726579B1 (en) * 2019-11-13 2020-07-28 Honda Motor Co., Ltd. LiDAR-camera calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249188A1 (ko) 2022-06-21 2023-12-28 주식회사 엘지에너지솔루션 리튬 이차전지 및 이의 제조방법
KR102525563B1 (ko) * 2022-11-30 2023-04-25 주식회사 테스트웍스 다중 라이다 및 카메라 센서를 이용한 영상 획득 방법 및 이를 수행하는 컴퓨팅 장치

Also Published As

Publication number Publication date
WO2022114449A1 (ko) 2022-06-02

Similar Documents

Publication Publication Date Title
CN108141570B (zh) 校准装置、校准方法以及校准程序存储介质
CN108986037B (zh) 基于半直接法的单目视觉里程计定位方法及定位***
US10594943B2 (en) Camera calibration device and camera calibration system
CN109034017B (zh) 头部姿态估计方法及机器可读存储介质
US8385595B2 (en) Motion detection method, apparatus and system
EP3430594B1 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
CN105069804B (zh) 基于智能手机的三维模型扫描重建方法
KR20220075481A (ko) 라이다 센서와 카메라 간 온라인 캘리브레이션 방법 및 장치
US11042966B2 (en) Method, electronic device, and storage medium for obtaining depth image
US20110243451A1 (en) Image processing apparatus and method, and program
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
US8831359B2 (en) Apparatus and method for refining a value of a similarity measure
CN111209770A (zh) 一种车道线识别方法及装置
CN109961417B (zh) 图像处理方法、装置及移动装置控制方法
EP3633606B1 (en) Information processing device, information processing method, and program
US11189042B2 (en) Information processing device, information processing method, and computer program
CN110349249B (zh) 基于rgb-d数据的实时稠密重建方法及***
CN110717445B (zh) 一种用于自动驾驶的前车距离跟踪***与方法
KR101510312B1 (ko) 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법
JP6946255B2 (ja) 学習装置、推定装置、学習方法およびプログラム
CN111080537B (zh) 水下机器人智能控制方法、介质、设备及***
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN112648994A (zh) 基于深度视觉里程计和imu的相机位姿估计方法及装置
CN106991379B (zh) 结合深度信息的人体皮肤识别方法及装置和电子装置
JP7019431B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム