KR102600754B1 - 차량 센서 교정 방법 및 시스템 - Google Patents

차량 센서 교정 방법 및 시스템 Download PDF

Info

Publication number
KR102600754B1
KR102600754B1 KR1020230041687A KR20230041687A KR102600754B1 KR 102600754 B1 KR102600754 B1 KR 102600754B1 KR 1020230041687 A KR1020230041687 A KR 1020230041687A KR 20230041687 A KR20230041687 A KR 20230041687A KR 102600754 B1 KR102600754 B1 KR 102600754B1
Authority
KR
South Korea
Prior art keywords
vehicle
sensor
lidar
infrastructure
positional relationship
Prior art date
Application number
KR1020230041687A
Other languages
English (en)
Inventor
임경일
이동근
Original Assignee
재단법인차세대융합기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인차세대융합기술연구원 filed Critical 재단법인차세대융합기술연구원
Priority to KR1020230041687A priority Critical patent/KR102600754B1/ko
Application granted granted Critical
Publication of KR102600754B1 publication Critical patent/KR102600754B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • B60W2420/42
    • B60W2420/52
    • G05D2201/0212

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 개시의 일 실시예는, 하나 이상의 인프라 센서를 포함하는 차량 센서 교정 시스템에 의해 수행되는 차량 센서 교정 방법을 제공한다. 본 방법은, 상기 인프라 센서를 이용하여, 상기 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 단계, 상기 인프라 센서를 이용하여 상기 차량의 자세 및 상기 차량의 기준점을 산출하고, 상기 차량의 자세 및 상기 차량의 기준점에 기초하여 상기 차량의 좌표계를 생성하는 단계 및 상기 위치 관계, 상기 차량의 자세, 상기 차량의 기준점 및 상기 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하는 단계를 포함한다.

Description

차량 센서 교정 방법 및 시스템 {METHOD AND DEVICE FOR CALIBRATING VEHICLE SENSOR}
본 발명은 차량 센서 교정 방법 및 시스템에 관한 것으로, 보다 상세하게는, 자율주행차 등의 차량에 구비된 센서들과 차량 외부에 설치된 센서들 간의 위치 관계와 차량의 중심 좌표에 기초하여 차량의 센서들을 교정하는 방법 및 시스템에 관한 것이다.
최근 자율주행에 대한 연구가 활발히 진행되고 있다. 자율주행의 맵 데이터와 관련하여, LDM(Local Dynamic Map)은 정보의 동적 특성에 따라 Type 1에서 Type 4까지 4가지 유형으로 분류될 수 있다. 여기서, Type 1 정보는 도로 및 건물 등에 대한 지도 정보로서 'static' 정보이며, Type 2 정보는 'quasi-staic' 정보로서 랜드마크, 교통표지판 등과 같은 정보가 이에 해당하고, Type 3 정보는 'Dynamic' 정보로서 교통정체, 신호등 정보, 교통사고 정보, 공사구간 정보, 노면상태 등에 대한 정보가 이에 해당하며, Type 4는 'Highly Dynamic' 정보로서 주변차량, 보행자 등에 대한 정보가 이에 해당한다.
LDM이 지능형 교통 장치와 관련하여 매우 중요하지만, 자율주행에 이용되기 위해서는 더욱 정밀한 정보를 다룰 수 있어야 하는 것으로 인식되고 있다.
또한, 자율주행을 위해서는 센서 등을 통한 외부환경의 정확한 인식과 인식된 정보에 기한 주행 방향, 속도 등 주행 조건의 결정이 필요하다.
센서들은 차량에 탑재된 상태에서 초기 캘리브레이션 과정을 거쳐야 한다. 캘리브레이션은 일반적으로 체스 보드 패턴이 표시된 바닥면에 차량을 이동시켜 위치시킨 후 수행하는데, 차량의 위치 및 자세를 잘 맞추어 진행하여야 한다. 캘리브레이션을 위해 차량을 이동시켜 그 위치 및 자세를 맞추는 과정은 시간 소모적일 뿐만 아니라, 센서들 간의 시야가 서로 겹쳐야 수행이 가능하다는 문제점이 있다.
이에 따라, 차량을 이동시키기 위한 별도의 장치와 센서들 간의 시야가 서로 겹치지 않아도, 차량에 설치된 센서들을 교정할 수 있는 방법에 대한 연구가 필요한 실정이다.
본 개시는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 자율주행차 등의 차량에 구비된 센서들과 차량 외부에 설치된 센서들 간의 위치 관계와 차량의 중심 좌표에 기초하여 차량의 센서들을 교정하는 방법 및 시스템을 제공하고자 한다.
본 발명이 이루고자 하는 기술적 과제들은 상기한 기술적 과제로 제한되지 않으며, 이하의 설명으로부터 본 발명의 또 다른 기술적 과제들이 도출될 수 있다.
상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 개시의 제1 측면에 따른 실시예는, 하나 이상의 인프라 센서를 포함하는 차량 센서 교정 시스템에 의해 수행되는 차량 센서 교정 방법을 제공한다. 본 방법은, 상기 인프라 센서를 이용하여, 상기 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 단계, 상기 인프라 센서를 이용하여 상기 차량의 자세 및 상기 차량의 기준점을 산출하고, 상기 차량의 자세 및 상기 차량의 기준점에 기초하여 상기 차량의 좌표계를 생성하는 단계 및 상기 위치 관계, 상기 차량의 자세, 상기 차량의 기준점 및 상기 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하는 단계를 포함한다.
또한, 본 개시의 제2 측면에 따른 실시예는, 하나 이상의 인프라 센서를 포함하는 차량 센서 교정 시스템을 제공한다. 본 시스템은 차량과 정보 송수신을 수행하는 통신 모듈, 적어도 하나의 프로세서 및 상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가, 상기 인프라 센서를 이용하여, 상기 인프라 센서와 상기 차량에 설치된 센서 간의 위치 관계를 산출하고, 상기 인프라 센서를 이용하여 상기 차량의 자세 및 상기 차량의 기준점을 산출하고, 상기 차량의 자세 및 상기 차량의 기준점에 기초하여 상기 차량의 좌표계를 생성하며, 상기 위치 관계, 상기 차량의 자세, 상기 차량의 기준점 및 상기 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하도록 야기하는 코드를 저장한다.
본 발명에 따르면, 차량 센서들을 교정하기 위해 별도의 장치를 차량에 부착하거나, 특정 공간으로 차량을 이동시키는 등의 절차 없이, 차량의 외부에 위치하는 인프라 센서를 이용하여 종래기술 대비 자동화된 차량 센서 교정이 가능하고, 공간적 이득을 증대시킬 수 있다.
또한, 본 발명에 따르면, 값비싼 장비를 추가적으로 이용하지 않고 상대적으로 저렴한 카메라와 라이다를 이용하여 차량 센서의 교정을 수행할 수 있어, 비용 효율을 증가시킬 수 있다.
또한, 본 발명에 따르면, 차량 내부 센서들 간의 시야가 서로 겹치지 않아도 센서들의 교정이 가능하다.
본 발명의 효과들은 상술한 효과들로 제한되지 않으며, 이하의 기재로부터 이해되는 모든 효과들을 포함한다.
도 1은 본 발명의 일 실시예에 따른 차량 센서 교정 시스템과 차량을 설명하기 위해 도시한 도면이다.
도 2는 도 1에 도시된 차량 센서 교정 시스템의 세부구성을 도시한 도면이다.
도 3은 도 1에 도시된 차량 센서 교정 시스템의 인프라 센서가 차량 및 차량 센서를 인식하는 예를 설명하기 위해 도시한 도면이다.
도 4는 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 예를 설명하기 위해 도시한 도면이다.
도 5는 인프라 센서를 이용하여 차량의 자세를 산출하는 예를 설명하기 위해 도시한 도면이다.
도 6은 차량의 좌표계를 산출하고 좌표계를 기준으로 차량에 설치된 센서의 위치를 도출하는 예를 설명하기 위해 도시한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 차량 센서 교정 방법의 순서를 도시한 흐름도이다.
도 8 및 도 9는 도 7에 도시된 차량 센서 교정 방법의 일부 단계에 대한 세부 단계들을 도시한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 개시를 상세히 설명하기로 한다. 다만, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들로 한정되는 것은 아니다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미로 해석되어야 한다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 추가적으로 갖는 것으로 해석되어야 하며, 별도로 정의되지 않는 한 매우 이상적이거나 제한적인 의미로 해석되지 않는다.
도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 도면에 나타난 각 구성요소의 크기, 형태, 형상은 다양하게 변형될 수 있다. 명세서 전체에 대하여 동일/유사한 부분에 대해서는 동일/유사한 도면 부호를 붙였다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부" 등은 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉 또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(접속, 접촉 또는 결합)"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결 (접속, 접촉 또는 결합)"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함(구비 또는 마련)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 "포함(구비 또는 마련)"할 수 있다는 것을 의미한다.
본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 나타내는 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 구성 요소들의 순서나 관계를 제한하지 않는다. 예를 들어, 본 개시의 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성 요소로 명명될 수 있다. 본 명세서에서 사용되는 단수 표현의 형태들은 명백히 반대의 의미를 나타내지 않는 한 복수 표현의 형태들도 포함하는 것으로 해석되어야 한다.
도 1은 본 발명의 일 실시예에 따른 차량 센서 교정 시스템과 차량을 설명하기 위해 도시한 도면이다. 도면에는 편의상 차량(200)이 하나만 도시되어 있으나, 복수의 차량들이 무선 네트워크에 의해 차량 센서 교정 시스템(100)과 연결되는 형태로 구현될 수 있다.
차량 센서 교정 시스템(100)은 하나 이상의 인프라 센서를 포함한다. 인프라 센서는 외부 카메라 및 외부 라이다를 포함하고, 차량(200)의 외부에 고정되어 위치할 수 있다.
차량 센서 교정 시스템(100)은 인프라 센서를 이용하여 차량(200) 및 차량(200)에 설치된 센서들을 인식할 수 있다.
차량 센서 교정 시스템(100)은 인프라 센서를 이용하여 인프라 센서와 차량(200)에 설치된 센서 간의 위치 관계를 산출한다. 여기서, 차량(200)에 설치된 센서는 차량 카메라 및 차량 라이다(LiDAR)일 수 있다.
차량 센서 교정 시스템(100)은 인프라 센서를 이용하여 차량(200)의 자세 및 차량(200)의 기준점을 산출한다. 차량 센서 교정 시스템(100)은 차량(200)의 자세 및 차량(200)의 기준점에 기초하여 차량(200)의 좌표계를 생성한다.
차량 센서 교정 시스템(100)은 인프라 센서를 이용하여 산출된 인프라 센서와 차량(200)에 설치된 센서 간의 위치 관계, 차량(200)의 자세, 차량(200)의 기준점 및 좌표계를 이용하여 차량(200)에 설치된 센서에 대한 교정을 수행할 수 있다. 예컨대, 차량 센서 교정 시스템(100)은 위치 관계, 차량(200)의 자세, 차량(200)의 기준점 및 좌표계를 이용하여 차량 카메라 및 차량 라이다에 대한 교정을 수행할 수 있다. 여기서, 교정이란 차량(200)에 설치된 센서의 최초 설치 방향, 촬영 각도 등을 포함하는 최초값으로 현재 차량(200)에 설치된 센서의 값들을 수정하는 것을 의미할 수 있다. 예컨대, 교정은 차량(200)에 설치된 카메라 또는 라이다가 바라보는 방향 차량(200)의 정면이 바라보는 방향과 상이한 경우, 카메라 또는 라이다의 방향을 차량의 정면 방향과 동일하게 일치시키는 작업을 포함할 수 있다.
차량(200)은 차량 센서 교정 시스템(100)과 통신 연결될 수 있다. 예컨대, 차량(200)은 일반 주행 차량 및 자율 주행 차량을 포함하는 모든 차량일 수 있다.
차량(200)에 설치된 센서를 포함한다. 차량(200)에 설치된 센서들은 차량(200)의 외부 또는 내부에 고정되어 위치할 수 있다.
차량(200)에 설치된 센서는 적어도 하나 이상의 차량 카메라 및 적어도 하나 이상의 차량 라이다일 수 있다. 예컨대, 차량(200)은 하나의 차량 카메라 및 두 개의 차량 라이다를 포함할 수 있으며, 다른 예로 두 개의 차량 카메라 및 하나의 차량 라이다를 포함할 수도 있다.
도 2는 도 1에 도시된 차량 센서 교정 시스템의 세부구성을 도시한 도면이다.
도 2를 참조하면, 차량 센서 교정 시스템(100)은 통신 모듈(110), 프로세서(120) 및 메모리(130)를 포함하여 구성된다.
통신 모듈(110)은 차량(200)과 데이터를 송수신할 수 있다. 예를 들어, 통신 모듈(110)은 차량(200)으로 차량에 설치된 센서에 대한 교정을 수행하기 위한 신호를 전송할 수 있다. 통신 모듈(110)은 차량(200)으로부터 차량(200)에 설치된 센서들의 위치 정보를 포함하는 정보를 수신할 수 있다.
통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
프로세서(120)는 데이터를 제어 및 처리하는 다양한 종류의 장치들을 포함할 수 있다. 프로세서(120)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다.
일 예에서, 프로세서(120)는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
차량 센서 교정 시스템(100)의 프로세서(120)는 메모리(130)에 저장된 코드에 따라 동작을 수행한다.
차량 센서 교정 시스템(100)의 메모리(130)는 프로세서(120)와 전기적으로 연결되고, 프로세서(120)에서 수행되는 적어도 하나의 코드가 저장된다. 메모리(130)는 프로세서(120)를 통해 실행될 때 프로세서(120)가 다음과 같은 기능 및 절차들을 수행하도록 야기하는 코드가 저장된다.
메모리(130)는 인프라 센서를 이용하여 인프라 센서와 차량(200)에 설치된 센서 간의 위치 관계를 산출하도록 야기하는 코드가 저장된다. 여기서, 위치 관계는 인프라 센서와 차량 카메라 간의 카메라 위치 관계, 그리고, 인프라 센서와 차량 라이다 간의 라이다 위치 관계를 포함할 수 있다.
메모리(130)에는 이미지에서 특징점을 추출하고 유사점을 매칭하는 카메라 위치 추정 알고리즘을 이용하여 인프라 센서와 차량 카메라 간의 위치 관계를 산출하도록 야기하는 코드가 저장될 수 있다. 예컨대, 메모리(130)에는 SIFT (Scale-Invariant Feature Transform) 기법, SURF (Speeded Up Robust Features) 기법 및ORB (Oriented and Rotated BRIEF) 기법 중 적어도 하나의 기법에 기초하여 이미지의 특징점을 추출하고, 2D-2D Epipolar Geometry에 기초하여 인프라 센서와 차량 카메라 간의 위치 관계를 산출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 서로 다른 두 개의 점군을 정합시키는 스캔 매칭 알고리즘에 기초하여 인프라 센서와 차량 라이다 간의 위치 관계를 산출하도록 야기하는 코드가 저장될 수 있다. 예컨대, 메모리(130)에는 ICP(Iterative Closest Point)기반의 스캔 매칭 알고리즘에 기초하여 인프라 센서와 차량 라이다 간의 위치 관계를 산출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 인프라 센서를 이용하여 차량(200)의 자세 및 차량(200)의 기준점을 산출하도록 야기하는 코드가 저장된다. 메모리(130)에는 차량(200)의 자세 및 차량(200)의 기준점에 기초하여 차량(200)의 좌표계를 생성하도록 야기하는 코드가 저장된다.
메모리(130)에는 차량의 자세를 검출하고, 차량의 뒷바퀴 추출을 위한 관심 영역을 지정하도록 야기하는 코드가 저장될 수 있다. 예컨대, 메모리(130)에는 기설정된 딥러닝 알고리즘 및 L-shape fitting 기법 중 적어도 하나에 기초하여 차량의 요 앵글(Yaw Angle)값을 추정하는 것을 이용하여 차량의 자세를 검출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 관심 영역 내 차량의 좌측 뒷바퀴 중심점과 우측 뒷바퀴 중심점을 검출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 좌측 뒷바퀴 중심점 및 우측 뒷바퀴 중심점을 기초로 차량의 뒤축 중심점을 도출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 차량의 뒤축 중심점과 차량의 자세에 기초하여 좌표계를 산출하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 위치 관계, 차량(200)의 자세, 차량(200)의 기준점 및 좌표계를 이용하여 차량(200)에 설치된 센서에 대한 교정을 수행하도록 야기하는 코드가 저장된다. 예컨대, 메모리(130)에는 위치 관계, 차량(200)의 자세, 차량(200)의 기준점 및 좌표계를 이용하여 차량 카메라 및 차량 라이다에 대한 교정을 수행하도록 야기하는 코드가 저장될 수 있다.
메모리(130)에는 동치 좌표 변환에 기초하여 좌표계를 중심으로 차량 카메라 및 차량 라이다 각각의 위치 정보를 도출하고, 도출된 위치 정보에 기초하여 차량에 설치된 센서와 차량과의 교정을 수행하도록 야기하는 코드가 저장될 수 있다.
도 3은 도 1에 도시된 차량 센서 교정 시스템의 인프라 센서가 차량 및 차량 센서를 인식하는 예를 설명하기 위해 도시한 도면이다.
도 3을 참조하면, 인프라 센서는 외부 카메라(140) 및 외부 라이더(150)를 포함할 수 있다. 인프라 센서는 외부에 고정 설치되어 외부에 설치된 인프라 센서와 차량에 설치된 센서 각각과 시야각이 겹칠 수 있다.
예컨대, 외부 카메라(140)의 시야각과 차량 카메라(211), 제1 차량 라이다(221) 및 제2 차량 라이다(222) 각각의 사야각이 겹칠 수 있다. 또한, 외부 라이다(150)의 시야각과 차량 카메라(211), 제1 차량 라이다(221) 및 제2 차량 라이다(222) 각각의 사야각이 겹칠 수 있다.
차량 센서 교정 시스템은 인프라 센서를 이용하여 외부에 설치됨에 따라 차량의 전체를 인식하여 차량의 자세, 차량의 기준점을 산출할 수 있다. 예컨대, 차량 센서 교정 시스템은 인프라 센서를 이용하여 차량의 좌측 뒷바퀴(231) 및 차량의 우측 뒷바퀴의 중심점을 검출할 수 있다.
차량 센서 교정 시스템은 인프라 센서를 이용하여 검출된 차량의 좌측 뒷바퀴(231) 및 차량의 우측 뒷바퀴의 중심점을 기초로 차량의 뒤축 중심점을 도출할 수 있다.
차량 센서 교정 시스템은 도출된 차량의 뒤축 중심점과 차량의 자세에 기초하여 차량의 좌표계를 산출할 수 있다. 예컨대, 차량의 좌표계는 차량의 좌측 뒷바퀴(231)와 차량의 우측 뒷바퀴를 일직선으로 연결하였을 때 차량의 머리가 향하는 방향에 대한 정보를 포함할 수 있다.
도 4는 차량 센서 교정 시스템이 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 예를 설명하기 위해 도시한 도면이다.
도 4를 참조하면, 차량 센서 교정 시스템은 외부 카메라를 기준으로 차량 카메라의 위치를 도출할 수 있다. 예컨대, Visual SLAM(Simultaneous Localization and Mapping)에서 주로 사용하는 SIFT(Scale-Invariant Feature Transform), ORB(Oritented FAST and Rotated) 등을 이용할 수 있다.
위치 기준은 외부 카메라가 되며, 차량 센서 교정 시스템은 외부 카메라 이미지와 차량 카메라 이미지를 SIFT, ORE 등의 기법을 이용하여 차량 카메라의 위치를 외부 카메라 기준으로 도출할 수 있다.
차량 센서 교정 시스템은 외부 라이다(150)를 기준으로 차량 라이다(221)의 위치를 도출할 수 있다. 예컨대, 차량 센서 교정 시스템은 ICP(Iterative Closest Point)기반 정합 방법을 이용하여 외부 라이다(150) 기준으로 차량 라이다(221)의 위치를 도출할 수 있다. 여기서, 기준 라이다는 외부 라이다(150)이며 ICP 기반 알고리즘을 이용하여 차량에 장착된 라이다의 위치와 자세를 외부 라이다(150) 기준으로 도출할 수 있다.
도 4(A)를 참조하면, 차량 센서 교정 시스템은 외부 카메라(140)를 기준으로 차량 카메라(211)와의 위치 관계, 외부 라이다(150)를 기준으로 차량 라이다(221)와의 위치 관계 및 외부 카메라(140)를 기준으로 외부 라이다(150)와의 위치 관계를 산출할 수 있다. 예컨대, 기설정된 정합 방법에 기초하여 외부 카메라(140)와 차량 카메라(211) 간의 자세 관계 벡터(
Figure 112023035803299-pat00001
), 외부 라이다(150)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00002
) 및 외부 카메라(140)와 외부 라이다(150) 간의 자세 관계 벡터(
Figure 112023035803299-pat00003
)를 도출할 수 있다.
도 4(B)를 참조하면, 차량 센서 교정 시스템은 외부 카메라(140)를 기준으로 차량 라이다(221)와의 위치 관계, 외부 카메라(140)를 기준으로 외부 라이다(150)와의 위치 관계 및 외부 라이다(150)를 기준으로 차량 라이다(221)와의 위치 관계를 산출할 수 있다. 기설정된 정합 방법에 기초하여 외부 카메라(140)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00004
), 외부 카메라(140)와 외부 라이다(150) 간의 자세 관계 벡터(
Figure 112023035803299-pat00005
) 및 외부 라이다(150)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00006
)를 도출할 수 있다.
도 4(C)를 참조하면, 차량 센서 교정 시스템은 외부 카메라(140)를 기준으로 차량 라이다(221)와의 위치 관계, 차량 카메라(211)를 기준으로 외부 카메라(140)와의 위치 관계 및 외부 카메라(140)를 기준으로 외부 라이다(150)와의 위치 관계를 산출할 수 있다. 예컨대, 차량 센서 교정 시스템은 동치 변환 특성(homogeneous transformation)에 기초하여 외부 카메라(140)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00007
), 외부 라이다(150)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00008
) 및 외부 카메라(140)와 외부 라이다(150) 간의 자세 관계 벡터(
Figure 112023035803299-pat00009
)를 도출할 수 있다.
차량 센서 교정 시스템은 외부에 설치된 인프라 센서와 차량에 설치된 센서들의 위치를 동치 변환 관계를 이용하여 계산하고, 계산된 인프라 센서와 차량에 설치된 센서들의 위치 정보에 기초하여 차량에 설치된 센서와 차량과의 교정을 수행할 수 있다. 예컨대, 도 4(B)에 도시된 바와 같이, 외부 카메라(140)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00010
)는 외부 라이다(150)와 차량 라이다(221) 간의 자세 관계 벡터(
Figure 112023035803299-pat00011
)와 외부 카메라(140)와 외부 라이다(150) 간의 자세 관계 벡터(
Figure 112023035803299-pat00012
)를 곱한 것과 같을 수 있다.
도 5는 인프라 센서를 이용하여 차량의 자세를 산출하는 예를 설명하기 위해 도시한 도면이고, 도 6은 차량의 좌표계를 산출하고 좌표계를 기준으로 차량에 설치된 센서의 위치를 도출하는 예를 설명하기 위해 도시한 도면이다.
도 5 및 도 6을 참조하면, 차량 센서 교정 시스템은 적어도 하나 이상의 인프라 센서(141, 142, 143, 151, 152, 153)를 이용하여 차량의 자세를 산출할 수 있다. 예컨대, 차량 센서 교정 시스템은 기설정된 딥러닝 알고리즘 및 L-shape fitting 기법 중 적어도 하나에 기초하여 차량의 요 앵글(Yaw Angle)값을 추정하는 것을 이용하여 차량의 자세를 검출할 수 있다.
차량 센서 교정 시스템은 차량의 뒷바퀴 추출을 위한 관심 영역을 지정할 수 있다. 예컨대, 차량 센서 교정 시스템은 외부 라이다(151, 152, 153)를 이용하여 바퀴에 해당하는 영역을 관심 영역으로 지정할 수 있다.
차량 센서 교정 시스템은 차량의 뒤축 중심점을 도출하기 위하여 차량의 좌측 및 우측에 배치된 인프라 센서(141, 142, 151, 152)를 이용하여 차량의 좌측 뒷바퀴 중심점 및 차량의 우측 뒷바퀴 중심점을 검출할 수 있다.
예컨대, 차량 센서 교정 시스템은 차량의 좌측 및 우측에 배치된 인프라 센서(141, 142, 151, 152)를 이용하여 차량의 좌측 뒷바퀴(231) 및 차량의 우측 뒷바퀴(232)를 검출하고, 원 검출 방법을 이용하여 차량의 좌측 뒷바퀴 중심점 및 우측 뒷바퀴 중심점을 검출할 수 있다. 다만 이에 한정되는 것은 아니며, 차량 센서 교정 시스템은 차량의 좌측, 우측 및 후방에 배치된 인프라 센서(141, 142, 143, 151, 152, 153)를 이용하여 차량의 좌측 뒷바퀴(231) 및 차량의 위측 뒷바퀴(232)를 검출할 수 있다.
차량 센서 교정 시스템은 좌측 뒷바퀴 중심점과 우측 뒷바퀴 중심점의 중간값을 차량의 기준점으로 설정할 수 있다.
차량 센서 교정 시스템은 차량의 자세 및 차량의 기준점에 기초하여 차량의 좌표계(230)를 도출할 수 있다. 예컨대, 좌표계(230)는 차량의 기준점에서 차량의 머리가 향하는 방향에 대한 정보를 포함할 수 있다. 여기서, 차량의 기준점은 차량의 뒤축 중심점일 수 있다.
차량 센서 교정 시스템은 인프라 센서와 차량에 설치된 센서 간의 위치 관계, 차량의 자세, 차량의 기준점 및 좌표계에 기초하여 차량에 설치된 센서에 대한 교정을 수행할 수 있다. 이때, 차량 센서 교정 시스템은 동치 변환 특성을 이용하여 좌표계를 기준으로 차량 카메라 및 차량 라이다 각각의 위치 정보를 도출하고, 도출된 위치 정보에 기초하여 차량 카메라 및 차량 라이다와 차량간의 교정을 수행할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 차량 센서 교정 방법의 순서를 도시한 흐름도이다.
이하에서 설명될 차량 센서 교정 방법은 앞서 도 1 내지 도 6을 참조하여 설명한 차량 센서 교정 시스템(도 1의 100)에 의해 수행될 수 있다. 따라서, 앞서 도 1 내지 도 6을 참조하여 설명한 본 발명의 실시예에 대한 내용은 이하에서 설명될 실시예에도 동일하게 적용될 수 있으며, 이하에서 상술한 설명과 중복되는 내용은 생략하도록 한다. 이하에서 설명되는 단계들은 반드시 순서대로 수행되어야 하는 것은 아니고, 단계들의 순서는 다양하게 설정될 수 있으며, 단계들은 거의 동시에 수행될 수도 있다.
도 7을 참조하면, 차량 센서 교정 방법은 인프라 센서와 차량에 설치된 센서들 간의 위치 관계 산출 단계(S100), 차량의 자세 및 차량의 기준점에 기초하여 좌표계 산출 단계(S200) 및 차량에 설치된 센서와 차량과의 교정 수행 단계(S300)를 포함한다.
인프라 센서와 차량에 설치된 센서들 간의 위치 관계 산출 단계(S100)는 인프라 센서를 이용하여 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 단계이다. 여기서, 위치 관계는 인프라 센서와 차량 카메라 간의 카메라 위치 관계, 그리고, 인프라 센서와 차량 라이다 간의 라이다 위치 관계를 포함할 수 있다.
차량의 자세 및 차량의 기준점에 기초하여 좌표계 산출 단계(S200)는 인프라 센서를 이용하여 차량의 자세 및 차량의 기준점을 산출하고, 차량의 자세 및 차량의 기준점에 기초하여 차량의 좌표계를 생성하는 단계이다.
차량에 설치된 센서에 대한 교정 수행 단계(S300)는 인프라 센서를 이용하여 산출된 인프라 센서와 차량(200)에 설치된 센서 간의 위치 관계, 차량의 자세, 차량의 기준점 및 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 차량에 설치된 센서에 대한 교정을 수행하는 단계이다. 예컨대, 차량에 설치된 센서에 대한 교정 수행 단계(S300)는 위치 관계, 차량의 자세, 차량의 기준점 및 좌표계를 이용하여 차량과 차량 카메라 및 차량 라이다 간의 교정을 수행할 수 있다. 즉, 차량에 설치된 센서에 대한 교정 수행 단계(S300)는 차량과 차량 카메라 간의 교정 및 차량과 차량 라이다 간의 교정을 수행할 수 있다.
도 8 및 도 9는 도 7에 도시된 차량 센서 교정 방법의 일부 단계에 대한 세부 단계들을 도시한 도면이다.
도 8을 참조하면, 인프라 센서와 차량에 설치된 센서들 간의 위치 관계 산출 단계(S100)는 인프라 센서와 차량 카메라 간의 위치 관계 산출 단계(S110) 및 인프라 센서와 차량 라이다 간의 위치 관계 산출 단계(S120)를 포함할 수 있다.
인프라 센서와 차량 카메라 간의 위치 관계 산출 단계(S110)는 SIFT (Scale-Invariant Feature Transform) 기법, SURF (Speeded Up Robust Features) 기법 및ORB (Oriented and Rotated BRIEF) 기법 중 적어도 하나의 기법에 기초하여 인프라 센서와 차량 카메라 간의 위치 관계를 산출하는 단계일 수 있다.
인프라 센서와 차량 라이다 간의 위치 관계 산출 단계(S120)는 ICP(Iterative Closest Point)기반의 스캔 매칭 알고리즘에 기초하여 인프라 센서와 차량 라이다 간의 위치 관계를 산출하는 단계일 수 있다.
도 9를 참조하면, 차량의 자세 및 차량의 기준점에 기초하여 좌표계 산출 단계(S200)는 차량 자세 검출 및 차량의 뒷바퀴 추출을 위한 관심 영역 지정 단계(S210), 좌측 뒷바퀴 및 우측 뒷바퀴 중심점 추출 단계(S220), 차량의 뒤축 중심점 추출 단계(S230) 및 뒤축 중심점 및 차량의 자세에 기초하여 좌표계 산출 단계(S240)를 포함할 수 있다.
차량 자세 검출 및 차량의 뒷바퀴 추출을 위한 관심 영역 지정 단계(S210)는 차량의 자세를 검출하고, 차량의 뒷바퀴 추출을 위한 관심 영역을 지정하는 단계일 수 있다. 예컨대, 차량 자세 검출 및 차량의 뒷바퀴 추출을 위한 관심 영역 지정 단계(S210)는 외부 라이다를 이용하여 바퀴에 해당하는 영역을 관심 영역으로 지정할 수 있다.
좌측 뒷바퀴 및 우측 뒷바퀴 중심점 추출 단계(S220)는 관심 영역 내 차량의 좌측 뒷바퀴 중심점과 우측 뒷바퀴 중심점을 검출하는 단계일 수 있다. 좌측 뒷바퀴 및 우측 뒷바퀴 중심점 추출 단계(S220)는 차량의 뒤축 중심점을 도출하기 위하여 차량의 좌측 및 우측에 배치된 인프라 센서를 이용하여 차량의 좌측 뒷바퀴 중심점 및 차량의 우측 뒷바퀴 중심점을 검출할 수 있다.
차량의 뒤축 중심점 추출 단계(S230)는 좌측 뒷바퀴 중심점 및 우측 뒷바퀴 중심점을 기초로 차량의 뒤축 중심점을 도출하는 단계일 수 있다. 차량의 뒤축 중심점 추출 단계(S230)는 좌측 뒷바퀴 중심점와 우측 뒷바퀴 중심점의 중간값을 차량의 뒤축 중심점으로 설정할 수 있다.
뒤축 중심점 및 차량의 자세에 기초하여 좌표계 산출 단계(S240)는 차량의 뒤축 중심점과 차량의 자세에 기초하여 좌표계를 산출하는 단계일 수 있다. 여기서, 좌표계는 차량의 기준점에서 차량의 머리가 향하는 방향에 대한 정보를 포함할 수 있다.
본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 개시의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다. 본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.

Claims (14)

  1. 하나 이상의 인프라 센서를 포함하는 차량 센서 교정 시스템에 의해 수행되는 차량 센서 교정 방법에 있어서,
    a) 상기 인프라 센서를 이용하여, 상기 인프라 센서와 차량에 설치된 센서 간의 위치 관계를 산출하는 단계;
    b) 상기 인프라 센서를 이용하여 상기 차량의 자세 및 상기 차량의 기준점을 산출하고, 상기 차량의 자세 및 상기 차량의 기준점에 기초하여 상기 차량의 좌표계를 생성하는 단계; 및
    c) 상기 위치 관계, 상기 차량의 자세, 상기 차량의 기준점 및 상기 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하는 단계를 포함하고,
    상기 인프라 센서는 외부 카메라 및 외부 라이다를 포함하고,
    상기 위치 관계는 상기 외부 카메라와 상기 차량 카메라 간의 위치 관계, 상기 외부 라이다와 상기 차량 라이다 간의 위치 관계 및 상기 외부 라이다와 상기 차량 카메라 간의 위치 관계를 포함하는 것인, 차량 센서 교정 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 인프라 센서는, 상기 차량의 외부에 고정되어 위치하는 것인, 차량 센서 교정 방법.
  4. 제1항에 있어서,
    상기 a) 단계는,
    a-1) SIFT (Scale-Invariant Feature Transform) 기법, SURF (Speeded Up Robust Features) 기법 및ORB (Oriented and Rotated BRIEF) 기법 중 적어도 하나의 기법에 기초하여 상기 인프라 센서와 상기 차량 카메라 간의 위치 관계를 산출하는 단계; 및
    a-2) ICP(Iterative Closest Point)기반의 스캔 매칭 알고리즘에 기초하여 상기 인프라 센서와 상기 차량 라이다 간의 위치 관계를 산출하는 단계를 포함하는 것인, 차량 센서 교정 방법.
  5. 제1항에 있어서,
    상기 b) 단계는,
    b-1) 상기 차량의 자세를 검출하고, 상기 차량의 뒷바퀴 추출을 위한 관심 영역을 지정하는 단계;
    b-2) 상기 관심 영역 내 상기 차량의 좌측 뒷바퀴 중심점과 우측 뒷바퀴 중심점을 검출하는 단계;
    b-3) 상기 좌측 뒷바퀴 중심점 및 상기 우측 뒷바퀴 중심점을 기초로 상기 차량의 뒤축 중심점을 도출하는 단계; 및
    b-4) 상기 차량의 뒤축 중심점과 상기 차량의 자세에 기초하여 상기 좌표계를 산출하는 단계를 포함하는 것인, 차량 센서 교정 방법.
  6. 제5항에 있어서,
    상기 차량의 자세는 기설정된 딥러닝 알고리즘 및 L-shape fitting 기법 중 적어도 하나에 기초하여 상기 차량의 요 앵글(Yaw Angle)값을 추정하는 것을 이용하여 검출되는 것인, 차량 센서 교정 방법.
  7. 제1항에 있어서,
    상기 c) 단계는 동치 좌표 변환에 기초하여 상기 좌표계를 중심으로 상기 차량 카메라 및 상기 차량 라이다 각각의 위치 정보를 도출하고, 도출된 상기 위치 정보에 기초하여 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하는 단계를 더 포함하는 것인, 차량 센서 교정 방법.
  8. 하나 이상의 인프라 센서를 포함하는 차량 센서 교정 시스템에 있어서,
    차량과 정보 송수신을 수행하는 통신 모듈;
    적어도 하나의 프로세서; 및
    상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
    상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가, 상기 인프라 센서를 이용하여, 상기 인프라 센서와 상기 차량에 설치된 센서 간의 위치 관계를 산출하고, 상기 인프라 센서를 이용하여 상기 차량의 자세 및 상기 차량의 기준점을 산출하고, 상기 차량의 자세 및 상기 차량의 기준점에 기초하여 상기 차량의 좌표계를 생성하며, 상기 위치 관계, 상기 차량의 자세, 상기 차량의 기준점 및 상기 좌표계를 이용하여, 차량 카메라 및 차량 라이다를 포함하는 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하도록 야기하는 코드를 저장하고,
    상기 인프라 센서는 외부 카메라 및 외부 라이다를 포함하고,
    상기 위치 관계는 상기 외부 카메라와 상기 차량 카메라 간의 위치 관계, 상기 외부 라이다와 상기 차량 라이다 간의 위치 관계 및 상기 외부 라이다와 상기 차량 카메라 간의 위치 관계를 포함하는, 차량 센서 교정 시스템.
  9. 삭제
  10. 제8항에 있어서,
    상기 인프라 센서는, 상기 차량의 외부에 고정되어 위치하는 것인, 차량 센서 교정 시스템.
  11. 제8항에 있어서,
    상기 메모리는 프로세서로 하여금,
    SIFT (Scale-Invariant Feature Transform) 기법, SURF (Speeded Up Robust Features) 기법 및ORB (Oriented and Rotated BRIEF) 기법 중 적어도 하나의 기법에 기초하여 상기 인프라 센서와 상기 차량 카메라 간의 위치 관계를 산출하고, ICP(Iterative Closest Point)기반의 스캔 매칭 알고리즘에 기초하여 상기 인프라 센서와 상기 차량 라이다 간의 위치 관계를 산출하도록 야기하는 코드가 저장되는, 차량 센서 교정 시스템.
  12. 제8항에 있어서,
    상기 메모리는 프로세서로 하여금,
    상기 차량의 자세를 검출하고, 상기 차량의 뒷바퀴 추출을 위한 관심 영역을 지정하고, 상기 관심 영역 내 상기 차량의 좌측 뒷바퀴 중심점과 우측 뒷바퀴 중심점을 검출하고, 상기 좌측 뒷바퀴 중심점 및 상기 우측 뒷바퀴 중심점을 기초로 상기 차량의 뒤축 중심점을 도출하며, 상기 차량의 뒤축 중심점과 상기 차량의 자세에 기초하여 상기 좌표계를 산출하도록 야기하는 코드를 저장하는, 차량 센서 교정 시스템.
  13. 제12항에 있어서,
    상기 메모리는 상기 프로세서로 하여금,
    상기 차량의 자세는 기설정된 딥러닝 알고리즘 및 L-shape fitting 기법 중 적어도 하나에 기초하여 상기 차량의 요 앵글(Yaw Angle)값을 추정하는 것을 이용하여 검출되는 것인, 차량 센서 교정 시스템.
  14. 제8항에 있어서,
    상기 메모리는 상기 프로세서로 하여금,
    동치 좌표 변환에 기초하여 상기 좌표계를 중심으로 상기 차량 카메라 및 상기 차량 라이다 각각의 위치 정보를 도출하고, 도출된 상기 위치 정보에 기초하여 상기 차량에 설치된 센서와 상기 차량과의 교정을 수행하도록 야기하는 코드를 저장하는, 차량 센서 교정 시스템.
KR1020230041687A 2023-03-30 2023-03-30 차량 센서 교정 방법 및 시스템 KR102600754B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230041687A KR102600754B1 (ko) 2023-03-30 2023-03-30 차량 센서 교정 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230041687A KR102600754B1 (ko) 2023-03-30 2023-03-30 차량 센서 교정 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR102600754B1 true KR102600754B1 (ko) 2023-11-10

Family

ID=88742148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230041687A KR102600754B1 (ko) 2023-03-30 2023-03-30 차량 센서 교정 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102600754B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210375001A1 (en) * 2020-05-27 2021-12-02 Robert Bosch Gmbh Method and device for calibrating at least one sensor
KR20230000585A (ko) * 2021-06-25 2023-01-03 삼성전자주식회사 센서 캘리브레이션 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210375001A1 (en) * 2020-05-27 2021-12-02 Robert Bosch Gmbh Method and device for calibrating at least one sensor
KR20230000585A (ko) * 2021-06-25 2023-01-03 삼성전자주식회사 센서 캘리브레이션 방법 및 장치

Similar Documents

Publication Publication Date Title
CN110148185B (zh) 确定成像设备坐标系转换参数的方法、装置和电子设备
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
CN110119698B (zh) 用于确定对象状态的方法、装置、设备和存储介质
US10705184B2 (en) Sensor calibration system
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US11762071B2 (en) Multi-mode multi-sensor calibration
CN103065323B (zh) 一种基于单应性变换矩阵的分段空间对准方法
JP2019526101A (ja) シーンにおけるカメラの姿勢を特定するシステム及び方法
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
US11061120B2 (en) Sensor calibration
CN112805766B (zh) 用于更新详细地图的装置和方法
CN112435300A (zh) 定位方法及装置
CN108844538B (zh) 一种基于视觉/惯导的无人机避障航点生成方法
CN110766761B (zh) 用于相机标定的方法、装置、设备和存储介质
CN111736613A (zh) 智能驾驶控制方法、装置、***及存储介质
CN109712198B (zh) 一种高级驾驶辅助***的标定方法
CN112424568A (zh) 构建高清地图的***和方法
KR102600754B1 (ko) 차량 센서 교정 방법 및 시스템
US10249056B2 (en) Vehicle position estimation system
US20240167823A1 (en) Autonomous traveling vehicle, and own-position estimating method for autonomous traveling vehicle
US20230186518A1 (en) Sensor calibration with relative object positions within a scene
CN115345978A (zh) 用于车辆中一般障碍检测的基于传感器融合的俯视三维纹理表示
WO2018119607A1 (en) Method and apparatus for uncertainty modeling of point cloud
CN111141252B (zh) 一种单目标定测距的方法及***
CN113643359A (zh) 一种目标对象定位方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant