KR20180038154A - Method for vehicle pose estimation using LiDAR - Google Patents

Method for vehicle pose estimation using LiDAR Download PDF

Info

Publication number
KR20180038154A
KR20180038154A KR1020160128861A KR20160128861A KR20180038154A KR 20180038154 A KR20180038154 A KR 20180038154A KR 1020160128861 A KR1020160128861 A KR 1020160128861A KR 20160128861 A KR20160128861 A KR 20160128861A KR 20180038154 A KR20180038154 A KR 20180038154A
Authority
KR
South Korea
Prior art keywords
vehicle
transformation matrix
occupancy
calculating
road
Prior art date
Application number
KR1020160128861A
Other languages
Korean (ko)
Other versions
KR101909953B1 (en
Inventor
박태형
조준형
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020160128861A priority Critical patent/KR101909953B1/en
Priority to PCT/KR2016/013670 priority patent/WO2018066754A1/en
Publication of KR20180038154A publication Critical patent/KR20180038154A/en
Application granted granted Critical
Publication of KR101909953B1 publication Critical patent/KR101909953B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/023
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The present invention relates to a method for estimating a pose of a vehicle in which an inertial measurement unit is embedded and a light detection and ranging (LiDAR) sensor is mounted on a rear side thereof, which includes the steps of: acquiring measurement point data to measure a distance by using the LiDAR sensor; finding a road line by projecting the measurement point data on 2D orthogonal coordinates; calculating the pose change amount (α′,β′) of the vehicle from the road line; and calculating the pose (α,β) of the vehicle by combining the pose change amount (α′,β′) with the measurement value of the inertial measurement unit. According to the present invention, the pose of the vehicle can be quickly estimated by using a conventional LiDAR sensor previously attached on the vehicle without adding an expensive inertial measurement unit or GPS equipment.

Description

라이다 센서를 이용한 차량의 자세 추정 방법 {Method for vehicle pose estimation using LiDAR}[0001] The present invention relates to a method for estimating a vehicle's posture using a lidar sensor,

본 발명은 차량의 현재 자세를 추정하는 방법에 관한 것으로서, 더욱 상세하게는 후방 하향 주시 2D 라이다(LiDAR, Light Detection And Ranging) 센서를 이용하여 차량의 현재 자세를 추정하는 방법에 관한 것이다.The present invention relates to a method of estimating a current posture of a vehicle, and more particularly, to a method of estimating a current posture of a vehicle using a LiDAR (Light Detection And Ranging) sensor.

고속으로 달리는 자율 주행 차량의 제어를 위해서는 차량의 자세를 추정하는 것이 필수적이다. In order to control the autonomous vehicle running at high speed, it is essential to estimate the attitude of the vehicle.

도 1은 차량의 자세를 정의하기 위한 도면이다. 1 is a view for defining a posture of a vehicle.

도 1을 참조하면, 차량에 3차원 좌표계가 고정되어 있는데 각 축을 기준으로 하는 회전을 x축 회전은 α, y축 회전은 β, z축 회전은 γ라고 할 때, α와 β는 자세(pose)로 정의하고, γ는 차량의 진행 방향(Heading)이라고 정의한다.Referring to FIG. 1, a three-dimensional coordinate system is fixed on a vehicle. When a rotation about each axis is represented by an x-axis rotation, a rotation about a y-axis, and a rotation about a z- ), And? Is defined as the heading of the vehicle.

차량의 자세를 추정하기 위해 일반적으로 사용하는 장치로 3축 각속도, 즉 α, β, γ의 변화량과 3축 가속도가 측정되는 IMU(Inertial Measurement Unit, 이하 '관성측정장치'라 함)가 있다. 이때, α, β, γ 값이 바로 측정되지 않고 변화량이 측정되기 때문에 누적하여 측정하여야 한다. 그러나, 잡음 성분도 같이 누적되기 때문에 다른 측정치와 혼합하는 알고리즘이 필수적이다. An inertial measurement unit (IMU) is a device commonly used for estimating the attitude of a vehicle. The measurement unit is a three-axis angular velocity, that is, an amount of change of?,?, And? At this time, the α, β, and γ values are not measured immediately, but the change amount is measured. However, since noise components are also accumulated, an algorithm that mixes with other measurements is essential.

별도의 센서 추가 없이 관성측정장치의 3축 가속도 값을 혼합하여 추정하는 경우, 정밀도가 낮고 필터에 의한 지연속도도 문제가 된다. 고가형 제품을 사용하면 어느 정도 완화할 수 있으나, 관성측정장치는 정밀도가 높을수록 급격히 비싸지기 때문에, 일반적으로 차량의 자세 추정 시스템은 관성측정장치에 다른 센서를 추가 장착하여 구성한다. If the three-axis acceleration values of the inertial measurement device are mixed and estimated without adding additional sensors, the accuracy is low and the delay time due to the filter becomes a problem. However, since the inertia measuring device becomes more expensive as the accuracy becomes higher, the attitude estimation system of the vehicle is generally constructed by attaching another sensor to the inertia measuring device.

GPS(Global Positioning System)를 추가하여 구성하는 경우, 차량의 위치 정보를 관성측정장치의 측정치와 융합하는 방법을 사용한다. 융합하면 적당한 위치 정밀도를 얻지만 정작 필요한 차량의 자세는 일반적인 GPS를 사용할 때, 동작 주기가 1Hz로 매우 느리기 때문에 신뢰도가 떨어진다. 고가의 수신기를 사용하면 위치 정보는 비교적 정확하지만 여전히 고속으로 주행하는 차량의 자세를 즉시 추정하기 어렵다는 문제점이 있다. When a GPS (Global Positioning System) is additionally provided, a method of fusing the position information of the vehicle with the measured value of the inertia measuring device is used. Fusion can get proper position accuracy, but the required posture of the vehicle is very slow because the operation cycle is very slow at 1Hz when using general GPS. When the expensive receiver is used, the position information is relatively accurate, but there is still a problem that it is difficult to estimate the posture of the vehicle traveling at high speed immediately.

지자기 센서를 추가하여 구성하는 경우, γ의 변화량이 아닌 γ값을 직접 측정할 수 있어 차량의 자세와 방향을 모두 추정할 수 있다. 그러나 정밀도는 크게 높아지지 않으며 필터에 의한 지연속도는 여전히 줄어들지 않는다는 문제점이 있다.When the geomagnetic sensor is added, it is possible to directly measure the γ value, not the change amount of γ, so that both the attitude and the direction of the vehicle can be estimated. However, there is a problem in that the accuracy is not greatly increased and the delay rate due to the filter is still not reduced.

대한민국 공개특허 10-2016-0057756Korean Patent Publication No. 10-2016-0057756

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 자율 주행 차량의 후방에 장착되어 있는 2D 라이다(LiDAR, Light Detection And Ranging) 센서를 이용하여 차량의 자세를 추정하는 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention is conceived to solve the above problems and provides a method of estimating the attitude of a vehicle using a LiDAR (Light Detection and Ranging) sensor mounted on the rear of an autonomous vehicle, There is a purpose.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명의 관성측정장치(Inertial Measurement Unit)가 내장되어 있고, 라이다(LiDAR, Light Detection And Ranging) 센서가 후방에 장착된 차량의 자세 추정 방법에서, 상기 라이다 센서를 이용하여 거리를 측정한 측정점 데이터를 획득하는 단계, 상기 측정점 데이터를 2차원 직교 좌표 상에 투영하여 도로선을 찾는 단계, 상기 도로선으로부터 차량의 자세 변화량(α', β')을 계산하는 단계 및 상기 자세 변화량(α', β')을 상기 관성측정장치의 측정치와 융합하여 차량의 자세(α, β)를 계산하는 단계를 포함한다. In order to achieve the above object, there is provided a vehicle attitude estimation method in which an inertial measurement unit of the present invention is incorporated and a LiDAR (Light Detection And Ranging) sensor is mounted on the rear side, Obtaining a measurement point data on the basis of the distance measurement, projecting the measurement point data on a two-dimensional Cartesian coordinate to find a road line, and calculating a posture change amount (α ', β' And calculating a posture (?,?) Of the vehicle by fusing the posture change amount (? ',?') With the measured value of the inertial measurement device.

상기 도로선을 찾는 단계는, 극 좌표계로 표현된 상기 측정점 데이터의 집합인 점 집합 P를 직교 좌표계로 변환하는 단계, 크기가 고정된 각 격자마다 점유율을 갖고 있는 지도인 점유격자 지도를 가우시안 분포를 따르는 직선의 형태로 작성하는 단계, 상기 점 집합 P를 상기 점유격자 지도에 매칭하여 변환행렬을 구하는 단계, 상기 변환행렬을 계속 업데이트하여 최적화하는 단계 및 상기 최적화된 변환행렬로부터 도로선의 기울기와 절편을 도출하는 단계를 포함하여 이루어질 수 있다. The step of finding the road line includes a step of converting a set of points P, which is a set of the measurement point data expressed in a polar coordinate system, into an orthogonal coordinate system, a step of obtaining a Gaussian distribution of the occupancy grid map, which is a map having a share of each grid, Matching the point set P to the occupation grid map to obtain a transformation matrix, continuously updating and optimizing the transformation matrix, and calculating the slope and intercept of the road line from the optimized transformation matrix And a step of deriving the information.

상기 변환행렬로부터 차량의 자세 변화량(α', β')을 계산할 수 있다. The posture change amounts? 'And?' Of the vehicle can be calculated from the transformation matrix.

상기 변환행렬을 최적화하는 단계는, 선형 보간된 점유율과 점유율 기울기 값을 계산하는 단계, 상기 선형 보간된 점유율과 기울기 값을 통해 변환행렬을 업데이트하는 단계, 업데이트된 변환행렬의 에러가 미리 정해진 제1 임계치 이상이고, 업데이트 반복 횟수가 미리 정해진 제2 임계치 이하이면, 다시 선형 보간된 점유율과 점유율 기울기 값을 계산하여 변환행렬을 업데이트하는 단계 및 업데이트된 변환행렬의 에러가 상기 제1 임계치 미만이거나, 또는 업데이트 반복 횟수가 미리 정해진 제2 임계치 이상이면, 최적화 과정을 종료하는 단계로 이루어질 수 있다.Wherein the step of optimizing the transformation matrix comprises the steps of: calculating a linear interpolated occupancy rate and a slope of the occupancy rate; updating the transformation matrix through the linearly interpolated occupancy and slope values; Updating the transform matrix by calculating a linearly interpolated occupancy and a slope value of the linear interpolation again if the number of update iterations is equal to or greater than a threshold and the number of update iterations is less than or equal to a predetermined second threshold, And ending the optimization process if the number of update iterations is equal to or greater than a predetermined second threshold value.

본 발명에 의하면, 고가의 관성측정장치 또는 GPS 장비를 추가하지 않고, 기존의 차량에 기 부착되어 있는 라이다 센서를 이용하여, 차량의 자세를 빠르게 추정할 수 있는 효과가 있다. According to the present invention, there is an effect that the posture of the vehicle can be quickly estimated by using a lidar sensor attached to the existing vehicle without adding an expensive inertial measurement device or GPS equipment.

또한, 본 발명은 기존에 차량에 장착되어 있는 라이다 센서를 이용하므로, 추가 비용 없이 차량 자세 추정 기능을 구현할 수 있는 효과가 있다.In addition, since the present invention uses a Lidar sensor mounted on a vehicle, the vehicle posture estimation function can be implemented without additional cost.

도 1은 차량의 자세를 정의하기 위한 도면이다.
도 2는 2D 라이다 센서의 측정범위와 측정값의 예를 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 따른 라이다 센서를 이용한 차량의 자세 추정 방법을 도시한 전체 흐름도이다.
도 4는 도로를 바라본 라이다 센서의 측정값들을 직교 좌표계에 표현한 도면이다.
도 5는 기존의 점 집합에 변환을 적용한 예시도이다.
도 6은 도로 기준선과 주행 중 추출한 도로선을 예시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 최적화에 사용된 점유격자 지도를 예시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 변환행렬 최적화 방법을 보여주는 흐름도이다.
1 is a view for defining a posture of a vehicle.
FIG. 2 is a view showing an example of a measurement range and a measurement value of a 2D RidA sensor; FIG.
3 is an overall flowchart illustrating a method of estimating a vehicle's position using a lidar sensor according to an embodiment of the present invention.
FIG. 4 is a diagram showing measured values of a Lada sensor viewed from a road in an orthogonal coordinate system. FIG.
FIG. 5 is an example of applying a transformation to an existing set of points.
Fig. 6 is a diagram illustrating road reference lines and road lines extracted during traveling. Fig.
FIG. 7 is a diagram illustrating an occupation grid map used for optimization according to an embodiment of the present invention.
8 is a flowchart illustrating a transform matrix optimization method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted in an ideal or overly formal sense unless expressly defined in the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

본 발명은 라이다(LiDAR, Light Detection And Ranging) 센서를 이용하여 차량의 자세를 추정하는 방법에 대한 것이다. The present invention relates to a method of estimating a posture of a vehicle using a LiDAR (Light Detection And Ranging) sensor.

본 발명에서 라이다 센서를 이용한 차량의 자세 추정 방법의 수행 주체는 차량에 내장된 전자 시스템이 될 수 있다. 가령, 차량에 내장된 전자 제어 시스템 모듈의 제어부(프로세서)나, 자율 주행 차량에 장착된 전자 제어 시스템 등이 수행 주체가 될 수 있다.In the present invention, the execution of the vehicle attitude estimation method using the Lidar sensor may be an electronic system built in the vehicle. For example, a control unit (processor) of an electronic control system module built in a vehicle, an electronic control system mounted on an autonomous vehicle, and the like may be the performing entity.

라이다 센서는 빛을 쏘아 거리를 직접 측정하는 센서로서, 정확한 거리를 빠른 속도로 얻을 수 있기 때문에 위치 인식, 장애물 감지, 이동 물체 추적을 위해 자율 주행 차량에 많이 사용된다. 2D 라이다 센서는 각도를 달리하여 빛을 쏘아 한 번의 스캔에 여러 개의 거리 데이터를 얻을 수 있다.Raidasensor is a sensor that measures the distance directly by emitting light. It can be used for self-propelled vehicles for position recognition, obstacle detection, and moving object tracking because it can obtain accurate distance at high speed. The 2D lidar sensor can shoot multiple light beams at different angles to obtain multiple distance data in one scan.

도 2는 2D 라이다 센서의 측정범위와 측정값의 예를 보여주는 도면이다.FIG. 2 is a view showing an example of a measurement range and a measurement value of a 2D RidA sensor; FIG.

도 2를 참조하면, 좌측 도면에서 호 모양 영역으로 표시된 측정 범위 안에 놓여있는 차량에 반사되어 측정된 값이, 우측 도면에서는 2차원 좌표상의 점들로 나타난다. 이처럼 2D 라이다 센서는 측정점으로 불리는 거리, 위상 데이터들이 하나의 평면상에 나타나는 특징이 있다. Referring to FIG. 2, the measured values reflected on the vehicle lying within the measurement range indicated by the arc-shaped area in the left figure are represented by the points on the two-dimensional coordinate in the right figure. In this way, the 2D Lidar sensor is characterized by the distance and phase data called measurement points appearing on one plane.

일반적으로 자율 주행 차량은 주차 혹은 후방 장애물 감지를 위해 후방에 2D 라이다 센서를 장착하는 경우가 있기 때문에, 이를 차량의 자세 추정에 이용할 경우 추가 비용이 발생하지 않는다.In general, the autonomous vehicle may be equipped with a 2D Lidar sensor in the rear for parking or rear obstacle detection.

도 3은 본 발명의 일 실시예에 따른 라이다 센서를 이용한 차량의 자세 추정 방법을 도시한 전체 흐름도이다. 3 is an overall flowchart illustrating a method of estimating a vehicle's position using a lidar sensor according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 차량의 자세 추정 방법은 다음과 같다. Referring to FIG. 3, a method of estimating a posture of a vehicle according to an embodiment of the present invention is as follows.

먼저, 라이다 센서로부터 거리를 측정한 측정점 데이터를 얻는다(S310).First, measurement point data obtained by measuring the distance from the Lidar sensor is obtained (S310).

다음, 측정점 데이터를 2차원 직교 좌표 상에 나타내고, 2차원 직교 좌표 상에서 도로선을 찾는다(S320).Next, the measurement point data is displayed on the two-dimensional Cartesian coordinates, and a road line is found on the two-dimensional Cartesian coordinates (S320).

그리고, 도로선으로부터 α, β의 자세 변화량(α', β')을 계산한다(S330). Then, the attitude change amounts? 'And?' Of? And? From the road line are calculated (S330).

그리고, 관성측정장치의 측정치와 융합하여 최종적인 자세 값인 α, β를 계산한다(S340). Then, the final attitude values? And? Are calculated by fusing the measured values of the inertia measurement device (S340).

본 발명에서는 라이다 센서의 측정 주기마다 S310~S340 의 모든 단계가 한 번씩 실행된다. 이하에서는 각 단계별로 상세히 설명한다. In the present invention, all the steps of S310 to S340 are performed once for each measurement period of the Lidar sensor. Hereinafter, each step will be described in detail.

S310 단계에서는 2D 라이다 센서에서 측정된 가공되지 않은 데이터인, 거리와 위상으로 구성된 점 집합을 얻는다. 이 점들을 각각 측정점이라고 한다.In step S310, a point set composed of the distance and the phase, which is the raw data measured by the 2D Lidar sensor, is obtained. These points are called measurement points.

도 4는 도로를 바라본 라이다 센서의 측정값들을 직교 좌표계에 표현한 도면이다. FIG. 4 is a diagram showing measured values of a Lada sensor viewed from a road in an orthogonal coordinate system. FIG.

도 4에서 각 점들은 다음 수학식과 같이 나타낼 수 있다. In FIG. 4, each point can be expressed by the following equation.

Figure pat00001
Figure pat00001

여기서, r은 거리를 나타내고, θ는 각도를 나타내며, n개의 측정점을 얻을 수 있다. 측정치의 개수 n은 라이다의 성능에 의존한다. 본 발명에서 연산의 복잡도를 줄이고 정확도를 높이기 위해, 지나치게 크거나 작은 거리값을 가진 측정점은 미리 점 집합에서 제외시킨다.Here, r represents the distance, θ represents the angle, and n measurement points can be obtained. The number of measurements n depends on the performance of the RDA. In the present invention, in order to reduce computational complexity and increase accuracy, a measurement point having an excessively large or small distance value is excluded from the point set in advance.

S320 단계는 측정점 데이터를 직교 좌표계로 투영하여 도로선을 찾는 과정이다. 여기서 도로선은 측정점들 중에서 라이다 센서에서 쏜 빛이 도로에 반사된 측정치, 즉 도로와의 거리, 위상을 나타내는 측정점으로 이루어진 직선이다.Step S320 is a process of finding the road line by projecting the measurement point data to the orthogonal coordinate system. Here, the road line is a straight line consisting of a measurement point reflecting the light reflected from the road, that is, the distance from the road, and the phase.

도 4에서, 도로를 바라본 라이다 센서가 얻은 측정점들이 예시되어 있다. 도 4에서, 도로를 나타내는 측정점들은 직선으로 근사시킬 수 있다. In Fig. 4, the measurement points obtained by the Lada sensor viewed from the road are illustrated. In Fig. 4, measurement points representing roads can be approximated by a straight line.

이러한 도로선을 찾기 위해서 빠르고 정확한 직선 추출 방법이 필요하다. 기존의 직선 추출 방법 중 빠르고 정확한 방법들이 여러 가지 있으나 실시간으로 변화하는 도로 환경에서 적용할 때 강인함이 떨어진다는 문제점을 가지고 있다. 이를 해결하기 위해서, 본 발명에서는 미리 정의한 도로 기준선에 매 측정 마다 매칭하여 도로선을 찾는 방법을 제안한다.To find these road lines, a fast and accurate linear extraction method is needed. Although there are many fast and accurate methods among the existing straight line extraction methods, there is a problem that the robustness is degraded when applied in a road environment changing in real time. In order to solve this problem, the present invention proposes a method of finding a road line by matching every predetermined measurement on a predetermined road reference line.

먼저 극 좌표계에서 직교 좌표계로 변환하면 다음과 같다.First, the conversion from polar to orthogonal coordinate system is as follows.

Figure pat00002
Figure pat00002

본 발명에서는 도로에 반사되어 측정된 데이터만을 필요로 하므로, 라이다 센서의 시야각이 넓은 경우 임의로 범위를 축소시킨다. 그리고 점집합 P 에 2차원 변환행렬을 곱한다. In the present invention, since only the measured data reflected on the road is required, the range is arbitrarily reduced when the viewing angle of the LIDAR sensor is wide. Then, the point set P is multiplied by a two-dimensional transformation matrix.

도 5는 기존의 점 집합에 변환을 적용한 예시도이다. 여기서 변환행렬은 다음과 같다. FIG. 5 is an example of applying a transformation to an existing set of points. Here, the transformation matrix is as follows.

Figure pat00003
Figure pat00003

여기서, tx는 x축 이동을 나타내고, ty는 y축 이동을 나타내고, φ는 회전 이동 각도를 의미한다. 이 변환행렬을 찾으면 도로선을 단순한 계산으로 용이하게 찾아낼 수 있다. Here, t x represents x-axis movement, t y represents y-axis movement, and? Represents rotation movement angle. If you find this transformation matrix, you can easily find road lines with simple calculations.

변환행렬을 찾으려면 비교할 기준인 도로 기준선이 필요하다. 도로 기준선은 평지에서 획득한 라이다 측정치 중 도로인 부분을 의미한다.To find the transformation matrix, you need a road reference line to compare. The road baseline refers to the portion of the roadway measurement obtained from the plain.

도 6은 도로 기준선과 주행 중 추출한 도로선을 예시한 도면이다. Fig. 6 is a diagram illustrating road reference lines and road lines extracted during traveling. Fig.

도 6에서 점선이 도로 기준선이며, 이는 라이다 센서의 장착 높이와 하향 각도에 따라 달라진다.In Fig. 6, the dotted line is the road reference line, which depends on the mounting height of the Lidar sensor and the downward angle.

변환행렬을 찾는 방법은 많지만 도로를 주행하는 상황과 같이 변칙적인 상황에서 사용할 수 있는 방법은 제한되어 있다. 왜냐하면, 점 집합의 개수가 매번 같다는 보장이 없고, 단순한 행렬연산으로 변환행렬을 갱신할 수 없기 때문이다. 따라서, 주로 직선과 같은 특징을 뽑아 매칭하거나, 보완된 점 대 점 매칭 방법 등을 사용해왔으나, 전자는 수행 속도가 빠르지만 차량이 회전할 때 강인함이 매우 떨어지는 문제가 있고, 후자는 정확도가 높지만 실시간으로 동작하기 어렵다는 문제가 있다. 그러므로, 본 발명에서는 점유격자 지도 내에서 함수 최적화를 하는 방법을 사용하기로 한다. There are many ways to find the transformation matrix, but there are a limited number of methods that can be used in anomalous situations, such as running on the road. This is because there is no guarantee that the number of point sets is the same every time, and that the transformation matrix can not be updated with a simple matrix operation. Therefore, we mainly use straight-line matching, or supplemented point-to-point matching methods. However, the former has a problem that the speed is high but the robustness is very low when the vehicle rotates. There is a problem that it is difficult to operate. Therefore, in the present invention, a method of function optimization within the occupation grid map will be used.

이를 간략히 설명하면, 변환행렬을 찾기 위해, 점 집합 P 를 미리 정의한 점유격자 지도에 매칭하여 오차가 가장 작은 변환행렬을 찾아가는 방법이다. 여기서, 점유격자 지도는 지도를 표현하는 방법 중 하나로서, 크기가 고정된 각 격자마다 점유율을 가지고 있는 지도이다. 본 발명에서는 미리 도로 기준선을 그린 점유격자 지도를 사용한다.Briefly, in order to find a transformation matrix, the point matrix P is matched to a predefined occupation grid map to find a transformation matrix with the smallest error. Here, the occupied grid map is one of the methods of representing the map, and it is a map having the occupancy rate for each grid having fixed size. In the present invention, the occupied grid map drawn in advance of the road reference line is used.

도 7은 본 발명의 일 실시예에 따른 최적화에 사용된 점유격자 지도를 예시한 도면이다. FIG. 7 is a diagram illustrating an occupation grid map used for optimization according to an embodiment of the present invention.

도 7을 참조하면, 점유격자 지도는 가우시안 분포를 따르는 직선의 형태로 작성하며, y축 기울기가 0 이 되어 수치적으로 발산하는 것을 방지하기 위해 한 줄씩 비운다. 여기서, 도로 기준선과 지도의 원점 간 거리는 라이다 센서의 높이와 하향 각도를 통해 다음과 같이 계산된다.Referring to FIG. 7, the occupation grid map is drawn in the form of a straight line that follows the Gaussian distribution, and the y-axis slope becomes zero, so that one line is emptied in order to prevent numerical divergence. Here, the distance between the road reference line and the origin of the map is calculated as follows through the height and the downward angle of the Lada sensor.

Figure pat00004
Figure pat00004

여기서, ρ는 점유격자 지도의 원점에서 도로 기준선까지의 거리이고, h는 라이다 센서의 높이이고, ω는 센서의 하향 각도이다. Here, ρ is the distance from the origin of the occupied grid map to the road reference line, h is the height of the Raid sensor, and ω is the downward angle of the sensor.

본 발명에서 점유격자 지도의 각 셀 당 크기, 즉 해상도는 라이다 센서의 성능에 의존한다. 즉, 시야각 대비 점의 개수가 많을수록 점유격자 지도의 해상도를 높일 수 있다. 본 발명에서 점유격자 지도의 해상도가 높아야 변환행렬의 정밀도가 높아진다.In the present invention, the size, i.e., resolution, of each cell of the occupancy grid map depends on the performance of the Raidasensor. That is, the resolution of the occupied grid map can be increased as the number of points relative to the viewing angle increases. In the present invention, the resolution of the occupation grid map must be high to increase the precision of the transformation matrix.

본 발명에서 최적화된 변환행렬로부터 도로선의 기울기와 절편을 도출하는 방식으로 도로선을 찾을 수 있다.The road line can be found by deriving the slope and intercept of the road line from the optimized conversion matrix in the present invention.

그리고, 변환행렬로부터 차량의 자세 변화량(α', β')을 계산할 수 있다. Then, it is possible to calculate the posture change amount (? ',?') Of the vehicle from the transformation matrix.

이제 본 발명에서의 매칭 과정을 상세히 설명하면 다음과 같다. The matching process in the present invention will now be described in detail.

본 발명에서는 최적의 변환 T*를 찾기 위하여 비선형 함수 최적화 기법 중 하나인 Levenberg-Marquardt 알고리즘을 적용한다. 이 알고리즘은 초기치가 일정 범위 내에 있으면, 전역 해를 찾을 확률이 높고 수렴속도가 빠르다는 장점이 있다. In the present invention, the Levenberg-Marquardt algorithm, which is one of the nonlinear function optimization techniques, is applied in order to find the optimal transformation T * . This algorithm is advantageous in that if the initial value is within a certain range, the probability of finding the global solution is high and the convergence speed is high.

도 8은 본 발명의 일 실시예에 따른 변환행렬 최적화 방법을 보여주는 흐름도이다. 8 is a flowchart illustrating a transform matrix optimization method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 변환행렬을 최적화하는 단계는, 먼저 선형 보간된 점유율과 점유율 기울기 값을 계산한다(S810). Referring to FIG. 8, in the step of optimizing the transformation matrix according to an embodiment of the present invention, linearly interpolated occupancy rate and occupancy slope values are calculated (S810).

그리고, 선형 보간된 점유율과 기울기 값을 통해 변환행렬을 업데이트한다(S820). Then, the transformation matrix is updated through the linearly interpolated occupancy rate and slope value (S820).

여기서, 업데이트된 변환행렬의 에러가 미리 정해진 제1 임계치 이상이고(S830), 업데이트 반복 횟수가 미리 정해진 제2 임계치 이하이면(S840), 다시 선형 보간된 점유율과 점유율 기울기 값을 계산하여 변환행렬을 업데이트한다(S810, S820). If the error of the updated transformation matrix is equal to or greater than a predetermined first threshold (S830), and the number of update iterations is less than a predetermined second threshold (S840), the linearly interpolated occupancy rate and occupancy slope value are calculated again, (S810, S820).

그리고, 업데이트된 변환행렬의 에러가 상기 제1 임계치 미만이거나(S830), 또는 업데이트 반복 횟수가 미리 정해진 제2 임계치 이상이면(S840), 최적화 과정을 종료한다.If the error of the updated conversion matrix is less than the first threshold (S830), or if the number of update iterations is not less than a predetermined second threshold (S840), the optimization process is terminated.

이러한 최적화 과정을 보다 상세히 설명하면 다음과 같다. This optimization process will be described in more detail as follows.

먼저 다음 수학식으로 충분히 수렴할 때까지 변환행렬 T*를 업데이트한다.First, the transformation matrix T * is updated until sufficiently converged by the following equation.

Figure pat00005
Figure pat00005

여기서, pk+ 1는 최적화하고자 하는 변환행렬 T*의 변수 tx, ty, φ이고, pk는 이전 변환행렬 T이다. 그리고, r(pk)는 현재 변환행렬을 적용하였을 때의 오차이고, Jr은 오차 함수의 1차 미분 행렬이고, Hr은 오차 함수의 2차 미분 행렬이다. Where p k + 1 is the variable t x , t y , φ of the transformation matrix T * to be optimized, and p k is the previous transformation matrix T. And, r (p k ) is the error when applying the current transformation matrix, J r is the first-order differential matrix of the error function, and H r is the second-order differential matrix of the error function.

Hr은 다음 수학식과 같이 Jr로 구할 수 있다.H r can be obtained by Jr as shown in the following equation.

Figure pat00006
Figure pat00006

다음, 이전의 변환행렬 T를 대입하여, 다음 수학식과 같이 선형 보간된 점유율과 점유율 기울기 값을 구한다. Subsequently, the previous transformation matrix T is substituted, and the linearly interpolated occupancy rate and the occupancy slope value are obtained as shown in the following equation.

Figure pat00007
Figure pat00007

여기서, v는 점유율이고,

Figure pat00008
는 x방향의 기울기이고,
Figure pat00009
는 y방향의 기울기를 의미한다. Where v is the occupancy rate,
Figure pat00008
Is the slope in the x direction,
Figure pat00009
Means the slope in the y direction.

그리고, 해당 점에서의 점유율, 1차 미분을 이용하여 Jr 행렬을 계산하고, 변환행렬을 갱신한다. Jr은 다음 수학식과 같이 계산된다. Then, the Jr matrix is calculated by using the occupation rate and the first-order differential at the point, and the transformation matrix is updated. J r is calculated according to the following equation.

Figure pat00010
Figure pat00010

여기서, x, y는 점 집합 내 각 점의 좌표이고, φ는 도로선의 회전 각도이다. Where x and y are the coordinates of each point in the point set, and phi is the rotation angle of the road line.

그리고, 계산된 Jr로 Hr를 구하고, 갱신된 변환행렬 T*를 계산한다. Then, H r is calculated by the calculated J r , and the updated transformation matrix T * is calculated.

본 발명에서 오차가 줄어들면 완충계수 μk를 줄이고, 그렇지 않으면 μk를 증가시켜 다음 반복에서 사용한다. 그리고, 오차가 임계보다 작거나 설정된 반복 횟수에 도달하면, 최적화 과정을 종료하고 갱신된 변환행렬 T*를 저장한다.If the error is reduced in the present invention, the buffering coefficient μ k is reduced, otherwise μ k is increased and used in the next iteration. Then, when the error reaches the preset number of times smaller than the threshold or the number of iterations, the optimization process is terminated and the updated transformation matrix T * is stored.

S330 단계는 변환행렬로부터 차량의 α와 β 변화량을 구하는 단계이다. Step S330 is a step of obtaining a change amount of? And? Of the vehicle from the transformation matrix.

도 6을 참조하면, 청색 실선으로 표시된 변환행렬로부터 얻은 직선에 3차원 x, y축 회전변환을 적용하면, 녹색 점선으로 표시된 평지일 때의 직선을 얻을 수 있다. 그리고, 다음 수학식으로 차량의 α와 β 를 계산한다.Referring to FIG. 6, when a three-dimensional x, y-axis rotation transformation is applied to a straight line obtained from a conversion matrix indicated by a blue solid line, a straight line can be obtained when the flat plane is represented by a green dotted line. Then, α and β of the vehicle are calculated by the following equations.

Figure pat00011
Figure pat00011

여기서, p는 평지일 때 라이다 센서의 부착 위치와 하향 각도를 고려한 도로 기준선 위의 점이고, p'은 계산한 직선 위의 점이고, Rx는 x축 4×4 회전행렬이고, Ry는 y축 4×4 회전행렬이다. 이 계산은 α와 β에 관한 2차 연립 방정식으로 쉽게 풀리며, 평지의 도로 기준선과 비교하였으므로, 실제로 변화량을 구한 것이라고 할 수 있다.Where p is a point on the road reference line that takes into account the attachment position and downward angle of the sensor, p 'is the calculated point on the straight line, R x is the x-axis 4 x 4 rotation matrix, and R y is y Axis 4 × 4 rotation matrix. This calculation can be easily solved by the second-order simultaneous equations for α and β, and compared with the road baseline of the flat road, it can be said that the actual amount of change is obtained.

마지막 S340 단계는 S330 단계까지 수행하여 획득한 α, β 변화량과 차량 내부의 관성측정센서에서 추정한 α, β와 혼합하여 보상하는 단계이다. 여기서 차량의 속도, 라이다 센서의 측정 주기, 라이다 센서로 획득한 자세 변화량으로 차량의 자세를 추정한다. 그리고 칼만 필터를 사용하여 관성측정센서에서 추정한 자세와 융합한다.The last step S340 is a step of compensating by mixing the amounts of the a and b obtained by performing the steps up to the step S330 and the estimated a and b estimated by the inertia measurement sensor in the vehicle. Here, the vehicle's attitude is estimated by the speed of the vehicle, the measurement period of the Raidasensor, and the attitude variation obtained by the Raidasensor. And the Kalman filter is used to fuse with the posture estimated by the inertial sensor.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit of the invention and the scope of the appended claims.

Claims (4)

관성측정장치(Inertial Measurement Unit)가 내장되어 있고, 라이다(LiDAR, Light Detection And Ranging) 센서가 후방에 장착된 차량의 자세 추정 방법에서,
상기 라이다 센서를 이용하여 거리를 측정한 측정점 데이터를 획득하는 단계;
상기 측정점 데이터를 2차원 직교 좌표 상에 투영하여 도로선을 찾는 단계;
상기 도로선으로부터 차량의 자세 변화량(α', β')을 계산하는 단계; 및
상기 자세 변화량(α', β')을 상기 관성측정장치의 측정치와 융합하여 차량의 자세(α, β)를 계산하는 단계를 포함하는 차량의 자세 추정 방법.
In an attitude estimation method of a vehicle in which an inertial measurement unit is built in and a LiDAR (Light Detection And Ranging) sensor is mounted on the rear side,
Acquiring measurement point data obtained by measuring the distance using the Lidar sensor;
Projecting the measurement point data onto a two-dimensional Cartesian coordinate to find a road line;
Calculating a posture change amount (? ',?') Of the vehicle from the road line; And
Calculating a posture (α, β) of the vehicle by fusing the posture change amounts (α ', β') with measured values of the inertia measuring device.
청구항 1에 있어서,
상기 도로선을 찾는 단계는,
극 좌표계로 표현된 상기 측정점 데이터의 집합인 점 집합 P를 직교 좌표계로 변환하는 단계;
크기가 고정된 각 격자마다 점유율을 갖고 있는 지도인 점유격자 지도를 가우시안 분포를 따르는 직선의 형태로 작성하는 단계;
상기 점 집합 P를 상기 점유격자 지도에 매칭하여 변환행렬을 구하는 단계;
상기 변환행렬을 계속 업데이트하여 최적화하는 단계; 및
상기 최적화된 변환행렬로부터 도로선의 기울기와 절편을 도출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 차량의 자세 추정 방법.
The method according to claim 1,
The step of finding the road line includes:
Transforming the point set P, which is a set of the measurement point data represented by the polar coordinate system, into an orthogonal coordinate system;
Creating a grating grid map in the form of a straight line that follows a Gaussian distribution, the map having a share for each grid of fixed size;
Matching the point set P with the occupancy grid map to obtain a transformation matrix;
Continuously updating and optimizing the transformation matrix; And
And deriving a slope and a slice of a road line from the optimized transformation matrix.
청구항 2에 있어서,
상기 변환행렬로부터 차량의 자세 변화량(α', β')을 계산하는 것을 특징으로 하는 차량의 자세 추정 방법.
The method of claim 2,
And calculating a posture change amount (? ',?') Of the vehicle from the transformation matrix.
청구항 2에 있어서,
상기 변환행렬을 최적화하는 단계는,
선형 보간된 점유율과 점유율 기울기 값을 계산하는 단계;
상기 선형 보간된 점유율과 기울기 값을 통해 변환행렬을 업데이트하는 단계;
업데이트된 변환행렬의 에러가 미리 정해진 제1 임계치 이상이고, 업데이트 반복 횟수가 미리 정해진 제2 임계치 이하이면, 다시 선형 보간된 점유율과 점유율 기울기 값을 계산하여 변환행렬을 업데이트하는 단계; 및
업데이트된 변환행렬의 에러가 상기 제1 임계치 미만이거나, 또는 업데이트 반복 횟수가 미리 정해진 제2 임계치 이상이면, 최적화 과정을 종료하는 단계로 이루어지는 것을 특징으로 하는 차량의 자세 추정 방법.
The method of claim 2,
Wherein optimizing the transformation matrix comprises:
Calculating linearly interpolated occupancy and occupancy slope values;
Updating the transformation matrix through the linearly interpolated occupancy and slope values;
Updating the transformation matrix by calculating the linearly interpolated occupancy rate and the occupancy slope value again if the error of the updated transformation matrix is equal to or greater than a predetermined first threshold and the number of update iterations is equal to or less than a predetermined second threshold; And
And ending the optimization process if the error of the updated conversion matrix is less than the first threshold or the number of update iterations is equal to or greater than a predetermined second threshold value.
KR1020160128861A 2016-10-06 2016-10-06 Method for vehicle pose estimation using LiDAR KR101909953B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160128861A KR101909953B1 (en) 2016-10-06 2016-10-06 Method for vehicle pose estimation using LiDAR
PCT/KR2016/013670 WO2018066754A1 (en) 2016-10-06 2016-11-25 Method for estimating attitude of vehicle by using lidar sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160128861A KR101909953B1 (en) 2016-10-06 2016-10-06 Method for vehicle pose estimation using LiDAR

Publications (2)

Publication Number Publication Date
KR20180038154A true KR20180038154A (en) 2018-04-16
KR101909953B1 KR101909953B1 (en) 2018-12-19

Family

ID=61831821

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160128861A KR101909953B1 (en) 2016-10-06 2016-10-06 Method for vehicle pose estimation using LiDAR

Country Status (2)

Country Link
KR (1) KR101909953B1 (en)
WO (1) WO2018066754A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028750A (en) * 2020-08-31 2022-03-08 (주) 오토노머스에이투지 Method and computing device for classifying sensing points of multi-layer lidar sensor installed on moving body
KR20230166272A (en) * 2022-05-30 2023-12-07 현대모비스 주식회사 Apparatus for estimating road to vehicle pitch and method thereof

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11168985B2 (en) * 2019-04-01 2021-11-09 GM Global Technology Operations LLC Vehicle pose determining system and method
CN112923933A (en) * 2019-12-06 2021-06-08 北理慧动(常熟)车辆科技有限公司 Laser radar SLAM algorithm and inertial navigation fusion positioning method
US11199614B1 (en) 2020-07-08 2021-12-14 Beijing Voyager Technology Co., Ltd Lidar and image calibration for autonomous vehicles
CN111897365B (en) * 2020-08-27 2022-09-02 中国人民解放军国防科技大学 Autonomous vehicle three-dimensional path planning method for contour line guide line
CN112781586B (en) * 2020-12-29 2022-11-04 上海商汤临港智能科技有限公司 Pose data determination method and device, electronic equipment and vehicle
CN115407355B (en) * 2022-11-01 2023-01-10 小米汽车科技有限公司 Library position map verification method and device and terminal equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9086481B1 (en) * 2013-01-18 2015-07-21 Google Inc. Methods and systems for estimating vehicle speed
US8886387B1 (en) * 2014-01-07 2014-11-11 Google Inc. Estimating multi-vehicle motion characteristics by finding stable reference points
US10099724B2 (en) * 2014-01-21 2018-10-16 Continental Automotive Systems, Inc. Road departure protection system
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US9529087B2 (en) * 2014-07-24 2016-12-27 GM Global Technology Operations LLC Curb detection using lidar with sparse measurements

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028750A (en) * 2020-08-31 2022-03-08 (주) 오토노머스에이투지 Method and computing device for classifying sensing points of multi-layer lidar sensor installed on moving body
KR20230166272A (en) * 2022-05-30 2023-12-07 현대모비스 주식회사 Apparatus for estimating road to vehicle pitch and method thereof

Also Published As

Publication number Publication date
WO2018066754A1 (en) 2018-04-12
KR101909953B1 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
KR101909953B1 (en) Method for vehicle pose estimation using LiDAR
JP7398506B2 (en) Methods and systems for generating and using localization reference data
US9251587B2 (en) Motion estimation utilizing range detection-enhanced visual odometry
WO2022127532A1 (en) Method and apparatus for calibrating external parameter of laser radar and imu, and device
US8818722B2 (en) Rapid lidar image correlation for ground navigation
Barczyk et al. Invariant EKF design for scan matching-aided localization
CN109937341B (en) Method and device for estimating the position of a person
WO2020189079A1 (en) Own position estimating device, automatic driving system comprising same, and own generated map sharing device
JP7155284B2 (en) Measurement accuracy calculation device, self-position estimation device, control method, program and storage medium
CN111308415B (en) Online pose estimation method and equipment based on time delay
CN113933818A (en) Method, device, storage medium and program product for calibrating laser radar external parameter
CN110637209B (en) Method, apparatus and computer readable storage medium having instructions for estimating a pose of a motor vehicle
CN114877883B (en) Vehicle positioning method and system considering communication delay in vehicle-road cooperative environment
CN113984044A (en) Vehicle pose acquisition method and device based on vehicle-mounted multi-perception fusion
CN110989619B (en) Method, apparatus, device and storage medium for locating objects
CN111806421B (en) Vehicle attitude determination system and method
US20220205804A1 (en) Vehicle localisation
JP2023164553A (en) Position estimation device, estimation device, control method, program and storage medium
US11908206B2 (en) Compensation for vertical road curvature in road geometry estimation
US20150073707A1 (en) Systems and methods for comparing range data with evidence grids
CN117387604A (en) Positioning and mapping method and system based on 4D millimeter wave radar and IMU fusion
CN117268408A (en) Laser slam positioning method and system
CN111712855A (en) Ground information processing method and device and unmanned vehicle
Broßeit et al. Fusion of doppler radar and geometric attributes for motion estimation of extended objects
JP7409037B2 (en) Estimation device, estimation method, estimation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant