KR101947581B1 - Apparatus for sharing point cloud data - Google Patents

Apparatus for sharing point cloud data Download PDF

Info

Publication number
KR101947581B1
KR101947581B1 KR1020180014885A KR20180014885A KR101947581B1 KR 101947581 B1 KR101947581 B1 KR 101947581B1 KR 1020180014885 A KR1020180014885 A KR 1020180014885A KR 20180014885 A KR20180014885 A KR 20180014885A KR 101947581 B1 KR101947581 B1 KR 101947581B1
Authority
KR
South Korea
Prior art keywords
point cloud
cloud information
information
vehicle
surrounding
Prior art date
Application number
KR1020180014885A
Other languages
Korean (ko)
Inventor
김기혁
Original Assignee
주식회사 에스더블유엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스더블유엠 filed Critical 주식회사 에스더블유엠
Priority to KR1020180014885A priority Critical patent/KR101947581B1/en
Application granted granted Critical
Publication of KR101947581B1 publication Critical patent/KR101947581B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G01S17/936
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Provided are an apparatus for sharing point cloud information. According to an embodiment of the present invention, the apparatus comprises: a lidar sensor for acquiring first point cloud information, which is point cloud information on surroundings of a user vehicle by using a pulse laser having a density of a predetermined energy level or less and a predetermined period; a duplicate point cloud information extracting unit for extracting the point cloud information duplicated between the first cloud information and second cloud information when the second point cloud information which is the point cloud information on a surrounding vehicle existing around the user vehicle is acquired; and a surrounding object recognition unit for extracting and recognizing a surrounding object using the duplicate point cloud information.

Description

포인트 클라우드 정보 공유 장치{APPARATUS FOR SHARING POINT CLOUD DATA}[0001] APPARATUS FOR SHARING POINT CLOUD DATA [0002]

본 발명은 포인트 클라우드 정보 공유 장치에 관한 것으로서, 더욱 상세하게는 복수의 자율주행 차량에서 라이다(LiDAR) 센서를 통해 획득되는 포인트 클라우드 정보(point cloud data)를 공유하는 기술에 관한 것이다.The present invention relates to a point cloud information sharing apparatus, and more particularly, to a technique for sharing point cloud data obtained through a LiDAR sensor in a plurality of autonomous vehicles.

자율주행 차량은 운전자의 개입 없이 주행 중 주변환경을 인식하고 주행상황을 판단하여 차량을 제어함으로써 미리 설정된 목적지까지 스스로 주행하는 차량을 의미한다. 최근에는 이러한 자율주행 차량이 교통사고를 줄이고 교통 효율성을 높일 뿐만 아니라 탑승자의 편의를 증대시킬 수 있는 교통수단으로 큰 주목을 받고 있으며, 이와 관련된 연구개발이 활발히 진행되고 있다.An autonomous driving vehicle means a vehicle that runs on its own to a predetermined destination by recognizing the surrounding environment during driving without a driver intervention and controlling the vehicle by judging the driving situation. In recent years, such autonomous vehicles have attracted a great deal of attention as transportation means to reduce traffic accidents, improve the efficiency of transportation, and increase the convenience of passengers.

이와 같은 자율주행 차량의 주행을 위해서는 차선이나 주변차량, 보행자 등 주행환경을 인식하고 그에 기초하여 주행상황을 판단하며, 판단 결과에 따라서 조향, 가속, 감속 등과 같은 주행을 제어하는 기술이 필수적인데, 그 중에서도 정확한 주행환경 인식이 매우 중요하다.In order to drive such an autonomous vehicle, it is necessary to recognize a driving environment such as a lane, a nearby vehicle, or a pedestrian, judge the driving situation based on the driving environment, and control the driving such as steering, acceleration, deceleration, Among them, accurate driving environment is very important.

주행환경 인식을 위해 과거에는 전자기파를 이용하는 레이더가 사용되었으나 최근에는 펄스 레이저를 이용하는 라이다 센서가 사용되고 있는 추세이다. 라이다 센서는 펄스 레이저를 대상 물체에 조사하고 펄스 레이저가 해당 물체에 반사되어 되돌아오는 시간을 측정하는 것으로, 일반적으로 높은 에너지 밀도와 짧은 주기를 가지는 펄스 레이저를 생성할 수 있는 레이저의 장점을 활용한 것이다. 라이다 센서는 대상 물체까지의 거리 측정은 물론 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있어 다양한 분야에 활용되고 있다.In order to recognize the driving environment, radar using electromagnetic waves has been used in the past, but in recent years, a lidar sensor using pulse laser has been used. The laser sensor irradiates a pulsed laser to a target object and measures the time that the pulse laser is reflected back to the object. Thus, it utilizes the advantage of a laser capable of generating a pulse laser having a high energy density and a short cycle in general It is. Raidasensor is used in various fields because it can detect distance, velocity, temperature, material distribution and concentration characteristic as well as distance measurement to the object.

이와 같이 라이다 센서는 높은 에너지 밀도와 짧은 주기를 가지는 펄스 레이저를 사용하므로 라이다 센서를 사용하는 자율주행 차량의 주변 물체는 해당 펄스 레이저에 노출되고 있으며, 최근에는 이러한 펄스 레이저가 인체에 미치는 영향에 대한 관심과 연구의 필요성이 대두되고 있다. 물론 높은 에너지 밀도와 짧은 주기를 가지는 펄스 레이저는 인체에 대한 위험성뿐만 아니라 라이다 센서의 에너지 효율 측면에서도 중요한 문제이기도 하다.Since the Lidar sensor uses a pulse laser with a high energy density and a short cycle, peripheral objects of the autonomous vehicle using the Lidar sensor are exposed to the pulse laser. Recently, And the need for research is emerging. Of course, pulsed lasers with high energy density and short cycle are important not only for the human body but also for the energy efficiency of the Lada sensor.

이와 같은 문제를 해소하고자 라이다 센서의 펄스 레이저를 조사 시 에너지 레벨을 낮추는 방안이 제안되었으나 에너지 레벨이 낮은 경우 라이다 센서를 통해 획득되는 포인트 클라우드 정보의 해상도가 낮아져 자율주행 차량이 주변 물체를 인식하는데 어려움이 있어 적합하지 않은 문제가 있다.In order to solve this problem, a method of lowering the energy level when irradiating the pulsed laser of the Lada sensor has been proposed, but the energy level is low. The resolution of the point cloud information obtained through the sensor is lowered, There is a problem that is not suitable.

이에, 높은 에너지 레벨을 사용하는 종래의 라이다 센서로 인한 문제점을 해소하기 위하여 라이다 센서의 에너지 레벨을 낮추면서 차량 주변의 물체에 대한 인식률을 높일 수 있는 방안이 요구되고 있다.In order to solve the problem caused by the conventional Lada sensor using a high energy level, it is required to reduce the energy level of the Lada sensor and increase the recognition rate of objects around the vehicle.

미국공개특허 2016-0035081, METHODS AND SYSTEMS FOR OBJECT DETECTION USING LASER POINT CLOUDS(2016.02.04. 공개)US Patent Laid-Open Publication No. 2016-0035081, METHODS AND SYSTEMS FOR OBJECT DETECTION USING LASER POINT CLOUDS (published Feb. 26, 2014)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 고에너지 레벨을 사용하는 라이다 센서로 인한 문제를 해소하기 위해, 라이다 센서의 에너지 레벨을 저감하면서 차량 주변의 물체에 대한 인식률을 높일 수 있는 방안을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the prior art and it is an object of the present invention to reduce the energy level of the Lada sensor and increase the recognition rate for an object around the vehicle in order to solve the problem caused by the Lada sensor using a high energy level I would like to give you a plan.

상기와 같은 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 장치는 미리 정해진 에너지 레벨 이하의 밀도 및 미리 정해진 주기의 펄스 레이저를 이용하여 자차량 주변에 대한 포인트 클라우드 정보인 제1 포인트 클라우드 정보를 획득하는 라이다 센서; 상기 자차량의 주변에 존재하는 주변차량의 포인트 클라우드 정보인 제2 포인트 클라우드 정보가 획득되면, 상기 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보간에 중복되는 포인트 클라우드 정보를 추출하는 중복 포인트 클라우드 정보 추출부; 및 상기 중복되는 포인트 클라우드 정보를 이용하여 주변 물체를 추출하고 인식하는 주변 물체 인식부;를 포함하는 것을 특징으로 한다.In order to achieve the above object, a point cloud information sharing apparatus according to an embodiment of the present invention includes a point cloud information acquiring unit that acquires points cloud information about a vehicle periphery using a pulse laser having a predetermined energy level and a predetermined period, A lidar sensor for acquiring one point cloud information; When the second point cloud information, which is the point cloud information of the neighboring vehicles existing in the vicinity of the subject vehicle, is obtained, duplicate point cloud information extraction for extracting the point cloud information overlapping between the first point cloud information and the second point cloud information part; And a surrounding object recognizing unit for extracting and recognizing the surrounding objects using the overlapping point cloud information.

본 발명의 일 실시예에 따르면, 라이다 센서의 에너지 레벨을 저감하면서 일정 수준의 해상도를 가지는 포인트 클라우드 정보를 생성할 수 있다.According to an embodiment of the present invention, point cloud information having a certain level of resolution can be generated while reducing the energy level of the Lydia sensor.

또한, 미리 정해진 에너지 레벨 이하의 펄스 레이저를 조사하여 고에너지 레벨의 펄스 레이저를 조사함으로써 발생됐던 문제점들로 인한 피해를 감소시킬 수 있다.In addition, it is possible to reduce damage caused by problems caused by irradiating a pulse laser having a predetermined energy level or lower and irradiating the pulse laser with a high energy level.

또한, 주변차량들과 포인트 클라우드 정보를 공유함으로써 낮은 해상도의 포인트 클라우드 정보를 이용하더라도 차량 주변의 물체에 대한 인식률을 높일 수 있다.In addition, by sharing point cloud information with nearby vehicles, it is possible to increase the recognition rate for an object around the vehicle even if low-resolution point cloud information is used.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.

도 1은 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유에 의한 결과를 간략히 도식화한 도면이다.
도 3은 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 장치의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 과정을 도시한 흐름도이다.
1 is a diagram illustrating a configuration of a point cloud information sharing system according to an embodiment of the present invention.
FIG. 2 is a simplified schematic diagram of a result of point cloud information sharing according to an embodiment of the present invention. Referring to FIG.
3 is a block diagram illustrating a configuration of a point cloud information sharing apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a point cloud information sharing process according to an embodiment of the present invention.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 시스템의 구성을 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유에 의한 결과를 간략히 도식화한 도면이다.FIG. 1 is a diagram illustrating a configuration of a point cloud information sharing system according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating a result of point cloud information sharing according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 시스템(100)은 제1 차량(110), 제2 차량(120) 및 정보공유 서버(130)를 포함할 수 있다.The point cloud information sharing system 100 according to an embodiment of the present invention may include a first vehicle 110, a second vehicle 120, and an information sharing server 130.

각 구성요소를 간략히 설명하면, 자율주행 차량인 제1 차량(110)과 제1 차량(110)의 주변에 존재하는 자율주행 차량인 제2 차량(120)은 포인트 클라우드 획득을 위한 라이다 센서를 각각 탑재할 수 있으며, 라이다 센서로부터 획득되는 포인트 클라우드 정보를 실시간으로 공유할 수 있다. 여기서 제1 차량(110)과 제2 차량(120)간 포인트 클라우드 정보의 공유는 일 실시예로서 주변차량으로부터 포인트 클라우드 정보를 제공받을 수 있고, 다른 실시예로서 정보공유 서버(130)로부터 주변차량의 포인트 클라우드 정보를 제공받을 수 있다.The first vehicle 110, which is an autonomous vehicle and the second vehicle 120, which is an autonomous vehicle that is present around the first vehicle 110, includes a Lada sensor for obtaining a point cloud And can share the point cloud information obtained from the Lida sensor in real time. Here, the sharing of the point cloud information between the first vehicle 110 and the second vehicle 120 may be provided as point cloud information from the neighboring vehicle as an embodiment and may be provided from the information sharing server 130 to the neighboring vehicle Point cloud information of the user.

또한, 제1 차량(110)과 제2 차량(120)은 자차량의 포인트 클라우드 정보와 주변차량의 포인트 클라우드 정보 중 서로 중복되는 포인트 클라우드 정보를 이용하여 주변 물체를 인식할 수 있다. 후술하겠지만 일반적인 라이다 센서는 고에너지 레벨의 밀도와 짧은 주기를 가지는 펄스 레이저를 이용하여 포인트 클라우드 정보를 생성하는 반면, 본 발명의 제1 차량(110)과 제2 차량(120)에 탑재되는 라이다 센서는 일반적인 고에너지 레벨의 밀도와 짧은 주기가 아닌 미리 정해진 에너지 레벨 이하의 밀도와 미리 정해진 주기를 가지는 펄스 레이저를 사용한다. 여기서 미리 정해진 에너지 레벨과 미리 정해진 주기는 실시예에 따라서 다양하게 설정될 수 있다.In addition, the first vehicle 110 and the second vehicle 120 can recognize the surrounding objects using the point cloud information of the own vehicle and the point cloud information of the surrounding vehicles, which overlap each other. As will be described later, a typical RL sensor generates point cloud information using a pulsed laser having a high energy level density and a short cycle, whereas the RL sensor mounted on the first vehicle 110 and the second vehicle 120 of the present invention The sensor uses a pulsed laser with a density of a normal high energy level and a predetermined period of density and a density below a predetermined energy level rather than a short period. Here, the predetermined energy level and the predetermined period may be variously set according to the embodiment.

따라서 본 발명의 실시예에 따른 라이다 센서를 사용하는 경우, 일반적인 종래의 라이다 센서를 통해 획득되는 포인트 클라우드 정보의 해상도 보다는 낮은 해상도(10)를 가지게 되나, 도 2에 도시된 바와 같이 주변차량의 포인트 클라우드 정보와 중복되는 포인트 클라우드 정보(20)를 이용함으로써 낮은 해상도로 인한 단점을 보완할 수 있다. 뿐만 아니라 라이다 센서의 에너지 레벨을 낮추게 되므로 고에너지 레벨의 펄스 레이저를 사용함으로써 발생했던 종래의 문제점들로 인한 피해를 감소시킬 수 있으며 라이다 센서의 동작으로 인한 에너지 소비 또한 절감할 수 있다.Therefore, when the LIDAR sensor according to the embodiment of the present invention is used, the resolution is lower than the resolution of the point cloud information obtained through the conventional LIDAR sensor. However, as shown in FIG. 2, The point cloud information 20 that overlaps with the point cloud information of FIG. In addition, since the energy level of the Raid sensor is lowered, it is possible to reduce the damage caused by the conventional problems caused by using the pulse energy of the high energy level, and energy consumption due to the operation of the Raid sensor can also be reduced.

참고로, 도 2에서는 제1 차량(110)과 제2 차량(120)의 포인트 클라우드 정보가 ‘중복’되는 것을 강조하기 위해 서로 중첩되는 형태가 다소 과장되게 표현되었다. 실제 포인트 클라우드 정보들의 병합이 이루어지면 더욱 선명한 포인트 클라우드 정보의 획득이 가능하다. 또한, 제1 차량(110)과 제2 차량(120)을 자율주행 차량으로 기재하였으나 반드시 자율주행 차량으로 한정되는 것은 아니며 실시예에 따라서 제1 차량(110)과 제2 차량(120)은 라이다 센서를 탑재하여 주변의 포인트 클라우드 정보를 획득할 수 있는 다양한 이동수단을 포함할 수 있다.In FIG. 2, in order to emphasize that the point cloud information of the first vehicle 110 and the second vehicle 120 are " overlapped ", the overlapped form is somewhat exaggerated. When the actual point cloud information is merged, more clear point cloud information can be obtained. Although the first vehicle 110 and the second vehicle 120 are described as autonomous vehicles, the first vehicle 110 and the second vehicle 120 are not necessarily limited to autonomous vehicles, And various moving means for mounting the sensor to acquire the surrounding point cloud information.

이하에서는 제1 차량(110)이 주변차량인 제2 차량(120)으로부터 포인트 클라우드 정보를 제공받아 공유가 이루어지는 실시예를 설명하도록 한다. Hereinafter, an embodiment will be described in which the first vehicle 110 receives point cloud information from the second vehicle 120, which is a peripheral vehicle, and receives the point cloud information.

도 3은 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 장치의 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of a point cloud information sharing apparatus according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 장치(200)는 제1 차량(110)과 제2 차량(120)에 각각 포함될 수 있으며 라이다 센서(210), 주행정보 제공부(220), 중복 포인트 클라우드 정보 추출부(230), 주변 물체 인식부(240), 제어부(250) 및 저장부(260)를 포함할 수 있다.The point cloud information sharing apparatus 200 according to an embodiment of the present invention may include the Lada sensor 210, the travel information providing unit 220, A redundant point cloud information extracting unit 230, a surrounding object recognizing unit 240, a control unit 250, and a storage unit 260. [

먼저 라이다 센서(210)에 대해 설명하면, 일반적으로 라이다 센서는 고에너지 레벨의 밀도와 짧은 주기를 가지는 펄스 레이저를 대상 물체에 조사하고, 대상 물체로부터 반사파가 수신되는 시간을 이용하여 해당 물체까지의 거리에 대한 정보를 획득할 수 있다. 반면, 본 발명의 라이다 센서(210)는 미리 정해진 에너지 레벨 이하의 밀도와 미리 정해진 주기를 가지는 펄스 레이저를 대상 물체에 조사하여 거리 정보를 획득할 수 있다. 또한, 라이다 센서(210)는 포인트 스캐닝(point scanning)을 통해 도로와 도로 주변의 물체, 예를 들어 지형물, 신호등, 표지판, 주변차량, 보행자 등에 대한 포인트 클라우드 정보를 획득할 수 있다. 여기서 포인트 클라우드 정보는 도로와 도로 주변의 물체에 대한 (x, y, z) 좌표로 구성된 포인트(데이터)의 집합으로서 반사율에 대한 정보를 포함할 수 있으며 대상 물체의 외형을 나타낼 수 있다.First, the Lidar sensor 210 will be described. In general, a Lidar sensor irradiates a pulse laser having a density of a high energy level and a short cycle to a target object, and uses the time when the reflected wave is received from the target object, Can be obtained. On the other hand, the lidar sensor 210 of the present invention can acquire distance information by irradiating a pulsed laser having a density lower than a predetermined energy level and a predetermined period to a target object. In addition, the LIDAR sensor 210 can acquire point cloud information about objects on the road and the road such as a terrain, a traffic light, a sign, a nearby vehicle, and a pedestrian through point scanning. Here, the point cloud information may include information about the reflectance as a set of points (data) composed of (x, y, z) coordinates for an object around the road and a road, and may represent the appearance of the object.

또한, 라이다 센서(210)는 단일 주파수를 이용하도록 구현될 수도 있고 서로 다른 다수의 주파수를 이용하는 다채널로 구현될 수도 있다. 만일 서로 다른 다수의 주파수를 이용하는 다채널로 구현되는 경우, 라이다 센서(210)는 미리 정해진 각도로 회전하면서 각 주파수별 포인트 클라우드 정보를 획득할 수도 있다.In addition, the LIDAR sensor 210 may be implemented using a single frequency or may be implemented with multiple channels using a plurality of different frequencies. In the case of multi-channel implementation using a plurality of different frequencies, the LIDAR sensor 210 may acquire point cloud information for each frequency while rotating at a predetermined angle.

한편, 주행정보 제공부(220)는 라이다 센서(210)를 통해 획득되는 포인트 클라우드 정보를 정보공유 서버(130) 및 제2 차량(120) 중 하나 이상으로 제공할 수 있다. 그리고 주행정보 제공부(220)는 GPS에 기초한 자차량(110)의 위치정보, 포인트 클라우드 정보에 포함되는 물체의 위치정보 및 각 물체에 대한 방위각 정보를 함께 제공할 수 있다. 여기서 포인트 클라우드 정보에 포함되는 물체의 위치정보는 제어부(250)에서 자차량(110)의 위치에 기반하여 계산될 수 있으며, 제어부(250)는 포인트 클라우드 정보에 포함되는 물체 중 지형물, 신호등, 표지판 등 위치가 고정된 물체를 추출하고 해당 물체의 위치정보를 획득할 수 있다. 위치가 고정된 물체의 위치정보는 제1 차량(110)의 저장소 또는 정보공유 서버(130)로부터 제공되는 맵 정보에 기초하여 획득할 수 있다.Meanwhile, the travel information providing unit 220 may provide the point cloud information obtained through the Lider sensor 210 to at least one of the information sharing server 130 and the second vehicle 120. The travel information providing unit 220 may provide location information of the vehicle 110 based on the GPS, location information of the objects included in the point cloud information, and azimuth information about the objects. Here, the position information of the object included in the point cloud information may be calculated based on the position of the vehicle 110 in the control unit 250, and the control unit 250 may calculate the position information of the object included in the point cloud information, It is possible to extract an object having a fixed position such as a sign and obtain position information of the object. The location information of the fixed object can be acquired based on the map information provided from the repository of the first vehicle 110 or the information sharing server 130.

참고로 정보공유 서버(130)는 제1 차량(110)이나 제2 차량(120)으로부터 수신되는 포인트 클라우드 정보들을 이용하여 맵 정보를 생성할 수 있다. 여기서 맵 정보는 도로 및 도로 주변에 존재하는 위치가 고정된 다양한 물체에 대한 위치정보와 형상정보 그리고 해당 물체의 식별자(ID)를 포함할 수 있으며 지형물, 신호등, 표지판 등 위치가 고정된 물체가 더 이상 존재하지 않거나 형태가 변경되거나 위치가 변경되더라도 제1 차량(110)이나 제2 차량(120)으로부터 실시간으로 수신되는 포인트 클라우드 정보들을 이용하여 맵 정보는 항상 최신의 것으로 관리될 수 있다. 정보공유 서버(130)는 맵 정보를 생성 시 제1 차량(110)이나 제2 차량(120)의 위치정보와 포인트 클라우드 정보에 포함되는 물체에 대한 거리, 방위각 등의 정보를 이용하여 도로의 각 위치에서 주변의 위치가 고정된 물체까지의 거리는 물론 해당 물체의 위치정보를 기록할 수 있다. 후술하겠지만 위치가 고정된 물체의 위치정보는 포인트 클라우드 정보들을 병합 시 절대좌표로 사용될 수 있다.For reference, the information sharing server 130 may generate map information using point cloud information received from the first vehicle 110 or the second vehicle 120. Here, the map information may include position information and shape information of various objects fixed in the roads and around the roads, and IDs of the objects, and an object having a fixed position such as a terrain, a traffic light, The map information can always be managed as being up-to-date using point cloud information received from the first vehicle 110 or the second vehicle 120 in real time, even if it no longer exists, is changed in shape, or its position is changed. When generating the map information, the information sharing server 130 uses the position information of the first vehicle 110 and the second vehicle 120 and the distance and azimuth angle of the object included in the point cloud information, It is possible to record not only the distance from the position to the fixed object but also the position information of the object. As will be described later, the position information of an object having a fixed position can be used as an absolute coordinate when the point cloud information is merged.

한편, 중복 포인트 클라우드 정보 추출부(230)는 제2 차량(120)의 포인트 클라우드 정보가 획득되면 자차량(120)의 포인트 클라우드 정보와 제2 차량(120)의 포인트 클라우드 정보 중 서로 중복되는 포인트 클라우드 정보를 추출할 수 있다. 여기서 제2 차량(120)의 포인트 클라우드 정보 획득은 실시예에 따라서 제2 차량(120)으로부터 실시간으로 수신되거나 정보공유 서버(130)로부터 실시간으로 수신될 수 있다.On the other hand, when the point cloud information of the second vehicle 120 is acquired, the redundant point cloud information extracting unit 230 extracts the point cloud information of the second vehicle 120 and the point cloud information of the second vehicle 120, The cloud information can be extracted. Where the point cloud information acquisition of the second vehicle 120 may be received in real time from the second vehicle 120 or in real time from the information sharing server 130, depending on the embodiment.

이하 설명의 편의를 위하여 제1 차량(110)의 포인트 클라우드 정보를 ‘제1 포인트 클라우드 정보’로, 제2 차량(120)의 포인트 클라우드 정보를 ‘제2 포인트 클라우드 정보’로 칭하도록 한다.For convenience of explanation, the point cloud information of the first vehicle 110 is referred to as 'first point cloud information', and the point cloud information of the second vehicle 120 is referred to as 'second point cloud information'.

구체적으로, 중복 포인트 클라우드 정보 추출부(230)는 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합하여 서로 중복되는 포인트 클라우드 정보를 추출할 수 있다. 이를 위해 중복 포인트 클라우드 정보 추출부(230)는 서로 다른 포인트 클라우드 정보를 병합하기 위해 각 포인트 클라우드 정보에 포함되는 지형물, 신호등, 표지판 등 위치가 고정된 물체의 위치정보(좌표)를 절대좌표로 설정할 수 있다. 즉 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보 중 위치가 고정된 물체를 추출하고, 해당 물체의 위치를 기준으로 자차량(110)의 위치정보와 제2 차량(120)의 위치정보 그리고 위치가 고정된 물체에 대한 자차량(110)과 제2 차량(120)의 방위각 정보를 이용하여, 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합할 수 있으며 서로 중복되는 포인트 클라우드 정보를 추출할 수 있다.Specifically, the redundant point cloud information extracting unit 230 may extract point cloud information that is overlapped with each other by merging the first point cloud information and the second point cloud information. To this end, the redundant point cloud information extracting unit 230 extracts the location information (coordinates) of the fixed object such as the terrain, the signal lamp, and the signboard included in each point cloud information as absolute coordinates Can be set. That is, the first point cloud information and the second point cloud information are extracted, and the position information of the child vehicle 110, the position information of the second vehicle 120, and the position of the object are extracted based on the position of the object It is possible to merge the first point cloud information and the second point cloud information by using the azimuth information of the vehicle 110 and the second vehicle 120 with respect to the fixed object and to extract the point cloud information that is overlapped with each other have.

앞서 언급하였지만, 본 발명의 라이다 센서(210)는 일반적으로 사용되는 종래의 라이다 센서보다 에너지 레벨이 낮은 미리 정해진 밀도와 미리 정해진 주기를 가지는 펄스 레이저를 대상 물체에 조사하므로 포인트 클라우드 정보의 해상도 또한 종래의 경우보다 낮을 수 밖에 없다. 그러나 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합하는 경우 동일한 위치에 존재하는 포인트 클라우드 정보는 중복(중첩)되므로 낮은 해상도로 인한 단점을 보완할 수 있게 된다.As mentioned above, since the lidar sensor 210 of the present invention irradiates a pulse laser having a predetermined energy density and a predetermined period lower than the energy level of a conventional Lada sensor, which is generally used, to the object, the resolution of the point cloud information Also, it is inevitably lower than in the conventional case. However, when the first point cloud information and the second point cloud information are merged, the point cloud information existing at the same position is overlapped (overlapped), thereby making it possible to compensate for the disadvantage caused by the low resolution.

여기서 중복 포인트 클라우드 정보 추출부(230)는 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보에 포함된 반사율 정보에 기초하여 각 포인트 클라우드 정보에서 주변광을 제거하고 서로 중복되는 포인트 클라우드 정보를 추출할 수 있다.Here, the redundant point cloud information extracting unit 230 may extract the point cloud information that is overlapped with each other by removing ambient light from each point cloud information based on the reflectance information included in the first point cloud information and the second point cloud information have.

참고로, 중복 포인트 클라우드 정보 추출부(230)가 주변차량인 제2 차량(120)의 포인트 클라우드 정보를 이용하여 서로 중복되는 포인트 클라우드 정보를 추출하는 것으로 설명하였지만, 제1 차량(110)의 주변에 제2 차량(120) 이외의 다른 차량들이 존재하는 경우 해당 차량들로부터 포인트 클라우드 정보를 실시간으로 직접 수신하거나 정보공유 서버(130)로부터 해당 차량들의 포인트 클라우드 정보를 실시간으로 직접 수신할 수 있다. 따라서 주변 차량들의 수가 증가할수록 서로 중복되는 포인트 클라우드 정보로 인한 해상도는 더욱 높아지게 된다.The point cloud information extracting unit 230 extracts point cloud information that is overlapped with each other using the point cloud information of the second vehicle 120 as a peripheral vehicle, If there are vehicles other than the second vehicle 120, it can directly receive the point cloud information from the corresponding vehicles in real time or directly receive the point cloud information of the vehicles from the information sharing server 130 in real time. Therefore, as the number of nearby vehicles increases, the resolution due to the overlapping point cloud information becomes higher.

한편, 주변 물체 인식부(240)는 중복 포인트 클라우드 정보 추출부(230)에 의해 추출되는 중복되는 포인트 클라우드 정보를 이용하여 주변 물체를 추출하고 인식할 수 있다. 주변 물체 인식부(240)에서 인식되는 주변 물체에 대한 정보는 자율주행 차량인 제1 차량(110)의 주행 중 장애물 회피나 브레이크 작동 또는 액셀레이터 작동으로 인한 가속 등 다양한 주행 상황에서 제1 차량(110)의 주행을 제어하는데 활용될 수 있다.Meanwhile, the surrounding object recognizing unit 240 can extract and recognize surrounding objects using the duplicate point cloud information extracted by the duplicate point cloud information extracting unit 230. [ The information about the surrounding objects recognized by the surrounding object recognizing unit 240 is transmitted to the first vehicle 110 in various driving situations such as an obstacle avoidance, a brake operation, or an acceleration due to an accelerator operation during running of the first vehicle 110 as an autonomous driving vehicle ) Of the vehicle.

한편, 제어부(250)는 포인트 클라우드 정보 공유 장치(200)의 구성요소들, 예를 들어 라이다 센서(210), 주행정보 제공부(220), 중복 포인트 클라우드 정보 추출부(230) 및 주변 물체 인식부(240)가 전술한 동작을 수행하도록 제어할 수 있으며, 후술하는 저장부(260) 또한 제어할 수 있다.The control unit 250 controls the components of the point cloud information sharing device 200 such as the Lidar sensor 210, the traveling information providing unit 220, the redundant point cloud information extracting unit 230, The recognition unit 240 can perform control to perform the above-described operation, and the storage unit 260 to be described later can also be controlled.

한편, 저장부(260)는 제어부(250)가 포인트 클라우드 정보 공유 장치(200)의 구성요소들을 제어하도록 하는 알고리즘 및 알고리즘에 따른 제어 과정에서 필요하거나 파생되는 다양한 정보들을 저장할 수 있다.Meanwhile, the storage unit 260 may store various information required or derived in the control process according to the algorithm and algorithm for allowing the controller 250 to control the components of the point cloud information sharing device 200.

도 4는 본 발명의 일 실시예에 따른 포인트 클라우드 정보 공유 과정을 도시한 흐름도이다.4 is a flowchart illustrating a point cloud information sharing process according to an embodiment of the present invention.

도 4의 과정은 제1 차량(110)과 제1 차량(110)의 주변에서 운행 중인 제2 차량(120)간 포인트 클라우드 정보 공유에 관한 것으로서, 도 3을 참고하여 설명한 포인트 클라우드 정보 공유 장치(200)는 제1 차량(110)과 제2 차량(120)에 포함되며, 제2 차량(120)으로부터 제2 포인트 클라우드 정보를 실시간으로 수신하는 실시예이다. 이하 제1 차량(110)을 중심으로 도 4의 과정을 설명하도록 한다.The process of FIG. 4 relates to point cloud information sharing between the first vehicle 110 and the second vehicle 120 operating in the vicinity of the first vehicle 110, and is similar to the point cloud information sharing device 200 is included in the first vehicle 110 and the second vehicle 120 and receives second point cloud information from the second vehicle 120 in real time. The process of FIG. 4 will now be described with the first vehicle 110 as the center.

먼저, 제1 차량(110)은 라이다 센서를 통해, 미리 정해진 에너지 레벨 이하의 밀도와 미리 정해진 주기로 주변 물체들에게 펄스 레이저를 조사하여 제1 포인트 클라우드 정보를 획득한다(S401).First, the first vehicle 110 acquires the first point cloud information by irradiating the surrounding objects with a pulse laser at a density equal to or less than a predetermined energy level and a predetermined period through the Lada sensor (S401).

여기서 제1 차량(110)은 자신의 위치정보, 제1 포인트 클라우드 정보 및 제1 포인트 클라우드 정보에 포함되는 물체에 대한 방위각 정보를 제2 차량(120) 및 정보공유 서버(130) 중 하나 이상으로 제공할 수 있다. 이 때 제1 차량(110)은 맵 정보를 이용하여 제1 포인트 클라우드 정보에 포함되는 물체 중 위치가 고정된 물체에 대한 위치정보를 제2 차량(120) 및 정보공유 서버(130) 중 하나 이상으로 제공할 수 있다.Here, the first vehicle 110 transmits azimuth information about an object included in its own location information, first point cloud information, and first point cloud information to at least one of the second vehicle 120 and the information sharing server 130 . At this time, the first vehicle 110 uses the map information to transmit the position information of the fixed object among the objects included in the first point cloud information to at least one of the second vehicle 120 and the information sharing server 130 As shown in FIG.

S401 후, 제1 차량(110)은 제2 차량(120)으로부터 제2 포인트 클라우드 정보가 획득되면, 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합한다(S402).After S401, the first vehicle 110 merges the first point cloud information and the second point cloud information when the second point cloud information is acquired from the second vehicle 120 (S402).

여기서 제2 포인트 클라우드 정보는 제1 포인트 클라우드 정보와 동일하게 제2 차량(120)에서 미리 정해진 에너지 레벨 이하의 밀도와 미리 정해진 주기로 펄스 레이저를 조사하는 라이다 센서를 통해 획득될 수 있다.Here, the second point cloud information can be obtained through the Lada sensor which irradiates the pulsed laser at a predetermined period and at a density equal to or lower than a predetermined energy level in the second vehicle 120 in the same manner as the first point cloud information.

그리고 제1 차량(110)은 서로 다른 포인트 클라우드 정보를 병합 시 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보에 포함된 주변 물체 중 위치가 고정된 물체의 위치정보를 기준으로 자신(110)과 제2 차량(120)의 위치정보 그리고 위치가 고정된 물체에 대한 방위각과 제2 차량(120)의 방위각 정보를 이용할 수 있다.When the first vehicle 110 merges the different point cloud information, the first vehicle 110 generates the first point cloud information and the second point cloud information based on the position information of the fixed object among surrounding objects included in the first point cloud information and the second point cloud information, The position information of the second vehicle 120 and the azimuth angle of the fixed object and the azimuth information of the second vehicle 120 can be used.

S402 후, 제1 차량(110)은 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합 후 서로 중복되는 포인트 클라우드 정보를 추출한다(S303).After S402, the first vehicle 110 merges the first point cloud information and the second point cloud information, and extracts point cloud information that overlaps with each other (S303).

여기서 제1 차량(110)은 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보에 포함된 반사율 정보에 기초하여 각 포인트 클라우드 정보에서 주변광을 제거하고 중복되는 포인트 클라우드 정보를 추출할 수 있다.Here, the first vehicle 110 may remove ambient light from each point cloud information based on the reflectance information included in the first point cloud information and the second point cloud information, and extract duplicate point cloud information.

S403 후, 제1 차량(110)은 중복되는 포인트 클라우드 정보를 이용하여 주변 물체를 추출하여 인식한 후 자율주행을 위한 차량의 제어에 활용한다(S404)After step S403, the first vehicle 110 extracts and recognizes the surrounding objects using the overlapping point cloud information, and utilizes it to control the vehicle for autonomous driving (S404)

참고로, 제1 차량(110)은 주변 물체를 인식할 때 중복되는 포인트 클라우드 정보만을 이용하는 것은 아니며, 제1 포인트 클라우드 정보를 이용하여 주변 물체를 인식할 수 있다. For reference, the first vehicle 110 does not use only the overlapped point cloud information when recognizing the surrounding objects, but can recognize the surrounding objects using the first point cloud information.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100 : 포인트 클라우드 정보 공유 시스템
110 : 제1 차량
120 : 제2 차량
200 : 포인트 클라우드 정보 공유 장치
210 : 라이다 센서
220 : 주행정보 제공부
230 : 중복 포인트 클라우드 정보 추출부
240 : 주변 물체 인식부
250 : 제어부
260 : 저장소
100: Point cloud information sharing system
110: first vehicle
120: second vehicle
200: Point cloud information sharing device
210:
220:
230: Redundant point cloud information extracting unit
240: peripheral object recognition unit
250:
260: Store

Claims (7)

미리 정해진 에너지 레벨 이하의 밀도 및 미리 정해진 주기의 펄스 레이저를 이용하여 자차량 주변에 대한 포인트 클라우드 정보인 제1 포인트 클라우드 정보를 획득하는 라이다 센서;
상기 자차량의 주변에 존재하는 주변차량의 포인트 클라우드 정보인 제2 포인트 클라우드 정보가 획득되면, 상기 제1 포인트 클라우드 정보와 상기 제2 포인트 클라우드 정보에 포함된 주변 물체 중 위치가 고정된 물체의 위치정보를 기준으로 상기 자차량과 상기 주변차량의 위치정보 및 상기 위치가 고정된 물체에 대한 상기 자차량과 상기 주변차량의 방위각 정보를 이용하여, 상기 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보를 병합한 후 상기 제1 포인트 클라우드 정보와 상기 제2 포인트 클라우드 정보간에 중복되는 포인트 클라우드 정보를 추출하는 중복 포인트 클라우드 정보 추출부; 및
상기 중복되는 포인트 클라우드 정보를 이용하여 주변 물체를 추출하고 인식하는 주변 물체 인식부; 를 포함하는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
A lidar sensor for acquiring first point cloud information which is point cloud information about the subject vehicle using a pulse laser having a density lower than a predetermined energy level and a predetermined period;
When the second point cloud information which is the point cloud information of the neighboring vehicle existing in the vicinity of the subject vehicle is obtained, the position of the fixed object among the surrounding objects included in the first point cloud information and the second point cloud information The first point cloud information and the second point cloud information using the position information of the subject vehicle and the surrounding vehicle and the azimuth information of the subject vehicle and the surrounding vehicle with respect to the fixed object, A duplicate point cloud information extracting unit for extracting duplicate point cloud information between the first point cloud information and the second point cloud information after merging; And
A surrounding object recognizing unit for extracting and recognizing surrounding objects using the overlapping point cloud information; The point cloud information sharing apparatus comprising:
제1 항에 있어서,
상기 제2 포인트 클라우드 정보는 미리 정해진 에너지 레벨 이하의 밀도 및 미리 정해진 주기의 펄스 레이저를 이용하는 상기 주변차량의 라이다 센서를 통해 획득되는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
The method according to claim 1,
Wherein the second point cloud information is obtained through a lidar sensor of the neighboring vehicle using a pulse laser having a density lower than a predetermined energy level and a predetermined period.
제1 항에 있어서,
상기 중복 포인트 클라우드 정보 추출부는 상기 제1 포인트 클라우드 정보와 제2 포인트 클라우드 정보에서 반사율 정보에 기초하여 주변광을 제거하고 상기 중복되는 포인트 클라우드 정보를 추출하는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
The method according to claim 1,
Wherein the redundant point cloud information extracting unit removes the ambient light based on the reflectivity information in the first point cloud information and the second point cloud information and extracts the overlapped point cloud information.
제1 항에 있어서,
상기 라이다 센서를 통해 획득되는 제1 포인트 클라우드 정보, 상기 자차량의 위치정보 및 상기 제1 포인트 클라우드 정보에 포함되는 물체에 대한 상기 자차량의 방위각 정보를 상기 주변차량 및 서버 중 하나 이상으로 제공하는 주행정보 제공부; 를 더 포함하는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
The method according to claim 1,
The first point cloud information obtained through the LIDAR sensor, the position information of the child vehicle, and the azimuth information of the child vehicle with respect to the object included in the first point cloud information, to at least one of the peripheral vehicle and the server A travel information providing unit for providing the travel information; Wherein the point cloud information sharing apparatus further comprises:
제1 항에 있어서,
상기 중복 포인트 클라우드 정보 추출부는 상기 위치가 고정된 물체의 위치정보를 자차량의 저장소에 저장된 맵 정보 또는 외부의 서버로부터 제공받는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
The method according to claim 1,
Wherein the redundant point cloud information extracting unit is provided with map information stored in a repository of the vehicle or an external server from the location information of the fixed object.
제1 항에 있어서,
상기 제2 포인트 클라우드 정보는 상기 주변차량 또는 서버로부터 제공되며, 상기 주변차량의 위치정보, 상기 제2 포인트 클라우드 정보에 포함되는 물체의 위치정보와 그에 대한 주변차량의 방위각 정보와 함께 제공되는 것을 특징으로 하는 포인트 클라우드 정보 공유 장치.
The method according to claim 1,
The second point cloud information is provided from the neighboring vehicle or server and is provided together with the position information of the neighboring vehicle, the position information of the object included in the second point cloud information, and the azimuth information of the neighboring vehicle. The point cloud information sharing device.
삭제delete
KR1020180014885A 2018-02-07 2018-02-07 Apparatus for sharing point cloud data KR101947581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180014885A KR101947581B1 (en) 2018-02-07 2018-02-07 Apparatus for sharing point cloud data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014885A KR101947581B1 (en) 2018-02-07 2018-02-07 Apparatus for sharing point cloud data

Publications (1)

Publication Number Publication Date
KR101947581B1 true KR101947581B1 (en) 2019-05-02

Family

ID=66581534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014885A KR101947581B1 (en) 2018-02-07 2018-02-07 Apparatus for sharing point cloud data

Country Status (1)

Country Link
KR (1) KR101947581B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099037A (en) * 2020-09-17 2020-12-18 上海波汇科技有限公司 Target detection method and device based on FMCW laser radar high point cloud acquisition quantity

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204151A (en) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd Inter-vehicle communication method and inter-vehicle communication device
KR20150101204A (en) * 2014-02-26 2015-09-03 한국전자통신연구원 Vehicle Information Sharing Apparatus and Method
KR20150133472A (en) * 2014-05-20 2015-11-30 현대모비스 주식회사 System and method for sharing information using radars of vehicle
KR20160071162A (en) * 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof
KR20170093608A (en) * 2016-02-05 2017-08-16 삼성전자주식회사 Vehicle and recognizing method of vehicle's position based on map

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204151A (en) * 2010-03-26 2011-10-13 Daihatsu Motor Co Ltd Inter-vehicle communication method and inter-vehicle communication device
KR20150101204A (en) * 2014-02-26 2015-09-03 한국전자통신연구원 Vehicle Information Sharing Apparatus and Method
KR20150133472A (en) * 2014-05-20 2015-11-30 현대모비스 주식회사 System and method for sharing information using radars of vehicle
KR20160071162A (en) * 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof
KR20170093608A (en) * 2016-02-05 2017-08-16 삼성전자주식회사 Vehicle and recognizing method of vehicle's position based on map

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
미국공개특허 2016-0035081, METHODS AND SYSTEMS FOR OBJECT DETECTION USING LASER POINT CLOUDS(2016.02.04. 공개)
자율주행차량을 위한 두 대의 3D LIDAR 캘리브레이션 방법, 한국자동차공학회* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099037A (en) * 2020-09-17 2020-12-18 上海波汇科技有限公司 Target detection method and device based on FMCW laser radar high point cloud acquisition quantity
CN112099037B (en) * 2020-09-17 2023-11-10 上海波汇科技有限公司 Target detection method and device based on FMCW laser radar Gao Dian cloud acquisition

Similar Documents

Publication Publication Date Title
US11989666B1 (en) Predicting trajectory intersection by another road user
JP6665381B2 (en) Flash rider with adaptive illumination
US10627521B2 (en) Controlling vehicle sensors based on dynamic objects
US10699142B2 (en) Systems and methods for traffic signal light detection
CN109927719B (en) Auxiliary driving method and system based on obstacle trajectory prediction
JP3619628B2 (en) Driving environment recognition device
US10137890B2 (en) Occluded obstacle classification for vehicles
KR101354681B1 (en) Controlling vehicle lateral lane positioning
CN108375775A (en) The method of adjustment of vehicle-mounted detection equipment and its parameter, medium, detection system
US11900692B2 (en) Multi-modal, multi-technique vehicle signal detection
KR20220134754A (en) Lane Detection and Tracking Techniques for Imaging Systems
JP2002040137A (en) Obstacle-recognizing device for vehicle
CN114442101B (en) Vehicle navigation method, device, equipment and medium based on imaging millimeter wave radar
US11858493B2 (en) Method of sharing and using sensor data
WO2019008716A1 (en) Non-visible measurement device and non-visible measurement method
US10832569B2 (en) Vehicle detection systems
JP3857698B2 (en) Driving environment recognition device
US20220397675A1 (en) Imaging systems, devices and methods
KR101947581B1 (en) Apparatus for sharing point cloud data
CN117043632A (en) Enhancement of LIDAR road detection
US20220176987A1 (en) Trajectory limiting for autonomous vehicles
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
CN116142178A (en) Vehicle auxiliary driving method, system, medium and electronic equipment
US20220120900A1 (en) Light detection and ranging device using combined pulse and continuous optical signals
JP2019049811A (en) Vehicle control device, vehicle control method, and program