KR20220001405A - A method of sharing and using sensor data - Google Patents

A method of sharing and using sensor data Download PDF

Info

Publication number
KR20220001405A
KR20220001405A KR1020200112084A KR20200112084A KR20220001405A KR 20220001405 A KR20220001405 A KR 20220001405A KR 1020200112084 A KR1020200112084 A KR 1020200112084A KR 20200112084 A KR20200112084 A KR 20200112084A KR 20220001405 A KR20220001405 A KR 20220001405A
Authority
KR
South Korea
Prior art keywords
data
sub
point data
information
data set
Prior art date
Application number
KR1020200112084A
Other languages
Korean (ko)
Inventor
황성의
이용이
장준환
Original Assignee
주식회사 에스오에스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스오에스랩 filed Critical 주식회사 에스오에스랩
Priority to PCT/KR2020/016132 priority Critical patent/WO2021261680A1/en
Priority to US17/118,413 priority patent/US11878711B2/en
Priority to US17/118,358 priority patent/US11858493B2/en
Publication of KR20220001405A publication Critical patent/KR20220001405A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

According to an embodiment, a method for sharing sensor data between a first device and a second device comprises the steps of: acquiring, by a controller included in the first device, a set of point data included in the sensor data from at least one sensor disposed in the first device, wherein the point data set includes a first sub-set of point data representing at least a portion of a first object; generating, by the controller, first attribute data of the first sub-set of point data based on the first sub-set of point data, wherein the first attribute data includes class information of the first sub-set of point data; generating, by the controller, shared data including at least a portion of the first sub-set of point data and the first attribute data; and transmitting, by the controller, the shared data to the second device. If the class of the first object included in the class information is a class which needs protection of personal information, the content of the shared data includes privacy protection data in which at least a portion of the first sub-set of point data is processed so that the personal information of the first object is not identified in the second device. According to the present invention, the sensor data is shared without violating privacy.

Description

센서 데이터 공유 및 활용 방법 {A METHOD OF SHARING AND USING SENSOR DATA} How to share and utilize sensor data {A METHOD OF SHARING AND USING SENSOR DATA}

본 발명은 센서로부터 획득한 센서 데이터를 공유하고 활용하는 방법에 관한 것으로, 보다 상세하게는, 객체의 종류 또는 이벤트의 발생 여부에 따라 공유되는 공유 데이터의 컨텐츠를 결정하고, 통신 시스템을 통해 상기 공유 데이터를 수신한 장치는 상기 공유 데이터에 포함된 데이터의 좌표계를 정렬하여 차량의 경로 계산 등에 활용하는 것에 관한 것이다. The present invention relates to a method of sharing and utilizing sensor data obtained from a sensor, and more particularly, determining the content of shared data to be shared according to the type of object or occurrence of an event, and sharing the data through a communication system The device receiving the data relates to aligning the coordinate system of the data included in the shared data and using it to calculate the route of the vehicle.

주변 객체에 대한 정보를 획득하는 센서는 자율 주행 시스템에서 필수적인 구성이다. 예를 들어, 자율 주행 시스템을 탑재한 차량은 라이다, 레이다, 카메라, 또는 초음파 센서 등 적어도 하나의 센서를 통해 획득한 센서 데이터를 기초로 차량 주변 환경에 대한 정보를 획득한다.A sensor that acquires information about a surrounding object is an essential component in an autonomous driving system. For example, a vehicle equipped with an autonomous driving system acquires information about the environment around the vehicle based on sensor data acquired through at least one sensor such as a lidar, a radar, a camera, or an ultrasonic sensor.

또한, 자율 주행 시스템에서 제한된 센서를 통해 획득한 정보의 질을 향상시키기 위해 다른 차량, 인프라 장치, 서버 등과 데이터를 공유하는 V2X 기반의 자율 주행 시스템에 대한 연구가 활발히 진행되고 있다. In addition, in order to improve the quality of information acquired through limited sensors in the autonomous driving system, research on a V2X-based autonomous driving system that shares data with other vehicles, infrastructure devices, and servers is being actively conducted.

일 실시예에 따른 해결하고자 하는 과제는 개인 정보(사생활) 보호를 위한 센서 데이터 공유 방법에 관한 것이다.A problem to be solved according to an embodiment relates to a method of sharing sensor data for protecting personal information (privacy).

다른 일 실시예에 따른 해결하고자 하는 과제는 고정밀 지도 생성을 위한 효율적인 센서 데이터 공유 방법에 관한 것이다.A problem to be solved according to another embodiment relates to an efficient method of sharing sensor data for generating a high-precision map.

또 다른 일 실시예에 따른 해결하고자 하는 과제는 데이터 공유의 효율성을 높이기 위해 이벤트 발생에 따른 선별적 센서 데이터 공유 방법에 관한 것이다.A problem to be solved according to another embodiment relates to a method for selectively sharing sensor data according to an event occurrence in order to increase data sharing efficiency.

또 다른 일 실시예에 따른 해결하고자 하는 과제는 차량의 주행 시 발생할 수 있는 위험(예를 들어, 블라인드 스팟)에 대비한 센서 데이터 처리 및 차량 제어 방법에 관한 것이다.A problem to be solved according to another embodiment relates to a method of processing sensor data and controlling a vehicle in preparation for a risk (eg, a blind spot) that may occur during driving of a vehicle.

일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계- 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계, 및 상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우, 상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함할 수 있다.In a method for sharing sensor data between a first device and a second device according to an embodiment, a point data set included in the sensor data from at least one sensor disposed in the first device by a controller included in the first device obtaining (a set of point data), the point data set comprising a first sub-set of point data representing at least a portion of a first object-, by the controller, the Generating first attribute data of the first sub-point data set, the first attribute data including class information of the first sub-point data set, based on the first sub-point data set, to the controller generating shared data including at least a portion of the first sub-point data set and the first attribute data, and transmitting, by the controller, the shared data to the second device, When the class of the first object included in the class information is a class that requires protection of personal information, the content of the shared data is the first sub-point data so that the personal information of the first object is not identified in the second device. At least a portion of the set may include processed privacy protection data.

다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계- 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계, 상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계를 포함할 수 있고, 상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정될 수 있다.In a method for sharing sensor data between a first device and a second device according to another embodiment, a set of point data is obtained from at least one sensor disposed in the first device by a controller of the first device obtaining, wherein the point data set includes a first sub-set of point data representing at least a portion of a first object, the point data set included in the point data set by the controller generating first attribute data of a first sub-point data set, wherein the first attribute data includes class information of the first sub-point data set, the point data set, the first sub-point data set, and and generating shared data to be shared with the second device by using at least one of the first attribute data, among a mobility possibility of a class of the first object and a type of a class of the first object. Based on at least one, it may be determined whether at least one of the first sub-point data set or the first attribute data is included in the content of the shared data to be shared with the second device.

또 다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계-상기 포인트 데이터 셋은 복수의 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계; - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함- 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함할 수 있다.In a method for sharing sensor data between a first device and a second device according to another embodiment, a point included in the sensor data from at least one sensor disposed in the first device by a controller included in the first device obtaining a data set, wherein the point data set includes a plurality of sub-point data sets, determining, by the controller, attribute data of the sub-point data set based on the sub-point data set; generating, by the controller, first shared data for sharing to the second device based on the attribute data; sending, by the controller, the first shared data to the second device; - The content of the first shared data includes at least one of information included in the attribute data - Confirming, by the controller, the occurrence of an event for a first time point, by the controller, confirming the event and generating second shared data different from the first shared data, wherein the content of the second shared data is at least one of the point data sets acquired within a first time interval including the first time point. may include some.

또 다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계- 상기 포인트 데이터 셋은 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계- 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함-, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계, 및 상기 제2 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함할 수 있다. A method for sharing sensor data between a first device and a second device according to another embodiment includes: acquiring, by a controller included in the first device, a point data set included in the sensor data from at least one sensor; the point data set includes a sub-point data set representing at least a part of an object, determining, by the controller, attribute data of the sub-point data set based on the sub-point data set, by the controller , generating first shared data for sharing to the second device based on the attribute data; sending, by the controller, the first shared data to the second device—of the first shared data content includes at least one of information included in the attribute data - confirming, by the controller, occurrence of an event for a first time point; A first time comprising the steps of generating a second shared data different from the shared data, and transmitting the second shared data to the second device, wherein the content of the second shared data includes the first time point It may include at least a part of the point data set obtained within the interval.

또 다른 일 실시예에 따른 서버의 동작에 따른 데이터 공유 방법은 제1 영역에서 제1 시간에 발생한 이벤트를 확인하는 단계, 센서 데이터를 요청하는 제1 메시지를 상기 제1 영역으로부터 제1 범위 내에 위치하는 제1 장치에 전송하는 단계- 상기 제1 메시지는 상기 이벤트의 시간 정보를 포함하되, 상기 제1 시간과 관련된 시간 구간 내에 획득된 상기 센서 데이터를 획득하기 위해, 상기 시간 정보는 상기 제1 시간과 관련됨-, 상기 이벤트를 알리는 제2 메시지를 상기 제1 범위 외측의 소정 영역을 나타내는 제2 범위 내에 위치하는 제2 장치에 전송하는 단계-상기 제2 메시지는 상기 이벤트의 위치 정보를 포함하되, 상기 이벤트가 상기 제2 장치에 의해 인식되게 하기 위해, 상기 위치 정보는 상기 제1 영역과 관련됨-, 및 상기 제1 메시지에 응답하여 상기 제1 시간을 포함하는 제1 시간 구간내에 획득된 포인트 데이터 셋의 적어도 일부를 수신하는 단계를 포함하고, 상기 포인트 데이터 셋은 상기 제1 장치에 배치된 적어도 하나의 센서로부터 획득될 수 있다.A method of sharing data according to an operation of a server according to another embodiment includes: confirming an event occurring at a first time in a first area; locating a first message requesting sensor data within a first range from the first area transmitting to a first device that: the first message includes time information of the event, wherein to obtain the sensor data acquired within a time interval related to the first time, the time information is included in the first time related to - sending a second message informing of the event to a second device located within a second range indicating a predetermined area outside the first range - the second message including location information of the event, to cause the event to be recognized by the second device, the location information is associated with the first area; and point data obtained in a first time period in response to the first message comprising the first time period. Receiving at least a part of a set, wherein the point data set may be obtained from at least one sensor disposed in the first device.

또 다른 일 실시예에 따른 차량의 제어를 위한 공유 데이터 처리 방법은 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계 - 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-; 상기 컨트롤러에 의해, 상기 제1 객체의 위치에 대응하는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 획득하는 단계 - 상기 제1 속성 데이터는 제1 원점을 기준으로 하는 제1 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 속성 데이터를 기초로 제1 표준 속성 데이터를 생성하는 단계- 상기 제1 표준 속성 데이터는 제2 원점을 기준으로 하는 제2 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋에 의해 나타나지 않는 제2 객체의 위치에 대응하는 제2 표준 속성 데이터를 획득하는 단계 - 상기 제2 표준 속성 데이터는 상기 제2 좌표계에 의해 나타남-, 및 상기 컨트롤러에 의해, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 상기 차량을 제어하는 단계를 포함하고, 상기 제2 표준 속성 데이터는 제2 포인트 데이터 셋 - 상기 제2 포인트 데이터 셋은 상기 제1 장치에 포함된 제2 센서로부터 획득됨 - 에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터에 기초하여 생성될 수 있다.A shared data processing method for controlling a vehicle according to another embodiment includes, by a controller included in the vehicle, acquiring a first point data set included in sensor data from a first sensor included in the vehicle - the the first point data set includes a first sub-point data set representing at least a portion of the first object; obtaining, by the controller, first attribute data of the first sub-point data set corresponding to the position of the first object, wherein the first attribute data is represented by a first coordinate system with respect to a first origin generating, by the controller, first standard attribute data based on the first attribute data, the first standard attribute data being represented by a second coordinate system with respect to a second origin-, to the controller obtaining second standard property data corresponding to the position of a second object not represented by the first point data set, the second standard property data being represented by the second coordinate system, and to the controller by, controlling the vehicle based on the first standard attribute data and the second standard attribute data, wherein the second standard attribute data is a second point data set - the second point data set is the second point data set Acquired from the second sensor included in the first device - may be generated based on the second attribute data of the second sub-point data set included in the .

또 다른 일 실시예에 따른 차량의 경로를 생성하는 방법은 상기 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 획득된 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계;- 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정하는 단계 - 상기 제1 속성 데이터는 상기 제1 객체에 대응함-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나에 기초하여 상기 차량의 로컬 경로 - 상기 차량의 로컬 경로는 상기 차량의 속도, 상기 차량의 방향, 상기 차량의 위치 중 적어도 하나를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 제1 장치에 배치된 제2 센서로부터 획득된 센서 데이터에 포함되는 제2 포인트 데이터 셋에 기초하여 결정된 제2 속성 데이터를 수신하는 단계 - 상기 제2 속성 데이터는 상기 제1 포인트 데이터 셋에 기초하여 확인되지 않는 제2 객체에 대응함 -, 및 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 상기 차량의 로컬 경로에서 상기 차량의 위치, 상기 차량의 속도, 또는 상기 차량의 방향 중 적어도 일부를 변경한 수정 경로를 생성하는 단계를 포함할 수 있다.According to another exemplary embodiment, a method for generating a route of a vehicle includes: acquiring, by a controller included in the vehicle, a first point data set included in sensor data acquired from a first sensor included in the vehicle; - the first point data set includes a first sub-point data set representing at least a part of a first object - determining, by the controller, first attribute data of the first sub-point data set - the first attribute data corresponds to the first object - a local path of the vehicle based on at least one of the first point data set or the first attribute data, by the controller, wherein the local path of the vehicle is the vehicle generating, by the controller, second point data included in sensor data obtained from a second sensor disposed in the first device, including at least one of the speed of the vehicle, the direction of the vehicle, and the position of the vehicle receiving second attribute data determined based on a set, wherein the second attribute data corresponds to a second object not identified based on the first point data set; and, by the controller, the first point data Third, at least one of a location of the vehicle, a speed of the vehicle, or a direction of the vehicle in the local route of the vehicle is changed based on at least one of the first property data or the local route and the second property data It may include generating one modification path.

본 발명의 일 실시예에 따르면 프라이버시를 침해하지 않으면서 센서 데이터를 공유하는 방법이 제공될 수 있다.According to an embodiment of the present invention, a method of sharing sensor data without infringing privacy may be provided.

본 발명의 다른 일 실시예에 따르면 고정밀 지도를 효율적으로 생성하면서 센서 데이터를 공유하는 방법이 제공될 수 있다.According to another embodiment of the present invention, a method of sharing sensor data while efficiently generating a high-precision map may be provided.

본 발명의 또 다른 일 실시예에 따르면 데이터 공유의 효율성을 높이면서 센서 데이터를 공유하는 방법이 제공될 수 있다.According to another embodiment of the present invention, a method of sharing sensor data while increasing data sharing efficiency may be provided.

본 발명의 또 다른 일 실시예에 따르면 자율 주행 차량과 관련하여 발생할 수 있는 위험에 대비하면서 공유된 센서 데이터를 효율적으로 처리하는 방법이 제공될 수 있다.According to another embodiment of the present invention, a method of efficiently processing shared sensor data while preparing for a risk that may occur in relation to an autonomous vehicle may be provided.

도 1은 일 실시예에 따른 자율 주행 시스템의 구성 요소를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 적어도 하나의 센서를 보다 상세하게 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 인포테인먼트 시스템을 통한 디스플레이 방식을 나타내는 도면이다.
도 4는 일 실시예에 따른 자율 주행 시스템이 이상 주행 패턴을 보이는 이동체를 검출하는 상황을 나타내는 도면이다.
도 5는 일 실시예에 따른 자율 주행 시스템이 주행 중에 앞 차량의 사고를 인지한 상황을 나타내는 도면이다.
도 6은 일 실시예에 따른 자율 주행 시스템이 앞 차량의 갑작스러운 후진을인지하는 상황을 나타내는 도면이다.
도 7은 일 실시예에 따른 자율 주행 시스템이 차량의 바퀴의 움직임을 추적하는 상황을 나타내는 도면이다.
도 8은 일 실시예에 따른 자율 주행 시스템이 도로 상에 존재하는 블랙아이스를 감지하는 방법을 나타내는 도면이다.
도 9는 일 실시예에 따른 자율 주행 시스템이 탑재된 차량이 주행 중 불법 주차 차량을 감지한 상황을 나타내는 도면이다.
도 10은 일 실시예에 따른 자율 주행 시스템이 주차 가능 공간을 감지하는 상황을 나타내는 도면이다.
도 11은 일 실시예에 따른 자율 주행 시스템이 차량의 출차를 위한 맵을 생성하는 과정을 나타내는 도면이다.
도 12는 일 실시예에 따른 통신 시스템의 종류를 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 자율 주행 시스템을 탑재한 차량의 전방에 트래픽이벤트가 발생한 상황을 나타내는 도면이다.
도 14는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 주차장 내의 인프라 장치와의 통신을 통해 주차 가능 공간을 인지하는 상황을 나타내는 도면이다.
도 15는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 적어도 하나의 센서를 통해 차량 주변 환경에 대한 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 16은 도 15의 차량에 배치된 라이다 장치에 의해 획득된 센서 데이터를 3d 맵 상에 나타내는 도면이다.
도 17은 도 16의 3d 맵에 포함된 센서 데이터를 2차원 평면 상에 간략히 나타낸 도면이다.
도 18은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 포인트 데이터를 설명하기 위한 도면이다.
도 19는 도 16의 차량에 포함되는 라이다 장치로부터 획득된 포인트 데이터 셋을 설명하기 위한 도면이다.
도 20은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 서브 포인트 데이터 셋을 설명하기 위한 도면이다.
도 21은 일 실시예에 따른 자율 주행 시스템에 포함되는 라이다 장치로부터 획득된 서브 포인트 데이터로부터 생성된 속성 데이터를 설명하기 위한 도면이다.
도 22는 도 21의 속성 데이터의 다른 일 실시예를 나타내는 도면이다.
도 23은 일 실시예에 따른 속성 데이터에 포함되는 복수의 정보를 설명하기 위한 도면이다.
도 24는 일 실시예에 따른 속성 데이터에 포함되는 클래스 정보를 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 속성 데이터에 포함되는 중심 위치 정보를 설명하기위한 도면이다.
도 26은 일 실시예에 따른 속성 데이터에 포함되는 사이즈 정보를 설명하기 위한 도면이다.
도 27은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 템플릿 정보를 설명하기 위한 도면이다.
도 28은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 스켈레톤 정보를 설명하기 위한 도면이다.
도 29는 일 실시예에 따른 자율 주행 시스템이 센서로부터 획득된 서브 포인트 데이터 셋을 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 30은 일 실시예에 따른 자율 주행 시스템이 객체의 속성 데이터를 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 31은 일 실시예에 따른 자율 주행 시스템이 차량의 주행에 방해되는 장애물을 회피하기 위해 경로를 변경하는 상황을 나타내는 도면이다.
도 32는 일 실시예에 따른 복수의 장치간에 데이터가 공유되는 상황을 나타내는 도면이다.
도 33은 일 실시예에 따른 공유 데이터에 포함될 수 있는 공유 데이터의 컨텐츠의 종류를 도시한 도면이다.
도 34는 도 33의 공유 데이터의 컨텐츠를 상세하게 나타내는 도면이다.
도 35는 차량과 인프라 장치 간에 센서 데이터를 공유하는 상황을 나타내는도면이다.
도 36은 일 실시예에 따른 공유 데이터의 컨텐츠에 포인트 데이터 셋이 포함되는 상황을 설명하기 위한 도면이다.
도 37은 일 실시예에 따른 제1 차량이 공유 받은 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 38은 다른 일 실시예에 따른 제1 차량이 공유 받은 포인트 데이터 셋 및 제2포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 39는 일 실시예에 따른 공유 데이터의 컨텐츠에 속성 데이터가 포함되는 상황을 설명하기 위한 도면이다.
도 40은 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 나타내는 흐름도이다.
도 41은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 42는 도 41에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 43은 일 실시예에 따른 센서 데이터에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터 및 클래스 정보를 나타내는 도면이다.
도 44는 일 실시예에 따른 제1 차량이 전송하는 공유 데이터에 포함되는 공유 데이터의 컨텐츠를 나타내는 도면이다.
도 45는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 프라이버시 보호 데이터를 설명하기 위한 도면이다.
도 46은 일 실시예에 따른 데이터 공유 시스템에서 외부 서버의 데이터 공유 승인이 있는지에 따른 선별적 데이터 공유 방법을 나타내는 흐름도이다.
도 47은 다른 일 실시예에 따른 센서 데이터의 선별적 공유에 대한 구체적인 방법을 나타내는 흐름도이다.
도 48은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 49는 도 48에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 50은 일 실시예에 따른 공유 데이터의 컨텐츠를 설명하기 위한 도면이다.
도 51은 일 실시예에 따른 부가 정보를 포함하는 센서 데이터를 선별적으로 공유하는 방법에 대한 흐름도이다.
도 52는 일 실시예에 따른 제1 차량이 적어도 하나의 센서를 통해 부가 정보를 획득하는 상황을 나타내는 도면이다.
도 53는 도52에 따른 제1 차량이 획득한 센서 데이터를 2차원 평면 상에 간략히 나타내는 도면이다.
도 54는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋 및 부가 정보를 설명하기 위한 도면이다.
도 55는 일 실시예에 따른 이동형 객체와 관련된 센서 데이터를 공유하는 방법을 나타내는 흐름도이다.
도 56 일 실시예에 따른 공유 데이터를 선별적으로 저장하는 방법을 나타내는 도면이다.
도 57은 다른 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 설명하기 위한 흐름도이다.
도 58은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 59는 도58에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타내는 도면이다.
도 60은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 전송하는 제1 공유 데이터를 설명하기 위한 도면이다.
도 61은 일 실시예에 따른 이벤트 발생 시점에 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 62는 도 61에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타낸 도면이다.
도 63은 일 실시예에 따른 이벤트 발생 후에 제1 차량에서 전송하는 제2 공유 데이터를 설명하기 위한 도면이다.
도 64는 일 실시예에 따른 트래픽 이벤트 발생 상황을 설명하기 위한 도면이다.
도 65는 일 실시예에 따른 환경 이벤트 발생 상황을 설명하기 위한 도면이다.
도 66은 일 실시예에 따른 규제 이벤트 발생 상황을 설명하기 위한 도면이다.
도 67은 일 실시예에 따른 서버가 트래픽 이벤트와 관련된 데이터를 요청하거나 트래픽 이벤트의 발생을 알리는 방법을 나타내는 도면이다.
도 68은 일 실시예에 따른 서버 및 차량이 데이터 공유를 위해 통신을 수행하는 상황을 나타내는 도면이다.
도 69는 일 실시예에 따른 제1 범위에 포함되는 제1 서브 범위를 설명하기 위한 도면이다.
도 70은 일 실시예에 따른 제1 차량이 서버에 전송하는 공유 데이터에 포함되는 데이터를 설명하기 위한 도면이다.
도 71은 일 실시예에 따른 제1 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 72는 일 실시예에 따른 제2 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 73은 범위에 따른 센서 데이터의 선별적 공유 방법과 관련된 실시예를 설명하기 위한 도면이다.
도 74는 일 실시예에 따른 규제 이벤트와 관련하여 차량의 주행 중 블라인드 스팟에 따른 데이터의 선별적 공유 방법을 설명하기 위한 도면이다.
도 75는 일 실시예에 따른 공유 데이터에 포함되는 속성 데이터를 처리하는 방식을 설명하기 위한 흐름도이다.
도 76은 일 실시예에 따른 차량 및 인프라 장치가 데이터 공유를 위해 센서데이터를 획득하는 상황을 나타내는 도면이다.
도 77은 일 실시예에 따른 차량의 컨트롤러가 제1 속성 데이터 및 제1 표준속성 데이터를 각각 제1 지역 좌표계 및 전역 좌표계 상에 나타내는 방법을 설명하기 위한 도면이다.
도 78은 일 실시예에 따른 차량의 컨트롤러가 제2 지역 좌표계 상에 나타나는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 79는 일 실시예에 따른 글로벌 경로를 설명하기 위한 도면이다.
도 80은 일 실시예에 따른 로컬 경로 및 수정 경로를 설명하기 위한 도면이다.
도 81은 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법을 설명하기 위한 흐름도이다.
도 82는 일 실시예에 따른 제1 차량이 센서 데이터 및 공유 데이터를 기초로 생성된 경로를 따라 주행하는 상황을 나타내는 도면이다.
도 83은 일 실시예에 따른 제1 차량의 컨트롤러가 생성한 충돌 확률 맵을 기초로 수정 경로를 생성하는 방법을 설명하기 위한 도면이다.
도 84는 일 실시예에 따른 수정 경로의 다양한 실시예를 설명하기 위한 도면이다.
1 is a diagram for describing components of an autonomous driving system according to an exemplary embodiment.
2 is a diagram for describing at least one sensor according to an exemplary embodiment in more detail.
3 is a diagram illustrating a display method through an infotainment system according to an exemplary embodiment.
4 is a diagram illustrating a situation in which an autonomous driving system detects a moving object exhibiting an abnormal driving pattern according to an exemplary embodiment.
5 is a diagram illustrating a situation in which an autonomous driving system according to an exemplary embodiment recognizes an accident of a vehicle in front while driving.
6 is a diagram illustrating a situation in which an autonomous driving system recognizes abrupt reversing of a vehicle in front, according to an exemplary embodiment.
7 is a diagram illustrating a situation in which an autonomous driving system tracks a movement of a wheel of a vehicle according to an exemplary embodiment.
8 is a diagram illustrating a method of detecting black ice present on a road by an autonomous driving system according to an exemplary embodiment.
9 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment detects an illegally parked vehicle while driving.
10 is a diagram illustrating a situation in which an autonomous driving system detects a parking space according to an exemplary embodiment.
11 is a diagram illustrating a process in which an autonomous driving system generates a map for taking a vehicle out of a vehicle according to an exemplary embodiment.
12 is a diagram for describing a type of a communication system according to an embodiment.
13 is a diagram illustrating a situation in which a traffic event occurs in front of a vehicle equipped with an autonomous driving system according to an exemplary embodiment.
14 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment recognizes a parking space through communication with an infrastructure device in a parking lot.
15 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment acquires sensor data on an environment around the vehicle through at least one sensor.
FIG. 16 is a diagram illustrating sensor data acquired by the lidar device disposed in the vehicle of FIG. 15 on a 3D map.
17 is a diagram schematically illustrating sensor data included in the 3D map of FIG. 16 on a two-dimensional plane.
18 is a diagram for describing point data obtained from at least one lidar device included in an autonomous driving system according to an exemplary embodiment.
19 is a diagram for explaining a point data set obtained from a lidar device included in the vehicle of FIG. 16 .
20 is a diagram for describing a sub-point data set obtained from at least one lidar device included in an autonomous driving system according to an exemplary embodiment.
21 is a diagram for describing attribute data generated from sub-point data obtained from a lidar device included in an autonomous driving system according to an exemplary embodiment.
22 is a diagram illustrating another embodiment of the attribute data of FIG. 21 .
23 is a diagram for describing a plurality of pieces of information included in attribute data according to an exemplary embodiment.
24 is a diagram for describing class information included in attribute data according to an embodiment.
25 is a diagram for describing center position information included in attribute data according to an exemplary embodiment.
26 is a diagram for explaining size information included in attribute data according to an embodiment.
27 is a diagram for describing template information among shape information included in attribute data according to an exemplary embodiment.
28 is a diagram for describing skeleton information among shape information included in attribute data according to an exemplary embodiment.
29 is a diagram illustrating an autonomous driving system matching a sub-point data set obtained from a sensor to a high-precision map according to an embodiment.
30 is a diagram illustrating that the autonomous driving system matches the attribute data of an object to a high-precision map according to an exemplary embodiment;
FIG. 31 is a diagram illustrating a situation in which the autonomous driving system changes a route to avoid an obstacle obstructing the driving of a vehicle, according to an exemplary embodiment;
32 is a diagram illustrating a situation in which data is shared between a plurality of devices according to an exemplary embodiment.
33 is a diagram illustrating types of content of shared data that may be included in shared data according to an embodiment.
34 is a diagram illustrating in detail the content of the shared data of FIG. 33 .
35 is a diagram illustrating a situation in which sensor data is shared between a vehicle and an infrastructure device.
36 is a diagram for explaining a situation in which a point data set is included in content of shared data according to an embodiment.
37 is a diagram for explaining a method of processing a first point data set and a second point data set shared by the first vehicle according to an exemplary embodiment;
38 is a view for explaining a method of processing a shared point data set and a second point data set by the first vehicle according to another exemplary embodiment;
39 is a diagram for explaining a situation in which attribute data is included in content of shared data according to an embodiment.
40 is a flowchart illustrating a method for selectively sharing sensor data according to an embodiment.
41 is a diagram illustrating a situation in which the first vehicle acquires sensor data for selective sharing of sensor data according to an exemplary embodiment.
FIG. 42 is a diagram schematically expressing sensor data obtained by the first vehicle through a lidar device in FIG. 41 on a two-dimensional plane.
43 is a diagram illustrating attribute data and class information of a plurality of sub-point data sets included in sensor data according to an embodiment.
44 is a diagram illustrating content of shared data included in shared data transmitted by a first vehicle according to an exemplary embodiment.
45 is a diagram for explaining privacy protection data included in content of shared data according to an embodiment.
46 is a flowchart illustrating a selective data sharing method according to whether there is data sharing approval from an external server in a data sharing system according to an embodiment.
47 is a flowchart illustrating a specific method for selectively sharing sensor data according to another embodiment.
48 is a diagram illustrating a situation in which the first vehicle acquires sensor data for selective sharing of sensor data according to an exemplary embodiment.
49 is a diagram schematically expressing sensor data obtained by the first vehicle through a lidar device in FIG. 48 on a two-dimensional plane.
50 is a diagram for describing content of shared data according to an embodiment.
51 is a flowchart of a method for selectively sharing sensor data including additional information according to an embodiment.
52 is a diagram illustrating a situation in which the first vehicle acquires additional information through at least one sensor according to an exemplary embodiment.
53 is a diagram schematically illustrating sensor data acquired by the first vehicle according to FIG. 52 on a two-dimensional plane.
54 is a diagram for describing a sub-point data set and additional information included in content of shared data according to an embodiment.
55 is a flowchart illustrating a method of sharing sensor data related to a movable object according to an embodiment.
56 is a diagram illustrating a method of selectively storing shared data according to an embodiment.
57 is a flowchart illustrating a method for selectively sharing sensor data according to another embodiment.
58 is a diagram illustrating a situation in which sensor data is acquired from the first vehicle before an event occurs, according to an exemplary embodiment.
59 is a diagram schematically illustrating a point data set included in the sensor data obtained according to FIG. 58 on a two-dimensional plane.
60 is a diagram for describing first shared data transmitted from the first vehicle before an event occurs according to an embodiment.
61 is a diagram illustrating a situation in which the first vehicle acquires sensor data at an event occurrence time point according to an exemplary embodiment.
62 is a diagram schematically illustrating a point data set included in the sensor data obtained according to FIG. 61 on a two-dimensional plane.
63 is a diagram for describing second shared data transmitted from the first vehicle after an event occurs according to an embodiment.
64 is a diagram for explaining a traffic event occurrence situation according to an embodiment.
65 is a diagram for describing an environment event occurrence situation according to an exemplary embodiment.
66 is a diagram for explaining a regulation event occurrence situation according to an embodiment.
67 is a diagram illustrating a method in which a server requests data related to a traffic event or notifies occurrence of a traffic event according to an embodiment.
68 is a diagram illustrating a situation in which a server and a vehicle perform communication for data sharing according to an embodiment.
69 is a diagram for describing a first sub-range included in the first range, according to an exemplary embodiment.
70 is a diagram for describing data included in shared data transmitted by the first vehicle to a server according to an exemplary embodiment.
71 is a diagram for explaining information included in a first message according to an embodiment.
72 is a diagram for explaining information included in a second message according to an embodiment.
73 is a diagram for explaining an embodiment related to a method for selectively sharing sensor data according to a range.
74 is a view for explaining a method of selectively sharing data according to a blind spot while driving of a vehicle in relation to a regulatory event according to an exemplary embodiment.
75 is a flowchart illustrating a method of processing attribute data included in shared data according to an embodiment.
76 is a diagram illustrating a situation in which a vehicle and an infrastructure device acquire sensor data for data sharing according to an exemplary embodiment.
77 is a diagram for explaining a method in which a vehicle controller displays first attribute data and first standard attribute data on a first local coordinate system and a global coordinate system, respectively, according to an exemplary embodiment;
78 is a diagram for explaining a method of generating, by a vehicle controller, second standard attribute data based on second attribute data appearing on a second regional coordinate system, according to an exemplary embodiment;
79 is a diagram for describing a global path according to an embodiment.
80 is a diagram for describing a local path and a modified path according to an embodiment.
81 is a flowchart illustrating a method for a vehicle to create or modify a route based on shared data according to an embodiment.
82 is a diagram illustrating a situation in which the first vehicle travels along a path generated based on sensor data and shared data, according to an exemplary embodiment.
83 is a diagram for describing a method of generating a correction path based on a collision probability map generated by a controller of the first vehicle according to an exemplary embodiment.
84 is a view for explaining various embodiments of a modification path according to an embodiment.

본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.The embodiments described in this specification are for clearly explaining the spirit of the present invention to those of ordinary skill in the art to which the present invention pertains, so the present invention is not limited to the embodiments described herein, and the The scope should be construed to include modifications or variations without departing from the spirit of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 판례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terms used in this specification have been selected as widely used general terms as possible in consideration of the functions in the present invention, but they may vary depending on the intention, precedent, or emergence of new technology of those of ordinary skill in the art to which the present invention belongs. can However, if a specific term is defined and used in an arbitrary sense, the meaning of the term will be separately described. Therefore, the terms used in this specification should be interpreted based on the actual meaning of the terms and the contents of the entire specification, rather than the names of simple terms.

본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.The drawings attached to this specification are for easily explaining the present invention, and the shapes shown in the drawings may be exaggerated as necessary to help understand the present invention, so the present invention is not limited by the drawings.

본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.In the present specification, when it is determined that a detailed description of a known configuration or function related to the present invention may obscure the gist of the present invention, a detailed description thereof will be omitted if necessary.

일 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계 - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함- 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계, 및 상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우, 상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.According to one embodiment, In the method of sharing sensor data between a first device and a second device, a point data set included in the sensor data from at least one sensor disposed in the first device by a controller included in the first device ( obtaining a set of point data, the point data set comprising a first sub-set of point data representing at least a portion of a first object, by the controller, the first Generating first attribute data of the first sub-point data set, wherein the first attribute data includes class information of the first sub-point data set, based on the sub-point data set, by the controller, generating shared data including at least a portion of the first sub-point data set and the first attribute data, and transmitting, by the controller, the shared data to the second device, the class When the class of the first object included in the information is a class that requires protection of personal information, the content of the shared data is the content of the first sub-point data set so that the personal information of the first object is not identified in the second device. A method for sharing sensor data including at least a part of processed privacy protection data may be provided.

여기서, 상기 개인 정보를 보호 받아야하는 클래스는 사람과 관련된 클래스, 차량 또는 건물의 식별번호와 관련된 클래스, 또는 신분증과 관련된 클래스 중 적어도 하나를 포함할 수 있다.Here, the class from which the personal information should be protected may include at least one of a class related to a person, a class related to an identification number of a vehicle or building, or a class related to an ID.

여기서, 상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함할 수 있다.Here, the class information of the first sub-point set is at least one of information on the type of the first object, information on the type of a part of the first object, or information on the status of a region related to the first object. may contain one.

여기서, 상기 제1 서브 포인트 데이터 셋의 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함할 수 있다.Here, the first attribute data of the first sub-point data set includes class information of the first object, center position information indicating a central position of the first sub-point set, and size information of the first sub-point set. Size information, movement information including at least one of a movement speed or a movement direction of the first sub-point data set, identification information for distinguishing the first sub-point data set from other sub-point data sets, and the first object It may include at least one of shape information displayed by processing the shape.

여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 포함된 클래스의 종류와 관계없이 상기 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함할 수 있다.Here, the content of the shared data may include at least one of the information included in the first attribute data regardless of the type of the class included in the class information of the first sub-point data set.

여기서, 상기 형상 정보는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 기초하여 결정되되, 상기 형상 정보는 상기 제1 객체를 소정 개수 이하의 포인트로 나타낸 스켈레톤 정보 및 상기 제1 객체를 미리 결정된 형상으로 나타낸 템플릿 정보 중 적어도 하나를 포함할 수 있다.Here, the shape information is determined based on the class information of the first sub-point data set, and the shape information includes skeleton information representing the first object as a number of points or less and a predetermined shape of the first object. It may include at least one of the template information indicated by .

여기서, 상기 프라이버시 보호 데이터는 상기 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보를 더 포함함 - 에 포함된 정보 중 적어도 일부를 포함할 수 있다.Here, the privacy protection data may include at least a portion of information included in the first attribute data, wherein the first attribute data further includes shape information representing the shape of the first object by processing.

여기서, 상기 제1 서브 포인트 데이터 셋은 복수의 포인트 데이터를 포함하고, 상기 프라이버시 보호 데이터는 상기 제1 서브 포인트 데이터 셋에 포함된 상기 복수의 포인트 데이터 중 상기 제1 객체의 프라이버시와 관련된 영역에 대한 적어도 하나의 포인트 데이터를 기초로 생성될 수 있다.Here, the first sub-point data set includes a plurality of point data, and the privacy protection data includes information about an area related to the privacy of the first object among the plurality of point data included in the first sub-point data set. It may be generated based on at least one point data.

여기서, 상기 포인트 데이터 셋은 제2 객체의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호받아야 하는 클래스이고, 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터를 포함하고, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 일부를 포함할 수 있다.Here, the point data set includes a second sub-point data set representing at least a portion of a second object, and the class of the first object included in the class information of the first sub-point data set requires that personal information be protected. If it is a class, and the class of the second object included in the class information of the second sub-point data set is not a class that requires protection of personal information, the content of the shared data is at least a portion of the first sub-point data set. Processed privacy protection data may be included, and the content of the shared data may include at least a portion of the second sub-point data set and second attribute data of the second sub-point data set.

여기서, 상기 포인트 데이터 셋은 제2 객체의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 외부 서버로부터 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 - 상기 제2 속성 데이터는 상기 제2 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 중 적어도 하나의 공유에 대한 인증을 획득한 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스의 종류에 관계없이 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 속성 데이터 중 적어도 하나를 포함할 수 있다.Here, the point data set includes a second sub-point data set representing at least a part of a second object, and the second sub-point data set or second attribute data of the second sub-point data set from an external server - the The second attribute data includes class information of the second sub-point data set - When at least one of sharing authentication is obtained, the content of the shared data is included in the class information of the second sub-point data set At least one of the second sub-point data set and the second attribute data may be included regardless of the type of the class of the second object.

여기서, 상기 포인트 데이터 셋은 다수의 포인트 데이터(point data)를 포함하고, 상기 다수의 포인트 데이터는, 상기 제1 장치에 배치된 적어도 하나의 상기 센서에 의해 측정된 객체까지의 거리 및 객체의 반사율 중 적어도 하나에 기초하여 생성되고, 상기 컨트롤러는 상기 제1 장치로부터 소정 거리 이하에 위치하는 상기 제1 객체에 대하여, 상기 제1 객체에 대한 다수의 포인트 데이터를 기초로 상기 제1 서브 포인트 데이터 셋을 생성하고, 상기 컨트롤러는 상기 제1 장치로부터 소정 거리보다 더 멀리 위치하는 제2 객체에 대하여, 상기 제2 객체에 대한 다수의 포인트 데이터를 기초로 제2 서브 포인트 데이터 셋을 생성하고, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 속성 데이터에 관계없이 상기 제2 서브 포인트 데이터 셋을 포함할 수 있다.Here, the point data set includes a plurality of point data, and the plurality of point data includes a distance to an object and reflectance of the object measured by at least one sensor disposed in the first device. is generated based on at least one of the first sub-point data sets, and the controller, for the first object located at a predetermined distance or less from the first device, based on a plurality of point data for the first object for a second object located further than a predetermined distance from the first device, the controller generates a second sub-point data set based on a plurality of point data for the second object, and the sharing The data content may include the second sub-point data set regardless of attribute data of the second sub-point data set.

다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계, 상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계; 를 포함하고, 상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정되는 센서 데이터 공유 방법이 제공될 수 있다.According to another embodiment, in a method for sharing sensor data between a first device and a second device, a point data set (a set) from at least one sensor disposed in the first device by a controller of the first device of point data); - the point data set includes a first sub-set of point data representing at least a part of a first object - the first sub-point included in the point data set by the controller generating first attribute data of a data set, wherein the first attribute data includes class information of the first sub-point data set, the point data set, the first sub-point data set, and the first attribute generating shared data for sharing with the second device by using at least one of the data; Including, based on at least one of the mobility of the class of the first object and the type of the class of the first object, the first sub-point data set or A method for sharing sensor data in which it is determined whether at least one of the first attribute data is included may be provided.

여기서, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1객체의 클래스가 고정형 객체와 관련된 경우, 상기 제2 장치에 전송되는 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하고, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함할 수 있다.Here, when the class of the first object included in the class information of the first sub-point data set is related to a fixed object, the content of the shared data transmitted to the second device includes the first sub-point data set, and , transmitting the shared data to the second device.

여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함할 수 있다.Here, the content of the shared data may include at least one of information included in the first attribute data of the first sub-point data set.

여기서, 상기 컨트롤러가 상기 고정형 객체가 소정 시간 후에 이동 가능한지 여부와 관련되는 부가 정보를 획득하는 경우, 상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함할 수 있다.Here, when the controller acquires additional information related to whether the fixed object is movable after a predetermined time, the content of the shared data may include the additional information.

여기서, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함되는 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않을 수 있다.Here, when the class of the first object included in the class information of the first sub-point data set is related to a movable object, the content of the shared data may not include the first sub-point data set.

여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함되는 정보 중 적어도 하나를 포함하고, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함할 수 있다.Here, the content of the shared data may include at least one of information included in the first attribute data of the first sub-point data set, and transmitting the shared data to the second device.

여기서, 상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함할 수 있다.Here, the class information of the first sub-point set is at least one of information on the type of the first object, information on the type of a part of the first object, or information on the status of a region related to the first object. may contain one.

여기서, 상기 포인트 데이터 셋은 제2 객체 - 상기 제2 객체는 상기 제1 객체로부터 소정 거리만큼 떨어진 영역 내에 위치함-의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 상기 제1 객체와 관련된 영역의 상황은 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋을 기초로 판단되고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보 및 상기 제2 서브 포인트 데이터 셋의 클래스 정보가 상기 제1 객체와 관련된 영역의 상황에 대한 정보를 포함하는 경우, 상기 컨트롤러는 상기 객체와 관련된 영역의 상황의 종료 시점과 관련되는 부가 정보를 획득하고, 상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함할 수 있다.Here, the point data set includes a second sub-point data set representing at least a portion of a second object, wherein the second object is located in an area separated by a predetermined distance from the first object, and the first object and The status of the related area is determined based on the first sub-point data set and the second sub-point data set, and the class information of the first sub-point data set and the class information of the second sub-point data set are the second sub-point data set. 1 When information on the status of the area related to the object is included, the controller obtains additional information related to the end time of the situation of the area related to the object, and the content of the shared data may include the additional information have.

여기서, 상기 제1서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함할 수 있다.Here, when the class of the first object included in the class information of the first sub-point data set is related to a fixed object, the content of the shared data does not include the first sub-point data set, and the first sub-point data set is not included. When the class of the first object included in the class information of the point data set is related to the movable object, the content of the shared data may include the first sub-point data set.

여기서, 상기 적어도 하나의 센서는 라이다, 카메라, 레이더 및 초음파 센서 중 적어도 하나를 포함할 수 있다.Here, the at least one sensor may include at least one of a lidar, a camera, a radar, and an ultrasonic sensor.

여기서, 상기 제1 장치 및 상기 제2 장치 각각은 이동체, 서버, 모바일 디바이스, 또는 인프라 장치 중 적어도 하나를 포함할 수 있다.Here, each of the first device and the second device may include at least one of a mobile body, a server, a mobile device, and an infrastructure device.

여기서, 전술한 센서 데이터 공유 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.Here, a computer-readable recording medium in which a program for performing the above-described sensor data sharing method is recorded may be provided.

또 다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계 -상기 포인트 데이터 셋은 복수의 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계 - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함-, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.According to another embodiment, in a method for sharing sensor data between a first device and a second device, the sensor data is obtained from at least one sensor disposed in the first device by a controller included in the first device. obtaining a point data set included in - the point data set includes a plurality of sub-point data sets-, determining, by the controller, attribute data of the sub-point data set based on the sub-point data set generating, by the controller, first shared data for sharing to the second device based on the attribute data, sending, by the controller, the first shared data to the second device - The content of the first shared data includes at least one of the information included in the attribute data-, confirming, by the controller, the occurrence of an event for a first time point, by the controller, the event and generating second shared data different from the first shared data according to confirmation, wherein the content of the second shared data is the point data set obtained within a first time interval including the first time point. A method for sharing sensor data including at least a portion may be provided.

여기서, 상기 제2 공유 데이터를 상기 제2 장치에 제공하도록 구성될 수 있다.Here, it may be configured to provide the second shared data to the second device.

여기서, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 상기 제2 공유 데이터의 공유를 요청하는 요청 정보를 수신한 경우, 상기 요청 정보의 수신에 응답하여, 상기 요청 정보를 전송한 장치에 상기 제2 공유 데이터를 제공하도록 구성될 수 있다.Here, when receiving request information for requesting sharing of the second shared data from at least one of the second device or the third device, in response to receiving the request information, the second device is sent to the device that transmitted the request information. 2 may be configured to provide shared data.

여기서, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 제4 장치에 대하여 상기 제2 공유 데이터의 공유를 요청하는 요청 정보를 수신한 경우, 상기 요청 정보의 수신에 응답하여, 상기 제4 장치에 상기 제2 공유 데이터를 제공하도록 구성될 수 있다.Here, when the request information for requesting sharing of the second shared data with the fourth device is received from at least one of the second device or the third device, in response to the reception of the request information, to the fourth device and provide the second shared data.

여기서, 상기 이벤트의 발생을 확인하는 단계는, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 상기 이벤트가 발생한 사실을 나타내는 정보를 획득하는 단계를 포함할 수 있다.Here, the step of confirming the occurrence of the event may include acquiring information indicating the fact that the event has occurred from at least one of the second device and the third device.

여기서, 상기 이벤트의 발생을 확인하는 단계는, 상기 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 기초로 상기 이벤트의 발생을 확인하는 단계를 포함할 수 있다.Here, the confirming of the occurrence of the event includes confirming the occurrence of the event based on at least a part of the point data set, the plurality of sub-point data sets, or attribute data of the sub-point data set. can do.

여기서, 상기 요청 정보는 상기 이벤트가 발생한 사실을 나타내는 정보를 포함하고, 상기 이벤트의 발생을 확인하는 단계는 상기 이벤트가 발생한 사실을 나타내는 정보를 기초로 상기 이벤트의 발생을 확인할 수 있다.Here, the request information may include information indicating the fact that the event has occurred, and the confirming of the occurrence of the event may confirm the occurrence of the event based on the information indicating the fact that the event has occurred.

여기서, 상기 복수의 서브 포인트 데이터 셋 중 하나는 상기 이벤트와 관련되는 객체의 적어도 일부를 나타낼 수 있다.Here, one of the plurality of sub-point data sets may represent at least a part of an object related to the event.

여기서, 상기 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련된 트래픽 이벤트, 상기 제1 장치의 주변 환경과 관련된 환경 이벤트, 및 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련된 규제 이벤트 중 적어도 하나를 포함할 수 있다.Here, the event is a traffic event related to at least one of an accident situation related to the first device or an accident situation related to another device around the first device, an environmental event related to the surrounding environment of the first device, and the first device Or it may include at least one of a regulation event related to regulation of other devices in the vicinity of the first device.

여기서, 상기 제1 시점은 상기 이벤트를 확인한 시점 또는 상기 이벤트의 발생 시점 중 적어도 하나를 포함할 수 있다.Here, the first time point may include at least one of a time point at which the event is confirmed or a time point at which the event occurs.

여기서, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 공유 데이터의 컨텐츠의 적어도 일부를 포함할 수 있다.Here, the content of the second shared data may include at least a part of the content of the first shared data.

여기서, 상기 제2 공유 데이터는 상기 제1 시간 구간 동안에 획득된 복수의 포인트 데이터 셋을 기초로 생성되고, 상기 제2 공유 데이터가 일정 주기로 생성되는 경우, 상기 제2 공유 데이터가 생성될 때 마다 상기 제2 공유 데이터를 상기 제2 장치에 전송하거나, 상기 제2 공유 데이터가 상기 제1 시간 구간의 종료 이후에 생성되는 경우, 상기 제2 공유 데이터가 생성된 이후에 상기 제2 공유 데이터를 상기 제2 장치에 전송할 수 있다.Here, the second shared data is generated based on a plurality of point data sets obtained during the first time period, and when the second shared data is generated at a certain period, whenever the second shared data is generated, the When the second shared data is transmitted to the second device, or when the second shared data is generated after the end of the first time period, the second shared data is transmitted to the second shared data after the second shared data is generated. 2 can be transmitted to the device.

여기서, 상기 제1 시간 구간은 이벤트 발생 시점을 포함할 수 있다.Here, the first time period may include an event occurrence time.

여기서, 상기 제1 시간 구간은 상기 이벤트가 종료되는 제2 시점을 더 포함할 수 있다.Here, the first time period may further include a second time point at which the event ends.

또 다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계- 상기 포인트 데이터 셋은 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계 - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함 -, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계, 및 상기 제2 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.According to another embodiment, in a method for sharing sensor data between a first device and a second device, a point data set included in the sensor data is retrieved from at least one sensor by a controller included in the first device. obtaining, wherein the point data set includes a sub-point data set representing at least a part of an object, determining, by the controller, attribute data of the sub-point data set based on the sub-point data set; generating, by the controller, first shared data for sharing to the second device based on the attribute data; sending, by the controller, the first shared data to the second device; 1 The content of the shared data includes at least one of information included in the attribute data -, by the controller, confirming the occurrence of the event for the first time point, by the controller, as the event is confirmed , generating second shared data different from the first shared data, and transmitting the second shared data to the second device, wherein the content of the second shared data includes the first time point A method for sharing sensor data including at least a portion of the point data set acquired within a first time interval may be provided.

또 다른 실시예에 따르면, 서버의 동작 방법으로서, 제1 영역에서 제1 시간에 발생한 이벤트를 확인하는 단계, 센서 데이터를 요청하는 제1 메시지를 상기 제1 영역으로부터 제1 범위 내에 위치하는 제1 장치에 전송하는 단계 - 상기 제1 메시지는 상기 이벤트의 시간 정보를 포함하되, 상기 제1 시간과 관련된 시간 구간 내에 획득된 상기 센서 데이터를 획득하기 위해, 상기 시간 정보는 상기 제1 시간과 관련됨-, 상기 이벤트를 알리는 제2 메시지를 상기 제1 범위 외측의 소정 영역을 나타내는 제2 범위 내에 위치하는 제2 장치에 전송하는 단계- 상기 제2 메시지는 상기 이벤트의 위치 정보를 포함하되, 상기 이벤트가 상기 제2 장치에 의해 인식되게 하기 위해, 상기 위치 정보는 상기 제1 영역과 관련됨- ,및 상기 제1 메시지에 응답하여 상기 제1 시간을 포함하는 제1 시간 구간내에 획득된 포인트 데이터 셋의 적어도 일부를 수신하는 단계를 포함하고, 상기 포인트 데이터 셋은 상기 제1 장치에 배치된 적어도 하나의 센서로부터 획득되는 데이터 공유 방법이 제공될 수 있다.According to another embodiment, there is provided a method of operating a server, comprising: confirming an event occurring at a first time in a first area; sending to a device, wherein the first message includes time information of the event, wherein to obtain the sensor data obtained within a time interval associated with the first time, the time information is associated with the first time; , transmitting a second message informing of the event to a second device located within a second range indicating a predetermined area outside the first range - The second message includes location information of the event, to be recognized by the second device, the location information is associated with the first area; A data sharing method may be provided, including receiving a part, wherein the point data set is obtained from at least one sensor disposed in the first device.

여기서, 상기 제1 장치가 제1 서브 범위 - 상기 제1 서브 범위는 상기 제1 범위 내에서 상기 이벤트와 관련된 정보를 획득 가능한 영역을 나타냄- 내에 위치하는 경우, 상기 제1 장치에 배치된 센서로부터 획득되는 포인트 데이터 셋은 상기 이벤트와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있다.Here, when the first device is located within a first sub-range, wherein the first sub-range indicates an area in which information related to the event can be obtained within the first range, a sensor disposed in the first device The acquired point data set may include a sub point data set representing at least a part of an object related to the event.

여기서, 상기 제1 영역은 상기 이벤트와 관련되는 모든 객체들을 포함하는 영역을 포함할 수 있다.Here, the first area may include an area including all objects related to the event.

여기서, 상기 이벤트를 확인하는 단계는 상기 제1 시간에 상기 이벤트가 발생한 사실을 나타내는 제1 정보 및 상기 제1 영역에서 상기 이벤트가 발생한 사실을 나타내는 제2 정보를 획득하는 단계를 포함할 수 있다.Here, the confirming of the event may include acquiring first information indicating the fact that the event occurred at the first time and second information indicating the fact that the event occurred in the first area.

여기서, 상기 제2 장치는 차량에 포함되되, 상기 제2 범위 내에 위치하는 상기 차량의 경로가 상기 제1 영역과 관련되는 경우, 상기 차량에 상기 제2 메시지를 전송할 수 있다.Here, the second device may be included in the vehicle, and when the path of the vehicle located within the second range is related to the first area, the second device may transmit the second message to the vehicle.

여기서, 상기 제1 장치 및 상기 제2 장치 각각은 서버, 이동체, 모바일 디바이스, 또는 인프라 중 적어도 하나를 포함할 수 있다.Here, each of the first apparatus and the second apparatus may include at least one of a server, a mobile device, a mobile device, and an infrastructure.

여기서, 상기 적어도 하나의 센서는 라이다, 레이더, 카메라, 및 초음파 센서 중 적어도 하나를 포함할 수 있다.Here, the at least one sensor may include at least one of a lidar, a radar, a camera, and an ultrasonic sensor.

여기서, 전술한 센서 데이터 공유 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.Here, a computer-readable recording medium in which a program for performing the above-described sensor data sharing method is recorded may be provided.

또 다른 실시예에 따르면, 제1 장치로부터 획득한 센서 데이터를 처리하여 차량을 제어하는 방법으로서, 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계 - 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 객체의 위치에 대응하는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 획득하는 단계 - 상기 제1 속성 데이터는 제1 원점을 기준으로 하는 제1 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 속성 데이터를 기초로 제1 표준 속성 데이터를 생성하는 단계- 상기 제1 표준 속성 데이터는 제2 원점을 기준으로 하는 제2 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋에 의해 나타나지 않는 제2 객체의 위치에 대응하는 제2 표준 속성 데이터를 획득하는 단계 - 상기 제2 표준 속성 데이터는 상기 제2 좌표계에 의해 나타남-, 및 상기 컨트롤러에 의해, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 상기 차량을 제어하는 단계를 포함하고, 상기 제2 표준 속성 데이터는 제2 포인트 데이터 셋 - 상기 제2 포인트 데이터 셋은 상기 제1 장치에 포함된 제2 센서로부터 획득됨 - 에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터에 기초하여 생성되는 차량 제어 방법이 제공될 수 있다.According to another embodiment, there is provided a method of controlling a vehicle by processing sensor data obtained from a first device, a first point included in sensor data from a first sensor included in the vehicle by a controller included in the vehicle obtaining a data set, wherein the first point data set includes a first sub-point data set representing at least a part of a first object, by the controller, the first point corresponding to a position of the first object acquiring first attribute data of a sub-point data set, wherein the first attribute data is represented by a first coordinate system with respect to a first origin-, by the controller, a first attribute data based on the first attribute data generating standard property data, wherein the first standard property data is represented by a second coordinate system with respect to a second origin—a position of a second object, by the controller, not represented by the first set of point data obtaining second standard attribute data corresponding to , wherein the second standard attribute data is represented by the second coordinate system; and, by the controller, based on the first standard attribute data and the second standard attribute data to control the vehicle, wherein the second standard attribute data is a second included in a second point data set, wherein the second point data set is obtained from a second sensor included in the first device. A vehicle control method generated based on second attribute data of a sub-point data set may be provided.

여기서, 상기 제1 표준 속성 데이터를 획득하는 단계는 상기 제1 속성 데이터가 나타나는 상기 제1 좌표계를 상기 제2 좌표계로 설정하는 단계를 포함할 수 있다.Here, the acquiring of the first standard attribute data may include setting the first coordinate system in which the first attribute data appears as the second coordinate system.

여기서, 상기 제2 표준 속성 데이터를 획득하는 단계는 상기 제1 장치로부터, 제3 원점을 기준으로 하는 제3 좌표계에 의해 나타나는 상기 제2 속성 데이터를 수신하는 단계, 및 상기 제3 좌표계를 상기 제2 좌표계로 정렬시킴에 따라, 상기 제2 속성 데이터에 기초하여 상기 제2 표준 속성 데이터를 생성하는 단계를 포함할 수 있다.Here, the acquiring of the second standard attribute data includes: receiving, from the first device, the second attribute data indicated by a third coordinate system based on a third origin; The method may include generating the second standard attribute data based on the second attribute data by aligning the two coordinate systems.

여기서, 상기 제1 표준 속성 데이터를 획득하는 단계는 상기 제1 속성 데이터가 나타나는 상기 제1 좌표계를 상기 제2 좌표계로 정렬시키는 단계를 포함하고, 상기 제2 표준 속성 데이터를 생성하는 단계는 상기 제2 속성 데이터가 나타나는 상기 제3 좌표계를 상기 제2 좌표계로 정렬시키는 단계를 포함할 수 있다.Here, the acquiring of the first standard attribute data includes aligning the first coordinate system in which the first attribute data appears with the second coordinate system, and the generating of the second standard attribute data includes the step of the second coordinate system. The method may include aligning the third coordinate system in which the second attribute data appears to the second coordinate system.

여기서, 상기 제3 원점은 상기 제1 장치에 포함된 상기 제2 센서의 광학 원점의 위치에 대응할 수 있다.Here, the third origin may correspond to the position of the optical origin of the second sensor included in the first device.

여기서, 상기 제1 원점은 상기 차량에 포함된 상기 제1 센서의 광학 원점의 위치에 대응하고, 상기 제2 원점은 상기 제1 원점 또는 미리 결정된 정적 위치 중 적어도 하나에 대응할 수 있다.Here, the first origin may correspond to a position of an optical origin of the first sensor included in the vehicle, and the second origin may correspond to at least one of the first origin and a predetermined static position.

여기서, 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함하고, 상기 제2 속성 데이터는 상기 제2 객체의 클래스 정보, 상기 제2 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제2 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제2 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제2 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제2 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함할 수 있다.Here, the first attribute data includes class information of the first object, center position information indicating a central position of the first sub-point set, size information indicating size information of the first sub-point set, and the first sub-point Among the movement information including at least one of the movement speed or the movement direction of the data set, identification information for distinguishing the first sub-point data set from other sub-point data sets, and shape information displayed by processing the shape of the first object at least one, wherein the second attribute data includes class information of the second object, center position information indicating a central position of the second sub-point set, size information indicating size information of the second sub-point set, and the Movement information including at least one of the movement speed or movement direction of the second sub-point data set, identification information for distinguishing the second sub-point data set from other sub-point data sets, and processing the shape of the second object It may include at least one of the indicated shape information.

여기서, 상기 제1 속성 데이터는 상기 제1 좌표계 상에 나타나는 상기 제1 서브 포인트 데이터 셋의 제1 중심 위치 정보를 포함하고, 상기 제1 표준 속성 데이터에 포함되되 상기 제1 중심 위치 정보에 기초하여 생성되는 제1 표준 중심 위치 정보는 상기 제2 좌표계 상에 나타나고, 상기 제2 속성 데이터는 제3 좌표계 상에 나타나는 상기 제2 서브 포인트 데이터 셋의 제2 중심 위치 정보를 포함하고, 상기 제2 표준 속성 데이터에 포함되되 상기 제2 중심 위치 정보에 기초하여 생성되는 상기 제2 표준 중심 위치 정보는 상기 제2 좌표계 상에 나타날 수 있다.Here, the first attribute data includes first central position information of the first sub-point data set appearing on the first coordinate system, and is included in the first standard attribute data based on the first central position information The generated first standard center position information appears on the second coordinate system, the second attribute data includes second center position information of the second sub-point data set appearing on a third coordinate system, and the second standard The second standard center position information included in the attribute data but generated based on the second center position information may appear on the second coordinate system.

여기서, 상기 차량을 제어하는 단계는, 상기 차량을 상기 차량의 위치 및 목적지의 위치를 기초로 미리 설정된 글로벌 경로를 따라 주행하도록 제어하되, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 로컬 경로를 생성하는 단계를 포함할 수 있다.Here, the controlling of the vehicle includes controlling the vehicle to travel along a preset global route based on the location of the vehicle and the location of the destination, and based on the first standard property data and the second standard property data to create a local path.

또 다른 실시예에 따르면, 제1 장치로부터 획득한 센서 데이터를 처리하여 차량의 경로를 생성하는 방법에 있어서, 상기 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 획득된 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계- 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정하는 단계 - 상기 제1 속성 데이터는 상기 제1 객체에 대응함-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나에 기초하여 상기 차량의 로컬 경로 - 상기 차량의 로컬 경로는 상기 차량의 속도, 상기 차량의 방향, 상기 차량의 위치 중 적어도 하나를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 제1 장치에 배치된 제2 센서로부터 획득된 센서 데이터에 포함되는 제2 포인트 데이터 셋에 기초하여 결정된 제2 속성 데이터를 수신하는 단계 - 상기 제2 속성 데이터는 상기 제1 포인트 데이터 셋에 기초하여 확인되지 않는 제2 객체에 대응함 -, 및 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 상기 차량의 로컬 경로에서 상기 차량의 위치, 상기 차량의 속도, 또는 상기 차량의 방향 중 적어도 일부를 변경한 수정 경로를 생성하는 단계를 포함하는 차량 경로 생성 방법이 제공될 수 있다.According to another embodiment, in a method of generating a route of a vehicle by processing sensor data obtained from a first device, sensor data obtained from a first sensor included in the vehicle by a controller included in the vehicle acquiring a first point data set included in - the first point data set includes a first sub-point data set representing at least a part of a first object-, by the controller, the first sub-point data determining a set of first attribute data, the first attribute data corresponding to the first object, based on at least one of the first set of point data or the first attribute data, by the controller generating a local path of the vehicle, the local path of the vehicle comprising at least one of a speed of the vehicle, a direction of the vehicle, and a position of the vehicle, a second sensor disposed in the first device, by the controller Receiving second attribute data determined based on a second point data set included in the sensor data obtained from - The second attribute data corresponds to a second object not identified based on the first point data set - and, based on the second attribute data and at least one of the first point data set, the first attribute data or the local path, by the controller, the position of the vehicle in the local path of the vehicle, the position of the vehicle A method of generating a vehicle path including generating a corrected path in which at least a part of a speed or a direction of the vehicle is changed may be provided.

여기서, 상기 로컬 경로는 상기 제2 객체가 위치하는 소정 영역과 적어도 일부분 겹쳐지고, 상기 수정 경로는 상기 제2 객체가 위치하는 소정 영역과 겹쳐지지 않을 수 있다.Here, the local path may at least partially overlap a predetermined area in which the second object is located, and the modification path may not overlap a predetermined area in which the second object is located.

여기서, 상기 차량을 상기 차량의 위치 및 목적지의 위치를 기초로 미리 설정된 글로벌 경로를 따라 주행하도록 제어하되, 상기 로컬 경로를 생성하는 단계는 상기 제1 센서의 시야각에 대응하는 영역의 적어도 일부를 포함하는 로컬 경로를 생성하는 단계, 및 상기 차량이 상기 로컬 경로를 따라 주행하도록 제어하는 단계를 포함할 수 있다.Here, the vehicle is controlled to travel along a preset global route based on the location of the vehicle and the location of the destination, wherein the generating of the local route includes at least a portion of an area corresponding to the viewing angle of the first sensor. It may include generating a local route, and controlling the vehicle to travel along the local route.

여기서, 상기 수정 경로를 생성하는 단계는, 상기 차량의 로컬 경로를 기초로 예측되는 상기 차량의 위치 이동에 대한 확률 및 상기 제2 속성 데이터를 기초로 예측되는 상기 제2 객체의 위치 이동에 대한 확률을 기초로 상기 차량의 경로를 수정할지 여부를 결정하는 단계를 포함할 수 있다.Here, the generating of the modified path includes a probability of a position movement of the vehicle predicted based on a local path of the vehicle and a probability of a position movement of the second object predicted based on the second attribute data. It may include determining whether to correct the route of the vehicle based on the.

여기서, 상기 제1 장치에 배치된 상기 제2 센서로부터 획득된 상기 제2 포인트 데이터 셋에 기초하여 결정된 제3 속성 데이터를 수신하는 단계- 상기 제3 속성 데이터는 제3 객체와 대응됨 -, 상기 제3 속성 데이터와 상기 제1 속성 데이터를 비교하여 상기 제3 객체와 상기 제1 객체가 동일한 객체인지 여부를 결정하는 단계, 및 상기 제1 객체와 상기 제3 객체가 상이한 객체라고 판단된 경우, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 , 상기 제2 속성 데이터, 및 상기 제3 속성 데이터를 기초로 차량의 위치, 차량의 속도, 또는 차량의 방향 중 적어도 일부를 변경하여 상기 제3 객체를 반영하기 위한 수정 경로를 생성하는 단계를 더 포함하는 차량 경로 생성 방법이 제공될 수 있다.Here, receiving third attribute data determined based on the second point data set obtained from the second sensor disposed in the first device - the third attribute data corresponds to a third object -, the determining whether the third object and the first object are the same object by comparing the third attribute data with the first attribute data, and when it is determined that the first object and the third object are different objects, At least a portion of a vehicle position, a vehicle speed, or a vehicle direction based on at least one of the first point data set, the first attribute data, or the local route, the second attribute data, and the third attribute data A vehicle path generation method may be provided, further comprising generating a modified path to reflect the third object by changing the .

여기서, 상기 제1 장치에 배치된 상기 제2 센서로부터 획득된 상기 제2 포인트 데이터 셋에 기초하여 결정된 제3 속성 데이터를 수신하는 단계- 상기 제3 속성 데이터는 제3 객체와 대응됨 -, 및 상기 제3 속성 데이터와 상기 제1 속성 데이터를 비교하여 상기 제3 객체와 상기 제1 객체가 동일한 객체인지 여부를 결정하는 단계를 더 포함하고, 상기 제1 객체와 상기 제3 객체가 동일한 객체라고 판단된 경우, 상기 제3 객체를 반영하기 위한 수정 경로를 생성하지 않는 차량 경로 생성 방법이 제공될 수 있다.Here, receiving third attribute data determined based on the second point data set obtained from the second sensor disposed in the first device, wherein the third attribute data corresponds to a third object; and and determining whether the third object and the first object are the same object by comparing the third attribute data with the first attribute data, wherein the first object and the third object are the same object. When it is determined, a vehicle route generating method that does not generate a corrected route for reflecting the third object may be provided.

여기서, 상기 수정 경로는 제1 수정 경로 및 제2 수정 경로 중 적어도 하나를 포함하되, 상기 제1 수정 경로는 상기 차량의 상기 로컬 경로 중 적어도 일부분이 변경되는 경로를 포함하고, 상기 제2 수정 경로는 상기 차량의 로컬 경로 내에서 상기 차량을 정지시키는 경로를 포함할 수 있다.wherein the modification path includes at least one of a first modification path and a second modification path, wherein the first modification path includes a path in which at least a portion of the local path of the vehicle is changed, and the second modification path may include a path that stops the vehicle within a local path of the vehicle.

여기서, 상기 제1 장치는 이동체, 인프라, 모바일 디바이스, 또는 서버 중 적어도 하나를 포함할 수 있다.Here, the first apparatus may include at least one of a mobile body, an infrastructure, a mobile device, and a server.

여기서, 상기 제1 센서 및 상기 제2 센서 각각은 라이다, 카메라, 레이더, 초음파 센서 중 적어도 하나를 포함할 수 있다.Here, each of the first sensor and the second sensor may include at least one of a lidar, a camera, a radar, and an ultrasonic sensor.

여기서, 전술한 차량 제어 방법 및 경로 생성 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.Here, a computer-readable recording medium in which a program for performing the above-described vehicle control method and route generation method is recorded may be provided.

1. 자율 주행 시스템의 개요One. Overview of autonomous driving systems

1.1. 운전자 보조 시스템(ADAS)1.1. Driver Assistance Systems (ADAS)

운전자 보조 시스템(Advanced Driver Assistance systems)은 운전자의 운전에 도움을 주는 시스템으로 운전자의 피로를 감소시키고 운전자의 안전 운전에 도움이 될 수 있는 시스템을 의미할 수 있다.Advanced Driver Assistance Systems (Advanced Driver Assistance Systems) are systems that assist a driver in driving, and may refer to systems that reduce driver fatigue and help the driver drive safely.

운전자 보조 시스템은 다양한 장치 및 시스템을 포함할 수 있다.Driver assistance systems may include a variety of devices and systems.

예를 들어, 상기 운전자 보조 시스템은 차량 자동 항법 장치, 적응형 순향 제어 장치, 차선 유지 보조 시스템, 차로 이탈 방지 보조 시스템, 사각지대 경고 장치, 지능형 속도 적응 시스템, 지능형 전조등 제어 시스템, 보행자 보호 시스템, 자동 주차 시스템, 교통 표지판 인지 시스템, 운전자 졸음 방지 시스템, 차량 통신 시스템, 경사로 주행 제어 시스템, 전기차 주행 경고 시스템, 로우빔 보조 시스템, 하이빔 보조 시스템, 전방 충돌 경고 시스템, SCC(Smart Cruise control), NSCC (Navigation-based Smart Cruise control), 고속도로 주행 보조 시스템, RVM (Rear View monitor with e-Mirror) 등을 포함할 수 있으나, 이에 한정되지 않는다.For example, the driver assistance system may include a vehicle automatic navigation system, an adaptive turn control system, a lane keeping assistance system, a lane departure avoidance assistance system, a blind spot warning system, an intelligent speed adaptation system, an intelligent headlamp control system, a pedestrian protection system, Automatic Parking System, Traffic Sign Recognition System, Driver Drowsiness Prevention System, Vehicle Communication System, Gradient Driving Control System, Electric Vehicle Driving Warning System, Low Beam Assist System, High Beam Assist System, Forward Collision Warning System, Smart Cruise Control (SCC), NSCC (Navigation-based Smart Cruise control), highway driving assistance system, RVM (Rear View monitor with e-Mirror), etc., but are not limited thereto.

또한, 상기 운전자 보조 시스템이 탑재된 장치는 통신을 통하여 다른 장치와 데이터를 공유할 수 있다. 이에 대해서는 하기에서 상세하게 설명한다.Also, the device on which the driver assistance system is mounted may share data with other devices through communication. This will be described in detail below.

1.2. 자율 주행 차량 시스템(AD)1.2. Autonomous Vehicle Systems (AD)

또한, 자율 주행 차량 시스템(AD, Autonomous driving, Autonomous car, driverless car, self-driving car, robotic car)은 인간의 개입 없이 차량이 자동으로 주행할 수 있도록 상기 차량에 탑재될 수 있다.In addition, an autonomous driving vehicle system (AD, Autonomous driving, Autonomous car, driverless car, self-driving car, robotic car) may be mounted on the vehicle so that the vehicle can automatically drive without human intervention.

또한, 상기 자율 주행 차량 시스템은 통신을 통하여 다른 장치와 데이터를 공유할 수 있다. 이에 대해서는 하기에서 상세하게 설명한다.Also, the autonomous vehicle system may share data with other devices through communication. This will be described in detail below.

이하에서는, 설명의 편의를 위하여 전술한 운전자 보조 시스템 및 자율 주행 차량 시스템을 자율 주행 시스템(1000)으로 표현한다.Hereinafter, for convenience of description, the above-described driver assistance system and autonomous driving vehicle system will be referred to as the autonomous driving system 1000 .

1.3. 자율 주행 시스템(AD/ADAS)의 구성요소1.3. Components of Autonomous Driving Systems (AD/ADAS)

상기 자율 주행 시스템(1000)은 차량(100)의 내부에 탑재될 수 있다. 또한 상기 자율 주행 시스템(1000)은 차량(100) 외에도 항공기, 선박, 무인 비행체 등의 내부에 탑재될 수 있으나, 이에 한정되지 않는다.The autonomous driving system 1000 may be mounted inside the vehicle 100 . In addition, the autonomous driving system 1000 may be mounted inside an aircraft, a ship, an unmanned aerial vehicle, etc. in addition to the vehicle 100 , but is not limited thereto.

도 1은 일 실시예에 따른 자율 주행 시스템의 구성 요소를 설명하기 위한 도면이다.1 is a diagram for describing components of an autonomous driving system according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 다양한 구성을 포함할 수 있다.Referring to FIG. 1 , the autonomous driving system 1000 according to an embodiment may include various configurations.

예를 들어, 상기 자율 주행 시스템(1000)은 적어도 하나의 컨트롤러(controller, 1100), 적어도 하나의 통신 모듈(1200), 적어도 하나의 센서(sensor, 1300), 적어도 하나의 인포테인먼트 시스템(Infotainment system, 1400)등을 포함할 수 있으나, 이에 한정되지 않는다.For example, the autonomous driving system 1000 includes at least one controller 1100 , at least one communication module 1200 , at least one sensor 1300 , at least one infotainment system, 1400) and the like, but is not limited thereto.

이하에서는 상기 자율 주행 시스템(1000)의 구성요소들의 다양한 실시예들에 대하여 상세하게 설명한다.Hereinafter, various embodiments of the components of the autonomous driving system 1000 will be described in detail.

1.3.1. 컨트롤러(controller)1.3.1. controller

다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 컨트롤러(1100)를 포함할 수 있다.Referring back to FIG. 1 , the autonomous driving system 1000 according to an embodiment may include at least one controller 1100 .

또한, 상기 컨트롤러(1100)는 상기 컨트롤러(1100)가 포함된 장치의 구성 요소들을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300) 또는 적어도 하나의 통신 모듈(1200)등을 제어할 수 있으나, 이에 한정되지 않는다. Also, the controller 1100 may control components of a device including the controller 1100 . For example, the controller 1100 may control at least one sensor 1300 or at least one communication module 1200 included in the autonomous driving system 1000 , but is not limited thereto.

또한, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300) 또는 상기 적어도 하나의 통신 모듈(1200)로부터 데이터를 획득할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 차량에 위치하는 라이다 장치로부터 데이터를 획득할 수 있으나, 이에 한정되지 않으며 다양한 센서들 및 통신 모듈로부터 데이터를 획득할 수 있다.Also, the controller 1100 may acquire data from the at least one sensor 1300 or the at least one communication module 1200 . For example, the controller 1100 may acquire data from a lidar device located in a vehicle, but is not limited thereto, and may acquire data from various sensors and communication modules.

또한, 상기 컨트롤러(1100)는 차량을 제어하기 위해 이용될 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 속도, 방향, 또는 경로 등을 제어할 수 있으나, 이에 한정되지 않으며 다양한 차량의 동작을 제어할 수 있다.Also, the controller 1100 may be used to control a vehicle. For example, the controller 1100 may control the speed, direction, or route of the vehicle, but is not limited thereto and may control various vehicle operations.

또한, 상기 컨트롤러(1100)는 실시예에 따라, ECU, 프로세서 등으로 표현될 수 있으나, 이에 한정되지 않는다.In addition, the controller 1100 may be expressed as an ECU, a processor, or the like according to an embodiment, but is not limited thereto.

또한, 본 명세서에서 상기 컨트롤러(1100)는 상기 자율 주행 시스템이 배치된 장치의 컨트롤러를 의미할 수도 있고, 적어도 하나의 센서에 배치된 컨트롤러를 의미할 수도 있다. 또한, 이에 한정되지 않고, 상기 자율 주행 시스템(1000)에 배치된 적어도 하나의 컨트롤러를 통칭할 수도 있다.Also, in this specification, the controller 1100 may mean a controller of a device in which the autonomous driving system is disposed, or may mean a controller disposed in at least one sensor. In addition, the present invention is not limited thereto, and at least one controller disposed in the autonomous driving system 1000 may be collectively referred to.

1.3.2. 통신 모듈 1.3.2. communication module

다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 통신 모듈(1200)을 포함할 수 있다.Referring back to FIG. 1 , the autonomous driving system 1000 according to an embodiment may include at least one communication module 1200 .

이때, 적어도 하나의 통신 모듈(1200)은 다른 장치와 적어도 하나의 데이터를 공유하기 위해 이용될 수 있다. 일 예로, 상기 컨트롤러(1100)는 상기 적어도 하나의 통신 모듈(1200)을 통하여 데이터를 외부에 전송하거나, 또는 외부로부터 데이터를 수신할 수 있다. In this case, the at least one communication module 1200 may be used to share at least one data with another device. For example, the controller 1100 may transmit data to the outside or receive data from the outside through the at least one communication module 1200 .

또한, 상기 적어도 하나의 통신 모듈(1200)은 적어도 하나의 V2X(Vehicle to everything)시스템을 구현하기 위해 이용될 수 있다. 보다 구체적으로, 상기 통신 모듈(1200)은, V2V(Vehicle to Vehicle), V2I(Vehicle to Infra), V2N(Vehicle to Network), V2P(Vehicle to Pedestrian), V2C(Vehicle to Cloud) 등 적어도 하나의 V2X시스템을 구현하기 위해 이용될 수 있으나, 이에 한정되지 않는다.In addition, the at least one communication module 1200 may be used to implement at least one V2X (Vehicle to Everything) system. More specifically, the communication module 1200 includes at least one of V2V (Vehicle to Vehicle), V2I (Vehicle to Infra), V2N (Vehicle to Network), V2P (Vehicle to Pedestrian), V2C (Vehicle to Cloud), etc. It may be used to implement a V2X system, but is not limited thereto.

또한, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 통신 모듈(1200)을 통해 상기 적어도 하나의 센서(1300)로부터 획득된 데이터 및 이에 대한 속성 데이터를 공유할 수 있으나, 이에 한정되지 않는다.In addition, the autonomous driving system 1000 may share the data acquired from the at least one sensor 1300 and attribute data thereof through the at least one communication module 1200 , but is not limited thereto.

또한, 상기 적어도 하나의 통신 모듈(1200)은 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 통신 모듈은 GPS, GNSS, AM, FM, 4G, 및 5G 안테나 중 적어도 하나의 안테나를 포함할 수 있으나, 이에 한정되지 않는다.Also, the at least one communication module 1200 may include at least one antenna. For example, the at least one communication module may include at least one antenna among GPS, GNSS, AM, FM, 4G, and 5G antennas, but is not limited thereto.

1.3.3. 센서1.3.3. sensor

다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 포함할 수 있다.Referring back to FIG. 1 , the autonomous driving system 1000 according to an embodiment may include at least one sensor 1300 .

또한, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 차량 주변의 정보를 획득하기 위해 이용될 수 있다.In addition, the at least one sensor 1300 according to an embodiment may be used to acquire information around the vehicle.

예를 들어, 상기 적어도 하나의 센서는 차량 주변의 대상체에 대한 거리 정보를 획득하기 위해 이용될 수 있으나, 이에 한정되지 않으며 차량 주변 객체의 다양한 정보를 획득하기 위해 이용될 수 있다.For example, the at least one sensor may be used to obtain distance information on an object around the vehicle, but is not limited thereto, and may be used to obtain various information on objects around the vehicle.

도 2는 일 실시예에 따른 적어도 하나의 센서를 보다 상세하게 설명하기 위한 도면이다.2 is a diagram for describing at least one sensor according to an exemplary embodiment in more detail.

도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이더 장치(1330), 적어도 하나의 초음파 센서(1340), 적어도 하나의 GPS 센서(1350), 적어도 하나의 관성 측정 장치(1360) 등을 포함할 수 있다. 물론, 센서의 종류는 전술한 사항에 한정되지 않으며, 적어도 하나의 센서(1300)는 전술한 센서들(1310, 1320, 1330, 1340, 1350, 1360) 모두를 포함할 수도 있고, 또는 일부 센서만을 포함할 수도 있다.Referring to FIG. 2 , the at least one sensor 1300 includes at least one lidar device 1310 , at least one camera device 1320 , at least one radar device 1330 , and at least one ultrasonic sensor 1340 . ), at least one GPS sensor 1350 , at least one inertial measurement device 1360 , and the like. Of course, the type of sensor is not limited to the above, and the at least one sensor 1300 may include all of the above-described sensors 1310 , 1320 , 1330 , 1340 , 1350 , 1360 , or only some sensors. may include

다시 도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310)를 포함할 수 있다. Referring back to FIG. 2 , the at least one sensor 1300 may include at least one lidar device 1310 .

이때, 상기 라이다 장치(1310)는 레이저를 이용하여 객체와의 거리를 측정하는 장치로 정의될 수 있다.In this case, the lidar device 1310 may be defined as a device for measuring a distance to an object using a laser.

보다 구체적으로, 상기 적어도 하나의 라이다 장치(1310)는 레이저를 출력할 수 있고, 출력된 레이저가 객체에서 반사된 경우, 반사된 레이저를 수신하여 객체와 상기 라이다 장치(1310) 사이의 거리를 측정할 수 있다. 여기서, 상기 라이다 장치(1310)는 삼각측량 방식, TOF(Time of Flight) 방식 등 다양한 방식을 이용하여 객체와의 거리를 측정할 수 있다.More specifically, the at least one LIDAR device 1310 may output a laser, and when the output laser is reflected from the object, receives the reflected laser and a distance between the object and the LIDAR device 1310 . can be measured. Here, the lidar device 1310 may measure the distance to the object using various methods such as a triangulation method and a time of flight (TOF) method.

또한, 상기 라이다 장치(1310)는 레이저 출력부를 포함할 수 있다. Also, the lidar device 1310 may include a laser output unit.

이때, 상기 레이저 출력부는 레이저를 출사할 수 있다. 또한, 상기 레이저 출력부는 하나 이상의 레이저 출력 소자를 포함할 수 있다. 또한, 레이저 출력부는 레이저 다이오드(Laser Diode:LD), Solid-state laser, High power laser, Light entitling diode(LED), Vertical Cavity Surface Emitting Laser(VCSEL), External cavity diode laser(ECDL) 등을 포함할 수 있으나, 이에 한정되지 않는다. In this case, the laser output unit may emit a laser. In addition, the laser output unit may include one or more laser output devices. In addition, the laser output unit may include a laser diode (LD), solid-state laser, high power laser, light entitling diode (LED), vertical cavity surface emitting laser (VCSEL), external cavity diode laser (ECDL), etc. However, it is not limited thereto.

또한, 상기 라이다 장치(1310)는 수광부를 포함할 수 있다.Also, the lidar device 1310 may include a light receiving unit.

이때, 수광부는 레이저를 감지할 수 있다. 예를 들어, 수광부는 스캔 영역 내에 위치하는 대상체에서 반사된 레이저를 감지할 수 있다. 또한, 수광부는 레이저를 수신할 수 있으며, 수신된 레이저를 기초로 전기 신호를 생성할 수 있다. 예를 들어, 센서부는 PN 포토 다이오드, 포토트랜지스터, PIN 포토 다이오드, APD(Avalanche Photodiode), SPAD(Single-photon avalanche diode), SiPM(Silicon PhotoMultipliers), Comparator, CMOS(Complementary metal-oxide-semiconductor) 또는 CCD(Charge Coupled Device) 등을 포함할 수 있으나, 이에 한정되지 않는다.In this case, the light receiving unit may sense the laser. For example, the light receiving unit may detect a laser reflected from an object positioned within the scan area. In addition, the light receiving unit may receive a laser, and may generate an electrical signal based on the received laser. For example, the sensor unit may include a PN photodiode, a phototransistor, a PIN photodiode, an avalanche photodiode (APD), a single-photon avalanche diode (SPAD), a silicon photomultipliers (SiPM), a comparator, a complementary metal-oxide-semiconductor (CMOS), or It may include, but is not limited to, a Charge Coupled Device (CCD).

또한, 상기 라이다 장치(1310)는 광학계를 포함할 수 있다.Also, the lidar device 1310 may include an optical system.

이때, 광학계는 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계는 레이저 출력부에서 출사된 레이저가 스캔 영역을 향하도록 레이저의 비행 경로를 변경할 수 있다.In this case, the optical system may change the flight path of the laser. For example, the optical system may change the flight path of the laser so that the laser emitted from the laser output unit faces the scan area.

또한, 광학계는 레이저를 반사함으로써 레이저의 비행 경로를 변경할 수 있다. 이때, 상기 광학계는 제1 방향으로 스캔하는 제1 스캐너 및 제2 방향으로 스캔하는 제2 스캐너를 포함할 수 있다. 또한, 상기 스캔부는 레이저 출력부 및 수광부를 동시에 회전시켜서 스캔하는 회전형 옵틱을 포함할 수 있다. In addition, the optics can change the flight path of the laser by reflecting the laser. In this case, the optical system may include a first scanner that scans in a first direction and a second scanner that scans in a second direction. In addition, the scanning unit may include a rotational optic for scanning by rotating the laser output unit and the light receiving unit at the same time.

예를 들어, 광학계는 미러(mirror), 공진 스캐너(Resonance scanner), 멤스 미러(MEMS mirror), VCM(Voice Coil Motor), 다면 미러(Polygonal mirror), 회전 미러(Rotating mirror) 또는 갈바노 미러(Galvano mirror) 등을 포함할 수 있으나, 이에 한정되지 않는다.For example, the optical system is a mirror, a resonance scanner, a MEMS mirror, a voice coil motor (VCM), a polygonal mirror, a rotating mirror, or a galvanic mirror ( Galvano mirror) and the like, but is not limited thereto.

또한, 광학계는 레이저를 굴절시킴으로써 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계(200)는 렌즈(lens), 프리즘(prism), 마이크로렌즈(Micro lens) 또는 액체 렌즈(Microfluidie lens) 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the optics can change the flight path of the laser by refracting the laser. For example, the optical system 200 may include a lens, a prism, a micro lens, or a liquid lens, but is not limited thereto.

또한, 광학계는 레이저의 위상을 변화시킴으로써 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계(200)는OPA(Optical Phased Array), 메타 렌즈(Meta lens) 또는 메타 표면(Metasurface) 등을 포함할 수 있으나, 이에 한정되지 않는다In addition, the optical system can change the flight path of the laser by changing the phase of the laser. For example, the optical system 200 may include an optical phased array (OPA), a meta lens, or a meta surface, but is not limited thereto.

또한, 상기 적어도 하나의 라이다 장치(1310)는 차량 주변에 대한 시야각을 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 라이다 장치(1310)는 복수의 라이다(1311 내지 1314)를 포함할 수 있다. 상기 복수의 라이다(1311 내지 1314)는 차량의 전방, 후방, 측면, 지붕 등 다양한 위치에 하나씩 또는 복수 개씩 배치될 수도 있다.In addition, the at least one lidar device 1310 may be disposed at various positions of the vehicle to secure a viewing angle around the vehicle. For example, the lidar device 1310 may include a plurality of lidars 1311 to 1314 . The plurality of lidars 1311 to 1314 may be arranged one by one or in plural at various positions such as the front, rear, side, and roof of the vehicle.

구체적으로, 제1 라이다(1311)가 차량의 전방에 배치될 경우, 상기 제1 라이다(1311)는 차량의 전방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제1 라이다(1311)는 차량의 헤드램프, 차량의 앞 범퍼, 차량의 그릴 등에 배치될 수 있으나, 이에 한정되지 않는다.Specifically, when the first lidar 1311 is disposed in front of the vehicle, the first lidar 1311 may detect distance information on an object located in front of the vehicle, and the first lidar 1311 1311) may be disposed on the headlamp of the vehicle, the front bumper of the vehicle, the grill of the vehicle, and the like, but is not limited thereto.

또한, 제2 라이다(1312)가 차량의 측방에 배치될 경우, 상기 제2 라이다(1312)는 차량의 측방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제2 라이다(1312)는 차량의 사이드 미러, 차량의 사이드 가니쉬(Garnish) 등에 배치될 수 있으나, 이에 한정되지 않는다.In addition, when the second lidar 1312 is disposed on the side of the vehicle, the second lidar 1312 may detect distance information on an object located on the side of the vehicle, and the second lidar 1312 may be located on the side of the vehicle. ) may be disposed on the side mirror of the vehicle, the side garnish of the vehicle, and the like, but is not limited thereto.

또한, 제3 라이다(1313)가 차량의 후방에 배치될 경우, 상기 제3 라이다(1313)는 차량의 후방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제3 라이다(1313)는 차량의 뒷 범퍼, 브레이크등 등에 배치될 수 있으나, 이에 한정되지 않는다.Also, when the third lidar 1313 is disposed at the rear of the vehicle, the third lidar 1313 may detect distance information on an object located at the rear of the vehicle, and the third lidar 1313 may ) may be disposed on the rear bumper of the vehicle, brake lights, etc., but is not limited thereto.

또한, 제4 라이다(1314)가 차량의 지붕에 배치될 경우, 상기 제4 라이다(1314)는 차량의 전방, 후방 및 측방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제4 라이다(1314)는 차량의 선루프, 차량의 지붕 등에 배치될 수 있으나, 이에 한정되지 않는다.In addition, when the fourth lidar 1314 is disposed on the roof of the vehicle, the fourth lidar 1314 may detect distance information on objects located in front, rear and sides of the vehicle, and The lidar 1314 may be disposed on a sunroof of a vehicle, a roof of a vehicle, or the like, but is not limited thereto.

다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 카메라 장치(1320)를 포함할 수 있다.Referring back to FIG. 2 , the at least one sensor 1300 according to an embodiment may include at least one camera device 1320 .

이때, 상기 적어도 하나의 카메라 장치(1320)는 상기 자율 주행 시스템(1000)을 탑재한 차량 주변에 위치하는 객체에 대한 형상 및/또는 색상 정보를 획득할 수 있다. In this case, the at least one camera device 1320 may acquire shape and/or color information of an object located around a vehicle on which the autonomous driving system 1000 is mounted.

또한, 상기 적어도 하나의 카메라 장치(1320)는 차량 주변 및 차량 내부에 대한 형상 및/또는 색상 정보를 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 카메라 장치(1320)는 복수의 카메라(1321 내지 1323)를 포함할 수 있다. 상기 복수의 카메라(1321 내지 1323)는 차량의 전방, 측방, 후방, 내부 등 다양한 위치에 하나씩 또는 복수 개씩 배치될 수도 있다. In addition, the at least one camera device 1320 may be disposed in various positions of the vehicle to secure shape and/or color information about the vehicle's surroundings and the inside of the vehicle. For example, the camera device 1320 may include a plurality of cameras 1321 to 1323 . The plurality of cameras 1321 to 1323 may be arranged one by one or in plural at various positions such as the front, side, rear, and inside of the vehicle.

구체적으로, 제1 카메라(1321)가 차량의 전방에 배치될 경우, 상기 제1 카메라(1321)는 차량의 전방 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제1 카메라(1321)는 차량의 블랙박스, 헤드라이트, 그릴 등에 배치될 수 있으나, 이에 한정되지 않는다.Specifically, when the first camera 1321 is disposed in front of the vehicle, the first camera 1321 may detect shape and/or color information about the environment in front of the vehicle, and the first camera 1321 ) may be disposed on a vehicle's black box, headlight, grill, etc., but is not limited thereto.

또한, 제2 카메라(1322)가 차량의 후방에 배치될 경우, 상기 제2 카메라(1322)는 차량의 후방 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제2 카메라(1322)는 차량의 뒷 범퍼, 브레이크등 등에 배치될 수 있으나, 이에 한정되지 않는다. In addition, when the second camera 1322 is disposed at the rear of the vehicle, the second camera 1322 may detect shape and/or color information about the environment behind the vehicle, and the second camera 1322 may may be disposed on the rear bumper of the vehicle, brake lights, etc., but is not limited thereto.

또한, 제3 카메라(1323)가 차량의 내부에 배치될 경우, 상기 제3 카메라(1323)는 차량의 내부 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제3 카메라(1323)는 차량의 블랙박스, 차량의 룸 미러 등에 배치될 수 있으나, 이에 한정되지 않는다.In addition, when the third camera 1323 is disposed inside the vehicle, the third camera 1323 may detect shape and/or color information about the internal environment of the vehicle, and the third camera 1323 may be disposed in a black box of a vehicle, a rearview mirror of a vehicle, or the like, but is not limited thereto.

또한, 상기 카메라 장치(1320)는 스테레오 카메라를 포함할 수 있다. 여기서, 상기 스테레오 카메라는 복수개의 카메라를 이용하여 객체의 형상 뿐만 아니라 객체와의 거리도 판단할 수 있는 카메라를 의미할 수 있다.Also, the camera device 1320 may include a stereo camera. Here, the stereo camera may refer to a camera capable of determining not only the shape of an object but also a distance to the object using a plurality of cameras.

또한, 상기 카메라 장치(1320)는 tof 카메라를 포함할 수 있다. 여기서, tof 카메라는 tof 방식을 통하여 객체와의 거리를 판단할 수 있는 카메라를 의미할 수 있다.Also, the camera device 1320 may include a tof camera. Here, the tof camera may mean a camera capable of determining a distance to an object through the tof method.

다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 레이다 장치(1330)를 포함할 수 있다.Referring back to FIG. 2 , the at least one sensor 1300 according to an embodiment may include at least one radar device 1330 .

이때, 상기 적어도 하나의 레이다 장치(1330)는 전자기파를 이용하여 객체와의 거리 및 객체의 위치를 탐지하기 위한 장치이다. In this case, the at least one radar device 1330 is a device for detecting a distance to an object and a location of the object using electromagnetic waves.

또한, 상기 적어도 하나의 레이다 장치(1330)는 차량으로부터 장거리에 위치한 객체, 중거리에 위치한 객체, 및 단거리에 위치한 객체에 대한 정확한 거리 정보를 획득하기 위해 다양한 유형의 레이다 장치를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 레이다 장치(1330)는 장거리에 위치한 객체에 대한 거리 정보를 획득하기 위한 제1 레이다(1331), 및 중거리 또는 단거리에 위치한 객체에 대한 거리 정보를 획득하기 위한 제2 레이다(1332) 등을 포함할 수 있으나, 이에 한정되지 않는다. In addition, the at least one radar device 1330 may include various types of radar devices to obtain accurate distance information about an object located at a long distance, an object located at a medium distance, and an object located at a short distance from the vehicle. For example, the at least one radar device 1330 includes a first radar 1331 for obtaining distance information on an object located at a long distance, and a second radar 1331 for obtaining distance information on an object located at an intermediate or short distance. It may include a radar 1332 and the like, but is not limited thereto.

또한 상기 적어도 하나의 레이다 장치(1330)는 차량 주변의 시야각을 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 적어도 하나의 레이다 장치(1330)는 차량의 전방, 후방, 또는 측방 등에 배치될 수 있으나, 이에 한정되지 않는다.In addition, the at least one radar device 1330 may be disposed at various positions of the vehicle to secure a viewing angle around the vehicle. For example, the at least one radar device 1330 may be disposed in the front, rear, or side of the vehicle, but is not limited thereto.

다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 초음파 센서(1340)를 포함할 수 있다.Referring back to FIG. 2 , the at least one sensor 1300 according to an embodiment may include at least one ultrasonic sensor 1340 .

이때, 상기 적어도 하나의 초음파 센서(1340)는 차량 주변에 객체가 존재하는 지 여부를 검출하기 위한 장치이다.In this case, the at least one ultrasonic sensor 1340 is a device for detecting whether an object exists around the vehicle.

또한, 상기 적어도 하나의 초음파 센서(1340)는 차량 주변에 객체가 존재하는 지 여부를 검출하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 적어도 하나의 초음파 센서(1340)는 차량의 전방, 후방, 또는 측방 등에 배치될 수 있으나, 이에 한정되지 않는다.In addition, the at least one ultrasonic sensor 1340 may be disposed at various locations of the vehicle to detect whether an object exists around the vehicle. For example, the at least one ultrasonic sensor 1340 may be disposed in the front, rear, or side of the vehicle, but is not limited thereto.

다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 GPS 센서(1350)를 포함할 수 있다.Referring back to FIG. 2 , the at least one sensor 1300 according to an embodiment may include at least one GPS sensor 1350 .

이때, 상기 적어도 하나의 GPS 센서(1350)는 차량의 글로벌 위치를 파악하기 위한 장치이다. 보다 구체적으로, 상기 적어도 하나의 GPS 센서(1350)는 글로벌 위치 정보 시스템(Global Positioning System)을 통해 상기 GPS 센서(1350)의 글로벌 위치 정보를 상기 컨트롤러(1100)에 전달할 수 있다. In this case, the at least one GPS sensor 1350 is a device for determining the global location of the vehicle. More specifically, the at least one GPS sensor 1350 may transmit the global location information of the GPS sensor 1350 to the controller 1100 through a global positioning system.

다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 관성 측정 장치(IMU, 1360)를 포함할 수 있다.Referring back to FIG. 2 , the at least one sensor 1300 according to an embodiment may include at least one inertial measurement unit (IMU) 1360 .

이때, 상기 적어도 하나의 관성 측정 장치(1360)는 가속도계와 회전 속도계, 자력계의 조합을 사용하여 차량의 특정한 힘, 각도 비율, 및 차량을 둘러싼 자기장을 측정하고 보고하는 전자 장치이다. 보다 구체적으로, 상기 적어도 하나의 관성 측정 장치(1360)는 적어도 하나의 가속도계를 사용하여 선형 가속도를 감지하고, 적어도 하나 이상의 자이로스코프를 사용하여 회전 속도를 감지함으로써 작동할 수 있다. In this case, the at least one inertial measuring device 1360 is an electronic device that measures and reports a specific force of the vehicle, an angular ratio, and a magnetic field surrounding the vehicle using a combination of an accelerometer, a tachometer, and a magnetometer. More specifically, the at least one inertial measurement device 1360 may operate by sensing a linear acceleration using at least one accelerometer and sensing a rotational speed using at least one gyroscope.

1.3.4. 인포테인먼트 시스템(Infortainment system)1.3.4. Infotainment system

다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 인포테인먼트 시스템(1400)을 포함할 수 있다.Referring back to FIG. 1 , the autonomous driving system 1000 according to an embodiment may include at least one infotainment system 1400 .

이때, 일 실시예에 따른 상기 적어도 하나의 인포테인먼트 시스템(1400)은 탑승자에게 적어도 하나의 정보를 디스플레이 할 수 있다.In this case, the at least one infotainment system 1400 according to an embodiment may display at least one piece of information to the occupant.

도 3은 일 실시예에 따른 인포테인먼트 시스템을 통한 디스플레이 방식을 나타내는 도면이다.3 is a diagram illustrating a display method through an infotainment system according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 상기 인포테인먼트 시스템(1400)은 고정밀 지도(1420), 메시지창(1430) 및 상기 고정밀 지도(1420) 및 상기 메시지창(1430)을 탑승자에게 보여주기 위한 스크린(1410), 센서로부터 획득한 객체에 대한 정보를 나타내기 위한 정보란(1440) 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 3 , the infotainment system 1400 according to an embodiment includes a high-precision map 1420 , a message window 1430 , and a screen for displaying the high-precision map 1420 and the message window 1430 to a passenger. 1410 , an information field 1440 for displaying information about an object obtained from a sensor, etc. may be included, but is not limited thereto.

다시 도 3을 참조하면, 일 실시예에 따른 상기 인포테인먼트 시스템(1400)은 자차량의 위치 정보 및 주변 객체의 위치 정보를 나타내는 고정밀 지도(1420)를 포함할 수 있다.Referring back to FIG. 3 , the infotainment system 1400 according to an embodiment may include a high-precision map 1420 indicating location information of the own vehicle and location information of surrounding objects.

이때, 상기 고정밀 지도(1420)는 상기 컨트롤러(1100)에 의해 다운로드된 지도일 수 있다. 보다 구체적으로, 상기 고정밀 지도(1420)는 외부 서버에 의해 생성되어 저장될 수 있으며, 상기 컨트롤러(1100)는 상기 고정밀 지도(1420)를 다운로드 하여 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다. In this case, the high-precision map 1420 may be a map downloaded by the controller 1100 . More specifically, the high-precision map 1420 may be generated and stored by an external server, and the controller 1100 may download the high-precision map 1420 and display it to the passenger through the infotainment system 1400. have.

또한, 상기 고정밀 지도(1420)는 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터에 기초해 생성될 수 있다. 구체적으로, 상기 적어도 하나의 센서(1300)에 포함된 상기 라이다 장치(1310)는 차량 외부의 객체에 대한 거리 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 거리 정보를 기초로 상기 차량 외부의 객체의 위치 정보를 포함하는 고정밀 지도(1420)를 생성할 수 있고, 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다.Also, the high-precision map 1420 may be generated based on sensor data obtained from at least one sensor 1300 included in the autonomous driving system 1000 . Specifically, the lidar device 1310 included in the at least one sensor 1300 may acquire distance information about an object outside the vehicle. In this case, the controller 1100 may generate a high-precision map 1420 including location information of an object outside the vehicle based on the distance information, and may display it to the occupant through the infotainment system 1400 .

또한, 상기 컨트롤러(1100)는 다운로드된 지도를 기반으로 상기 센서 데이터를 이용하여 상기 고정밀 지도(1420)를 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터를 이용하여 객체의 위치 정보를 생성하고, 상기 다운로드된 지도에 상기 객체의 위치 정보를 표시함으로써 상기 고정밀 지도(1420)를 구현할 수 있으며, 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다.Also, the controller 1100 may generate the high-precision map 1420 using the sensor data based on the downloaded map. More specifically, the controller 1100 may implement the high-precision map 1420 by generating location information of an object using the sensor data and displaying location information of the object on the downloaded map, and the infotainment It may be displayed to the occupant through the system 1400 .

다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 외부로부터 전송된 메시지를 탑승자에게 디스플레이 하기 위한 메시지창(1430)을 포함할 수 있다.Referring back to FIG. 3 , the infotainment system 1400 according to an embodiment may include a message window 1430 for displaying a message transmitted from the outside to the passenger.

예를 들어, 상기 메시지창(1430)은 외부로부터 수신된 메시지, 탑승자에게 전달할 정보, 탑승자의 입력을 수신하기 위한 인터페이스, 데이터 전송과 관련된 외부 서버의 승인 여부를 나타내는 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. For example, the message window 1430 may include a message received from the outside, information to be transmitted to the passenger, an interface for receiving the passenger's input, information indicating whether an external server related to data transmission is approved, and the like. However, the present invention is not limited thereto.

보다 구체적으로, 상기 컨트롤러(1100)는 외부 서버로부터 센서 데이터에 대한 요청 메시지를 수신한 경우, 상기 메시지창(1430)을 통해 상기 요청 메시지를 디스플레이 할 수 있다. 이때, 탑승자는 상기 요청 메시지에 대한 응답으로 상기 센서 데이터를 전송하기 위한 입력을 수행할 수 있다.More specifically, when receiving a request message for sensor data from an external server, the controller 1100 may display the request message through the message window 1430 . In this case, the passenger may perform an input for transmitting the sensor data in response to the request message.

또한, 상기 컨트롤러(1100)는 외부 서버로부터 트래픽 이벤트가 발생한 사실을 나타내는 알림 메시지를 수신한 경우, 상기 메시지창(1430)을 통해 상기 알림 메시지를 디스플레이 할 수 있다.Also, when receiving a notification message indicating that a traffic event has occurred from an external server, the controller 1100 may display the notification message through the message window 1430 .

또한, 상기 메시지창(1430)은 상기 고정밀 지도(1420)와 별도의 화면에 디스플레이될 수 있다.Also, the message window 1430 may be displayed on a screen separate from the high-precision map 1420 .

또한, 상기 메시지창(1430)은 상기 고정밀 지도(1420)와 같은 화면에 디스플레이될 수 있다. 보다 구체적으로, 상기 메시지창(1430)은 상기 고정밀 지도(1420)에 겹치지 않게 디스플레이될 수 있으나, 이에 한정되지 않는다.Also, the message window 1430 may be displayed on the same screen as the high-precision map 1420 . More specifically, the message window 1430 may be displayed so as not to overlap the high-precision map 1420, but is not limited thereto.

다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 상기 고정밀 지도(1420) 및 상기 메시지창(1430)을 보여주기 위한 스크린(1410)을 포함할 수 있다. Referring back to FIG. 3 , the infotainment system 1400 according to an embodiment may include a screen 1410 for displaying the high-precision map 1420 and the message window 1430 .

또한, 상기 스크린(1410)은 터치 센서, 입력 버튼 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the screen 1410 may include a touch sensor, an input button, and the like, but is not limited thereto.

이때, 상기 스크린(1410)은 탑승자로부터 터치 입력을 수신한 경우, 상기 컨트롤러(1100)에 상기 탑승자의 터치 입력의 내용을 전송할 수 있다. 예를 들어, 상기 컨트롤러(1100)가 외부 서버로부터 센서 데이터에 대한 요청 메시지를 상기 메시지창(1430)을 통해 상기 탑승자에 전달한 경우, 상기 탑승자는 상기 스크린(1410)을 터치함으로써 상기 요청 메시지에 대한 응답을 입력할 수 있다. In this case, when receiving the touch input from the passenger, the screen 1410 may transmit the contents of the touch input of the passenger to the controller 1100 . For example, when the controller 1100 transmits a request message for sensor data from an external server to the passenger through the message window 1430, the passenger responds to the request message by touching the screen 1410. You can enter a response.

또한, 상기 컨트롤러(1100)가 외부 서버로부터 트래픽 이벤트에 대한 알림 메시지를 상기 메시지창(1430)을 통해 디스플레이한 경우, 상기 탑승자는 상기 스크린(1410)을 터치함으로써 상기 알림 메시지에 대한 확인 여부를 입력할 수 있다.In addition, when the controller 1100 displays a notification message for a traffic event from an external server through the message window 1430 , the passenger inputs whether to confirm the notification message by touching the screen 1410 . can do.

다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 차량의 전면 유리에 상기 적어도 하나의 센서(1300)로부터 획득된 정보를 표시하는 정보란(1440)을 포함할 수 있다. 이때, 상기 정보란(1440)을 표시하기 위해, 상기 전면 유리는 전자 스크린을 포함할 수 있다.Referring back to FIG. 3 , the infotainment system 1400 according to an embodiment may include an information field 1440 on the windshield of the vehicle to display information obtained from the at least one sensor 1300 . In this case, in order to display the information field 1440, the front glass may include an electronic screen.

보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득한 정보를 탑승자에게 전달하기 위해, 상기 차량의 전면 유리에 상기 인포테인먼트 시스템(1400)을 통해 상기 정보란(1440)을 표시할 수 있다.More specifically, the controller 1100 transmits the information obtained through the at least one sensor 1300 to the occupant, in the information field 1440 through the infotainment system 1400 on the windshield of the vehicle. can be displayed.

또한, 상기 정보란(1440)은 상기 적어도 하나의 센서(1300)에 포함된 라이다 장치가 객체를 스캔함으로서 획득된 클래스 정보, 속도, 이동 방향 등을 표시할 수 있으나, 이에 한정되지 않고, 다양한 센서에 의해 획득된 복수의 정보를 더 표시할 수 있다.In addition, the information field 1440 may display class information, speed, movement direction, etc. obtained by the lidar device included in the at least one sensor 1300 scanning an object, but is not limited thereto, and various A plurality of pieces of information obtained by the sensor may be further displayed.

또한, 상기 정보란(1440)은 상기 스크린(1410) 또는 상기 전면 유리 상에서 AR 방식 또는 VR 방식으로 디스플레이될 수도 있다.Also, the information field 1440 may be displayed on the screen 1410 or the windshield in an AR method or a VR method.

1.4. 자율 주행 시스템1.4. autonomous driving system

1.4.1. 센서를 이용한 자율 주행 시스템 1.4.1. Autonomous driving system using sensors

1.4.1.1. 개괄1.4.1.1. generalization

자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 이용하여 획득된 센서 데이터를 바탕으로 운전자의 개입 없이 또는 운전자의 개입을 최소화하여 차량을 주행할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 차량 내에 배치되는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이다 장치(1330), 및 적어도 하나의 초음파 센서(1340) 중 적어도 하나를 이용하여 획득된 데이터를 바탕으로 자율적으로 차량을 주행할 수 있다.The autonomous driving system 1000 may drive the vehicle without or minimizing the driver's intervention based on the sensor data obtained using the at least one sensor 1300 . For example, the autonomous driving system 1000 may include at least one lidar device 1310 , at least one camera device 1320 , at least one radar device 1330 , and at least one ultrasonic sensor disposed in a vehicle. The vehicle may be autonomously driven based on data acquired using at least one of 1340 .

또한, 상기 자율 주행 시스템(1000)은 상기 센서 데이터를 기초로 SLAM 기반의 자율 주행(Simultaneous Locallization and Mapping) 및 고정밀 지도 기반 자율 주행을 수행할 수 있으나, 이에 한정되지 않는다.In addition, the autonomous driving system 1000 may perform SLAM-based autonomous driving (Simultaneous Locallization and Mapping) and high-precision map-based autonomous driving based on the sensor data, but is not limited thereto.

구체적으로, 상기 SLAM 기반의 자율 주행을 수행하는 차량은 상기 적어도 하나의 센서(1300)를 통해 주변 환경을 인식하여 그 공간의 지도를 작성하고, 이와 동시에 자신의 위치를 정확히 파악함으로써 자율적으로 주행할 수 있다. Specifically, the vehicle performing the SLAM-based autonomous driving recognizes the surrounding environment through the at least one sensor 1300 to create a map of the space, and at the same time accurately identifies its location to drive autonomously. can

또한, 상기 고정밀 지도 기반 자율 주행을 수행하는 차량은 상기 컨트롤러(1100)로부터 획득된 고정밀 지도를 기초로 차량 주변의 객체를 인지함으로써 자율적으로 주행할 수 있다.In addition, the vehicle performing the high-precision map-based autonomous driving may drive autonomously by recognizing objects around the vehicle based on the high-precision map obtained from the controller 1100 .

또한, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)를 통해 보행자 감지, 충돌 회피, 교통 정보 인식, 주차 보조, 서라운드 뷰, 근접 충돌 위험 감지, 등을 수행할 수 있으나, 이에 한정되지 않는다.In addition, the autonomous driving system 1000 may perform pedestrian detection, collision avoidance, traffic information recognition, parking assistance, surround view, proximity collision risk detection, etc. through the at least one sensor 1300 , but is limited thereto. doesn't happen

이하에서는 상기 적어도 하나의 센서를 이용한 자율 주행 시스템의 구체적인 실시예들을 기술한다.Hereinafter, specific embodiments of an autonomous driving system using the at least one sensor will be described.

1.4.1.2. 안전을 위한 자율 주행 시스템. 1.4.1.2. Autonomous driving systems for safety.

상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자 및 보행자의 안전을 위한 시스템을 포함할 수 있다. 또한, 안전을 위한 시스템은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 동작할 수 있다.The autonomous driving system 1000 may include a system for safety of occupants and pedestrians of a vehicle on which the autonomous driving system 1000 is mounted. Also, the system for safety may operate based on sensor data obtained from at least one sensor 1300 included in the autonomous driving system 1000 .

상기 안전을 위한 자율주행 시스템에 기재되는 사항은 자율주행 차량에서 제어되는 다양한 실시예에 대해 기술한 것으로, 상기 안전을 위한 자율주행 시스템에 기재되는 사항은 후술할 대목차 2 내지 대목차 5에 기재된 기술사항으로 구현될 수 있다.The matters described in the autonomous driving system for safety are described for various embodiments controlled by the autonomous driving vehicle, and the matters described in the autonomous driving system for safety are described in Tables 2 to 5 to be described later. It can be implemented as a technical matter.

상기 자율 주행 시스템(1000)은 주변 이동체의 주행 패턴을 검출하여 상기 이동체의 이상 주행 패턴을 검출할 수 있다. The autonomous driving system 1000 may detect a driving pattern of a surrounding moving object to detect an abnormal driving pattern of the moving object.

도 4는 일 실시예에 따른 자율 주행 시스템이 이상 주행 패턴을 보이는 이동체를 검출하는 상황을 나타내는 도면이다. 4 is a diagram illustrating a situation in which an autonomous driving system detects a moving object exhibiting an abnormal driving pattern according to an exemplary embodiment.

도 4를 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 제1 차량(101)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 주변 객체의 주행 패턴을 검출할 수 있다. Referring to FIG. 4 , the first vehicle 101 equipped with the autonomous driving system 1000 may detect a driving pattern of a surrounding object through at least one sensor 1300 included in the autonomous driving system 1000 . can

보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 상기 제1 차량(101)의 주변에 위치하는 제2 차량(102)의 주행 패턴을 검출할 수 있다. More specifically, the controller 1100 included in the autonomous driving system 1000 includes a second controller 1100 located in the vicinity of the first vehicle 101 based on sensor data obtained from the at least one sensor 1300 . A driving pattern of the vehicle 102 may be detected.

또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴을 검출하기 위해 상기 제2 차량(102)의 움직임을 추적할 수 있다. 보다 구체적으로, 상기 제2 차량(102)의 속도 및 방향이 불규칙적으로 변하는 경우, 상기 컨트롤러(1100)는 상기 제 차량(102)의 움직임을 추적하기 위해 상기 적어도 하나의 센서(1300)를 제어할 수 있다. Also, the controller 1100 may track the movement of the second vehicle 102 to detect an abnormal driving pattern of the second vehicle 102 . More specifically, when the speed and direction of the second vehicle 102 change irregularly, the controller 1100 may control the at least one sensor 1300 to track the movement of the second vehicle 102 . can

또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 상기 제2 차량(102)의 주행 패턴이 비정상적인지 여부를 판단할 수 있다. 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량의(102) 속도 및 방향 등을 포함하는 이동 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이동 정보를 기초로 상기 제2 차량(102)의 속도 및 방향의 변화가 비정상적이라고 판단할 수 있다. Also, the controller 1100 may determine whether the driving pattern of the second vehicle 102 is abnormal based on the sensor data. Specifically, the controller 1100 may obtain movement information including the speed and direction of the second vehicle 102 through the at least one sensor 1300 . In this case, the controller 1100 may determine that the change in speed and direction of the second vehicle 102 is abnormal based on the movement information.

또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴을 검출하기 위해 주행과 관련된 임계치를 설정할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 상기 제2 차량(102)의 움직임을 수치화 하여 상기 임계치와 비교할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 움직임이 상기 임계치를 초과하면 상기 제2 차량(102)이 이상 주행 패턴을 가지는 것으로 판단할 수 있다.Also, the controller 1100 may set a driving-related threshold to detect an abnormal driving pattern of the second vehicle 102 . More specifically, the controller 1100 may quantify the movement of the second vehicle 102 acquired through the at least one sensor 1300 and compare it with the threshold value. In this case, when the movement of the second vehicle 102 exceeds the threshold, the controller 1100 may determine that the second vehicle 102 has an abnormal driving pattern.

또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴이 검출된 경우, 상기 제2 차량(102)과의 충돌을 피하기 위해 상기 제1 차량(101)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(101)의 속도를 감소시키거나, 상기 제1 차량(101)의 속도를 증가시키거나, 또는 상기 제1 차량(101)의 경로를 변경할 수 있으나, 이에 한정되지 않는다.Also, when an abnormal driving pattern of the second vehicle 102 is detected, the controller 1100 may control the first vehicle 101 to avoid a collision with the second vehicle 102 . For example, the controller 1100 may decrease the speed of the first vehicle 101 , increase the speed of the first vehicle 101 , or change the route of the first vehicle 101 . However, it is not limited thereto.

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 통해 획득된 거리 정보를 활용해 이상 주행 패턴을 가지는 이동체를 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 존재하는 객체의 거리 정보를 기초로 상기 객체의 위치 및 속도에 관한 정보를 생성할 수 있다. In addition, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 detects a moving object having an abnormal driving pattern by using distance information obtained through the lidar device 1310 . can be detected. In this case, the controller 1100 may generate information about the position and speed of the object based on distance information of the object existing within the viewing angle of the lidar device 1310 .

구체적으로, 상기 자율 주행 시스템(1000)은 상기 라이다 장치(1310)로부터 획득한 데이터를 이용하여 주변 객체에 대한 벡터 맵을 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)에 의해 획득된 상기 제2 차량(102)과 거리 정보를 기초로 상기 제2 차량(102)의 속도 등을 포함하는 상기 벡터 맵을 생성할 수 있다. Specifically, the autonomous driving system 1000 may generate a vector map of a surrounding object by using the data obtained from the lidar device 1310 . More specifically, the controller 1100 is the vector map including the speed of the second vehicle 102 based on the distance information with the second vehicle 102 obtained by the lidar device 1310 . can create

또한, 상기 자율 주행 시스템(1000)은 상기 벡터 맵을 이용하여 상기 제2 차량(102)이 이상 주행 패턴을 가지는지 여부를 판단할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 벡터 맵을 기초로 상기 제1 차량을 제어할 수 있다. Also, the autonomous driving system 1000 may determine whether the second vehicle 102 has an abnormal driving pattern using the vector map. Also, the controller 1100 may control the first vehicle based on the vector map.

또한, 상기 자율 주행 시스템(1000)은 주변에 긴급한 사고가 발생한 경우를 대비하여 차량이 이동 가능한 공간을 계산할 수 있다. Also, the autonomous driving system 1000 may calculate a space in which the vehicle can move in preparation for an emergency accident in the vicinity.

도 5는 일 실시예에 따른 자율 주행 시스템이 주행 중에 앞 차량의 사고를 인지한 상황을 나타내는 도면이다. 5 is a diagram illustrating a situation in which an autonomous driving system according to an exemplary embodiment recognizes an accident of a vehicle in front while driving.

도 5를 참조하면, 자율 주행 시스템(1000)을 탑재한 제1 차량(103)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 상기 제1 차량(103)이 이동 가능한 공간을 검출할 수 있다.Referring to FIG. 5 , in the first vehicle 103 on which the autonomous driving system 1000 is mounted, the first vehicle 103 moves through at least one sensor 1300 included in the autonomous driving system 1000 . Possible spaces can be detected.

구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 적어도 하나의 센서(1300) 또는 외부로부터 획득된 센서 데이터를 기초로 상기 제1 차량(103)이 이동 가능한 공간(200)을 미리 계산할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터가 나타내는 공간 중에서 객체가 검출되지 않는 일정 부피를 갖는 공간들을 계산할 수 있다. Specifically, the controller 1100 included in the autonomous driving system 1000 is configured to provide a space 200 in which the first vehicle 103 can move based on the at least one sensor 1300 or sensor data acquired from the outside. can be calculated in advance. More specifically, the controller 1100 may calculate spaces having a predetermined volume in which an object is not detected among the spaces indicated by the sensor data.

또한, 상기 컨트롤러(1100)는 상기 계산된 공간들 중 상기 제1 차량(103)이 주행 가능한 공간을 선택하여 저장할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 대각선 방향에 상기 이동 가능한 공간(200)이 있는 경우, 상기 이동 가능한 공간(200)에 관련된 정보를 저장할 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 주행 경로로 설정되지 않은 공간 중에 상기 제1 차량(103)이 주변 객체와의 충돌 위험 없이 이동 가능한 공간(200)에 관련된 정보를 저장할 수 있다.Also, the controller 1100 may select and store a space in which the first vehicle 103 can travel from among the calculated spaces. For example, when the movable space 200 exists in a diagonal direction of the first vehicle 103 , the controller 1100 may store information related to the movable space 200 . In addition, without being limited thereto, the controller 1100 is a space 200 in which the first vehicle 103 can move without risk of collision with surrounding objects in a space that is not set as the driving path of the first vehicle 103 . related information can be stored.

또한, 상기 제1 차량(103) 전방에서 긴급 사고가 발생한 경우, 상기 컨트롤러(1100)는 미리 저장된 공간 정보를 활용해 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시킬 수 있다.Also, when an emergency accident occurs in front of the first vehicle 103 , the controller 1100 may move the first vehicle 103 to the movable space 200 using pre-stored spatial information. .

또한, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 주변에서 사고가 발생한 사실을 인지한 경우, 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산할 수 있다. Also, when recognizing that an accident has occurred in the vicinity of the first vehicle 103 , the controller 1100 may calculate the space 200 in which the first vehicle 103 can move.

구체적으로, 상기 컨트롤러(1100)가 상기 센서 데이터를 기초로 제2 차량(104) 및 제3 차량(105) 간의 사고 사실을 인지한 경우, 상기 컨트롤러(1100)는 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 센서 데이터 중에서 상기 제2 차량(104)및 상기 제3 차량(105)에 각각 대응되는 데이터 셋의 상대적 위치를 통해 상기 사고 사실을 인지할 수 있으나, 이에 한정되지 않는다. Specifically, when the controller 1100 recognizes the fact of an accident between the second vehicle 104 and the third vehicle 105 based on the sensor data, the controller 1100 determines that the first vehicle 103 The movable space 200 may be calculated. At this time, the controller 1100 may recognize the accident fact through the relative positions of the data sets respectively corresponding to the second vehicle 104 and the third vehicle 105 among the sensor data, but is not limited thereto. does not

또한, 상기 컨트롤러(1100)는 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산한 경우, 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시키기 위해 상기 제1 차량(103)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 조향을 제어하여 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시킬 수 있으나, 이에 한정되지 않는다.Also, when the first vehicle 103 calculates the movable space 200 , the controller 1100 moves the first vehicle 103 into the movable space 200 to move the first vehicle 103 into the movable space 200 . (103) can be controlled. For example, the controller 1100 may control the steering of the first vehicle 103 to move the first vehicle 103 into the movable space 200 , but is not limited thereto.

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 활용해 빈 공간 데이터를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 객체의 거리 정보를 기초로, 상기 객체의 위치 및 속도와 관련된 정보를 생성할 수 있다. Also, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 may acquire empty space data by using data acquired from the lidar device 1310 . In this case, the controller 1100 may generate information related to the position and speed of the object based on distance information of the object located within the viewing angle of the lidar device 1310 .

구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)에 의해 획득된 상기 제1 차량(103)의 주변 객체에 대한 위치 정보를 활용해 3d 맵을 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 3d 맵 상에서 객체에 대한 데이터가 존재하지 않는 공간을 이동 가능한 공간(200)에 관한 데이터로 저장할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 제1 차량(103) 주변에 긴급 사고 발생 시 저장된 공간 데이터를 이용해 상기 제1 차량(103)를 상기 이동 가능한 공간(200)으로 이동시킬 수 있다.Specifically, the controller 1100 may generate a 3d map by using location information about objects around the first vehicle 103 obtained by the lidar device 1310 . In this case, the controller 1100 may store a space in which data about an object does not exist on the 3d map as data about the movable space 200 . Also, when an emergency accident occurs around the first vehicle 103 , the controller 1100 may move the first vehicle 103 to the movable space 200 by using the stored spatial data.

또한, 상기 자율 주행 시스템(1000)은 상기 제1 차량(106)의 전방에 위치한 제2 차량(107)이 갑자기 후진하는 것을 인지한 경우, 상기 제2 차량(107)과의 충돌을 피하기 위해 상기 제1 차량(106)을 제어할 수 있다. In addition, when the autonomous driving system 1000 recognizes that the second vehicle 107 located in front of the first vehicle 106 is suddenly reversing, the autonomous driving system 1000 is configured to avoid a collision with the second vehicle 107 . The first vehicle 106 may be controlled.

도 6은 일 실시예에 따른 자율 주행 시스템이 앞 차량의 갑작스러운 후진을인지하는 상황을 나타내는 도면이다. 6 is a diagram illustrating a situation in which an autonomous driving system recognizes abrupt reversing of a vehicle in front, according to an exemplary embodiment.

도 6을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(106)은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량(107)의 움직임을 검출할 수 있다.Referring to FIG. 6 , the first vehicle 106 on which the autonomous driving system 1000 is mounted is the second vehicle 107 through the at least one sensor 1300 included in the autonomous driving system 1000 . ) can be detected.

예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 기초로 상기 제1 차량(106)의 전방에 위치하는 제2 차량(107)의 이동 방향을 검출할 수 있다.For example, the controller 1100 included in the autonomous driving system 1000 may include a second controller 1100 positioned in front of the first vehicle 106 based on the sensor data acquired from the at least one sensor 1300 . 2 The moving direction of the vehicle 107 can be detected.

보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량(107)의 이동 방향 및 이동 속도를 포함하는 이동 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이동 정보를 기초로 상기 제2 차량(107)이 후진한다고 판단한 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)에 경고하기 위한 알람을 상기 제2 차량(107)에 전송할 수 있다. More specifically, the controller 1100 may obtain movement information including a movement direction and a movement speed of the second vehicle 107 through the at least one sensor 1300 . At this time, when the controller 1100 determines that the second vehicle 107 is moving backward based on the movement information, the controller 1100 sends an alarm to warn the second vehicle 107 to the second vehicle. It can be sent to (107).

또한, 상기 컨트롤러(1100)는 상기 제2 차량(107)에 경고하기 위한 경적을 울릴 수 있다. Also, the controller 1100 may sound a horn to warn the second vehicle 107 .

또한, 상기 컨트롤러(1100)가 상기 제1 차량(106)의 후방에 상기 제1 차량(106)이 이동 가능한 공간이 있다고 판단한 경우, 상기 이동 가능한 공간으로 상기 제1 차량(106)을 이동시킬 수 있다.Also, when the controller 1100 determines that there is a space in the rear of the first vehicle 106 in which the first vehicle 106 can move, the first vehicle 106 can be moved to the movable space. have.

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 활용해 상기 제2 차량(107)의 후진 여부를 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 상기 제2 차량(107)의 위치 정보를 기초로, 상기 제2 차량(107)의 이동 방향 및 이동 속도를 나타내는 이동 정보를 생성할 수 있다.In addition, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 uses data obtained from the lidar device 1310 to reverse the second vehicle 107 . whether or not it can be detected. In this case, the controller 1100 moves the second vehicle 107 based on the position information of the second vehicle 107 positioned within the viewing angle of the lidar device 1310 to indicate the moving direction and the moving speed of the second vehicle 107 . information can be created.

보다 구체적으로, 상기 컨트롤러(1100)는 상기 제2 차량(107)의 상기 이동 정보를 기초로, 상기 제2 차량(107)의 후진 여부를 판단할 수 있다. 예를 들어, 상기 제2 차량(107)의 이동 방향이 상기 제1 차량(106)을 향하는 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)이 후진한다고 판단할 수 있다. 또한, 정지 상태인 상기 제1 차량(106)과 상기 제2 차량(107) 간의 거리가 가까워지는 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)이 후진한다고 판단할 수 있다. More specifically, the controller 1100 may determine whether the second vehicle 107 is moving backward based on the movement information of the second vehicle 107 . For example, when the moving direction of the second vehicle 107 is toward the first vehicle 106 , the controller 1100 may determine that the second vehicle 107 is moving backward. Also, when the distance between the first vehicle 106 and the second vehicle 107 in a stopped state increases, the controller 1100 may determine that the second vehicle 107 is moving backward.

또한, 상기 자율 주행 시스템은(1000) 제1 차량(108)의 주변에 위치하는 제2 차량(109)의 방향 변화를 감지할 수 있다. Also, the autonomous driving system 1000 may detect a change in the direction of the second vehicle 109 located in the vicinity of the first vehicle 108 .

도 7은 일 실시예에 따른 자율 주행 시스템이 차량의 바퀴의 움직임을 추적하는 상황을 나타내는 도면이다. 7 is a diagram illustrating a situation in which an autonomous driving system tracks a movement of a wheel of a vehicle according to an exemplary embodiment.

도 7을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(108)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 상기 제2 차량(109)의 방향 변화를 감지할 수 있다.Referring to FIG. 7 , the first vehicle 108 on which the autonomous driving system 1000 is mounted is the second vehicle 109 through at least one sensor 1300 included in the autonomous driving system 1000 . direction change can be detected.

예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 이용하여 상기 제1 차량(108)의 주변에 위치한 상기 제2 차량의 바퀴(109a)의 움직임을 감지하여 상기 제2 차량(109)의 방향 변화를 감지할 수 있다.For example, the controller 1100 included in the autonomous driving system 1000 may use sensor data acquired through the at least one sensor 1300 to A change in direction of the second vehicle 109 may be detected by detecting the movement of the wheels 109a of the second vehicle.

이때, 상기 컨트롤러(1100)는 상기 센서 데이터에 포함된 객체가 상기 제2 차량의 바퀴(109a)로 판단되는 경우, 상기 제2 차량의 바퀴(109a)를 추적할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 제2 차량의 바퀴(109a)에 대한 센서 데이터를 지속적으로 획득하기 위해 상기 적어도 하나의 센서(1300)의 스캔 패턴을 제어할 수 있다. In this case, when it is determined that the object included in the sensor data is the wheel 109a of the second vehicle, the controller 1100 may track the wheel 109a of the second vehicle. Also, the controller 1100 may control a scan pattern of the at least one sensor 1300 to continuously acquire sensor data for the wheel 109a of the second vehicle.

또한, 상기 제2 차량의 바퀴(109a)의 방향이 상기 제1 차량(108)의 전방을 향하는 경우, 상기 컨트롤러(1100)는 상기 제1 차량(108)이 상기 제2 차량(109)과 충돌하는 것을 방지하기 위해 상기 제1 차량(108)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(108)의 속도를 감소시키거나, 상기 제1 차량(108)의 경로를 변경시킬 수 있으나, 이에 한정되지 않는다. Also, when the direction of the wheels 109a of the second vehicle faces the front of the first vehicle 108 , the controller 1100 determines that the first vehicle 108 collides with the second vehicle 109 . To prevent this from happening, the first vehicle 108 may be controlled. For example, the controller 1100 may decrease the speed of the first vehicle 108 or change the path of the first vehicle 108 , but is not limited thereto.

또한, 상기 제2 차량의 바퀴(109a)의 방향이 갑자기 변하는 경우, 상기 컨트롤러(1100)는 상기 제2 차량의 바퀴(109a)의 현재 방향과 무관하게 상기 제1 차량(108)의 속도를 감소시키거나 상기 제1 차량(108)의 경로를 변경할 수 있다. Also, when the direction of the wheel 109a of the second vehicle is suddenly changed, the controller 1100 decreases the speed of the first vehicle 108 regardless of the current direction of the wheel 109a of the second vehicle. or change the route of the first vehicle 108 .

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 이용해 상기 제2 차량의 바퀴(109a) 방향 전환을 감지할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 상기 제2 차량의 바퀴(109a)의 시간에 따른 위치 정보를 이용하여 상기 제2 차량의 바퀴(109a)의 움직임을 검출할 수 있다.In addition, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 uses the data obtained from the lidar device 1310 in the direction of the wheel 109a of the second vehicle. transition can be detected. At this time, the controller 1100 controls the movement of the wheels 109a of the second vehicle using location information according to time of the wheels 109a of the second vehicle located within the viewing angle of the lidar device 1310 . can be detected.

보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 이용해 상기 제2 차량의 바퀴(109a)에 대한 데이터 또는 상기 제2 차량의 바퀴(109a)에 대한 데이터를 통해 예측된 상기 제2 차량(109)의 예상 움직임 정보를 포함하는 3d 맵을 생성할 수 있다. 이때, 상기 3d 맵은 시간에 따라 변하는 상기 제2 차량의 바퀴(109a)의 위치 정보를 포함할 수 있다. 또한, 상기 컨트롤러(1100) 상기 3d 맵을 이용하여 상기 제2 차량의 바퀴(109a)의 방향 변화를 감지하여 상기 제1 차량(108)을 제어할 수 있다.More specifically, the controller 1100 uses the lidar device 1310 to control the second vehicle, which is predicted through data on the wheels 109a of the second vehicle or data on the wheels 109a of the second vehicle. 2 It is possible to generate a 3d map including the expected motion information of the vehicle 109 . In this case, the 3d map may include location information of the wheels 109a of the second vehicle that change with time. Also, the controller 1100 may control the first vehicle 108 by detecting a change in the direction of the wheels 109a of the second vehicle using the 3D map.

또한, 상기 자율 주행 시스템(1000)은 제1 차량(110)이 주행 중인 도로의 위험 요소(예를 들어 도로의 균열 또는 도로 상에 존재하는 블랙 아이스)를 검출할 수 있다. Also, the autonomous driving system 1000 may detect a dangerous element (eg, cracks in the road or black ice present on the road) of the road on which the first vehicle 110 is traveling.

도 8은 일 실시예에 따른 자율 주행 시스템이 도로 상에 존재하는 블랙아이스를 감지하는 방법을 나타내는 도면이다. 8 is a diagram illustrating a method of detecting black ice present on a road by an autonomous driving system according to an exemplary embodiment.

도 8을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(110)은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)를 통해 상기 제1 차량(110)이 주행중인 도로의 노면 상태를 검출할 수 있다.Referring to FIG. 8 , the first vehicle 110 on which the autonomous driving system 1000 is mounted is the first vehicle 110 through the at least one sensor 1300 included in the autonomous driving system 1000 . ) can detect the road surface condition of the road on which it is being driven.

예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 바탕으로 상기 제1 차량(110)이 주행 중인 도로의 균열을 감지할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 바탕으로 상기 도로 상에 존재하는 블랙아이스를 감지할 수 있으나, 이에 한정되지 않는다.For example, the controller 1100 included in the autonomous driving system 1000 may detect a crack in the road on which the first vehicle 110 is traveling based on the sensor data acquired from the at least one sensor 1300 . can detect Also, the controller 1100 may detect black ice existing on the road based on the sensor data, but is not limited thereto.

또한, 상기 적어도 하나의 센서(1300)에 포함되는 상기 라이다 장치(1310)는 객체의 반사율과 관련되는 인텐시티 정보를 포함하는 센서 데이터를 획득할 수 있다. 보다 구체적으로, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)의 시야각 내에 포함되는 제1 영역(300) 인텐시티 정보를 포함할 수 있다. 이때, 상기 인텐시티 정보는 상기 객체의 반사율에 대응되는 수치인 인텐시티 값(311)을 포함할 수 있다. 또한, 상기 인텐시티 정보에 포함되는 상기 인텐시티 값에는 평균, 편차, 표준편차 등이 이용될 수 있으며, 적어도 하나의 데이터를 증폭시킬 수 있으나, 이에 한정되지 않는다.Also, the lidar device 1310 included in the at least one sensor 1300 may acquire sensor data including intensity information related to reflectance of an object. More specifically, the sensor data may include intensity information of the first region 300 included in the viewing angle of the at least one sensor 1300 . In this case, the intensity information may include an intensity value 311 that is a numerical value corresponding to the reflectance of the object. In addition, an average, a deviation, a standard deviation, etc. may be used for the intensity value included in the intensity information, and at least one data may be amplified, but the present invention is not limited thereto.

또한, 상기 컨트롤러(1100)는 인텐시티 정보에 포함되는 인텐시티 값의 공간 별 분포를 나타내는 인텐시티 분포도(310)를 기초로 상기 도로의 위험성을 판단할 수 있다. 이때, 상기 인텐시티 분포도(310)는 상기 제1 영역(300)의 각 포인트에 대한 인텐시티 값(311)을 포함할 수 있다. Also, the controller 1100 may determine the risk of the road based on the intensity distribution map 310 indicating the spatial distribution of intensity values included in the intensity information. In this case, the intensity distribution map 310 may include an intensity value 311 for each point of the first area 300 .

또한, 상기 제1 영역(300)의 인텐시티 분포도(310)에서, 소정 경계(312)를 기준으로 상기 인텐시티 값(311)이 급격히 변하는 경우, 상기 컨트롤러(1100)는 상기 소정 경계(312)내의 영역을 위험 영역으로 판단할 수 있다. In addition, in the intensity distribution diagram 310 of the first region 300 , when the intensity value 311 is rapidly changed based on the predetermined boundary 312 , the controller 1100 controls the region within the predetermined boundary 312 . can be considered as a risk area.

또한, 상기 컨트롤러(1100)는 상기 도로의 각 영역별 인텐시티 값의 평균을 이용하여 인텐시티 임계치를 설정할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 주행 중인 도로상의 각 포인트의 인텐시티 값의 평균값을 계산하고, 상기 평균값을 기초로 인텐시티 임계치를 설정할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 인텐시티 임계치를 상기 제1 영역(300)의 각 포인트의 인텐시티 값들의 평균과 비교할 수 있다. 또한, 상기 비교의 결과 상기 제1 영역(300)의 인텐시티 값들의 평균이 상기 인텐시티 임계치 이상인 경우, 상기 컨트롤러(1100)는 상기 제1 영역(300)을 위험 영역으로 판단할 수 있다. Also, the controller 1100 may set an intensity threshold using an average of intensity values for each area of the road. More specifically, the controller 1100 may calculate an average value of the intensity values of each point on the driving road, and set the intensity threshold based on the average value. In this case, the controller 1100 may compare the intensity threshold with an average of intensity values of each point of the first region 300 . Also, when the average of the intensity values of the first region 300 is equal to or greater than the intensity threshold as a result of the comparison, the controller 1100 may determine the first region 300 as a risk region.

또한, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 이용하여 도로의 위험을 감지하기 위해서 센서 작동 에너지를 조절할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 센서의 작동 에너지를 조절하여 이에 따른 패턴을 검출하여 도로의 위험을 감지할 수 있으나, 이에 한정되지 않는다.In addition, the controller 1100 may adjust the sensor operating energy to detect a danger on the road using the sensor data acquired through the at least one sensor 1300 . For example, the controller 1100 may detect a road hazard by adjusting the operating energy of the sensor to detect a pattern corresponding thereto, but is not limited thereto.

또한, 상기 위험 영역은 상기 제1 차량(110)의 주행에 위험이 될 수 있는 영역을 포함할 수 있다. 예를 들어, 상기 위험 영역은 블랙 아이스가 분포하는 영역, 도로상에 균열이 생긴 영역 등일 수 있으나, 이에 한정되지 않는다. In addition, the danger area may include an area that may become a danger to the driving of the first vehicle 110 . For example, the dangerous area may be an area in which black ice is distributed, an area in which a crack is formed on a road, and the like, but is not limited thereto.

또한, 상기 자율 주행 시스템(1000)은 센서 데이터를 통해 불법 주차 차량을검출할 수 있다. Also, the autonomous driving system 1000 may detect an illegally parked vehicle through sensor data.

보다 구체적으로, 도로 상에 차량이 정차 중 일 때, 상기 자율 주행 시스템(1000)은 정지된 차량과 관련된 공간이 주차 가능 영역인지 판단하여, 주차 가능 영역이 아닌데도 불구하고 차량이 미리 정해진 시간 이상 정차한 경우 상기 차량을 불법 주차 차량으로 판단할 수 있다.More specifically, when the vehicle is stopped on the road, the autonomous driving system 1000 determines whether a space related to the stopped vehicle is a parking area, and the vehicle is stopped for a predetermined time or longer even though it is not a parking area. In one case, the vehicle may be determined to be an illegally parked vehicle.

이때, 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 통해 주차 라인을 검출할 수 있으며, 검출된 주차 라인을 기초로 주차 가능 여부를 판단할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 미리 저장된 지도를 이용하여 주차 가능 영역을 판단할 수 있다.In this case, the autonomous driving system 1000 may detect a parking line through at least one sensor 1300 , and may determine whether parking is possible based on the detected parking line. Also, the autonomous driving system 1000 may determine a parking available area using a map stored in advance.

또한, 상기 자율 주행 시스템(1000)은 도로의 폭을 상기 자율 주행 시스템(1000)이 탑재된 제1 차량의 폭과 비교하여 상기 제1 차량(111)이 상기 도로로 주행 가능한지 여부를 판단할 수 있다.In addition, the autonomous driving system 1000 may determine whether the first vehicle 111 can travel on the road by comparing the width of the road with the width of the first vehicle on which the autonomous driving system 1000 is mounted. .

도 9는 일 실시예에 따른 자율 주행 시스템이 탑재된 차량이 주행 중 불법 주차 차량을 감지한 상황을 나타내는 도면이다.9 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment detects an illegally parked vehicle while driving.

도 9를 참조하면, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 제1 차량이(111) 도로 상에 불법 주차된 제2 차량(112)를 피해서 이동 가능한지 여부를 판단할 수 있다. Referring to FIG. 9 , the controller 1100 included in the autonomous driving system 1000 determines whether the first vehicle 111 can move while avoiding the second vehicle 112 illegally parked on the road. can

구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 상기 제1 차량(111)이 주행 가능한 공간을 계산할 수 있다. 예를 들어, 상기 제1 차량(111)이 주행 중인 도로 상에 상기 제2 차량(112)이 정차해 있는 경우, 상기 컨트롤러(1100)는 주행 가능한 도로의 폭(pa)과 상기 제1 차량의 폭(pb)을 비교할 수 있다. 이때, 상기 제1 차량의 폭(pb)은 상기 컨트롤러(1100)에 미리 저장되어 있을 수 있다. Specifically, the controller 1100 included in the autonomous driving system 1000 may calculate a space in which the first vehicle 111 can travel based on sensor data obtained from the at least one sensor 1300 . . For example, when the second vehicle 112 is stopped on the road on which the first vehicle 111 is traveling, the controller 1100 determines the width pa of the drivable road and the width of the first vehicle. The width (pb) can be compared. In this case, the width pb of the first vehicle may be previously stored in the controller 1100 .

또한, 상기 도로의 폭(pa)이 상기 제1 차량의 폭(pb)보다 소정 크기 이상 큰 경우, 상기 컨트롤러(1100)는 상기 제2 차량(112)을 피해 상기 주행 가능한 도로로 주행하도록 상기 제1 차량(111)을 제어할 수 있다.In addition, when the width pa of the road is larger than the width pb of the first vehicle by a predetermined size or more, the controller 1100 avoids the second vehicle 112 and drives the first vehicle on the drivable road. The vehicle 111 may be controlled.

또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 상기 제2 차량(112)과 중앙선 사이의 공간을 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 공간이 상기 제1 차량(111)이 통과할 수 있는 공간인지 여부를 판단하여 상기 제1 차량(111)을 제어할 수 있다. Also, the controller 1100 may detect a space between the second vehicle 112 and a center line based on the sensor data. In this case, the controller 1100 may control the first vehicle 111 by determining whether the space is a space through which the first vehicle 111 can pass.

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 거리 정보를 기초로 상기 제1 차량(111)이 주행 가능한 공간을 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 제2 차량(112) 및 상기 중앙선의 거리 정보를 기초로, 상기 제2 차량(112) 및 상기 중앙선의 위치 정보를 생성할 수 있다. In addition, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 determines that the first vehicle 111 is detected based on distance information obtained from the lidar device 1310 . A drivable space can be detected. In this case, the controller 1100 may generate location information of the second vehicle 112 and the center line based on the distance information of the second vehicle 112 and the center line.

보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 상기 센서 데이터를 기초로 3d 맵을 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 3d 맵을 기초로 상기 제1 차량(111)이 주행 가능한 공간을 판단할 수 있다. More specifically, the controller 1100 may generate a 3d map based on the sensor data obtained from the lidar device 1310 . In this case, the controller 1100 may determine a space in which the first vehicle 111 can travel based on the 3d map.

또한, 상기 자율 주행 시스템(1000)은 위험 반경 내에서 상기 자율 주행 시스템(1000)을 탑재한 차량에 다가오는 객체를 검출할 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 기초로 주변에서 다가오는 이륜차의 속도 및 방향 등을 판단할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이륜차의 속도 및 방향을 상기 인포테인먼트 시스템(1400)을 통해 탑승자를 위해 디스플레이할 수 있다. Also, the autonomous driving system 1000 may detect an object approaching the vehicle equipped with the autonomous driving system 1000 within a dangerous radius. More specifically, the autonomous driving system 1000 may determine the speed and direction of an approaching two-wheeled vehicle based on the sensor data acquired from the at least one sensor 1300 . In this case, the controller 1100 may display the speed and direction of the two-wheeled vehicle for the passenger through the infotainment system 1400 .

또한, 상기 컨트롤러(1100)는 상기 속도 및 방향을 기초로 상기 이륜차가 위험 반경 내에 위치한다고 판단한 경우, 상기 이륜차의 존재를 탑승자에게 알릴 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 문을 잠그는 동작, 상기 인포테인먼트 시스템(1400)을 통해 위험을 알리는 동작, 상기 차량의 사이드미러에 상기 이륜차의 존재를 표시하는 동작 등을 수행할 수 있으나, 이에 한정되지 않는다. Also, when determining that the motorcycle is located within a dangerous radius based on the speed and direction, the controller 1100 may notify the occupant of the existence of the motorcycle. For example, the controller 1100 may perform an operation of locking the door of the vehicle, an operation of notifying a danger through the infotainment system 1400, an operation of displaying the presence of the two-wheeled vehicle on the side mirror of the vehicle, etc. However, the present invention is not limited thereto.

또한, 상기 자율 주행 시스템(1000)은 상기 이륜차의 존재를 명확히 판단하기 위해 근거리 라이다 장치를 더 포함할 수 있다. 이때, 상기 근거리 라이다 장치는 상기 차량에 근접한 객체의 거리 정보를 획득하여 상기 컨트롤러(1100)에 제공할 수 있다. 또한, 이에 한정되지 않고, 상기 자율 주행 시스템(1000)은 근거리 객체를 검출하기 위한 적어도 하나의 센서를 더 포함할 수 있다.Also, the autonomous driving system 1000 may further include a short-distance lidar device to clearly determine the existence of the two-wheeled vehicle. In this case, the short-range lidar device may obtain distance information of an object close to the vehicle and provide it to the controller 1100 . Also, without being limited thereto, the autonomous driving system 1000 may further include at least one sensor for detecting a short-range object.

또한, 상기 자율 주행 시스템(1000)이 탑재된 제1 차량은 상기 센서 데이터를 통해 마주보는 차량의 갑작스러운 유턴 상황을 검출할 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)에 포함된 라이다 장치로부터 획득된 센서 데이터를 통해 마주보는 제2 차량의 속도 및 방향을 포함하는 벡터 맵을 형성할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 상기 벡터 맵을 이용하여 상기 제2 차량의 유턴 여부를 검출할 수 있다. 또한, 상기 제2 차량이 갑자기 유턴하는 경우, 상기 컨트롤러(1100)는 상기 제1 차량의 속도를 제어할 수 있다.In addition, the first vehicle in which the autonomous driving system 1000 is mounted may detect a sudden U-turn situation of an opposing vehicle through the sensor data. Specifically, the controller 1100 included in the autonomous driving system 1000 includes the speed and direction of a second vehicle facing each other through sensor data acquired from the lidar device included in the at least one sensor 1300 . A vector map can be formed. Also, the autonomous driving system 1000 may detect whether the second vehicle makes a U-turn by using the vector map. Also, when the second vehicle suddenly makes a U-turn, the controller 1100 may control the speed of the first vehicle.

또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 제1 차량이 출발하기 전에 주변에 객체가 있는지 여부를 검출할 수 있다.Also, the autonomous driving system 1000 may detect whether there is an object in the vicinity before the first vehicle on which the autonomous driving system 1000 is mounted departs.

보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 제1 차량을 이동시키기 전에 상기 제1 차량 주변의 객체 존재 여부를 판단하기 위해 적어도 하나의 센서(1300)를 제어할 수 있다. 예를 들어, 상기 제1 차량의 하부에 고양이가 존재하는 경우, 상기 적어도 하나의 센서(1300)는 상기 고양이의 존재를 검출하에 상기 컨트롤러(1100)에 전송할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 고양이가 이동하기 전까지 상기 제1 차량을 정지시킬 수 있다. More specifically, the controller 1100 included in the autonomous driving system 1000 may control at least one sensor 1300 to determine whether an object exists around the first vehicle before moving the first vehicle. can For example, when a cat exists under the first vehicle, the at least one sensor 1300 may detect the presence of the cat and transmit it to the controller 1100 . In this case, the controller 1100 may stop the first vehicle until the cat moves.

또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 주변의 보행자를 트래킹하여 위험 상황을 대비할 수 있다. 여기서, 보행자는 남자, 여자, 어린이, 노인 등 다양한 사람이 포함될 수 있으며, 일 실시예에서, 상기 자율주행시스템(1000)은 상기 보행자의 종류를 식별할 수도 있다.In addition, the autonomous driving system 1000 may prepare for a dangerous situation by tracking pedestrians around which the autonomous driving system 1000 is mounted. Here, the pedestrian may include various people such as men, women, children, and the elderly, and in an embodiment, the autonomous driving system 1000 may identify the type of the pedestrian.

구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 적어도 하나의 센서(1300)를 통해 상기 차량으로부터 소정 거리 내에 있는 보행자의 움직임을 검출할 수 있다. 또한, 상기 보행자가 상기 적어도 하나의 센서의 시야각에서 사라지는 경우, 상기 컨트롤러(1100)는 이미 획득한 상기 보행자의 위치 정보를 활용하여 상기 보행자의 이동 방향을 예측하는 트래킹 데이터를 생성할 수 있다. Specifically, the controller 1100 included in the autonomous driving system 1000 may detect a movement of a pedestrian within a predetermined distance from the vehicle through at least one sensor 1300 . Also, when the pedestrian disappears from the viewing angle of the at least one sensor, the controller 1100 may generate tracking data for predicting the movement direction of the pedestrian by using the already acquired location information of the pedestrian.

또한, 상기 컨트롤러(1100)는 상기 트래킹 데이터를 기초로, 상기 보행자가 도로 상에 갑자기 들어오는 상황을 대비한 제어 방법을 미리 저장할 수 있다. 예를 들어, 상기 제어 방법은 상기 차량을 정지시키거나, 상기 차량의 경로를 변경시키는 것을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the controller 1100 may store in advance a control method for a situation in which the pedestrian suddenly enters on the road based on the tracking data. For example, the control method may include stopping the vehicle or changing a route of the vehicle, but is not limited thereto.

또한, 상기 자율 주행 시스템(1000)은 어린이 보호 구역 등 법률적인 규제와 관련되는 영역을 판단하여 차량을 제어할 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 통해 어린이 보호 구역을 나타내는 표지판 등을 스캔하여 어린이 보호 구역 여부를 판단할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 미리 저장된 어린이 보호 구역 관련 정보를 이용하여 어린이 보호 구역을 판단할 수 있다. 이때, 상기 자율 주행 시스템(1000)이 탑재된 차량이 어린이 보호 구역에 진입한 경우, 컨트롤러(1100)는 차량이 미리 정해진 속도 이하로 주행하도록 차량을 제어할 수 있다.In addition, the autonomous driving system 1000 may control the vehicle by determining an area related to legal regulation, such as a child protection zone. Specifically, the autonomous driving system 1000 may scan a sign indicating a child protection area through at least one sensor 1300 to determine whether a child protection area is present. In addition, the autonomous driving system 1000 may determine the child protection area using pre-stored information related to the child protection area. In this case, when the vehicle on which the autonomous driving system 1000 is mounted enters the child protection zone, the controller 1100 may control the vehicle to travel at a speed lower than a predetermined speed.

1.4.1.3. 편의를 위한 자율 주행 시스템. 1.4.1.3. Autonomous driving system for convenience.

상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자의 편의를 위한 시스템을 포함할 수 있다. 또한 상기 편의를 위한 시스템은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 동작할 수 있다.The autonomous driving system 1000 may include a system for convenience of occupants of a vehicle in which the autonomous driving system 1000 is mounted. In addition, the system for convenience may operate based on sensor data obtained from the at least one sensor 1300 included in the autonomous driving system 1000 .

상기 편의를 위한 자율주행 시스템에 기재되는 사항은 자율주행 차량에서 제어되는 다양한 실시예에 대해 기술한 것으로, 상기 편의를 위한 자율주행 시스템에 기재되는 사항은 후술할 대목차 2 내지 대목차 6에 기재된 기술사항으로 구현될 수 있다.The matters described in the autonomous driving system for convenience are described for various embodiments controlled by the autonomous driving vehicle, and the matters described in the autonomous driving system for convenience are described in Tables 2 to 6 to be described later. It can be implemented as a technical matter.

상기 자율 주행 시스템(1000)은 탑승자의 주차를 보조하기 위해 주차 가능 공간을 검출할 수 있다.The autonomous driving system 1000 may detect a parking space available to assist the occupant's parking.

도 10은 일 실시예에 따른 자율 주행 시스템이 주차 가능 공간을 감지하는 상황을 나타내는 도면이다.10 is a diagram illustrating a situation in which an autonomous driving system detects a parking space according to an exemplary embodiment.

도 10을 참조하면, 상기 자율 주행 시스템(1000)이 탑재된 제1 차량(113)은 상기 적어도 하나의 센서(1300)를 통해 주차 가능 공간을 검출할 수 있다.Referring to FIG. 10 , the first vehicle 113 on which the autonomous driving system 1000 is mounted may detect a parking space available through the at least one sensor 1300 .

또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 주차선(10)을 검출할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)에 포함된 상기 라이다 장치(1310)를 통해 객체의 반사율에 관련된 인텐시티 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 인텐시티 정보를 기초로 상기 객체가 주차선(10)이라고 판단할 수 있다.Also, the controller 1100 included in the autonomous driving system 1000 may detect the parking line 10 based on sensor data obtained from the at least one sensor 1300 . For example, the controller 1100 may acquire intensity information related to the reflectance of an object through the lidar device 1310 included in the at least one sensor 1300 . In this case, the controller 1100 may determine that the object is the parking line 10 based on the intensity information.

또한, 상기 컨트롤러(1100)는 상기 검출된 주차선(10) 내의 공간에 장애물이 존재하는 지 여부를 검출할 수 있다. 이때, 상기 주차선(400) 내의 공간에 장애물이 존재하지 않는 경우, 상기 컨트롤러(1100)는 상기 공간을 주차 가능 공간으로 판단할 수 있다.Also, the controller 1100 may detect whether an obstacle exists in the space within the detected parking line 10 . In this case, when there is no obstacle in the space within the parking line 400 , the controller 1100 may determine the space as a parking space available.

또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 주차된 제2 차량(114)을 검출함으로써 주차 가능 공간을 검출할 수 있다. 보다 구체적으로, 상기 센서 데이터에 주차된 제2 차량의 표면에 대응하는 데이터(20)가 포함된 경우, 상기 컨트롤러(1100)는 상기 제2 차량(114)이 존재하는 위치의 주차 가능 여부를 판단하지 않을 수 있다.In addition, the controller 1100 may detect the available parking space by detecting the parked second vehicle 114 based on the sensor data. More specifically, when the data 20 corresponding to the surface of the parked second vehicle is included in the sensor data, the controller 1100 determines whether parking is possible at the location where the second vehicle 114 is located. may not

또한, 상기 컨트롤러(1100)는 주차된 차량을 기초로 주차 가능 공간을 검출할 수 있다. 보다 구체적으로, 상기 컨트롤러(11100)는 상기 센서 데이터를 기초로 상기 주차된 차량 사이의 공간이 일정 면적 이상이면 주차 가능 공간으로 인지할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 주차선(10)이 검출되지 않는 경우에도 상기 주차된 차량 사이의 공간이 일정 면적 이상이면 주차 가능 공간으로 인지할 수 있다.Also, the controller 1100 may detect a parking available space based on the parked vehicle. More specifically, the controller 11100 may recognize the space between the parked vehicles as the available parking space when the space between the parked vehicles is equal to or greater than a predetermined area based on the sensor data. Also, even when the parking line 10 is not detected, the controller 1100 may recognize that the space between the parked vehicles is equal to or greater than a certain area as a parking space.

또한, 상기 자율 주행 시스템(1000)은 전술한 방법에 한정되지 않고, 상기 주차선(10) 및 상기 주차된 차량에 기초하여 주차 가능 공간을 검출할 수 있다.Also, the autonomous driving system 1000 is not limited to the above-described method, and may detect a parking space based on the parking line 10 and the parked vehicle.

또한, 상기 자율 주행 시스템(1000)은 제1 차량(115)의 주차 및 출차 시 맵을 생성할 수 있다. Also, the autonomous driving system 1000 may generate a map when parking and exiting the first vehicle 115 .

도 11은 일 실시예에 따른 자율 주행 시스템이 차량의 출차를 위한 맵을 생성하는 과정을 나타내는 도면이다.11 is a diagram illustrating a process in which an autonomous driving system generates a map for taking a vehicle out of a vehicle according to an exemplary embodiment.

도 11을 참조하면, 상기 자율 주행 시스템(1000)은 상기 제1 차량(115)에 배치된 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 기초로 상기 제1 차량(115)의 주차 및 출차 시 맵을 형성할 수 있다.Referring to FIG. 11 , the autonomous driving system 1000 performs parking and operation of the first vehicle 115 based on sensor data acquired through at least one sensor 1300 disposed in the first vehicle 115 . A map can be formed when exiting the vehicle.

이때, 상기 자율 주행 시스템(1000)은 제1 운행 동안 주변에 대한 센서 데이터를 획득하고, 상기 제1 운행 동안 획득된 상기 센서 데이터를 기초로 제2 운행에 대한 경로를 생성할 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 제1 운행 동안 획득된 상기 센서 데이터를 기초로 상기 제1 차량(115)의 주변에 대한 맵을 생성할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 맵을 기초로 상기 제2 운행에 대한 경로를 생성할 수 있다.In this case, the autonomous driving system 1000 may acquire sensor data for the surroundings during the first driving, and generate a route for the second driving based on the sensor data acquired during the first driving. More specifically, the controller 1100 included in the autonomous driving system 1000 may generate a map of the surroundings of the first vehicle 115 based on the sensor data acquired during the first driving. . Also, the controller 1100 may generate a route for the second operation based on the map.

또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 통해 획득된 데이터를 기초로 3d맵을 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 제1 차량(115)의 상기 제1 운행 동안 상기 라이다 장치(1310)로부터 획득된 주변에 대한 위치 정보를 기초로 상기 3d 맵을 생성할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 3d맵을 기초로 상기 제2 운행에 대한 경로를 생성할 수 있다.Also, when the at least one sensor 1300 is the lidar device 1310 , the controller 1100 may generate a 3d map based on data acquired through the lidar device 1310 . More specifically, the controller 1100 may generate the 3d map based on the location information about the surroundings obtained from the lidar device 1310 during the first driving of the first vehicle 115 . Also, the controller 1100 may generate a route for the second operation based on the 3d map.

또한 상기 자율 주행 시스템(1000)은 자율 주차를 위한 시스템을 포함할 수 있다. 상기 자율 주차를 위한 시스템은 상기 센서 데이터를 활용할 수 있다. 또한, 상기 자율 주차를 위한 시스템은 탑승자의 입력에 의해 작동할 수 있다. 또한, 상기 자율 주차 시스템은 상기 자율 주행 시스템은 주차 상황을 인지하면 작동할 수 있다.Also, the autonomous driving system 1000 may include a system for autonomous parking. The system for autonomous parking may utilize the sensor data. In addition, the system for autonomous parking may be operated by input from a occupant. In addition, the autonomous parking system may operate when the autonomous driving system recognizes a parking situation.

일 실시예에서, 상기 자율 주행 시스템(1000)은 차량이 특정 공간에 위치한 경우에 자율 주차를 위한 시스템을 구현할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 차량이 특정 공간에 위치하고 탑승자가 차량에서 하차한 경우, 주차를 수행하는 상황임을 인식하고, 이에 따라, 자율 주차를 위한 시스템을 구현할 수 있다.In an embodiment, the autonomous driving system 1000 may implement a system for autonomous parking when the vehicle is located in a specific space. For example, the autonomous driving system 1000 may recognize a situation in which parking is performed when a vehicle is located in a specific space and a passenger gets off the vehicle, and accordingly, a system for autonomous parking may be implemented.

1.4.2. 센서 및 통신을 이용한 자율 주행 시스템1.4.2. Autonomous driving system using sensors and communication

1.4.2.1. 개괄1.4.2.1. generalization

상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터 및 다른 장치로부터 수신한 공유 데이터를 이용하여 구현될 수 있다. 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 통신 모듈(1200)을 통해 다른 장치와 데이터를 공유하기 위해 통신할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 주행과 관련된 위험 요소를 미리 파악하기 위해 통신 시스템을 이용할 수 있다. The autonomous driving system 1000 may be implemented using sensor data acquired from the at least one sensor 1300 and shared data received from other devices. The autonomous driving system 1000 may communicate to share data with other devices through the at least one communication module 1200 . In addition, the autonomous driving system 1000 may use a communication system to identify in advance risk factors related to driving of a vehicle in which the autonomous driving system 1000 is mounted.

도 12는 일 실시예에 따른 통신 시스템의 종류를 설명하기 위한 도면이다.12 is a diagram for describing a type of a communication system according to an embodiment.

도 12를 참조하면, 상기 자율 주행 시스템(1000)은 다양한 통신 시스템을 통해 구현될 수 있다. 예를 들어, 상기 통신 시스템은 V2V(Vehicle to Vehicle), V2I(Vehicle to Infra), V2N(Vehicle to Network), V2P(Vehicle to Pedestrian), V2C(Vehicle to Cloud), V2D(Vehicle to Device) 등 적어도 하나의 V2X시스템을 구현할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 12 , the autonomous driving system 1000 may be implemented through various communication systems. For example, the communication system may include Vehicle to Vehicle (V2V), Vehicle to Infra (V2I), Vehicle to Network (V2N), Vehicle to Pedestrian (V2P), Vehicle to Cloud (V2C), Vehicle to Device (V2D), etc. At least one V2X system may be implemented, but is not limited thereto.

또한, 상기 자율 주행 시스템(1000)은 다른 장치와의 통신을 위해 적어도 하나의 표준화된 통신 시스템을 이용할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 다른 장치와의 통신을 위해 C-V2X 및 DSRC(Dedicated Short Range Communication)등을 이용할 수 있으나, 이에 한정되지 않는다. 이때, 상기 C-V2X는 V2X 통신을 수행하기 위한 기술을 나타내는 3GPP 표준을 의미할 수 있다. 또한, 상기 DSRC는 차량과 대응하는 프로토콜 및 표준 세트를 위해 설계된 단방향 또는 양방향 단거리 무선 통신 채널을 의미할 수 있다.Also, the autonomous driving system 1000 may use at least one standardized communication system for communication with other devices. For example, the autonomous driving system 1000 may use C-V2X and Dedicated Short Range Communication (DSRC) for communication with other devices, but is not limited thereto. In this case, the C-V2X may refer to a 3GPP standard indicating a technology for performing V2X communication. In addition, the DSRC may mean a one-way or two-way short-range wireless communication channel designed for a vehicle and a corresponding protocol and standard set.

1.4.2.1.1. V2V 1.4.2.1.1. V2V

상기 자율 주행 시스템(1000)을 탑재한 제1 차량은 적어도 하나의 통신 모듈(1200)을 이용해 다른 차량과 통신할 수 있다. The first vehicle on which the autonomous driving system 1000 is mounted may communicate with another vehicle using at least one communication module 1200 .

다시 도 12를 참조하면, 상기 제1 차량은 V2V 시스템을 통해 상기 다른 차량과 데이터 공유를 위한 통신을 수행할 수 있다. Referring back to FIG. 12 , the first vehicle may communicate for data sharing with the other vehicle through a V2V system.

또한, 상기 V2V 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 상기 다른 차량에 송수신하기 위해 구현될 수 있다. In addition, the V2V system may be implemented to transmit/receive sensor data acquired from at least one sensor 1300 included in the first vehicle to the other vehicle.

또한, 상기 V2V 시스템은 상기 센서 데이터 외의 정보를 송수신하기 위해 구현될 수 있다. 예를 들어, 상기 V2V 시스템은 상기 제1 차량의 목적지, 상기 제1 차량 내의 승객의 수, 상기 제1 차량의 속도 등을 전송하기 위해 구현될 수 있으나, 이에 한정되지 않는다.In addition, the V2V system may be implemented to transmit and receive information other than the sensor data. For example, the V2V system may be implemented to transmit the destination of the first vehicle, the number of passengers in the first vehicle, the speed of the first vehicle, and the like, but is not limited thereto.

또한, 상기 제1 차량은 탑승자 및 보행자의 안전을 위해 상기 V2V시스템을 이용할 수 있다. 예를 들어, 상기 제1 차량은 상기 제1 차량의 경로 상에 존재하는 위험 물체에 대한 정보를 상기 V2V 시스템을 통해 다른 차량으로부터 수신할 수 있다.Also, the first vehicle may use the V2V system for safety of occupants and pedestrians. For example, the first vehicle may receive information about a dangerous object existing on a path of the first vehicle from another vehicle through the V2V system.

1.4.2.1.2. V2I1.4.2.1.2. V2I

상기 자율 주행 시스템(1000)을 탑재한 제1 차량은 적어도 하나의 통신 모듈(1200)을 통해 인프라 장치와 통신할 수 있다. 이때, 상기 인프라 장치는 산업 또는 교통 기반을 형성하는 기초적인 시설과 시스템을 의미할 수 있다. 예를 들어, 상기 인프라 장치는 신호등, 과속 카메라, 도로 표지판 등을 포함할 수 있으나, 이에 한정되지 않는다. The first vehicle on which the autonomous driving system 1000 is mounted may communicate with the infrastructure device through at least one communication module 1200 . In this case, the infrastructure device may refer to basic facilities and systems that form an industrial or transportation base. For example, the infrastructure device may include, but is not limited to, a traffic light, a speed camera, a road sign, and the like.

또한, 상기 인프라 장치는 적어도 하나의 센서를 포함할 수 있다. 보다 구체적으로, 상기 인프라 장치는 도로 상에서 차량 및 보행자에게 일어날 수 있는 위험 상황을 감지하기 위해 상기 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 센서는 라이다 장치, 카메라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다. In addition, the infrastructure device may include at least one sensor. More specifically, the infrastructure device may include the at least one sensor to detect a dangerous situation that may occur to vehicles and pedestrians on the road. For example, the at least one sensor may include a lidar device, a camera device, and the like, but is not limited thereto.

다시 도 12를 참조하면, 상기 제1 차량은 V2I 시스템을 통해 상기 인프라 장치와 데이터 공유를 위한 통신을 수행할 수 있다. 여기서, 상기 인프라 장치는 외부 서버에 의해 제어될 수도 있고, 또는, 외부 서버의 제어없이 상기 데이터 공유를 위한 통신을 수행할 수도 있다.Referring back to FIG. 12 , the first vehicle may communicate for data sharing with the infrastructure device through a V2I system. Here, the infrastructure device may be controlled by an external server, or may perform communication for sharing the data without the control of the external server.

또한, 상기 V2I 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 인프라 장치에 전송하기 위해 구현될 수 있다. 또한, 상기 V2I 시스템은 상기 인프라 장치에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 제1 차량에 전송하기 위해 구현될 수 있다.Also, the V2I system may be implemented to transmit sensor data obtained from at least one sensor included in the first vehicle to the infrastructure device. Also, the V2I system may be implemented to transmit sensor data obtained from at least one sensor included in the infrastructure device to the first vehicle.

또한, 상기 V2I 시스템은 상기 센서 데이터 외의 정보를 전송하기 위해 구현될 수 있다. 구체적으로, 상기 인프라 장치는 상기 인프라 장치가 배치된 공간에 대한 규제 정보를 상기 제1 차량에 전송할 수 있다. 예를 들어, 상기 인프라 장치는 상기 인프라 장치가 배치된 공간이 어린이 보호 구역이라는 정보를 상기 제1 차량에 전송할 수 있다.In addition, the V2I system may be implemented to transmit information other than the sensor data. Specifically, the infrastructure device may transmit regulatory information on a space in which the infrastructure device is disposed to the first vehicle. For example, the infrastructure device may transmit information that the space in which the infrastructure device is disposed is a child protection zone to the first vehicle.

또한, 상기 제1 차량은 특정 구역에 진입할 경우, 상기 인프라 장치로부터 센서 데이터를 수신할 수 있다. 예를 들어, 상기 제1 차량이 어린이 보호 구역에 진입하는 경우, 상기 제1 차량은 어린이 보호 구역에 설치된 인프라 장치로부터 획득된 센서 데이터를 상기 V2I 시스템을 통해 수신할 수 있으나, 이에 한정되지 않는다. Also, when the first vehicle enters a specific area, it may receive sensor data from the infrastructure device. For example, when the first vehicle enters the child protection area, the first vehicle may receive sensor data obtained from an infrastructure device installed in the child protection area through the V2I system, but is not limited thereto.

1.4.2.1.3. V2C1.4.2.1.3. V2C

상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량은 통신 모듈(1200)을 통해 서버와 통신할 수 있다. 이때, 상기 서버는 도로 상황을 관제하기 위한 기관의 컴퓨터에 포함될 수 있다. 예를 들어, 상기 서버는 도로 관제 시스템의 클라우드를 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 서버는 소정 지역과 관련된 로컬 서버, 복수의 로컬 서버를 통제하기 위한 글로벌 서버 등을 포함할 수 있으나, 이에 한정되지 않는다.The first vehicle on which the autonomous driving system 1000 is mounted may communicate with a server through the communication module 1200 . In this case, the server may be included in a computer of an institution for controlling road conditions. For example, the server may include a cloud of a road control system, but is not limited thereto. In addition, the server may include, but is not limited to, a local server related to a predetermined region, a global server for controlling a plurality of local servers, and the like.

다시 도 12를 참조하면, 상기 제1 차량은 V2C 시스템을 통해 상기 서버와 데이터 공유를 위한 통신을 수행할 수 있다. Referring back to FIG. 12 , the first vehicle may perform communication for data sharing with the server through a V2C system.

또한, 상기 V2C 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 서버에 전송하기 위해 구현될 수 있다.In addition, the V2C system may be implemented to transmit sensor data obtained from at least one sensor included in the first vehicle to the server.

또한, 상기 V2C 시스템은 상기 센서 데이터 외의 정보를 전송하기 위해 구현될 수 있다.In addition, the V2C system may be implemented to transmit information other than the sensor data.

또한, 상기 제1 차량은 상기 서버로부터 사고 사실에 대한 정보를 수신할 수 있다. 예를 들어, 상기 서버는 상기 제1 차량의 경로 상에 교통 사고가 발생한 사실을 나타내는 정보를 상기 V2C 시스템을 통해 상기 제1 차량에 전송할 수 있으나, 이에 한정되지 않는다.In addition, the first vehicle may receive information about the accident fact from the server. For example, the server may transmit information indicating that a traffic accident has occurred on the path of the first vehicle to the first vehicle through the V2C system, but is not limited thereto.

하기에서는 센서 및 통신을 이용한 자율 주행 시스템의 상세한 실시예에 대해서 기술한다.Hereinafter, a detailed embodiment of an autonomous driving system using a sensor and communication will be described.

1.4.2.2. 안전을 위한 자율 주행 시스템 - 센서 및 통신 기반1.4.2.2. Autonomous Driving Systems for Safety - Based on Sensors and Communication

상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자 및 보행자의 안전을 위해 센서 데이터 및 통신을 통한 공유 데이터를 이용할 수 있다. The autonomous driving system 1000 may use sensor data and shared data through communication for the safety of occupants and pedestrians of the vehicle on which the autonomous driving system 1000 is mounted.

이때, 센서 데이터를 이용한 목차 1.4.1.2에 기재된 다양한 실시예는 센서 데이터 및 통신을 통한 공유 데이터를 이용한 자율 주행 시스템에도 적용될 수 있음은 물론이다.In this case, it goes without saying that the various embodiments described in Table of Contents 1.4.1.2 using sensor data can also be applied to an autonomous driving system using sensor data and shared data through communication.

자율 주행 시스템(1000)은 센서 및 통신을 통해 트래픽 이벤트 발생 여부를 감지할 수 있다.The autonomous driving system 1000 may detect whether a traffic event has occurred through a sensor and communication.

도 13은 일 실시예에 따른 자율 주행 시스템을 탑재한 차량의 전방에 트래픽이벤트가 발생한 상황을 나타내는 도면이다.13 is a diagram illustrating a situation in which a traffic event occurs in front of a vehicle equipped with an autonomous driving system according to an exemplary embodiment.

도 13을 참조하면, 제1 차량(116)이 주행 중 발생한 트래픽 이벤트에 대한 센서 데이터를 획득한 경우, 상기 제1 차량(116)은 상기 센서 데이터를 서버(400) 또는 상기 트래픽 이벤트와 관련된 차량(117, 118)에 전송할 수 있다.Referring to FIG. 13 , when the first vehicle 116 obtains sensor data for a traffic event occurring while driving, the first vehicle 116 transmits the sensor data to the server 400 or a vehicle related to the traffic event. You can send to (117, 118).

또한, 제2 차량(117)과 제3 차량(118)간에 충돌로 인한 트래픽 이벤트가 발생한 경우, 상기 트래픽 이벤트와 관련된 차량(117, 118)은 트래픽 이벤트가 발생한 사실을 나타내는 정보를 서버(400)에 전송할 수 있다. 이때, 상기 서버(400)는 상기 트래픽 이벤트가 발생한 영역 주변에 위치하는 제1 차량(116)에 상기 트래픽 이벤트가 발생한 사실을 나타내는 정보를 전송할 수 있다.In addition, when a traffic event due to a collision between the second vehicle 117 and the third vehicle 118 occurs, the vehicles 117 and 118 related to the traffic event transmit information indicating the fact that the traffic event has occurred to the server 400 . can be sent to In this case, the server 400 may transmit information indicating the fact that the traffic event has occurred to the first vehicle 116 located around the area where the traffic event has occurred.

또한, 자율 주행 시스템(1000)은 통신을 통해 상기 자율 주행 시스템이 탑재된 차량의 전방에 정차해 있는 차량이 공유 차량임을 인지하고, 상기 공유 차량과의 통신을 통해 상기 공유 차량에 대한 정보를 획득할 수 있다.In addition, the autonomous driving system 1000 recognizes that the vehicle stopped in front of the vehicle equipped with the autonomous driving system is a shared vehicle through communication, and acquires information on the shared vehicle through communication with the shared vehicle can do.

예를 들어, 택시 내의 승객이 하차하는 시간 동안 상기 택시가 차량의 통행을 방해할 수 있으므로, 상기 택시는 상기 차량에 현재 상황과 관련된 정보를 전송할 수 있다. 예를 들어, 상기 택시는 상기 차량에 승객이 하차 중인 상황이라는 메시지를 전송할 수 있다. 이때, 상기 차량은 적어도 하나의 센서로부터 획득한 센서 데이터 및 상기 택시로부터 전송된 공유 데이터를 통해 상기 택시가 불법 주차 차량이 아니라고 판단할 수 있다.For example, since the taxi may obstruct the passage of a vehicle during the time when passengers in the taxi are disembarking, the taxi may transmit information related to the current situation to the vehicle. For example, the taxi may transmit a message to the vehicle indicating that the passenger is getting off. In this case, the vehicle may determine that the taxi is not an illegally parked vehicle through sensor data acquired from at least one sensor and shared data transmitted from the taxi.

또한, 통신의 주체가 택시로 한정되는 것은 아니며, 버스 등 다양한 종류의 공유 차량을 포함할 수 있다.In addition, the subject of communication is not limited to a taxi, and may include various types of shared vehicles such as a bus.

1.4.2.3. 편의를 위한 자율 주행 시스템 - 센서 및 통신 기반1.4.2.3. Autonomous Driving Systems for Convenience - Based on Sensors and Communication

상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)을 탑재한 차량의 탑승자 및 보행자의 편의를 위해 센서 데이터 및 통신을 통한 공유 데이터를 이용할 수 있다.The autonomous driving system 1000 may use sensor data and shared data through communication for the convenience of occupants and pedestrians of a vehicle equipped with the autonomous driving system 1000 .

이때, 센서 데이터를 이용한 목차 1.4.1.3에 기재된 다양한 실시예는 센서 데이터 및 통신을 통한 공유 데이터를 이용한 자율 주행 시스템에도 적용될 수 있음은 물론이다.In this case, it goes without saying that the various embodiments described in Table of Contents 1.4.1.3 using sensor data can also be applied to an autonomous driving system using sensor data and shared data through communication.

또한, 자율 주행 시스템은 센서 및 통신을 통해 주차장 내 주차 가능 공간에 대한 정보를 획득할 수 있다.In addition, the autonomous driving system may acquire information about available parking spaces in the parking lot through sensors and communication.

도 14는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 주차장 내의 인프라 장치와의 통신을 통해 주차 가능 공간을 인지하는 상황을 나타내는 도면이다.14 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment recognizes a parking space through communication with an infrastructure device in a parking lot.

도 14를 참조하면, 주차장 내에는 적어도 하나의 인프라 장치(700)가 배치될 수 있다. 상기 적어도 하나의 인프라 장치(700)는 주차장 내에 주차 가능 공간에 대한 정보를 획득하기 위해 적어도 하나의 센서를 포함할 수 있다. 또한, 상기 인프라 장치(700)는 센서를 통해 획득한 센서 데이터에 포함되는 주차 가능 공간에 대한 정보를 저장할 수 있다.Referring to FIG. 14 , at least one infrastructure device 700 may be disposed in a parking lot. The at least one infrastructure device 700 may include at least one sensor in order to obtain information on the available parking space in the parking lot. In addition, the infrastructure device 700 may store information on the available parking space included in the sensor data acquired through the sensor.

또한, 제1 차량(119)이 주차장에 진입한 경우, 인프라 장치(700)는 저장된 주차 가능 공간에 대한 정보를 상기 제1 차량(119)에 전송할 수 있다. 이때, 상기 제1 차량의 컨트롤러는 상기 주차 가능 공간에 대한 정보를 기초로 상기 제1 차량(119)을 상기 주차 가능 공간으로 주행할 수 있으며, 이 과정에서 상기 제1 차량(119)에 배치된 센서를 통한 센서 데이터를 이용해 주차 공간을 추가적으로 검출할 수도 있다. 또한, 상기 주차 가능 공간에 대한 정보에 따라 도착한 주차 가능 공간에 실제로 상기 제1 차량(119)이 주차할 수 있는지 여부를 판단하기 위해, 상기 자율 주행 시스템(1000)은 상기 제1 차량(119)에 배치된 적어도 하나의 센서를 이용해 상기 주차 가능 공간에 대한 센서 데이터를 획득하여 주차 가능 여부를 판단할 수 있다.Also, when the first vehicle 119 enters the parking lot, the infrastructure device 700 may transmit information on the stored available parking space to the first vehicle 119 . At this time, the controller of the first vehicle may drive the first vehicle 119 to the available parking space based on the information on the available parking space, and in this process, It is also possible to additionally detect a parking space using sensor data through a sensor. In addition, in order to determine whether the first vehicle 119 can actually park in the arrived parking space according to the information on the available parking space, the autonomous driving system 1000 may It is possible to determine whether parking is possible by acquiring sensor data for the available parking space by using at least one sensor disposed in the .

또한, 주차되어 있던 제2 차량(120)이 출차하는 경우, 상기 제2 차량(120)은 상기 제2 차량(120)이 주차되어 있던 공간에 대한 정보를 상기 인프라 장치(700)에 전송할 수 있다. 이 경우, 상기 인프라 장치(700)는 수신한 상기 제2 차량(120)이 주차되어 있던 공간에 대한 정보를 저장하여 주차 가능 공간을 인지할 수 있다.Also, when the parked second vehicle 120 takes out, the second vehicle 120 may transmit information about a space in which the second vehicle 120 is parked to the infrastructure device 700 . . In this case, the infrastructure device 700 may recognize the available parking space by storing the received information on the space in which the second vehicle 120 is parked.

이하에서는 센서 데이터 및 공유 데이터에 관해 설명하기로 한다.Hereinafter, sensor data and shared data will be described.

2. 자율 주행 시스템에 이용되는 센서 데이터2. Sensor data used in autonomous driving systems

2.1. 센서의 종류2.1. type of sensor

자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 포함할 수 있다. The autonomous driving system 1000 may include at least one sensor 1300 .

다시 도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 다양한 종류의 센서를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이다 장치(1330), 적어도 하나의 초음파 센서(1340)등을 포함할 수 있으나, 이에 한정되지 않는다.Referring back to FIG. 2 , the at least one sensor 1300 may include various types of sensors. For example, the at least one sensor 1300 may include at least one lidar device 1310 , at least one camera device 1320 , at least one radar device 1330 , at least one ultrasonic sensor 1340 , etc. may include, but is not limited thereto.

2.2. 센서 데이터2.2. sensor data

상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)를 통해 센서 데이터를 획득할 수 있다. 이때, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)로부터 획득 가능한 원시 데이터 또는 상기 원시 데이터가 가공된 데이터를 포함할 수 있다.The autonomous driving system 1000 may acquire sensor data through the at least one sensor 1300 . In this case, the sensor data may include raw data obtainable from the at least one sensor 1300 or data obtained by processing the raw data.

또한, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)에 의해 감지된 객체에 관련된 정보를 포함할 수 있다. 예를 들어, 상기 센서 데이터는 상기 객체의 위치 정보, 상기 객체의 거리 정보, 상기 객체의 형상 및/또는 색상 정보, 상기 객체의 특성 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, the sensor data may include information related to an object detected by the at least one sensor 1300 . For example, the sensor data may include, but is not limited to, location information of the object, distance information of the object, shape and/or color information of the object, and characteristic information of the object.

또한, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)로부터 획득된 단일 포인트에 대한 데이터, 혹은 복수의 포인트에 대한 데이터(즉, 데이터 셋) 또는 상기 단일 포인트에 대한 데이터 또는 상기 복수의 포인트에 대한 데이터를 가공한 가공 데이터를 포함할 수 있다.In addition, the sensor data includes data for a single point obtained from the at least one sensor 1300, data for a plurality of points (ie, a data set), or data for the single point or data for the plurality of points. Processed data may be included.

구체적인 예로서, 상기 센서 데이터는 포인트 데이터 셋, 포인트 데이터, 서브 포인트 데이터 셋, 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않으며, 상세한 사항은 아래에서 설명한다. As a specific example, the sensor data may include a point data set, point data, sub-point data set, attribute data, etc., but is not limited thereto, and details will be described below.

도 15는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 적어도 하나의 센서를 통해 차량 주변 환경에 대한 센서 데이터를 획득하는 상황을 나타내는 도면이다.15 is a diagram illustrating a situation in which a vehicle equipped with an autonomous driving system according to an exemplary embodiment acquires sensor data on an environment around the vehicle through at least one sensor.

예를 들어, 상기 센서가 상기 라이다 장치인 경우, 상기 센서 데이터는 상기라이다 장치에 의해 스캔된 각각의 포인트들에 대한 포인트 데이터, 포인트 데이터 셋, 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋을 가공한 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.For example, when the sensor is the lidar device, the sensor data may include point data, a point data set, a sub-point data set, or the sub-point data set for each point scanned by the lidar device. It may include, but is not limited to, attribute data processed by the .

이 때, 상기 차량은 상기 포인트 데이터, 포인트 데이터 셋, 서브 포인트 데이터 셋, 또는 속성 데이터 중 적어도 하나를 이용하여 차량 주변의 건물, 차량, 보행자 등을 검출할 수 있다.In this case, the vehicle may detect a building, a vehicle, a pedestrian, etc. around the vehicle using at least one of the point data, the point data set, the sub point data set, and the attribute data.

설명의 편의를 위하여 도 15 내지 도 84에 대한 설명에서 상기 라이다 장치에 대한 센서 데이터를 중심으로 기술하였지만, 이에 한정되는 것은 아니며 상기 라이다 장치 외 다른 센서에 대한 센서 데이터가 상기 도 15 내지 도 84에 적용될 수 있음을 물론이다.For convenience of explanation, in the description of FIGS. 15 to 84, sensor data for the lidar device has been mainly described, but the present invention is not limited thereto, and sensor data for sensors other than the lidar device are shown in FIGS. Of course, it can be applied to 84.

도 16은 도 15의 차량에 배치된 라이다 장치에 의해 획득된 센서 데이터를 3d 맵 상에 나타내는 도면이다.FIG. 16 is a diagram illustrating sensor data acquired by the lidar device disposed in the vehicle of FIG. 15 on a 3D map.

도 15 및 도 16을 참조하면, 상기 자율 주행 시스템에 포함된 상기 컨트롤러는 상기 라이다 장치로부터 획득된 데이터를 기초로 3d 포인트 데이터 맵을 형성할 수 있다. 이때, 상기 3d 포인트 데이터 맵은 3d 포인트 클라우드를 의미할 수 있다. 또한, 상기 센서 데이터는 상기 3d 포인트 데이터 맵에 포함된 데이터를 포함할 수 있다. 또한, 상기 3d 포인트 데이터 맵의 원점(O)의 위치는 상기 라이다 장치의 광학 원점에 대응될 수 있으나, 이에 한정되지 않고, 상기 라이다 장치의 무게 중심 위치 또는 상기 라이다 장치가 배치된 차량의 무게 중심 위치에 대응될 수도 있다.15 and 16 , the controller included in the autonomous driving system may form a 3D point data map based on data obtained from the lidar device. In this case, the 3d point data map may mean a 3d point cloud. Also, the sensor data may include data included in the 3d point data map. In addition, the position of the origin O of the 3d point data map may correspond to the optical origin of the lidar device, but is not limited thereto, and the position of the center of gravity of the lidar device or the vehicle in which the lidar device is disposed may correspond to the position of the center of gravity of

도 17은 도 16의 3d 맵에 포함된 센서 데이터를 2차원 평면 상에 간략히 나타낸 도면이다.17 is a diagram schematically illustrating sensor data included in the 3D map of FIG. 16 on a two-dimensional plane.

도 17을 참조하면, 상기 센서 데이터(2000)는 2차원 평면 상에 표현될 수 있다. 예를 들어, 상기 센서 데이터는 xz 평면 상에 표현될 수 있으나, 이에 한정되지 않는다. Referring to FIG. 17 , the sensor data 2000 may be expressed on a two-dimensional plane. For example, the sensor data may be expressed on an xz plane, but is not limited thereto.

또한, 본 명세서에서 상기 센서 데이터는 상기 2차원 평면 상에 표현되지만, 실제로는 3d 맵 상의 데이터를 간략히 표현하기 위한 것일 수 있다. In addition, in the present specification, the sensor data is expressed on the two-dimensional plane, but in reality, it may be for simply expressing data on a 3D map.

또한, 상기 센서 데이터(2000)는 데이터 시트(sheet) 형태로 표현될 수 있다. 상기 센서 데이터(2000)에 포함되는 복수의 정보는 상기 데이터 시트 상에 수치(value)로서 표현될 수 있다.Also, the sensor data 2000 may be expressed in the form of a data sheet. A plurality of pieces of information included in the sensor data 2000 may be expressed as values on the data sheet.

이하에서는 상기 센서 데이터에 포함되는 다양한 형태의 데이터의 의미와 상기 센서 데이터에 대한 상세한 설명을 기술한다.Hereinafter, meanings of various types of data included in the sensor data and detailed descriptions of the sensor data will be described.

2.2.1. 포인트 데이터2.2.1. point data

상기 센서 데이터(2000)는 포인트 데이터를 포함할 수 있다. 이때, 상기 포인트 데이터는 상기 적어도 하나의 센서(1300)가 객체를 감지함에 따라, 1차적으로 획득할 수 있는 데이터를 나타낼 수 있다. 또한, 상기 포인트 데이터는 상기 적어도 하나의 센서로부터 획득된 최초의 정보를 가공하지 않은 원시 데이터를 의미할 수 있다. The sensor data 2000 may include point data. In this case, the point data may represent data that can be primarily acquired when the at least one sensor 1300 detects an object. In addition, the point data may refer to raw data obtained by not processing the first information obtained from the at least one sensor.

예를 들어, 상기 센서가 라이다 장치인 경우, 상기 포인트 데이터는 상기 라이다 장치로부터 획득된 포인트 클라우드에 포함되는 하나의 포인트에 대응될 수 있다.For example, when the sensor is a lidar device, the point data may correspond to one point included in a point cloud obtained from the lidar device.

도 18은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 포인트 데이터를 설명하기 위한 도면이다. 18 is a diagram for describing point data obtained from at least one lidar device included in an autonomous driving system according to an exemplary embodiment.

도 18을 참조하면, 상기 라이다 장치가 객체의 적어도 일부를 스캔함에 따라 상기 포인트 데이터(2001)가 획득될 수 있고, 상기 포인트 데이터(2001)는 위치 좌표(x,y,z)를 포함할 수 있다.또한, 실시예에 따라, 상기 포인트 데이터(2001)는 인텐시티 값(I)을 더 포함할 수 있다.Referring to FIG. 18 , as the lidar device scans at least a part of an object, the point data 2001 may be acquired, and the point data 2001 may include position coordinates (x, y, z). Also, according to an embodiment, the point data 2001 may further include an intensity value (I).

이때, 상기 위치 좌표(x,y,z)는 상기 라이다 장치에 의해 획득된 상기 객체의 적어도 일부까지의 거리 정보에 기초하여 생성될 수 있다. 보다 구체적으로, 상기 라이다 장치는 레이저 방출 시점과 반사된 레이저의 수신된 시점을 기초로 상기 객체의 적어도 일부까지의 거리를 계산할 수 있다. 또한, 상기 라이다 장치는 상기 거리를 기초로 상기 라이다 장치의 광학 원점을 기준으로 하는 직교 좌표계에 상기 객체의 적어도 일부에 대한 위치 좌표를 생성할 수 있다.In this case, the location coordinates (x, y, z) may be generated based on distance information to at least a part of the object obtained by the lidar device. More specifically, the lidar device may calculate a distance to at least a portion of the object based on the laser emission time and the received time of the reflected laser. In addition, the LIDAR device may generate position coordinates for at least a portion of the object in a Cartesian coordinate system based on the optical origin of the LIDAR device based on the distance.

또한, 상기 인텐시티 값(I)은 상기 라이다 장치에 의해 획득된 상기 객체의 적어도 일부의 반사율에 기초하여 생성될 수 있다. 보다 구체적으로, 동일한 거리에 있는 객체라도 반사율에 따라 상기 라이다 장치에서 수신되는 신호의 크기(또는 강도)가 달라지므로, 상기 라이다 장치는 상기 수신되는 신호의 크기(또는 강도)를 기초로 상기 객체의 적어도 일부의 인텐시티 값을 생성할 수 있다. Also, the intensity value I may be generated based on reflectance of at least a portion of the object obtained by the lidar device. More specifically, since the magnitude (or strength) of the signal received from the lidar device varies according to the reflectance even for an object at the same distance, the lidar device is An intensity value of at least a part of an object may be generated.

또한, 상기 포인트 데이터(2001)의 개수는 상기 라이다 장치로부터 방출된 레이저가 객체로부터 산란되어 상기 라이다 장치에 수광되는 레이저의 개수에 대응될 수 있다.In addition, the number of the point data 2001 may correspond to the number of lasers emitted from the lidar device are scattered from the object and received by the lidar device.

보다 구체적으로, 상기 라이다 장치로부터 방출된 레이저가 상기 객체의 적어도 일부에 산란되어 상기 라이다 장치에 수신되는 경우, 상기 라이다 장치는 상기 레이저가 수신될 때마다, 수신되는 레이저에 대응하는 신호를 처리하여 상기 포인트 데이터(2001)를 생성할 수 있다. More specifically, when the laser emitted from the lidar device is scattered by at least a part of the object and received by the lidar device, the lidar device receives a signal corresponding to the received laser whenever the laser is received. can be processed to generate the point data 2001 .

또한, 이에 한정되지 않고 상기 센서가 카메라 장치인 경우, 상기 센서 데이터(2000)는 상기 포인트 데이터(2001)를 포함할 수 있다. Also, the present invention is not limited thereto, and when the sensor is a camera device, the sensor data 2000 may include the point data 2001 .

이때, 상기 포인트 데이터(2001)는 상기 카메라 장치로부터 획득된 하나의 픽셀에 대응할 수 있다. 보다 구체적으로, 상기 포인트 데이터(2001)는 상기 카메라 장치에 포함된 RGB센서를 통해 획득된 하나의 픽셀에 대응될 수 있다. 예를 들어, 카메라의 수광부에 복수의 픽셀이 존재하는 경우, 상기 포인트 데이터(2001)는 각 픽셀들 마다 생성되며, 상기 포인트 데이터(2001)는 각 픽셀들의 위치에 대응되는 객체의 위치정보 및 각 픽셀들의 픽셀값(예를 들어, RGB 센서의 경우 RGB 색상 값)을 포함할 수 있다.In this case, the point data 2001 may correspond to one pixel obtained from the camera device. More specifically, the point data 2001 may correspond to one pixel obtained through an RGB sensor included in the camera device. For example, when a plurality of pixels exist in the light receiving unit of the camera, the point data 2001 is generated for each pixel, and the point data 2001 includes location information of an object corresponding to the location of each pixel and each It may include pixel values of pixels (eg, RGB color values in the case of an RGB sensor).

또한, 상기 포인트 데이터(2001)는 상기 카메라 장치로부터 획득된 형상 및/또는 색상 정보를 포함할 수 있다. Also, the point data 2001 may include shape and/or color information obtained from the camera device.

또한, 이에 한정되지 않고 상기 센서가 레이다 장치인 경우, 상기 포인트 데이터(2001)는 상기 레이다 장치로부터 획득된 하나의 포인트에 대응할 수 있다. 보다 구체적으로, 상기 포인트 데이터(2001)는 상기 레이다 장치로부터 획득된 위치 좌표를 포함할 수 있다.In addition, the present invention is not limited thereto, and when the sensor is a radar device, the point data 2001 may correspond to one point obtained from the radar device. More specifically, the point data 2001 may include position coordinates obtained from the radar device.

예를 들어, 레이다는 복수의 송신 안테나 각각에서 복수의 전파를 전송하고, 전송된 전파가 객체에 산란되어 되돌아올 경우, 복수의 수신 안테나에서 되돌아오는 복수의 전파를 수신할 수 있다. 이 때, 레이다는 수신된 복수의 전파 각각에 대하여 객체의 위치정보를 획득할 수 있고, 상기 포인트 데이터(2001)는 상기 복수의 전파 중 하나의 전파에 대한 객체의 위치정보를 나타낼 수 있다.For example, the radar may transmit a plurality of radio waves from each of a plurality of transmit antennas, and when the transmitted radio waves are scattered by an object and return, the radar may receive a plurality of radio waves returned from the plurality of receive antennas. In this case, the radar may acquire location information of an object for each of a plurality of received radio waves, and the point data 2001 may indicate location information of an object with respect to one of the plurality of radio waves.

2.2.2. 포인트 데이터 셋2.2.2. point data set

상기 센서 데이터는 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 다수의 상기 포인트 데이터(2001)를 포함할 수 있다. 또한, 상기 포인트 데이터 셋(2100)은 하나의 프레임에 포함될 수도 있고, 실시예에 따라 다수의 프레임에 포함될 수도 있다.The sensor data may include a point data set 2100 . In this case, the point data set 2100 may include a plurality of the point data 2001 . Also, the point data set 2100 may be included in one frame or may be included in a plurality of frames according to an embodiment.

예를 들어, 상기 센서가 라이다 장치인 경우, 상기 센서 데이터는 포인트 데이터 셋(2100)을 포함할 수 있으며, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치로부터 획득된 1 프레임의 포인트 클라우드에 대응될 수 있다.For example, when the sensor is a lidar device, the sensor data may include a point data set 2100, and the point data set 2100 is a point cloud of one frame obtained from the lidar device. can be matched.

도 19는 도 16의 차량에 포함되는 라이다 장치로부터 획득된 포인트 데이터 셋을 설명하기 위한 도면이다.19 is a diagram for explaining a point data set obtained from a lidar device included in the vehicle of FIG. 16 .

도 19를 참조하면, 도 19에 도시된 포인트 데이터 셋(2100)은 상기 라이다 장치로부터 획득될 수 있다.Referring to FIG. 19 , the point data set 2100 shown in FIG. 19 may be obtained from the lidar device.

또한, 상기 포인트 데이터 셋(2100) 상기 라이다 장치가 상기 라이다 장치의 시야각을 1회 스캔함에 따라 생성되는 복수의 포인트 데이터를 의미할 수 있다. 예를 들어, 상기 라이다 장치의 수평 시야각이 180도인 경우, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치가 180도를 한번 스캔함에 따라 획득하는 모든 포인트 데이터를 의미할 수 있다. In addition, the point data set 2100 may refer to a plurality of point data generated when the lidar device scans the viewing angle of the lidar device once. For example, when the horizontal viewing angle of the LIDAR device is 180 degrees, the point data set 2100 may refer to all point data obtained by the LIDAR device scanning 180 degrees once.

또한, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치의 시야각 내에 포함되는 객체의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 포함할 수 있다. 또한, 상기 포인트 데이터 셋(2100)에 포함되는 포인트 데이터(2001)의 위치 좌표(x,y,z) 및 인텐시티 값(I)은 데이터 시트 상에 표현될 수 있다.In addition, the point data set 2100 may include position coordinates (x, y, z) and an intensity value (I) of an object included in the viewing angle of the lidar device. In addition, the position coordinates (x, y, z) and the intensity value I of the point data 2001 included in the point data set 2100 may be expressed on a data sheet.

또한, 상기 포인트 데이터 셋(2100)은 노이즈 데이터를 포함할 수 있다. 상기 노이즈 데이터는 상기 라이다 장치의 시야각 내에 위치하는 객체와 관련없이 외부 환경에 의해 생성될 수 있다. 예를 들어, 상기 노이즈 데이터는 라이다 간 간섭에 따른 노이즈, 햇빛 등 주변광에 의한 노이즈, 측정 가능 거리를 벗어난 객체에 의한 노이즈 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the point data set 2100 may include noise data. The noise data may be generated by an external environment regardless of an object located within a viewing angle of the lidar device. For example, the noise data may include, but is not limited to, noise caused by inter-lidar interference, noise caused by ambient light such as sunlight, and noise caused by an object out of a measurable distance.

또한, 상기 포인트 데이터 셋(2100)은 배경 정보를 포함할 수 있다. 상기 배경 정보는 상기 포인트 데이터 셋(2100)에 포함된 복수의 포인트 데이터 중 객체와 관련되지 않은 적어도 하나의 포인트 데이터를 의미할 수 있다. 또한, 상기 배경 정보는 상기 라이다 장치를 포함하는 자율 주행 시스템에 미리 저장되어 있을 수 있다. 예를 들어, 상기 배경 정보는 건물과 같은 정적 객체(또는, 위치가 고정된 고정형 객체)에 대한 정보를 포함할 수 있고, 상기 배경 정보는 상기 라이다 장치를 포함하는 자율 주행 시스템에 맵의 형태로 미리 저장될 수 있다.Also, the point data set 2100 may include background information. The background information may mean at least one point data not related to an object among a plurality of point data included in the point data set 2100 . Also, the background information may be previously stored in an autonomous driving system including the lidar device. For example, the background information may include information on a static object such as a building (or a fixed object having a fixed location), and the background information is in the form of a map in an autonomous driving system including the lidar device. can be saved in advance.

또한, 이에 한정되지 않고, 상기 센서가 카메라 장치인 경우에도, 상기 센서 데이터(2000)는 상기 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 상기 카메라 장치로부터 획득된 하나의 프레임에 대응할 수 있다. 또한, 상기 포인트 데이터 셋(2100)은 상기 카메라 장치로부터 획득된 상기 카메라 장치의 시야각 내의 모든 픽셀에 대응될 수 있다. 보다 구체적으로, 상기 카메라 장치는 주변을 촬상하여 상기 카메라 장치의 시야각 내에 포함되는 객체들의 형상 및/또는 색상 정보를 나타내는 한 프레임의 포인트 데이터 셋(2100)을 생성할 수 있다. Also, the present invention is not limited thereto, and even when the sensor is a camera device, the sensor data 2000 may include the point data set 2100 . In this case, the point data set 2100 may correspond to one frame obtained from the camera device. Also, the point data set 2100 may correspond to all pixels within a viewing angle of the camera device obtained from the camera device. More specifically, the camera device may generate the point data set 2100 of one frame representing shape and/or color information of objects included in the viewing angle of the camera device by capturing the surroundings.

예를 들어, 카메라의 수광부에 복수의 픽셀이 존재하는 경우, 상기 포인트 데이터 셋(2100)은 상기 복수의 픽셀 각각에 생성된 복수의 상기 포인트 데이터(2001)를 포함할 수 있다.For example, when a plurality of pixels exist in the light receiving unit of the camera, the point data set 2100 may include the plurality of point data 2001 generated in each of the plurality of pixels.

또한, 이에 한정되지 않고, 상기 센서가 레이다 장치인 경우에도, 상기 센서 데이터(2000)는 상기 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 상기 레이다 장치로부터 획득된 상기 레이다 장치의 시야각 내의 모든 객체의 위치 좌표를 포함할 수 있다.Also, the present invention is not limited thereto, and even when the sensor is a radar device, the sensor data 2000 may include the point data set 2100 . In this case, the point data set 2100 may include position coordinates of all objects within the viewing angle of the radar device obtained from the radar device.

예를 들어, 상기 포인트 데이터 셋(2100)은 레이다에 수신된 복수의 전파 각각에 대응하는 복수의 상기 포인트 데이터(2001)를 포함할 수 있다.For example, the point data set 2100 may include a plurality of the point data 2001 corresponding to each of a plurality of radio waves received by the radar.

2.2.3. 서브 포인트 데이터 셋2.2.3. sub point data set

다시 도 19를 참조하면, 상기 센서 데이터(2000)는 서브 포인트 데이터 셋(2110)을 포함할 수 있다. 이때, 상기 서브 포인트 데이터 셋(2110)은 동일한 객체를 나타내는 복수의 포인트 데이터(2001)를 의미할 수 있다. 예를 들어, 상기 포인트 데이터 셋(2100)이 차량을 나타내는 복수의 포인트 데이터를 포함하는 경우, 상기 복수의 포인트 데이터는 하나의 서브 포인트 데이터 셋(2110)을 구성할 수 있다.Referring back to FIG. 19 , the sensor data 2000 may include a sub-point data set 2110 . In this case, the sub-point data set 2110 may mean a plurality of point data 2001 representing the same object. For example, when the point data set 2100 includes a plurality of point data representing a vehicle, the plurality of point data may constitute one sub-point data set 2110 .

또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함될 수 있다. 또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 적어도 하나의 객체 또는 하나의 객체의 적어도 일부를 나타낼 수 있다. 보다 구체적으로, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터 중 제1 객체를 나타내는 복수의 포인트 데이터를 의미할 수 있다. Also, the sub-point data set 2110 may be included in the point data set 2100 . Also, the sub-point data set 2110 may represent at least one object or at least a part of one object included in the point data set 2100 . More specifically, the sub-point data set 2110 may mean a plurality of point data representing a first object among a plurality of point data included in the point data set 2100 .

또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터 중 동적 객체와 관련된 적어도 하나의 포인트 데이터의 군집화(clustering)를 통해 획득될 수 있다. 보다 구체적으로, 상기 배경 정보를 활용하여 상기 포인트 데이터 셋(2100)에 포함되는 정적 객체 및 동적 객체(또는 이동형 객체)를 검출한 후, 하나의 객체와 관련된 데이터를 일정 군집으로 묶음으로써 상기 서브 포인트 데이터 셋(2110)을 획득할 수 있다.Also, the sub-point data set 2110 may be obtained through clustering of at least one point data related to a dynamic object among a plurality of point data included in the point data set 2100 . More specifically, after detecting a static object and a dynamic object (or a movable object) included in the point data set 2100 by using the background information, the sub-point by bundling data related to one object into a certain group A data set 2110 may be obtained.

또한, 상기 서브 포인트 데이터 셋(2110)은 머신러닝을 이용하여 생성될 수 있다. 예를 들어, 컨트롤러(1100)는 다양한 객체에 대하여 학습된 머신 러닝을 기초로, 상기 센서 데이터(2000)에 포함된 복수의 데이터 중 적어도 일부가 동일한 객체를 나타낸다고 판단할 수 있다.Also, the sub-point data set 2110 may be generated using machine learning. For example, the controller 1100 may determine that at least some of the plurality of data included in the sensor data 2000 represent the same object, based on machine learning learned for various objects.

또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)을 분할(segmentation)함으로써 생성될 수 있다. 이때, 컨트롤러(1100)는 상기 포인트 데이터 셋(2100)을 소정의 세그먼트 단위로 분할할 수 있다. 또한, 상기 분할된 포인트 데이터 셋 중 적어도 하나의 세그먼트 단위는 상기 포인트 데이터 셋(2100)에 포함되는 제1 객체의 적어도 일부를 나타낼 수 있다. 또한, 상기 제1 객체를 나타내는 복수의 세그먼트 단위는 상기 서브 포인트 데이터 셋(2110)에 대응될 수 있다.Also, the sub-point data set 2110 may be generated by segmenting the point data set 2100 . In this case, the controller 1100 may divide the point data set 2100 into predetermined segment units. In addition, at least one segment unit of the divided point data set may represent at least a part of a first object included in the point data set 2100 . Also, a plurality of segment units representing the first object may correspond to the sub-point data set 2110 .

예를 들어, 상기 센서가 라이다 장치인 경우, 상기 서브 포인트 데이터 셋(2110)은 상기 라이다 장치로부터 획득된 포인트 데이터 셋(2100)에 포함되는 제1 객체와 관련된 복수의 포인트 데이터에 대응될 수 있다.For example, when the sensor is a lidar device, the sub-point data set 2110 may correspond to a plurality of point data related to a first object included in the point data set 2100 obtained from the lidar device. can

도 20은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 서브 포인트 데이터 셋을 설명하기 위한 도면이다.20 is a diagram for describing a sub-point data set obtained from at least one lidar device included in an autonomous driving system according to an exemplary embodiment.

도 20을 참조하면, 상기 포인트 데이터 셋(2100)은 복수의 서브 포인트 데이터 셋(2110, 2120, 2130, 2140, 2150)을 포함할 수 있다. Referring to FIG. 20 , the point data set 2100 may include a plurality of sub-point data sets 2110 , 2120 , 2130 , 2140 , and 2150 .

상기 복수의 서브 포인트 데이터 셋(2110, 2120, 2130, 2140, 2150)은 객체의 적어도 일부를 나타내는 복수의 포인트 데이터를 포함할 수 있다. 여기서, 컨트롤러(1100)는 상기 복수의 포인트 데이터(2001)의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 기초로, 상기 복수의 포인트 데이터(2001)가 동일한 객체의 적어도 일부를 나타낸다고 판단할 수 있다. 이에 따라, 상기 컨트롤러(1100)는 상기 복수의 포인트 데이터(2001)를 서브 포인트 데이터 셋으로 정의할 수 있고, 상기 서브 포인트 데이터 셋을 기초로 객체에 대한 속성 데이터를 생성할 수 있다. The plurality of sub-point data sets 2110, 2120, 2130, 2140, and 2150 may include a plurality of point data representing at least a portion of an object. Here, the controller 1100 selects at least a portion of the object in which the plurality of point data 2001 is the same based on the location coordinates (x, y, z) and the intensity value I of the plurality of point data 2001 . can be judged to indicate Accordingly, the controller 1100 may define the plurality of point data 2001 as a sub-point data set, and may generate attribute data for an object based on the sub-point data set.

예를 들어, 제1 서브 포인트 데이터 셋(2110)은 '사람'의 적어도 일부를 나타낼 수 있고, 제2 서브 포인트 데이터 셋(2120)은 '차량'의 적어도 일부를 나타낼 수 있고, 제3 서브 포인트 데이터 셋(2130)은 '중앙선'의 적어도 일부를 나타낼 수 있고, 제4 서브 포인트 데이터 셋(2140)은 '길가장자리 구역선'의 적어도 일부를 나타낼 수 있고, 제5 서브 포인트 데이터 셋(2150)은 '차로 경계선'의 적어도 일부를 나타낼 수 있고, 제6 서브 포인트 데이터 셋(2160)은 '건물'의 적어도 일부를 나타낼 수 있으나, 이에 한정되지 않는다.For example, the first sub-point data set 2110 may represent at least a part of a 'person', the second sub-point data set 2120 may represent at least a part of a 'vehicle', and the third sub-point The data set 2130 may represent at least a part of the 'center line', the fourth sub-point data set 2140 may represent at least a part of the 'road edge zone line', and the fifth sub-point data set 2150 . may represent at least a part of a 'lane boundary line', and the sixth sub-point data set 2160 may represent at least a part of a 'building', but is not limited thereto.

이때, 제1 서브 포인트 데이터 셋(2110)은 동일한 '사람'의 적어도 일부를 나타낼 수 있다. 구체적으로, 상기 제1 서브 포인트 데이터 셋(2110)은 상기 제1 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 포함할 수 있다. 이때, 상기 복수의 포인트 데이터는 상기 '사람'의 적어도 일부를 나타내는 하나의 서브 포인트 데이터 셋(2110)을 구성할 수 있다.In this case, the first sub-point data set 2110 may represent at least a part of the same 'person'. Specifically, the first sub-point data set 2110 may include position coordinates (x, y, z) and an intensity value (I) of a plurality of point data included in the first sub-point data set 2110 . can In this case, the plurality of point data may constitute one sub-point data set 2110 representing at least a part of the 'person'.

2.2.4. 속성 데이터2.2.4. attribute data

상기 센서 데이터(2000)는 속성 데이터(2200)를 포함할 수 있다. 이때, 상기 속성 데이터(2200)는 적어도 하나의 서브 포인트 데이터 셋(2110)을 기초로 결정될 수 있다. 보다 구체적으로, 상기 속성 데이터(2200)는 상기 적어도 하나의 서브 포인트 데이터 셋(2110)이 나타내는 객체의 종류, 크기, 속도, 방향 등 상기 객체의 다양한 속성에 대한 정보를 포함할 수 있다. 또한, 상기 속성 데이터(2200)는 상기 적어도 하나의 서브 포인트 데이터 셋(2110)의 적어도 일부분을 가공한 데이터일 수 있다. The sensor data 2000 may include attribute data 2200 . In this case, the attribute data 2200 may be determined based on at least one sub-point data set 2110 . More specifically, the attribute data 2200 may include information on various attributes of the object, such as the type, size, speed, and direction of the object indicated by the at least one sub-point data set 2110 . Also, the attribute data 2200 may be data obtained by processing at least a portion of the at least one sub-point data set 2110 .

예를 들어, 상기 센서가 상기 라이다 장치인 경우, 상기 센서 데이터(2000)는 속성 데이터(도 21의 도면부호 2200 참조)를 포함할 수 있으며, 상기 속성 데이터는 상기 라이다 장치로부터 획득된 상기 포인트 데이터 셋(2100)에 포함되는 상기 서브 포인트 데이터 셋(2110)에 기초하여 생성될 수 있다. For example, when the sensor is the lidar device, the sensor data 2000 may include attribute data (refer to reference numeral 2200 in FIG. 21 ), and the attribute data may include the attribute data obtained from the lidar device. It may be generated based on the sub-point data set 2110 included in the point data set 2100 .

또한, 상기 포인트 데이터 셋(2100)에 포함되는 상기 서브 포인트 데이터 셋(2110)으로부터 상기 속성 데이터(2200)를 생성하는 프로세스는 PCL library 알고리즘을 이용할 수 있다. In addition, the process of generating the attribute data 2200 from the sub-point data set 2110 included in the point data set 2100 may use a PCL library algorithm.

일 예로, 상기 PCL(Point Cloud Library)알고리즘을 이용한 상기 속성 데이터(2200) 생성과 관련된 제1 프로세스는 포인트 데이터 셋을 전처리 하는 단계, 배경 정보를 제거하는 단계, 특징점을 검출(feature/keypoin detection)하는 단계, 기술자(descriptor)를 정의하는 단계, 특징점을 매칭하는 단계, 및 객체의 속성을 추정하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.As an example, the first process related to the generation of the attribute data 2200 using the PCL (Point Cloud Library) algorithm includes preprocessing a point data set, removing background information, and detecting a feature/keypoint. It may include, but is not limited to, the steps of: estimating, defining a descriptor, matching feature points, and estimating properties of an object.

이때, 상기 포인트 데이터 셋을 전처리 하는 단계는 포인트 데이터 셋을 PCL알고리즘에 적합한 형태로 가공하는 것을 의미할 수 있고, 상기 제1 프로세스에서 상기 포인트 데이터 셋(2100)에 포함되되 객체의 속성 데이터 추출과 관련되지 않은 포인트 데이터가 제거될 수 있다. 예를 들어, 상기 데이터를 전처리 하는 단계는 상기 포인트 데이터 셋(2100)에 포함되는 노이즈 데이터를 제거하는 단계 및 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터를 리샘플링하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.In this case, the step of pre-processing the point data set may mean processing the point data set in a form suitable for the PCL algorithm, and is included in the point data set 2100 in the first process, but is included in the object attribute data extraction and Unrelated point data may be removed. For example, the step of pre-processing the data may include removing noise data included in the point data set 2100 and resampling a plurality of point data included in the point data set 2100. However, the present invention is not limited thereto.

또한, 상기 배경 정보를 제거하는 단계를 통해, 상기 제1 프로세스에서 상기 포인트 데이터 셋(2100)에 포함된 상기 배경 정보가 제거되어 객체와 관련된 서브 포인트 데이터 셋(2110)이 추출될 수 있다.Also, through the step of removing the background information, the background information included in the point data set 2100 may be removed in the first process, so that the sub-point data set 2110 related to the object may be extracted.

또한, 상기 특징점을 검출하는 단계를 통해, 상기 제1 프로세스에서 상기 배경 정보를 제거하고 남은 객체와 관련된 상기 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터 중 상기 객체의 형상적인 특징을 잘 나타내는 특징점이 검출될 수 있다.In addition, through the step of detecting the feature point, the geometrical feature of the object among the plurality of point data included in the sub-point data set 2110 related to the object remaining after removing the background information in the first process is well determined The indicated feature point may be detected.

또한, 상기 기술자를 정의하는 단계를 통해, 상기 제1 프로세스에서 검출된 특징점들에 대해 해당 특징점 고유의 특성을 설명할 수 있는 기술자가 정의될 수 있다.In addition, through the step of defining the descriptor, a descriptor capable of describing the characteristic characteristic of the characteristic point detected in the first process may be defined.

또한, 상기 특징점을 매칭하는 단계를 통해, 상기 제1 프로세스에서 상기 객체와 관련된 미리 저장된 템플릿 데이터에 포함된 특징점들의 기술자와 상기 서브 포인트 데이터 셋(2110)의 특징점들의 기술자를 비교해 대응되는 특징점이 선정될 수 있다. In addition, through the step of matching the feature points, in the first process, the descriptors of the feature points included in the template data stored in advance related to the object are compared with the descriptors of the feature points of the sub-point data set 2110, and the corresponding feature point is selected can be

또한, 상기 객체의 속성을 추정하는 단계를 통해, 상기 제1 프로세스에서 선정된 특징점들의 기하적인 관계를 이용해 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체가 검출되고, 상기 속성 데이터(2200)가 생성될 수 있다.In addition, through the step of estimating the property of the object, an object represented by the sub-point data set 2110 is detected using the geometric relationship between the feature points selected in the first process, and the property data 2200 is generated can be

다른 예로, 상기 속성 데이터(2200) 생성과 관련된 제2 프로세스는 데이터를 전처리 하는 단계, 객체에 대한 데이터를 검출하는 단계, 객체에 대한 데이터를 군집화(clustering)하는 단계, 군집 데이터를 분류하는 단계, 및 객체를 추적하는 단계 등을 포함할 수 있으나, 이에 한정되지 않는다. As another example, the second process related to the generation of the attribute data 2200 includes the steps of preprocessing data, detecting data on an object, clustering data on an object, classifying the cluster data, and tracking the object, but is not limited thereto.

이때, 상기 객체에 대한 데이터를 검출하는 단계를 통해, 상기 제2 프로세스에서 미리 저장된 배경 데이터를 활용하여 상기 포인트 데이터 셋(2100)에 포함된 복수의 포인트 데이터 중 객체를 나타내는 복수의 포인트 데이터가 추출될 수 있다.In this case, through the step of detecting the data on the object, a plurality of point data representing the object among the plurality of point data included in the point data set 2100 is extracted by using the background data previously stored in the second process. can be

또한, 상기 객체에 대한 데이터를 군집화하는 단계를 통해, 상기 제2 프로세스에서, 상기 복수의 포인트 데이터 중 하나의 객체를 나타내는 적어도 하나의 포인트 데이터를 군집화하여 서브 포인트 데이터 셋(2110)이 추출될 수 있다.In addition, through the step of clustering the data on the object, in the second process, the sub-point data set 2110 can be extracted by clustering at least one point data representing one object among the plurality of point data. have.

또한, 상기 군집 데이터를 분류하는 과정을 통해, 상기 제2 프로세스에서 사전에 학습된 머신러닝 모델 또는 딥러닝 모델을 이용해 상기 서브 포인트 데이터 셋(2110)의 클래스 정보가 분류되거나 판단될 수 있다.In addition, through the process of classifying the cluster data, class information of the sub-point data set 2110 may be classified or determined using a machine learning model or a deep learning model learned in advance in the second process.

또한, 상기 객체를 추적하는 단계를 통해, 상기 제2 프로세스에서 상기 서브 포인트 데이터 셋(2110)을 기초로 상기 속성 데이터(2200)가 생성될 수 있다. 예를 들어, 상기 제2 프로세스를 수행하는 컨트롤러는 복수의 서브 포인트 데이터 셋(2110)의 중심 위치 좌표 및 볼륨 등으로 객체의 위치를 표시할 수 있다. 이에 따라, 연속되는 프레임에서 획득된 복수의 서브 포인트 데이터 셋들 간의 거리 및 형상의 유사도 정보를 바탕으로 대응 관계를 정의해 상기 객체를 추적함으로써 상기 객체의 이동 방향 및 속도 등을 추정할 수 있다.Also, through the step of tracking the object, the attribute data 2200 may be generated based on the sub-point data set 2110 in the second process. For example, the controller performing the second process may display the position of the object using the center position coordinates and volume of the plurality of sub-point data sets 2110 . Accordingly, it is possible to estimate the moving direction and speed of the object by defining a correspondence relationship based on the distance and shape similarity information between a plurality of sub-point data sets obtained in successive frames and tracking the object.

도 21은 일 실시예에 따른 자율 주행 시스템에 포함되는 라이다 장치로부터 획득된 서브 포인트 데이터로부터 생성된 속성 데이터를 설명하기 위한 도면이다.21 is a diagram for describing attribute data generated from sub-point data obtained from a lidar device included in an autonomous driving system according to an exemplary embodiment.

도 21을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)에 대해서 생성될 수 있다. 보다 구체적으로, 하나의 객체의 적어도 일부를 나타내는 상기 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)마다 상기 속성 데이터(2200)가 부여될 수 있다. Referring to FIG. 21 , the attribute data 2200 may be generated for each point data 2001 included in the sub-point data set 2110 . More specifically, the attribute data 2200 may be provided to each point data 2001 included in the sub-point data set 2110 representing at least a part of one object.

예를 들어, 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)에 대해 상기 서브 포인트 데이터 셋의 속성 데이터(2200)가 생성될 수 있다. 이때, 상기 속성 데이터(2200)는 상기 사람의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 상기 속성 데이터에 포함되는 복수의 정보에 대해서는 하기에서 상세하게 설명한다. For example, attribute data 2200 of the sub-point data set may be generated for each point data 2001 included in the sub-point data set 2110 representing at least a part of a person. In this case, the attribute data 2200 may include the person's class information, center location information, size information, etc., but is not limited thereto. A plurality of pieces of information included in the attribute data will be described in detail below.

도 22는 도 21의 속성 데이터의 다른 일 실시예를 나타내는 도면이다.22 is a diagram illustrating another embodiment of the attribute data of FIG. 21 .

도 22를 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터에 대해서 공통으로 생성될 수 있다. 즉, 하나의 객체의 적어도 일부를 나타내는 하나의 상기 서브 포인트 데이터 셋(2110)에 대해서 하나의 속성 데이터(2200)가 생성될 수 있다. Referring to FIG. 22 , the attribute data 2200 may be commonly generated for a plurality of point data included in the sub-point data set 2110 . That is, one attribute data 2200 may be generated for one sub-point data set 2110 representing at least a part of one object.

예를 들어, 상기 객체가 사람인 경우, 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋에 포함되는 복수의 포인트 데이터에 대해 하나의 속성 데이터가 생성될 수 있다. For example, when the object is a person, one attribute data may be generated for a plurality of point data included in a sub-point data set representing at least a part of a person.

도 23은 일 실시예에 따른 속성 데이터에 포함되는 복수의 정보를 설명하기 위한 도면이다.23 is a diagram for describing a plurality of pieces of information included in attribute data according to an exemplary embodiment.

도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 클래스 정보(2210), 중심 위치 정보(2220), 사이즈 정보(2230), 형상 정보(2240), 이동 정보(2250), 식별 정보(2260) 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 23 , the attribute data 2200 includes class information 2210 , center location information 2220 , size information 2230 , shape information 2240 of an object indicated by the sub-point data set 2110 , It may include movement information 2250 , identification information 2260 , and the like, but is not limited thereto.

상기 속성 데이터(2200)에 포함되는 복수의 정보에 관한 내용은 하기에서 상세히 설명한다.A plurality of pieces of information included in the attribute data 2200 will be described in detail below.

상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 클래스를 나타내는 클래스 정보(2210)를 포함할 수 있다.The attribute data 2200 may include class information 2210 indicating the class of the object indicated by the sub-point data set 2110 .

도 24는 일 실시예에 따른 속성 데이터에 포함되는 클래스 정보를 설명하기 위한 도면이다.24 is a diagram for describing class information included in attribute data according to an embodiment.

도 24를 참조하면, 상기 클래스 정보(2210)는 객체의 타입과 관련된 클래스, 객체의 일부분의 타입과 관련된 클래스, 객체가 포함된 영역의 상황과 관련된 클래스 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 24 , the class information 2210 may include, but is not limited to, a class related to a type of an object, a class related to a type of a part of an object, a class related to a context of a region including the object, and the like. .

이때, 상기 클래스 정보(2210)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 타입과 관련될 수 있다. In this case, the class information 2210 may be related to the type of object indicated by the sub-point data set 2110 .

이때, 객체의 타입과 관련된 클래스 정보는 상기 객체가 어떤 종류의 객체인지에 따라 결정될 수 있다. 예를 들어, 상기 객체가 사람인 경우, 상기 서브 포인트 데이터 셋의 상기 클래스 정보(2210)는 '사람(Human)'으로 결정될 수 있으나, 이에 한정되지 않고, 사람에 대한 하위 클래스로 결정될 수 있다. 구체적인 예로, 상기 객체가 남성인 경우, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)는 '남성'으로 결정될 수 있다. 또한, 상기 사람에 대한 하위 클래스는 '여성'. '아이', '노인', '보행자(Pedestrian)' 등을 포함할 수 있으나, 이에 한정되지 않는다.In this case, class information related to the type of the object may be determined according to what type of object the object is. For example, when the object is a person, the class information 2210 of the sub-point data set may be determined as 'Human', but is not limited thereto, and may be determined as a subclass of a person. As a specific example, when the object is a male, the class information 2210 of the sub-point data set may be determined as 'male'. Also, the subclass for the said person is 'female'. It may include, but is not limited to, 'child', 'old man', 'pedestrian', and the like.

또한, 상기 클래스 정보(2210)는 상기 객체의 일부분의 타입과 관련될 수 있다. 보다 구체적으로, 상기 객체의 일부분의 타입과 관련된 클래스는 상기 포인트 데이터 셋(2100)이 상기 객체의 일부분을 나타내는 서브 포인트 데이터 셋(2110)을 포함하는 경우, 상기 컨트롤러(1100)는 상기 서브 포인트 데이터 셋(2110)이 상기 객체의 일부분을 나타낸다고 결정할 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋(210)이 사람의 팔을 나타내는 경우, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)는 '사람(Human)'으로 결정될 수도 있으나,'사람의 팔'로 결정될 수도 있다.Also, the class information 2210 may be related to the type of the part of the object. More specifically, when the class related to the type of the part of the object includes the sub-point data set 2110 representing the part of the object, the controller 1100 controls the sub-point data. It may be determined that the set 2110 represents a portion of the object. For example, when the sub-point data set 210 represents a human arm, the class information 2210 of the sub-point data set may be determined as 'Human', but may be determined as 'human arm'. may be

또한, 상기 클래스 정보(2210)는 상기 객체가 포함된 영역의 상황과 관련될 수 있다. 이때, 객체가 포함된 영역의 상황과 관련된 클래스는 복수의 서브 포인트 데이터 셋을 기초로 결정될 수 있다. 보다 구체적으로, 컨트롤러(1100)는 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)을 기초로 상기 객체의 클래스 정보(2210)를 결정할 수 있으나, 상기 서브 포인트 데이터 셋(2210)과 다른 복수의 서브 포인트 데이터 셋을 함께 고려하여 상기 객체가 포함된 영역의 상황과 관련된 클래스 정보를 결정할 수 있다. Also, the class information 2210 may be related to a situation of a region including the object. In this case, the class related to the situation of the region including the object may be determined based on a plurality of sub-point data sets. More specifically, the controller 1100 may determine the class information 2210 of the object based on the sub-point data set 2110 representing at least a part of the object, but a plurality of different sub-point data sets 2210 and Class information related to the situation of the region including the object may be determined by considering the sub-point data set together.

구체적인 예로, 라이다 장치가 공사 현장에서 포크레인 및 작업 중인 작업자의 적어도 일부를 나타내는 복수의 서브 포인트 데이터 셋을 획득한 경우, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋을 기초로 상기 포크레인 및 작업자의 클래스 정보를 '공사 현장'으로 결정할 수 있다. As a specific example, when the lidar device acquires a plurality of sub-point data sets representing at least a portion of a forklift and a worker working at a construction site, the controller 1100 performs the forklift and The class information of the worker can be determined as 'construction site'.

또한, 상기 클래스 정보(2210)는 자율 주행 시스템(1000)에 미리 저장된 룩업 테이블을 기초로 결정될 수 있다.Also, the class information 2210 may be determined based on a lookup table previously stored in the autonomous driving system 1000 .

보다 구체적으로, 상기 자율 주행 시스템(1000)은 객체와 상기 객체의 클래스 정보(2210)를 대응시키는 룩업 테이블을 미리 생성하여 저장할 수 있다. 이때, 컨트롤러(1100)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)를 상기 룩업 테이블을 기초로 결정할 수 있다. More specifically, the autonomous driving system 1000 may generate and store in advance an object and a lookup table corresponding to the class information 2210 of the object. In this case, the controller 1100 may determine the class information 2210 of the sub-point data set based on the lookup table.

이때, 상기 룩업 테이블은 상기 객체가 포함된 영역의 상황과 관련된 클래스를 결정하는데 이용될 수 있다. 예를 들어, 상기 룩업 테이블은 복수의 객체의 클래스 정보를 상기 복수의 객체가 포함되는 영역의 상황과 관련된 클래스에 대응시킬 수 있다. 구체적인 예로, 상기 복수의 객체의 클래스 정보가 '작업자', '포크레인', '공사 표지판' 중 적어도 일부를 포함하는 경우, 상기 룩업 테이블은 상기 복수의 클래스 정보를 상기 복수의 객체가 포함되는 영역의 상황과 관련된 클래스인 '공사 현장'에 대응시킬 수 있다. 이 경우, 컨트롤러는 상기 룩업 테이블을 이용하여 상기 복수의 객체의 클래스를 '공사 현장'으로 결정할 수 있다.In this case, the lookup table may be used to determine a class related to a situation of a region including the object. For example, the lookup table may correspond class information of a plurality of objects to a class related to a situation of a region including the plurality of objects. As a specific example, when the class information of the plurality of objects includes at least a part of 'worker', 'fork crane', and 'construction sign', the lookup table displays the plurality of class information in the area in which the plurality of objects are included. It can respond to the 'construction site', which is a class related to the situation. In this case, the controller may determine the class of the plurality of objects as a 'construction site' by using the lookup table.

또한, 상기 클래스 정보(2210)는 머신러닝을 이용해 결정될 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)은 상기 서브 포인트 데이터 셋(2110)과 상기 서브 포인트 데이터 셋이 나타내는 객체를 반복적으로 대응시킴으로써 대응 관계를 미리 학습할 수 있고, 이에 기초하여 상기 객체의 상기 클래스 정보(2210)를 결정할 수 있다. Also, the class information 2210 may be determined using machine learning. More specifically, the autonomous driving system 1000 may learn a correspondence relationship in advance by repeatedly matching the sub-point data set 2110 and the object represented by the sub-point data set, and based on this, the corresponding relationship may be learned in advance. Class information 2210 may be determined.

또한, 상기 클래스 정보(2210)는 적어도 하나의 클래스를 포함할 수 있다. 일 예로, 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보(2210)를 하나의 클래스(예를 들어, '사람(Human)')으로 결정할 수 있다. 또한, 다른 일 예로 상기 클래스 정보(2210)에 하나의 클래스가 아닌 복수의 클래스(예를 들어, '사람(Human) 및 '공사 현장(Construction Area)')가 포함될 수 있다.Also, the class information 2210 may include at least one class. As an example, the controller may determine the class information 2210 of the sub-point data set as one class (eg, 'Human'). Also, as another example, the class information 2210 may include a plurality of classes (eg, 'Human' and 'Construction Area') instead of one class.

또한, 상기 클래스 정보(2210)는 적어도 하나의 클래스를 포함하는 클래스 군을 포함할 수 있다. 여기서, 상기 클래스 군은 유사하거나 공통적인 특징을 가지는 클래스들의 집단을 의미할 수 있다. 이때, 상기 클래스 군은 컨트롤러 혹은 사용자에 의해 미리 설정되어 저장될 수 있으나, 이에 한정되지 않는다.Also, the class information 2210 may include a class group including at least one class. Here, the class group may mean a group of classes having similar or common characteristics. In this case, the class group may be preset and stored by a controller or a user, but is not limited thereto.

일 예로, '사람', '차량의 번호판', 또는 '신분증' 등의 클래스들은 개인 정보와 관련된다는 공통적인 특징이 있으므로, 상기 사람', '차량의 번호판', 또는 '신분증' 등의 클래스들은 개인정보와 관련된 클래스 군을 구성할 수 있다. 다른 예로, '사람', '차량' 등의 클래스들은 이동형 객체와 관련된다는 공통적인 특징이 있으므로, 상기 '사람', '차량' 등의 클래스들은 이동형 객체와 관련된 클래스 군을 구성할 수 있다.For example, classes such as 'person', 'vehicle license plate', or 'identification card' have a common characteristic that is related to personal information, Class groups related to personal information can be configured. As another example, since classes such as 'person' and 'vehicle' have a common characteristic that they are related to a mobile object, the classes such as 'person' and 'vehicle' may constitute a class group related to a mobile object.

또한 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 중심 위치 정보(2220)를 포함할 수 있다. Also, referring to FIG. 23 , the attribute data 2200 may include center position information 2220 of the sub-point data set.

도 25는 일 실시예에 따른 속성 데이터에 포함되는 중심 위치 정보를 설명하기위한 도면이다.25 is a diagram for describing center position information included in attribute data according to an exemplary embodiment.

도 25를 참조하면, 상기 중심 위치 정보(2220)는 상기 포인트 데이터 셋(2100)에 포함된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 중심 위치 정보(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 상기 포인트 데이터 각각의 위치 좌표(x,y,z)의 중심 위치 좌표(x0,y0,z0)를 의미할 수 있다. 이때, 상기 중심 위치 좌표(x0,y0,z0)는 상기 복수의 포인트 데이터의 위치 좌표(x,y,z)에 대한 평균값을 나타내는 좌표일 수 있으나, 상기 중심 위치 좌표(x0,y0,z0)를 계산하는 방법은 이에 한정되지 않고 다양한 방법이 이용될 수 있다.Referring to FIG. 25 , the center location information 2220 may be calculated based on a sub-point data set 2110 indicating at least a portion of an object included in the point data set 2100 . For example, the center position information 2200 includes the center position coordinates (x 0 , y 0 ) of the position coordinates (x, y, z) of each of the plurality of point data included in the sub-point data set 2110 , z 0 ). In this case, the central position coordinates (x 0 , y 0 , z 0 ) may be coordinates indicating an average value of the position coordinates (x, y, z) of the plurality of point data, but the central position coordinates (x 0 , The method of calculating y 0 ,z 0 ) is not limited thereto, and various methods may be used.

또한, 상기 중심 위치 정보(2220)는 적어도 하나의 기준 위치를 원점으로 하는 좌표계 상에 표현될 수 있다. 예를 들어, 상기 기준 위치는 포인트 데이터를 획득한 라이다 장치의 위치, 상기 라이다 장치가 배치된 장치의 위치 등을 포함할 수 있고, 상기 중심 위치 정보(2200)는 상기 기준 위치를 원점으로 하는 좌표계 상에 표현될 수 있으나, 이에 한정되지 않는다. 상기 좌표계 및 기준이 되는 원점에 대한 상세한 내용은 하기에서 설명한다.Also, the center position information 2220 may be expressed on a coordinate system having at least one reference position as an origin. For example, the reference position may include a position of a lidar device that obtained point data, a position of a device in which the lidar device is disposed, and the like, and the center position information 2200 uses the reference position as the origin. may be expressed on a coordinate system, but is not limited thereto. Details of the coordinate system and the reference origin will be described below.

또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 사이즈 정보(2230)를 포함할 수 있다. Also, referring to FIG. 23 , the attribute data 2200 may include size information 2230 of the sub-point data set.

도 26은 일 실시예에 따른 속성 데이터에 포함되는 사이즈 정보를 설명하기 위한 도면이다.26 is a diagram for explaining size information included in attribute data according to an embodiment.

도 26을 참조하면, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 크기에 대응될 수 있다.Referring to FIG. 26 , the size information 2230 may correspond to the size of an object indicated by the sub-point data set 2110 .

이때, 상기 사이즈 정보(2230)는 상기 포인트 데이터 셋(2100)에 포함된 객체의 적어도 일부를 나타내는 상기 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)이 상기 포인트 데이터 셋(2100) 상에서 차지하는 부피에 기초하여 계산될 수 있다. 보다 구체적으로, 컨트롤러(1100)는 상기 서브 포인트 데이터 셋(2110)이 상기 3d 포인트 데이터 셋(2100)상에서 차지하는 공간을 추출할 수 있으며, 추출된 공간의 부피를 계산함으로써 상기 객체의 사이즈 정보(2230)을 계산할 수 있다.In this case, the size information 2230 may be calculated based on the sub-point data set 2110 indicating at least a portion of an object included in the point data set 2100 . For example, the size information 2230 may be calculated based on a volume occupied by the sub-point data set 2110 on the point data set 2100 . More specifically, the controller 1100 may extract the space occupied by the sub-point data set 2110 on the 3d point data set 2100, and calculate the volume of the extracted space to obtain size information 2230 of the object. ) can be calculated.

또한, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터의 위치 정보에 기초하여 계산될 수 있다. 보다 구체적으로, 복수의 포인트 데이터들이 객체의 표면을 나타내기 때문에, 상기 객체의 표면을 나타내는 포인트 데이터의 위치 정보를 이용하여 객체의 부피를 계산함으로써, 상기 사이즈 정보(2230)가 획득될 수 있다. Also, the size information 2230 may be calculated based on location information of a plurality of point data included in the sub-point data set 2110 . More specifically, since a plurality of point data represents the surface of the object, the size information 2230 may be obtained by calculating the volume of the object using location information of the point data representing the surface of the object.

또한, 상기 사이즈 정보(2230)는 상기 중심 위치 정보(2220) 및 상기 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 사이즈 정보(2230)는 상기 중심 위치 정보(2220)에 포함되는 중심 위치 좌표(x0,y0,z0) 를 중심으로 하고 상기 서브 포인트 데이터 셋(2110)의 너비, 폭, 높이에 각각 대응되는 가로, 세로, 높이를 가지는 직육면체 형상의 부피를 계산함으로써 생성될 수 있다. 물론, 실시예에 따라 직육면체 뿐만 아니라, 정육면체, 다면체, 구형, 타원구형 등 다양한 형상의 부피를 계산하여 상기 사이즈 정보(2230)이 계산될 수 있다.Also, the size information 2230 may be calculated based on the center location information 2220 and the sub-point data set 2110 . For example, the size information 2230 centered on the center location coordinates (x 0 , y 0 , z 0 ) included in the center location information 2220 , and the width and width of the sub-point data set 2110 . , can be generated by calculating the volume of a rectangular parallelepiped shape having a width, a length, and a height respectively corresponding to the height. Of course, according to an embodiment, the size information 2230 may be calculated by calculating the volume of various shapes such as a cube, a polyhedron, a spherical shape, and an elliptical shape as well as a rectangular parallelepiped.

또한, 도23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 형상 정보(2240)를 포함할 수 있다.Also, referring to FIG. 23 , the attribute data 2200 may include shape information 2240 of the sub-point data set.

이때, 상기 형상 정보(2240)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 형상을 나타낼 수 있다. 여기서, 객체의 형상은 객체의 실제 형상을 포함할 수도 있고, 상기 객체의 형상을 가공하여 표현한 가공 형상을 포함할 수도 있다. 여기서, 상기 가공 형상은 객체의 실제 형상을 유사하게 표현한 유사 형상 및 객체의 실제 형상과 다르지만, 객체의 존재를 나타내기 위한 임의적인 형상을 포함할 수 있다.In this case, the shape information 2240 may indicate the shape of the object indicated by the sub-point data set 2110 . Here, the shape of the object may include the actual shape of the object, or may include a processed shape expressed by processing the shape of the object. Here, the processed shape may include a similar shape similarly expressing the actual shape of the object, and an arbitrary shape for indicating the existence of the object, although it is different from the actual shape of the object.

예를 들어, 상기 형상 정보(2240)는 상기 임의적인 형상을 나타내는 것으로서, 상기 객체를 미리 결정된 형상으로 나타낸 템플릿 정보(2241)를 포함할 수 있고, 상기 유사 형상을 나타내는 것으로서, 상기 객체를 소정 개수 이하의 포인트로 나타낸 스켈레톤 정보(2242)를 포함할 수 있으나, 이에 한정되지 않는다.For example, the shape information 2240 represents the arbitrary shape, and may include template information 2241 representing the object in a predetermined shape. It may include, but is not limited to, skeleton information 2242 indicated by the following points.

도 27은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 템플릿 정보를 설명하기 위한 도면이다.27 is a diagram for describing template information among shape information included in attribute data according to an exemplary embodiment.

도 27을 참조하면, 상기 템플릿 정보(2241)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체를 미리 결정된 형상으로 나타낼 수 있다. 보다 구체적으로, 상기 템플릿 정보(2241)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)에 기초하여, 상기 클래스 정보(2210)에 대응되는 미리 결정된 형상을 나타낼 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)가 사람과 관련된 경우, 상기 템플릿 정보(2241)는 사람의 형상을 가진 미리 결정된 형상에 대응될 수 있으나, 이에 한정되지 않는다.Referring to FIG. 27 , the template information 2241 may indicate an object indicated by the sub-point data set 2110 in a predetermined shape. More specifically, the template information 2241 may indicate a predetermined shape corresponding to the class information 2210 based on the class information 2210 of the sub-point data set. For example, when the class information 2210 of the sub-point data set is related to a person, the template information 2241 may correspond to a predetermined shape having a human shape, but is not limited thereto.

또한, 상기 템플릿 정보(2241)는 자율 주행 시스템(1000)에 미리 저장되어 있을 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)은 객체의 클래스 정보(2210)에 대응되는 템플릿 정보(2241)를 미리 저장하거나 외부 서버로부터 획득할 수 있다. Also, the template information 2241 may be previously stored in the autonomous driving system 1000 . Specifically, the autonomous driving system 1000 may store template information 2241 corresponding to the class information 2210 of the object in advance or obtain it from an external server.

도 28은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 스켈레톤 정보를 설명하기 위한 도면이다.28 is a diagram for describing skeleton information among shape information included in attribute data according to an exemplary embodiment.

도 28을 참조하면, 상기 스켈레톤 정보(2242)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체를 소정 개수 이하의 포인트를 이용하여 나타낼 수 있다. 보다 구체적으로, 상기 스켈레톤 정보(2242)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)에 기초하여, 상기 객체의 형상을 표현할 수 있는 최소 개수의 포인트를 이용하여 상기 객체의 형상을 나타낼 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋의 클래스 정보가 사람과 관련된 경우, 상기 스켈레톤 정보는 상기 사람의 관절 부위에 대응되는 복수의 포인트에 대응될 수 있으나, 이에 한정되지 않는다. Referring to FIG. 28 , the skeleton information 2242 may indicate objects indicated by the sub-point data set 2110 using a predetermined number or less of points. More specifically, the skeleton information 2242 may indicate the shape of the object using the minimum number of points that can express the shape of the object based on the class information 2210 of the sub-point data set. For example, when class information of the sub-point data set is related to a person, the skeleton information may correspond to a plurality of points corresponding to joint parts of the person, but is not limited thereto.

또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 이동 정보(2250)를 포함할 수 있다. 이때, 상기 이동 정보(2250)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 이동 방향, 속도, 트래킹 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, referring to FIG. 23 , the attribute data 2200 may include movement information 2250 of the sub-point data set. In this case, the movement information 2250 may include, but is not limited to, movement direction, speed, and tracking information of the object indicated by the sub-point data set 2110 .

또한, 상기 이동 정보(2250)는 연속되는 프레임에서 동일한 객체의 위치에 대한 대응 관계를 정의함으로써 생성될 수 있다. 여기서, 연속되는 프레임에서 동일한 객체의 위치에 대한 대응 관계를 정의한다는 것은, 연속되는 프레임들 각각에서 동일한 객체를 특정하고, 특정된 객체 각각의 위치 정보를 획득하고, 획득된 위치 정보들을 상기 특정된 객체의 시간에 따른 위치로 연관시키는 것을 의미할 수 있다.Also, the movement information 2250 may be generated by defining a correspondence relationship with respect to the location of the same object in successive frames. Here, defining the correspondence relation for the position of the same object in successive frames means specifying the same object in each of the successive frames, obtaining the position information of each specified object, and applying the obtained position information to the specified object. It may refer to associating an object with a location according to time.

예를 들어, 상기 이동 정보(2250)는 소정의 알고리즘을 통해 컨트롤러(1100)에서 생성될 수 있다. 상기 알고리즘은 적어도 하나의 센서의 제1 프레임에 대응되는 제1 포인트 데이터 셋을 획득하는 단계, 상기 제1 프레임에 연속되는 제2 프레임에 대응되는 제2 포인트 데이터 셋을 획득하는 단계, 상기 제1 포인트 데이터 셋에 포함되는 제1 객체를 나타내는 제1 서브 포인트 데이터 셋을 추출하는 단계, 상기 제2 포인트 데이터 셋에 포함되는 상기 제1 객체를 나타내는 제2 서브 포인트 데이터 셋을 추출하는 단계, 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 거리 또는 형상의 유사도를 기초로 각각의 서브 포인트 데이터 셋 사이의 대응 관계를 정의하는 단계, 상기 각각의 서브 포인트 데이터 셋의 위치 정보를 기초로 상기 제1 객체의 이동 방향 및 속도 등을 생성하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.For example, the movement information 2250 may be generated by the controller 1100 through a predetermined algorithm. The algorithm may include obtaining a first point data set corresponding to a first frame of at least one sensor, obtaining a second point data set corresponding to a second frame subsequent to the first frame, the first extracting a first sub-point data set representing a first object included in a point data set, extracting a second sub-point data set representing the first object included in the second point data set, the first defining a correspondence relationship between each sub-point data set based on the similarity of the distance or shape of the first sub-point data set and the second sub-point data set, based on the location information of each sub-point data set It may include, but is not limited to, generating the moving direction and speed of the first object.

또한, 상기 생성된 상기 제1 객체의 이동 방향 및 속도를 연속되는 복수의 프레임에 대해 누적함으로써, 상기 컨트롤러(1100)는 상기 제1 객체의 트래킹 정보를 생성할 수 있다.In addition, by accumulating the generated moving direction and speed of the first object for a plurality of consecutive frames, the controller 1100 may generate tracking information of the first object.

또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 식별 정보(2260)를 포함할 수 있다. 이때, 상기 식별 정보(2260)는 서브 포인트 데이터 셋(2110)을 다른 서브 포인트 데이터 셋과 구별하기 위해 생성될 수 있다.Also, referring to FIG. 23 , the attribute data 2200 may include identification information 2260 of the sub-point data set. In this case, the identification information 2260 may be generated to distinguish the sub-point data set 2110 from other sub-point data sets.

또한, 상기 식별 정보(2260)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터가 동일한 객체를 나타내는 것을 표현하기 위해 생성될 수 있다. 보다 구체적으로, 상기 식별 정보(2260)는 상기 서브 포인트 데이터 셋(2110)에 대한 공통적인 ID를 포함할 수 있다. 또한, 상기 ID는 상기 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터 각각에 생성될 수 있다. 이때, 상기 ID는 적어도 하나의 일련 번호로 표현될 수 있으나, 이에 한정되지 않는다.Also, the identification information 2260 may be generated to represent that a plurality of point data included in the sub-point data set 2110 represents the same object. More specifically, the identification information 2260 may include a common ID for the sub-point data set 2110 . Also, the ID may be generated for each of the plurality of point data included in the sub-point data set 2110 . In this case, the ID may be expressed as at least one serial number, but is not limited thereto.

이하에서는 자율 주행 시스템(1000)이 상기 센서 데이터(2000)를 이용하여 차량을 제어하는 방법에 대해 설명한다.Hereinafter, a method for the autonomous driving system 1000 to control a vehicle using the sensor data 2000 will be described.

2.3. 센서 데이터를 이용한 차량 제어2.3. Vehicle control using sensor data

상기 자율 주행 시스템(1000)이 탑재된 차량에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 이용하여 상기 차량을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 센서 데이터를 고정밀 지도(또는 HD(High Definition)맵)에 매칭하거나, 상기 차량의 방향 및 속도를 제어하거나, 또는 상기 차량의 경로를 제어할 수 있으나, 이에 한정되지 않는다. 여기서, 상기 고정밀 지도는 차량의 주행을 위해 정적 객체 또는 동적 객체가 높은 정밀도(예를 들어, 센티미터 단위 수준의 정밀도)로 표시된 지도를 의미하는 것으로, 2D 또는 3D로 표현될 수 있다.The controller 1100 included in the vehicle on which the autonomous driving system 1000 is mounted may control the vehicle using sensor data obtained from the at least one sensor 1300 . For example, the controller 1100 may match the sensor data to a high-definition map (or high-definition (HD) map), control the direction and speed of the vehicle, or control the path of the vehicle, However, the present invention is not limited thereto. Here, the high-precision map refers to a map in which a static object or a dynamic object is displayed with high precision (eg, precision of a centimeter unit level) for driving of a vehicle, and may be expressed in 2D or 3D.

이하에서는 상기 센서 데이터를 이용한 차량 제어의 구체적인 실시예에 대해서 기술한다.Hereinafter, a specific embodiment of vehicle control using the sensor data will be described.

2.3.1. 센서 데이터와 고정밀 지도의 매칭2.3.1. Matching sensor data and high-precision maps

상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 매칭함으로써 고정밀 지도를 갱신할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 적어도 하나의 객체에 대한 위치 정보를 외부로부터 다운로드된 고정밀 지도(1420) 상에 매칭시킬 수 있다. 여기서, 상기 고정밀 지도(1420)의 생성 방법은 목차 1.3.5. 에 상세히 설명하였으므로 생략하기로 한다. The controller 1100 included in the autonomous driving system 1000 may update the high-precision map by matching the sensor data 2000 . More specifically, the controller 1100 may match the location information on at least one object obtained from the at least one sensor 1300 on the high-precision map 1420 downloaded from the outside. Here, the method of generating the high-precision map 1420 is described in Table of Contents 1.3.5. Since it has been described in detail, it will be omitted.

도 29는 일 실시예에 따른 자율 주행 시스템이 센서로부터 획득된 서브 포인트 데이터 셋을 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.29 is a diagram illustrating an autonomous driving system matching a sub-point data set obtained from a sensor to a high-precision map according to an embodiment.

도 29를 참조하면, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)에 매칭시켜 디스플레이할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋(2110, 2120)에 포함된 위치 정보를 상기 고정밀 지도(1420) 상에서 상기 복수의 서브 포인트 데이터 셋(2110, 2120)의 주변 환경의 위치 정보와 비교하여 상기 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)에 매칭시켜 디스플레이 할 수 있다. Referring to FIG. 29 , the controller 1100 may match and display a plurality of sub-point data sets 2110 and 2120 obtained from the at least one sensor 1300 to the high-precision map 1420 . More specifically, the controller 1100 transmits the location information included in the plurality of sub-point data sets 2110 and 2120 to the surrounding environment of the plurality of sub-point data sets 2110 and 2120 on the high-precision map 1420 . The plurality of sub-point data sets 2110 and 2120 may be matched to the high-precision map 1420 and displayed by comparison with the location information of .

예를 들어, 상기 컨트롤러(1100)는 사람의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2110) 및 차량의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2120)을 상기 고정밀 지도(1420) 상에 매칭시킬 수 있다.For example, the controller 1100 may display a first sub-point data set 2110 representing at least a part of a person and a second sub-point data set 2120 representing at least a part of a vehicle on the high-precision map 1420 . can be matched.

도 30은 일 실시예에 따른 자율 주행 시스템이 객체의 속성 데이터를 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.30 is a diagram illustrating that the autonomous driving system matches the attribute data of an object to a high-precision map according to an exemplary embodiment;

도 30을 참조하면, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋(2110, 2120)을 기초로 생성된 복수의 속성 데이터(2201, 2202)를 상기 고정밀 지도(1420) 상에 매칭시켜 디스플레이 할 수 있다.Referring to FIG. 30 , the controller 1100 matches and displays a plurality of attribute data 2201 and 2202 generated based on the plurality of sub-point data sets 2110 and 2120 on the high-precision map 1420 . can do.

보다 구체적으로, 상기 컨트롤러(1100)는 적어도 하나의 센서(1300)로부터 획득한 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)상에 매칭시키지 않고, 상기 복수의 속성 데이터(2201, 2202)를 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 생성된 상기 복수의 속성 데이터(2201,2202)를 상기 고정밀 지도(1420)상에 매칭시켜 디스플레이 할 수 있다.More specifically, the controller 1100 does not match the plurality of sub-point data sets 2110 and 2120 obtained from at least one sensor 1300 on the high-precision map 1420, and the plurality of attribute data ( 2201, 2202) can be created. In this case, the controller 1100 may match and display the plurality of generated attribute data 2201,2202 on the high-precision map 1420 .

예를 들어, 상기 컨트롤러(1100)는 사람의 적어도 일부를 나타내는 상기 제1 서브 포인트 데이터 셋(2110)을 기초로 제1 속성 데이터(2201)를 생성할 수 있고, 차량의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2120)을 기초로 제2 속성 데이터(2202)를 생성할 수 있다. 여기서, 상기 제1 속성 데이터(2201)은 상기 사람의 형상 정보를 포함하고, 상기 제2 속성 데이터(2202)는 상기 차량의 형상 정보를 포함하므로, 상기 컨트롤러(1100)는 상기 복수의 형상 정보를 상기 고정밀 지도(1420)상에 매칭시켜 디스플레이 할 수 있다.For example, the controller 1100 may generate first attribute data 2201 based on the first sub-point data set 2110 representing at least a part of a person, and may generate the first attribute data 2201 representing at least a part of a vehicle. The second attribute data 2202 may be generated based on the 2 sub-point data set 2120 . Here, since the first attribute data 2201 includes the shape information of the person and the second attribute data 2202 includes the shape information of the vehicle, the controller 1100 receives the plurality of shape information It can be displayed by matching it on the high-precision map 1420 .

또한, 상기 복수의 속성 데이터(2201, 2202)가 상기 형상 정보로 한정되는 것은 아니며, 중심 위치 정보, 사이즈 정보 등 속성 데이터에 포함되는 다양한 정보를 의미할 수 있다. Also, the plurality of attribute data 2201 and 2202 is not limited to the shape information, and may mean various information included in the attribute data, such as center position information and size information.

또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2110, 2120) 또는 상기 복수의 속성 데이터(2201, 2202)가 매칭된 상기 고정밀 지도(1420)을 이용하여 차량을 제어할 수 있다. 예를 들어, 상기 고정밀 지도(1420)를 기초로 차량의 경로 상에 장애물이 존재하는지 여부를 판단할 수 있고, 이를 통해 상기 차량의 속도, 방향, 또는 경로 등을 제어할 수 있다. Also, the controller may control the vehicle using the high-precision map 1420 to which the plurality of sub-point data sets 2110 and 2120 or the plurality of attribute data 2201 and 2202 are matched. For example, based on the high-precision map 1420, it may be determined whether an obstacle exists on the path of the vehicle, and through this, the speed, direction, or path of the vehicle may be controlled.

2.3.2. 차량의 방향 및 속도의 제어2.3.2. Control of vehicle direction and speed

또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 이용해 상기 자율 주행 시스템(1000)이 탑재된 차량의 방향 및 속도를 제어할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서를 통해 상기 차량의 경로 상에 장애물을 발견한 경우, 해당 장애물을 회피하기 위해 상기 차량의 방향 및 속도를 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 경로상에 보행자가 감지되는 경우, 상기 보행자를 피하기 위해 상기 차량을 정지시키거나 조향 장치를 제어하여 차량의 방향을 바꿀 수 있다.Also, the controller 1100 included in the autonomous driving system 1000 may use the sensor data 2000 to control the direction and speed of the vehicle on which the autonomous driving system 1000 is mounted. More specifically, when an obstacle is found on the path of the vehicle through the at least one sensor, the controller 1100 may control the direction and speed of the vehicle to avoid the obstacle. For example, when a pedestrian is detected on the path of the vehicle, the controller 1100 may stop the vehicle to avoid the pedestrian or change the direction of the vehicle by controlling a steering device.

2.3.3. 차량의 경로 제어2.3.3. vehicle path control

또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 이용해 상기 차량의 경로를 제어할 수 있다. Also, the controller 1100 included in the autonomous driving system 1000 may control the path of the vehicle using the sensor data 2000 .

도 31은 일 실시예에 따른 자율 주행 시스템이 차량의 주행에 방해되는 장애물을 회피하기 위해 경로를 변경하는 상황을 나타내는 도면이다.FIG. 31 is a diagram illustrating a situation in which the autonomous driving system changes a route to avoid an obstacle obstructing the driving of a vehicle, according to an exemplary embodiment;

도 31을 참조하면, 상기 컨트롤러(1100)는 상기 자율 주행 시스템(1000)이 탑재된 차량(121)의 주행 경로 상에 보행자의 움직임이 감지되는 경우, 보행자를 회피하기 위해 상기 차량(121)의 경로를 변경할 수 있다.Referring to FIG. 31 , the controller 1100 controls the vehicle 121 to avoid the pedestrian when the movement of the pedestrian is detected on the driving path of the vehicle 121 on which the autonomous driving system 1000 is mounted. You can change the path.

구체적으로, 상기 컨트롤러(1100)는 상기 차량(121)과 상기 보행자 간의 충돌을 피하기 위해 상기 차량(121)을 정지시킬 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러(1100)는 상기 보행자를 우회하여 주행하기 위해 상기 차량의 경로를 수정할 수 있다. 차량의 경로 설정(path planning)에 관련된 상세한 내용은 하기(목차 5.2.2.2.)에서 설명한다.Specifically, the controller 1100 may stop the vehicle 121 to avoid a collision between the vehicle 121 and the pedestrian. Also, the present invention is not limited thereto, and the controller 1100 may modify the path of the vehicle in order to bypass the pedestrian and travel. Details related to the path planning of the vehicle will be described below (Table of Contents 5.2.2.2.).

3. 데이터 공유 시스템3. data sharing system

일 실시예에 따른 데이터 공유 시스템은 통신 모듈을 포함하는 제1 장치및 제2 장치를 포함할 수 있다. 또한, 상기 제1 장치는 상기 제2 장치와 데이터를 공유할 수 있다. 이때, 공유되는 데이터의 종류는 한정되지 않으며, 센서 데이터를 포함할 수 있다.A data sharing system according to an embodiment may include a first device and a second device including a communication module. Also, the first device may share data with the second device. In this case, the type of shared data is not limited and may include sensor data.

예를 들어, 자율 주행 시스템을 탑재한 차량은 차량의 주행 중 발생할 수 있는 위험을 회피하기 위해 상기 데이터 공유 시스템을 이용하여 다른 장치와 데이터를 공유할 수 있다. For example, a vehicle equipped with an autonomous driving system may share data with other devices by using the data sharing system in order to avoid a risk that may occur while the vehicle is driving.

3.1. 데이터 공유 주체 3.1. Data sharing subject

적어도 하나의 통신 모듈을 포함하는 장치는 데이터 공유 주체가 될 수있다. 구체적으로, 상기 데이터 공유 주체는 데이터를 전송하는 송신 주체가 될 수도 있고, 데이터를 수신하는 수신 주체가 될 수도 있다. 또한, 상기 데이터 공유 주체는 차량, 인프라 장치, 서버 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 데이터 공유 주체는 하나의 장치에 포함된 복수의 센서들이 될 수도 있고, 서로 다른 장치에 포함된 복수의 센서들이 될 수도 있다.A device including at least one communication module may be a data sharing subject. Specifically, the data sharing subject may be a transmitting entity transmitting data or a receiving entity receiving data. In addition, the data sharing subject may include, but is not limited to, a vehicle, an infrastructure device, a server, and the like. Also, the data sharing subject may be a plurality of sensors included in one device or a plurality of sensors included in different devices.

도 32는 일 실시예에 따른 복수의 장치간에 데이터가 공유되는 상황을 나타내는 도면이다.32 is a diagram illustrating a situation in which data is shared between a plurality of devices according to an exemplary embodiment.

도 32를 참조하면, 복수의 장치(100, 400, 700)는 서로 간에 데이터를 공유할 수 있다. 이때, 상기 복수의 장치(100, 400, 700)는 통신을 위해 적어도 하나의 통신 모듈(1200)을 포함할 수 있다. 이때, 상기 복수의 장치는 차량(100), 인프라 장치(700), 서버(cloud, 400), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 32 , a plurality of devices 100 , 400 , and 700 may share data with each other. In this case, the plurality of devices 100 , 400 , and 700 may include at least one communication module 1200 for communication. In this case, the plurality of devices may include a vehicle 100 , an infrastructure device 700 , a server cloud 400 , a mobile device, and the like, but is not limited thereto.

예를 들어, 차량(100)은 V2V 시스템을 통해 다른 차량과 데이터를 공유할 수 있다. 또한 차량(100)은 V2I 시스템을 통해 인프라 장치(700)와 데이터를 공유할 수 있다. 또한, 차량(100)은 V2C 시스템을 통해 서버(400)와 데이터를 공유할 수 있다.For example, the vehicle 100 may share data with other vehicles through a V2V system. Also, the vehicle 100 may share data with the infrastructure device 700 through the V2I system. In addition, the vehicle 100 may share data with the server 400 through the V2C system.

이때, 차량(100)은 상기 차량(100)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터(2000)를 상기 다른 차량, 상기 인프라 장치(700), 또는 상기 서버(400)에 전송할 수 있다. 또한, 상기 차량(100)은 상기 다른 차량, 상기 인프라 장치(700), 상기 서버(400)로부터 센서 데이터를 수신할 수 있다.At this time, the vehicle 100 transmits the sensor data 2000 obtained from at least one sensor 1300 included in the vehicle 100 to the other vehicle, the infrastructure device 700 , or the server 400 . can Also, the vehicle 100 may receive sensor data from the other vehicle, the infrastructure device 700 , and the server 400 .

3.2. 데이터 공유 시기 3.2. When to share data

또한, 적어도 하나의 통신 모듈을 포함하는 복수의 장치 사이의 데이터 공유는 상황에 따라 다른 시기에 수행될 수 있다. 예를 들어, 상기 복수의 장치 사이의 데이터 공유 시기는 통신 개시 시점, 또는 특정 이벤트 발생 시점 등을 포함할 수 있으나, 이에 한정되지 않는다. In addition, data sharing between a plurality of devices including at least one communication module may be performed at different times according to circumstances. For example, the data sharing time between the plurality of devices may include a communication start time or a specific event occurrence time, but is not limited thereto.

구체적인 예로, 제1 장치와 제2 장치 사이의 데이터 공유 시기는 상기 제1 장치 및 상기 제2 장치 사이의 통신 개시 시점에 대응될 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치 사이의 거리가 통신 가능 거리에 도달했을 경우, 상기 제1 장치 및 상기 제2 장치 사이의 통신이 개시될 수 있고, 상기 통신이 개시되는 시점부터 데이터를 공유할 수 있다.As a specific example, the data sharing timing between the first device and the second device may correspond to a communication start timing between the first device and the second device. In this case, when the distance between the first device and the second device reaches a communicable distance, communication between the first device and the second device may be started, and data is transmitted from the time the communication starts. can share

또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 상기 제2 장치로부터 일정 범위 내에 위치하는 시점에 수행될 수 있다. 이때, 상기 일정 범위는 상기 통신 가능 거리와 상이할 수 있고, 외부 서버 또는 상기 제1 장치 및 상기 제2 장치의 컨트롤러에 의해 미리 설정될 수 있다. As another example, data sharing between the first device and the second device may be performed when the first device is located within a predetermined range from the second device. In this case, the predetermined range may be different from the communicable distance, and may be preset by an external server or a controller of the first device and the second device.

또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치와 관련된 이벤트가 발생한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치와 관련하여 사고가 발생한 경우, 상기 사고 발생 시점에 상기 제2 장치는 상기 사고와 관련된 데이터를 상기 제1 장치에 전송할 수 있다. As another example, data sharing between the first device and the second device may be performed when an event related to the first device occurs. More specifically, when an accident occurs in relation to the first device, the second device may transmit data related to the accident to the first device at the time of occurrence of the accident.

또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 상기 제2 장치로부터 데이터 요청 메시지를 수신한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제2 장치는 상기 제1 장치에 데이터 요청 메시지를 전송할 수 있고, 상기 요청 메시지에 대한 응답으로 상기 제1 장치는 상기 제2 장치에 데이터를 전송할 수 있다.As another example, data sharing between the first device and the second device may be performed when the first device receives a data request message from the second device. More specifically, the second device may transmit a data request message to the first device, and in response to the request message, the first device may transmit data to the second device.

또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 외부 서버로부터 데이터 전송에 대한 승인을 획득한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치는 개인 정보와 관련된 데이터를 전송하기 전에 외부 서버로부터 상기 개인 정보와 관련된 데이터의 전송에 대한 허가를 구할 수 있으며, 상기 외부 서버가 데이터 전송에 대해 승인을 한 경우, 상기 제1 장치는 상기 승인 시점에 데이터를 상기 제2 장치에 전송할 수 있다.As another example, data sharing between the first device and the second device may be performed when the first device obtains permission for data transmission from an external server. More specifically, the first device may obtain permission for transmission of data related to personal information from an external server before transmitting data related to personal information, and when the external server approves data transmission, The first device may transmit data to the second device at the time of the approval.

또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 특정 영역에 진입한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치가 어린이 보호 구역과 같은 특정 규제 영역에 진입했을 경우, 상기 제2 장치는 상기 제1 장치에 상기 특정 영역과 관련된 데이터를 전송할 수 있다.As another example, data sharing between the first device and the second device may be performed when the first device enters a specific area. More specifically, when the first device enters a specific regulated area, such as a child protection area, the second device may transmit data related to the specific area to the first device.

또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치의 사용자가 데이터 공유와 관련된 인풋을 입력한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치가 상기 제1 장치에 탑승한 사용자로부터 상기 제2 장치와의 데이터 공유를 위한 입력을 수신한 경우, 상기 제1 장치와 상기 제2 장치는 데이터를 송수신할 수 있다. As another example, data sharing between the first device and the second device may be performed when a user of the first device inputs an input related to data sharing. More specifically, when the first device receives an input for sharing data with the second device from a user riding on the first device, the first device and the second device may transmit/receive data .

이하에서는 데이터 공유시에 송수신되는 공유 데이터에 대해서 상세히 설명한다.Hereinafter, shared data transmitted and received during data sharing will be described in detail.

3.3. 공유 데이터 (sharing data)3.3. sharing data

3.3.1. 공유 데이터의 정의3.3.1. What is shared data?

본 명세서에서 공유 데이터(3000)는 둘 이상의 장치 간에 데이터를 공유하는 경우, 공유되는 모든 데이터를 포함하는 개념으로 정의될 수 있다. 이때, 제1 장치는 제2 장치에 공유 데이터(3000)를 전송할 수 있다. 또한, 상기 제1 장치는 상기 제2 장치로부터 공유 데이터(3000)를 수신할 수 있다. In the present specification, the shared data 3000 may be defined as a concept including all shared data when data is shared between two or more devices. In this case, the first device may transmit the shared data 3000 to the second device. Also, the first device may receive the shared data 3000 from the second device.

예를 들어, 상기 공유 데이터(3000)는 상기 제1 장치에 배치되는 센서를 통해 획득된 센서 데이터를 포함할 수 있으나, 이에 한정되지 않는다.For example, the shared data 3000 may include sensor data acquired through a sensor disposed in the first device, but is not limited thereto.

3.3.2. 공유 데이터의 컨텐츠 3.3.2. content of shared data

공유 데이터의 컨텐츠는(Contents of sharing data)는 상기 공유 데이터(3000)에 포함되는 데이터의 내용 또는 타입 등을 포함하는 개념으로 이해될 수 있다. 다시 말해, 상기 공유 데이터의 컨텐츠는 상기 공유 데이터(3000)를 구성하고, 상기 공유 데이터의 컨텐츠에 포함되는 데이터의 종류에 따라 상기 공유 데이터(3000)가 결정된다.The content of sharing data may be understood as a concept including the content or type of data included in the shared data 3000 . In other words, the content of the shared data constitutes the shared data 3000 , and the shared data 3000 is determined according to the type of data included in the content of the shared data.

도 33은 일 실시예에 따른 공유 데이터에 포함될 수 있는 공유 데이터의 컨텐츠의 종류를 도시한 도면이다.33 is a diagram illustrating types of content of shared data that may be included in shared data according to an embodiment.

도 34는 도 33의 공유 데이터의 컨텐츠를 상세하게 나타내는 도면이다.34 is a diagram illustrating in detail the content of the shared data of FIG. 33 .

도 33 및 도34를 참조하면, 상기 공유 데이터(3000)는 다양한 종류의 데이터를 컨텐츠로서 포함할 수 있다.33 and 34 , the shared data 3000 may include various types of data as content.

예를 들어, 상기 공유 데이터의 컨텐츠는 적어도 하나의 센서로부터 획득된 센서 데이터(2000)를 포함할 수 있다. 다시 말해, 상기 제1 장치에 포함되는 컨트롤러는 상기 센서 데이터(2000)를 기초로 공유 데이터(3000)를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 포인트 데이터 셋(3100), 포인트 데이터(3101), 서브 포인트 데이터 셋(3110), 속성 데이터(3200), 또는 프라이버시 보호 데이터(3300) 등을 포함할 수 있으나, 이에 한정되지 않는다. 이때, 상기 프라이버시 보호 데이터(3300)에 대한 상세한 내용은 하기에서 설명한다.For example, the content of the shared data may include sensor data 2000 obtained from at least one sensor. In other words, the controller included in the first device may generate the shared data 3000 based on the sensor data 2000 . In this case, the content of the shared data may include a point data set 3100 , point data 3101 , sub-point data set 3110 , attribute data 3200 , or privacy protection data 3300 , etc. not limited In this case, the details of the privacy protection data 3300 will be described below.

또한, 상기 공유 데이터의 컨텐츠는 데이터 공유 주체에 관한 정보를 포함하는 기타 데이터(3400)를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 통신 모듈(1200)을 포함하는 차량은 상기 차량에 대한 정보를 포함하는 공유 데이터(3000)를 다른 장치와 공유할 수 있다. 예를 들어, 상기 공유 데이터의 컨텐츠는 센서 데이터(2000) 외에 상기 기타 데이터(3400)를 포함할 수 있으며, 상기 기타 데이터(3400)는 상기 차량의 목적지, 속도, 크기, 상기 차량 내 탑승자의 수 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the content of the shared data may include other data 3400 including information about the data sharing subject. For example, the vehicle including the at least one communication module 1200 may share shared data 3000 including information on the vehicle with other devices. For example, the content of the shared data may include the other data 3400 in addition to the sensor data 2000, and the other data 3400 includes the destination, speed, size, and number of passengers in the vehicle. and the like, but is not limited thereto.

3.4. 수신된 공유 데이터 처리3.4. Processing of received shared data

공유 데이터(3000)를 수신한 장치는 센서 데이터(2000) 및 상기 공유 데이터(3000)를 이용해 다양한 정보를 생성할 수 있다. 예를 들어, 공유 데이터(3000)를 수신한 장치는 센서 데이터(2000) 및 상기 공유 데이터(3000)를 이용해 상기 센서 데이터(2000) 및 상기 공유 데이터(3000)에 의해 나타나는 객체를 인식할 수 있다.The device receiving the shared data 3000 may generate various information using the sensor data 2000 and the shared data 3000 . For example, the device receiving the shared data 3000 may recognize the object represented by the sensor data 2000 and the shared data 3000 using the sensor data 2000 and the shared data 3000 . .

도 35는 차량과 인프라 장치 간에 센서 데이터를 공유하는 상황을 나타내는도면이다.35 is a diagram illustrating a situation in which sensor data is shared between a vehicle and an infrastructure device.

도 35를 참조하면, 제1 차량(122) 및 인프라 장치(700)는 상기 제1 차량(122) 및 상기 인프라 장치(700)에 포함된 적어도 하나의 센서(예를 들어 라이다 장치)를 통해 획득한 센서 데이터를 서로 공유할 수 있다. Referring to FIG. 35 , the first vehicle 122 and the infrastructure device 700 are connected through at least one sensor (eg, a lidar device) included in the first vehicle 122 and the infrastructure device 700 . The acquired sensor data can be shared with each other.

3.4.1. 수신된 공유 데이터의 종류에 따른 처리 방법3.4.1. Processing method according to the type of received shared data

다시 도 35를 참조하면, 상기 인프라 장치(700)는 적어도 하나의 센서를 통해 획득한 센서 데이터를 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다. Referring back to FIG. 35 , the infrastructure device 700 may transmit shared data 3000 including sensor data acquired through at least one sensor to the first vehicle 122 .

예를 들어, 상기 인프라 장치(700)는 포인트 데이터 셋을 포함하는 공유 데이터(3000)를 전송할 수도 있고, 또는 속성 데이터를 포함하는 공유 데이터(3000)를 전송할 수도 있다. 다만, 이에 한정되는 것은 아니고, 상기 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋 및 상기 속성 데이터를 모두 포함할 수도 있고, 모두 포함하지 않을 수도 있다. 이때, 상기 공유 데이터의 컨텐츠의 종류에 따라 상기 제1 차량(122)은 상기 공유 데이터(3000)를 다른 방식으로 처리할 수 있다.For example, the infrastructure device 700 may transmit shared data 3000 including a point data set or may transmit shared data 3000 including attribute data. However, the present invention is not limited thereto, and the content of the shared data may or may not include both the point data set and the attribute data. In this case, the first vehicle 122 may process the shared data 3000 in a different way according to the type of content of the shared data.

이하에서는 상기 인프라 장치(700)가 포인트 데이터 셋을 전송한 경우와 속성 데이터를 전송한 경우 상기 제1 차량(122)이 공유 데이터(3000)를 처리하는 실시예에 대해서 설명한다.Hereinafter, an embodiment in which the first vehicle 122 processes the shared data 3000 when the infrastructure device 700 transmits the point data set and when the attribute data is transmitted will be described.

3.4.1.1. 포인트 데이터 셋을 전송한 경우3.4.1.1. When a point data set is transmitted

도 36은 일 실시예에 따른 공유 데이터의 컨텐츠에 포인트 데이터 셋이 포함되는 상황을 설명하기 위한 도면이다.36 is a diagram for explaining a situation in which a point data set is included in content of shared data according to an embodiment.

도 36을 참조하면, 상기 인프라 장치(700)는 센서로부터 획득한 제1 포인트 데이터 셋(3100)을 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다. 이때, 상기 제1 포인트 데이터 셋(3100)은 제2 차량(123)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(3110) 및 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(3120)을 포함할 수 있다.Referring to FIG. 36 , the infrastructure device 700 may transmit shared data 3000 including a first point data set 3100 obtained from a sensor to the first vehicle 122 . In this case, the first point data set 3100 includes a first sub-point data set 3110 representing at least a part of the second vehicle 123 and a second sub-point data set 3120 representing at least a part of the pedestrian 800 . ) may be included.

또한, 상기 제1 차량(122)은 적어도 하나의 센서를 통해 제2 포인트 데이터 셋(2100)을 획득할 수 있다. 이때, 상기 제2 포인트 데이터 셋(2100)은 상기 제2 차량(123)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2110)을 포함할 수 있다. 또한, 상기 제1 차량(122)의 센서의 시야각 내에 위치한 상기 보행자(800)는 상기 제2 차량(123)에 의해 가려지므로, 상기 제2 포인트 데이터 셋(2100)은 상기 보행자(800)의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다. Also, the first vehicle 122 may acquire the second point data set 2100 through at least one sensor. In this case, the second point data set 2100 may include a third sub point data set 2110 representing at least a part of the second vehicle 123 . In addition, since the pedestrian 800 located within the viewing angle of the sensor of the first vehicle 122 is obscured by the second vehicle 123 , the second point data set 2100 is at least of the pedestrian 800 . A sub-point data set representing a part may not be included.

또한, 일 실시예에 따른 데이터 공유 시스템을 통해, 상기 제1 차량(122)은 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득할 수 있다. 예를 들어, 상기 제1 차량(122)이 적어도 하나의 센서를 통해 상기 보행자(800)에 대한 센서 데이터를 획득할 수 없는 경우, 상기 제1 차량(122)이 상기 보행자(800)를 인지하지 못함에 따라 상기 제1 차량(122)과 관련되는 예기치 않은 사고가 발생할 수 있다. 위와 같은 상황을 예방하기 위해, 상기 인프라 장치(700)는 상기 제1 차량(122)에서 획득할 수 없는 상기 보행자(800)에 관한 센서 데이터를 상기 제1 차량(122)에 공유할 수 있다. Also, through the data sharing system according to an embodiment, the first vehicle 122 may acquire information on an object not included in the sensor data. For example, when the first vehicle 122 cannot obtain sensor data for the pedestrian 800 through at least one sensor, the first vehicle 122 does not recognize the pedestrian 800. Failure to do so may result in an unexpected accident related to the first vehicle 122 . In order to prevent the above situation, the infrastructure device 700 may share sensor data regarding the pedestrian 800 that cannot be obtained from the first vehicle 122 to the first vehicle 122 .

도 37은 일 실시예에 따른 제1 차량이 공유 받은 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.37 is a diagram for explaining a method of processing a first point data set and a second point data set shared by the first vehicle according to an exemplary embodiment;

도 37을 참조하면, 상기 제1 차량(122)의 컨트롤러는 제2 포인트 데이터 셋(2100) 및 공유 받은 제1 포인트 데이터 셋(3100)을 각각 이용하여 상기 제1 차량(122)의 센서의 시야각 내에 포함되는 적어도 하나의 객체를 인식할 수 있다.Referring to FIG. 37 , the controller of the first vehicle 122 uses a second point data set 2100 and a shared first point data set 3100 to respectively use the viewing angle of the sensor of the first vehicle 122 . At least one object included therein may be recognized.

구체적으로, 상기 제1 차량(122)에 포함된 컨트롤러(1100)는 상기 제2 포인트 데이터 셋(2100)에 포함된 제3 서브 포인트 데이터 셋(2110)을 기초로 제3 속성 데이터(2201)를 생성할 수 있다. Specifically, the controller 1100 included in the first vehicle 122 generates third attribute data 2201 based on the third sub-point data set 2110 included in the second point data set 2100. can create

여기서, 상기 속성 데이터(2201)는 상기 제3 서브 포인트 데이터 셋(2110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.Here, the attribute data 2201 may include class information, center location information, and size information of the second vehicle 123 indicated by the third sub-point data set 2110, but is not limited thereto.

또한, 상기 컨트롤러(1100)는 상기 인프라 장치(700)로부터 수신한 제1 포인트 데이터 셋(3100)에 포함된 상기 제 1 서브 포인트 데이터 셋(3110) 및 상기 제2 서브 포인트 데이터 셋(3120)을 기초로 제1 속성 데이터(3201) 및 제2 속성 데이터(3202)를 생성할 수 있다. 이때, 상기 제1 속성 데이터(3201)는 상기 제1 서브 포인트 데이터 셋(3110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 제2 속성 데이터(3202)는 상기 제2 서브 포인트 데이터 셋(3120)이 나타내는 상기 보행자(800)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the controller 1100 receives the first sub-point data set 3110 and the second sub-point data set 3120 included in the first point data set 3100 received from the infrastructure device 700 . Based on the first attribute data 3201 and the second attribute data 3202 may be generated. In this case, the first attribute data 3201 may include class information, center location information, size information, etc. of the second vehicle 123 indicated by the first sub-point data set 3110, but is not limited thereto. does not Also, the second attribute data 3202 may include class information, center location information, size information, etc. of the pedestrian 800 indicated by the second sub-point data set 3120 , but is not limited thereto.

도 38은 다른 일 실시예에 따른 제1 차량이 공유 받은 포인트 데이터 셋 및 제2포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.38 is a view for explaining a method of processing a shared point data set and a second point data set by the first vehicle according to another exemplary embodiment;

도 38을 참조하면, 상기 제1 차량(122)의 컨트롤러는 제2 포인트 데이터 셋(2100) 및 공유 받은 제1 포인트 데이터 셋(3100)을 이용해 제3 포인트 데이터 셋(4100)을 생성하여 센서의 시야각 내에 포함되는 적어도 하나의 객체를 인식할 수 있다.Referring to FIG. 38 , the controller of the first vehicle 122 generates a third point data set 4100 by using a second point data set 2100 and a shared first point data set 3100, At least one object included in the viewing angle may be recognized.

이때, 상기 제3 포인트 데이터 셋(4100)은 공유 받은 상기 제1 포인트 데이터 셋(3100)의 좌표계를 상기 제2 포인트 데이터 셋(2100)의 좌표계에 정렬함으로써 생성될 수 있다. 좌표계 정렬과 관련된 상세한 내용은 하기(목차 3.4.2.)에서 설명한다.In this case, the third point data set 4100 may be generated by aligning the shared coordinate system of the first point data set 3100 with the coordinate system of the second point data set 2100 . Details related to coordinate system alignment are described below (Table of Contents 3.4.2.).

또한, 상기 제3 포인트 데이터 셋(4100)은 상기 제2 차량(123)를 나타내는 제4 서브 포인트 데이터 셋(4110) 및 상기 보행자(800)를 나타내는 제5 서브 포인트 데이터 셋(4120)을 포함할 수 있다. In addition, the third point data set 4100 may include a fourth sub point data set 4110 representing the second vehicle 123 and a fifth sub point data set 4120 representing the pedestrian 800 . can

또한, 상기 컨트롤러(1100)는 상기 제4 서브 포인트 데이터 셋(4110)을 기초로 제4 속성 데이터(4201)를 생성할 수 있고, 상기 제5 서브 포인트 데이터 셋(4120)을 기초로 제5 속성 데이터(4202)를 생성할 수 있다. 이때, 상기 제4 속성 데이터(4201)는 상기 제4 서브 포인트 데이터 셋(4110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 제5 속성 데이터(4202)는 상기 제5 서브 포인트 데이터 셋(4120)이 나타내는 상기 보행자(800)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller 1100 may generate fourth attribute data 4201 based on the fourth sub-point data set 4110 and a fifth attribute based on the fifth sub-point data set 4120 . Data 4202 may be generated. In this case, the fourth attribute data 4201 may include class information, center location information, size information, etc. of the second vehicle 123 indicated by the fourth sub-point data set 4110, but is not limited thereto. does not Also, the fifth attribute data 4202 may include class information, center location information, and size information of the pedestrian 800 indicated by the fifth sub-point data set 4120 , but is not limited thereto.

3.4.1.2. 속성 데이터를 수신한 경우 3.4.1.2. When property data is received

도 39는 일 실시예에 따른 공유 데이터의 컨텐츠에 속성 데이터가 포함되는 상황을 설명하기 위한 도면이다.39 is a diagram for explaining a situation in which attribute data is included in content of shared data according to an embodiment.

도 39를 참조하면, 상기 인프라 장치(700)는 센서로부터 획득한 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋을 기초로 생성된 복수의 속성 데이터(3200)를 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다.Referring to FIG. 39 , the infrastructure device 700 transmits shared data 3000 including a plurality of attribute data 3200 generated based on a plurality of sub-point data sets included in a point data set obtained from a sensor. It can be transmitted to the first vehicle 122 .

상기 공유 데이터(3000)를 수신한 상기 제1 차량(122)의 컨트롤러(1100)는 상기 공유 데이터(3000)를 활용해 상기 제1 차량(122)를 제어할 수 있다. The controller 1100 of the first vehicle 122 that has received the shared data 3000 may control the first vehicle 122 by using the shared data 3000 .

상기 복수의 속성 데이터(3200)를 포함하는 공유 데이터(3000)를 수신한 상기 제1 차량(122)이 상기 공유 데이터(3000)를 처리하는 방법과 관련된 상세한 내용은 하기(대목차 5)에서 설명한다.Details related to a method of processing the shared data 3000 by the first vehicle 122 that has received the shared data 3000 including the plurality of attribute data 3200 will be described below (Table of Contents 5). do.

3.4.1.3. 이벤트 발생 관련 정보를 수신했을 때3.4.1.3. When receiving event related information

다시 도 35를 참조하면, 통신 모듈을 포함하는 서버(400), 차량(122, 123), 인프라 장치(700)는 이벤트 발생 관련 정보를 포함하는 공유 데이터(3000)를 공유할 수 있다.Referring back to FIG. 35 , the server 400 including the communication module, the vehicles 122 and 123 , and the infrastructure device 700 may share the shared data 3000 including event occurrence related information.

예를 들어, 상기 서버(400)는 상기 제1 차량(122)의 경로 상에 트래픽 이벤트가 발생한 사실을 포함하는 이벤트 관련 정보를 상기 제1 차량(122)에 전송할 수 있다.For example, the server 400 may transmit event-related information including the fact that a traffic event has occurred on the path of the first vehicle 122 to the first vehicle 122 .

상기 이벤트 발생 관련 정보를 포함하는 공유 데이터(3000)를 수신한 상기 제1 차량(122)이 상기 공유 데이터(3000)를 처리하는 방법과 관련된 상세한 내용은 하기(목차 4.2.)에서 설명한다.Details related to a method in which the first vehicle 122 that has received the shared data 3000 including the event occurrence related information processes the shared data 3000 will be described below (Table of Contents 4.2.).

3.4.2. 공유 데이터 정합을 위한 좌표계 정렬(coordinate alignment)3.4.2. Coordinate alignment for shared data registration

제1 장치가 제2 장치로부터 공유 데이터를 수신한 경우, 상기 제1 장치의 컨트롤러(1100)상기 제1 장치에 배치된 센서로부터 획득한 센서 데이터와 상기 공유 데이터를 정합(data registration)하기 위해 상기 센서 데이터의 좌표계와 상기 공유 데이터의 좌표계를 일치시킬 수 있다.When the first device receives the shared data from the second device, the controller 1100 of the first device is configured to perform data registration with sensor data acquired from a sensor disposed in the first device and the shared data. It is possible to match the coordinate system of the sensor data with the coordinate system of the shared data.

이때, 상기 좌표계는 직교 좌표계, 극 좌표계, 원통 좌표계, 호모지니어스 좌표계, 곡선 좌표계, 경사 좌표계, 또는 로그-극 좌표계 등을 포함할 수 있으나, 이에 한정되지 않는다.In this case, the coordinate system may include, but is not limited to, a Cartesian coordinate system, a polar coordinate system, a cylindrical coordinate system, a homogeneous coordinate system, a curved coordinate system, an inclined coordinate system, or a log-polar coordinate system.

예를 들어, 제1 라이다 장치를 포함하는 제1 장치는 상기 제1 라이다 장치를통해 제1 센서 데이터를 획득할 수 있다. 또한 제2 라이다 장치를 포함하는 제2 장치는 상기 제2 라이다 장치를 통해 제2 센서 데이터를 획득할 수 있다. 이때, 상기 제1 라이다 장치는 제1 라이다 광학 원점을 원점으로 하는 제1 지역 좌표계(local coordinate)를 포함할 수 있다. 또한, 상기 제2 라이다 장치는 제2 라이다 광학 원점을 원점으로 하는 제2 지역 좌표계를 포함할 수 있다. For example, a first device including a first lidar device may acquire first sensor data through the first lidar device. Also, the second device including the second lidar device may acquire second sensor data through the second lidar device. In this case, the first lidar device may include a first local coordinate system having the first lidar optical origin as the origin. In addition, the second lidar device may include a second local coordinate system having a second lidar optical origin as an origin.

여기서, 상기 제2 장치의 컨트롤러가 상기 제1 장치에 상기 제2 센서 데이터를 포함하는 공유 데이터를 전송하는 경우, 상기 제1 장치의 컨트롤러는 상기 제1 지역 좌표계를 전역 좌표계(global coordinate)로 설정할 수 있다. 또한 상기 컨트롤러는 상기 제2 지역 좌표계 상에 나타나는 상기 제2 센서 데이터를 공유 받은 후, 이를 정합하기 위해, 상기 제2 지역 좌표계를 상기 전역 좌표계에 맞도록 정렬시킬 수 있다. 또한, 실시예에 따라, 상기 컨트롤러는 상기 제2 지역 좌표계를 상기 제1 지역 좌표계를 기준으로 정렬하거나, 상기 제1 지역 좌표계를 상기 제2 지역 좌표계를 기준으로 정렬시킬 수 있다. 물론, 상기 제1 지역 좌표계와 상기 제2 지역 좌표계가 동일할 수도 있다.Here, when the controller of the second device transmits the shared data including the second sensor data to the first device, the controller of the first device sets the first local coordinate system as a global coordinate system. can In addition, after receiving the second sensor data appearing on the second local coordinate system to be shared, the controller may align the second local coordinate system to match the global coordinate system in order to match it. Also, according to an embodiment, the controller may align the second regional coordinate system with respect to the first regional coordinate system or align the first regional coordinate system with respect to the second regional coordinate system. Of course, the first regional coordinate system and the second regional coordinate system may be the same.

또한, 상기 컨트롤러는 3차원 공간 상에서의 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시키기 위해, 이동(translation)에 대한 3차원 벡터와 회전(rotation)에 대한 3차원 벡터를 합해 총 6DOF의 변환 자유도를 가지는 4x4 변환 행렬(transformation matrix)을 계산할 수 있다. 또한, 상기 컨트롤러는 상기 변환 행렬을 이용하여 상기 제2 지역 좌표계에 나타나는 제2 센서 데이터를 상기 전역 좌표계에 나타낼 수 있다.In addition, in order to align the second local coordinate system in the 3D space with the global coordinate system, the controller adds a 3D vector for translation and a 3D vector for rotation, resulting in a total of 6DOF transformation degrees of freedom It is possible to calculate a 4x4 transformation matrix having . Also, the controller may represent the second sensor data appearing in the second local coordinate system in the global coordinate system by using the transformation matrix.

일 예로, 상기 제1 장치가 고정되어 있는 경우, 상기 제2 지역 좌표계와 상기 전역 좌표계의 정렬은 좌표계 사이의 변환 관계를 계산함으로써 수행될 수 있다. 즉, 상기 컨트롤러는 계산된 상기 변환 행렬을 이용하여 상기 제2 좌표계에 나타나는 센서 데이터를 상기 전역 좌표계로 변환해 통일된 좌표계에 나타낼 수 있다.For example, when the first device is fixed, the alignment of the second local coordinate system and the global coordinate system may be performed by calculating a transformation relationship between the coordinate systems. That is, the controller may convert the sensor data appearing in the second coordinate system into the global coordinate system using the calculated transformation matrix to display it in a unified coordinate system.

다른 예로, 상기 컨트롤러는 3차원 공간 상에서 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시키기 위해, 고유 형상을 가지는 제1 물체를 정렬의 기준으로 이용할 수 있다. 예를 들어, 상기 고유 형상은 상기 제1 물체 상에 3개의 평면이 만나는 형상을 포함할 수 있으나, 이에 한정되지 않는다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 지역 좌표계에 나타나는 제2 센서 데이터에 포함된 제1 물체와 상기 전역 좌표계에 나타나는 제1 센서 데이터에 포함된 상기 제1 물체의 고유 형상의 위치를 기준으로 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시킬 수 있다.As another example, in order to align the second local coordinate system with the global coordinate system in a 3D space, the controller may use a first object having a unique shape as a reference for alignment. For example, the intrinsic shape may include a shape in which three planes meet on the first object, but is not limited thereto. More specifically, the controller is configured to control the first object included in the second sensor data appearing in the second local coordinate system and the position of the intrinsic shape of the first object included in the first sensor data appearing in the global coordinate system based on the position of the controller. The second local coordinate system may be aligned with the global coordinate system.

구체적으로, 상기 컨트롤러는 상기 전역 좌표계에 나타나는 제1 물체와 상기 제2 지역 좌표계에 나타나는 제1 물체의 위치를 맞춰서 초기 위치를 생성할 수 있다. 이때, 상기 초기 위치는 서로 다른 센서 데이터에 포함된 상기 제1 물체의 고유 형상의 위치를 상기 전역 좌표계 상에 최초로 정렬시킴으로써 획득될 수 있다. 즉, 상기 초기 위치를 맞추는 과정은 좌표계의 초기 정렬로 이해될 수 있다. 또한, 상기 컨트롤러는 상기 전역 좌표계 상에서 나타나는 서로 다른 장치로부터 획득된 제1 물체의 위치 정보(예를 들어, 초기 위치)가 부정확한 경우, 최적화를 통해 상기 제1 물체의 위치 정보를 개선할 수 있다. 이때, 상기 컨트롤러는 상기 초기 위치의 최적화를 ICP(iterative closest point)알고리즘을 이용할 수 있으나, 이에 한정되지 않는다. Specifically, the controller may generate an initial position by matching the positions of the first object appearing in the global coordinate system and the first object appearing in the second local coordinate system. In this case, the initial position may be obtained by first aligning the position of the intrinsic shape of the first object included in the different sensor data on the global coordinate system. That is, the process of adjusting the initial position may be understood as initial alignment of the coordinate system. In addition, when the position information (eg, initial position) of the first object obtained from different devices appearing on the global coordinate system is inaccurate, the controller may improve the position information of the first object through optimization . In this case, the controller may use an iterative closest point (ICP) algorithm to optimize the initial position, but is not limited thereto.

3.5. 공유 데이터를 이용한 차량 제어3.5. Vehicle control using shared data

공유 데이터를 수신한 차량에 포함되는 컨트롤러는 상기 공유 데이터 및 상기 차량의 센서로부터 획득한 센서 데이터를 이용하여 상기 차량을 제어할 수 있다. 이때, 목차 2.3.1. 내지 목차 2.3.3.에 기재된 센서 데이터를 이용한 차량 제어의 실시예는 공유 데이터를 이용해서 동일한 차량 제어를 실시할 수 있음은 물론이다.A controller included in the vehicle receiving the shared data may control the vehicle using the shared data and sensor data obtained from a sensor of the vehicle. At this time, Table of Contents 2.3.1. It goes without saying that the embodiment of vehicle control using sensor data described in Table of Contents 2.3.3. may perform the same vehicle control using shared data.

구체적으로, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 상기 차량에 포함된 고정밀 지도에 매칭시켜 디스플레이할 수 있다.Specifically, the controller may display the shared data received from another device by matching it with a high-precision map included in the vehicle.

또한, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 이용해 상기 차량의 방향 및 속도를 제어할 수 있다.In addition, the controller may control the direction and speed of the vehicle using the shared data received from other devices.

또한, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 이용해 상기 차량의 경로를 제어할 수 있다.In addition, the controller may control the route of the vehicle using the shared data received from another device.

4. 센서 데이터의 선별적 공유4. Selective sharing of sensor data

4.1. 속성 데이터에 따른 센서 데이터의 선별적 공유4.1. Selective sharing of sensor data according to attribute data

일 실시예에 따른 데이터 공유 시스템은 제1 장치 및 제2 장치를 포함할 수 있다. 또한, 상기 제1 장치는 공유 데이터를 상기 제2 장치로 전송할 수 있다.A data sharing system according to an embodiment may include a first device and a second device. Also, the first device may transmit shared data to the second device.

이때, 상기 제1 장치에서 전송하는 공유 데이터의 컨텐츠는 상기 제1 장치에서 획득된 센서 데이터에 포함되는 객체 인식 결과에 따라 상이할 수 있다. 여기서, 상기 객체 인식 결과는 상기 객체에 대한 클래스 정보를 의미할 수 있다. In this case, the content of the shared data transmitted from the first device may be different according to an object recognition result included in the sensor data acquired by the first device. Here, the object recognition result may mean class information about the object.

예를 들어, 상기 클래스 정보에 포함된 객체의 클래스가 건물과 관련되는 경우, 상기 공유 데이터의 컨텐츠는 상기 건물을 나타내는 서브 포인트 데이터 셋을 포함할 수 있다. 또한, 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호 받아야할 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 객체를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다.For example, when the class of the object included in the class information is related to a building, the content of the shared data may include a sub-point data set indicating the building. In addition, when the class of the object included in the class information is a class to be protected by personal information, the content of the shared data may include attribute data of a sub-point data set representing the object.

여기서, 개인 정보를 보호받아야 할 클래스는 사람, 차량 번호판, 신분증 등 개인 정보가 노출될 가능성이 있는 클래스를 의미하는 것으로, 개인 정보를 보호받아야 할 클래스는 컨트롤러에 의해 미리 정해질 수 있다.Here, the class for which personal information should be protected means a class in which personal information such as a person, license plate, and ID card is likely to be exposed, and the class for which personal information should be protected may be predetermined by the controller.

즉, 상기 제1 장치의 컨트롤러는 센서 데이터에 포함되는 객체의 클래스 정보에 따라 선별적으로 공유 데이터를 생성할 수 있다.That is, the controller of the first device may selectively generate shared data according to class information of an object included in the sensor data.

4.1.1. 속성 데이터에 따른 센서 데이터의 선별적 공유의 필요성4.1.1. The need for selective sharing of sensor data according to attribute data

일 실시예에 따른 데이터 공유 시스템에서, 복수의 장치 사이에 개인 정보와 관련된 데이터가 무작위로 공유되는 경우, 프라이버시가 부당하게 침해되는 상황이 발생할 수 있다. 예를 들어, 사람의 얼굴이 포함된 사진을 어떠한 가공 없이 다른 장치에 전송하는 경우, 사람의 얼굴과 관련된 형상 및 색상 정보가 공유됨에 따라 사람의 프라이버시가 침해될 수 있다. In the data sharing system according to an embodiment, when data related to personal information is randomly shared between a plurality of devices, a situation in which privacy is unfairly violated may occur. For example, when a photo including a human face is transmitted to another device without any processing, the person's privacy may be violated as shape and color information related to the human face is shared.

또한, 상기 센서가 라이다 장치인 경우에도 프라이버시 침해 문제가 발생할 수 있다. 보다 구체적으로, 상기 라이다 장치로부터 획득되는 센서 데이터는 객체에 대한 인텐시티 정보를 포함할 수 있다. 여기서, 상기 인텐시티 정보는 객체의 반사율에 따라 상이한 인텐시티 값을 포함하기 때문에, 상기 라이다 장치와 연결된 컨트롤러는 상기 인텐시티 정보를 이용해 사람의 얼굴을 판별할 수 있다. 이에 따라, 복수의 장치 사이에 상기 라이다 장치로부터 획득된 센서 데이터를 가공 없이 공유하는 경우에도, 프라이버시 침해 문제가 발생할 수 있다. 이에 따라, 상기 센서 데이터를 공유하기 전에, 객체의 클래스에 따라 센서 데이터를 선별적으로 공유하는 방법이 필요할 수 있다. In addition, even when the sensor is a lidar device, privacy infringement may occur. More specifically, the sensor data obtained from the lidar device may include intensity information on the object. Here, since the intensity information includes different intensity values according to reflectance of an object, the controller connected to the lidar device may use the intensity information to determine a person's face. Accordingly, even when the sensor data obtained from the lidar device is shared between a plurality of devices without processing, a privacy problem may occur. Accordingly, before sharing the sensor data, a method of selectively sharing sensor data according to an object class may be required.

다른 일 실시예에 따른 데이터 공유 시스템에서, 고정밀 지도를 생성하는 장치가 상기 고정밀 지도를 효율적으로 갱신하기 위해, 적어도 하나의 센서를 포함하는 장치는 센서 데이터를 선별적으로 공유할 수 있다. 일 실시예에서, 초기에 생성되는 고정밀 지도는 사람과 같은 이동형 객체에 대한 센서 데이터가 아닌 건물과 같은 고정형 객체에 대한 센서 데이터를 필요로 할 수 있다. 이에 따라, 상기 센서 데이터를 전송하는 장치는 센서 데이터 중 고정형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다. In a data sharing system according to another embodiment, in order for the device for generating a high-precision map to efficiently update the high-precision map, a device including at least one sensor may selectively share sensor data. In an embodiment, the initially generated high-precision map may require sensor data for a stationary object, such as a building, rather than sensor data for a mobile object, such as a person. Accordingly, the device transmitting the sensor data may select only data related to a fixed object from among the sensor data and transmit it to the device generating the high-precision map.

또 다른 일 실시예에 따른 데이터 공유 시스템에서, 고정밀 지도에 고정형 객체에 대한 정보가 미리 저장될 수 있다. 이 경우, 상기 센서 데이터를 전송하는 장치는 센서 데이터 중 이동형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다. 이때, 상기 고정밀 지도를 생성하는 장치는 미리 저장된 고정형 객체에 대한 정보에 대하여 이동형 객체와 관련된 데이터를 추가적으로 획득함으로써, 고정형 객체 및 이동형 객체를 모두 포함하는 고정밀 지도를 생성할 수 있다.In a data sharing system according to another embodiment, information on a fixed object may be previously stored in a high-precision map. In this case, the device for transmitting the sensor data may select only data related to the movable object from among the sensor data and transmit it to the device for generating the high-precision map. In this case, the apparatus for generating the high-precision map may generate a high-precision map including both the fixed object and the movable object by additionally acquiring data related to the movable object with respect to the information about the fixed object stored in advance.

4.1.2. 프라이버시 보호 데이터를 포함하는 공유 데이터의 선별적 공유 방법의 다양한 실시예들4.1.2. Various embodiments of a method for selectively sharing shared data including privacy protection data

전술한 프라이버시 침해 문제를 해결하기 위해 상기 공유 데이터는 프라이버시 보호 데이터를 포함할 수 있다. 여기서, 상기 프라이버시 보호 데이터는 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 개인 정보 식별과 관련되는 부분을 가공한 데이터일 수 있다. 상기 프라이버시 보호 데이터와 관련된 상세한 내용은 하기(목차 4.1.2.1.3.)에서 설명한다.In order to solve the aforementioned privacy infringement problem, the shared data may include privacy protection data. Here, the privacy protection data may be data obtained by processing a portion related to identification of personal information among a plurality of sub-point data sets included in the point data set. Details related to the privacy protection data will be described below (Table of Contents 4.1.2.1.3.).

4.1.2.1. 일 실시예에 따른 선별적 공유 방법4.1.2.1. Selective sharing method according to an embodiment

일 실시예에 따른 데이터 공유 시스템은 통신을 위한 적어도 하나의 통신 모듈을 포함하는 제1 장치 및 제2 포함할 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.A data sharing system according to an embodiment may include a first device and a second device including at least one communication module for communication. In this case, the first device and the second device may include, but are not limited to, a vehicle, a server, an infrastructure device, or a mobile device.

도 40은 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 나타내는 흐름도이다.40 is a flowchart illustrating a method for selectively sharing sensor data according to an embodiment.

도 40을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋(2100)을 획득할 수 있다(S5001). 이때, 상기 포인트 데이터 셋(2100)은 라이다 장치를 통해 획득한 포인트 클라우드에 대응될 수 있다. 또한, 상기 제1 장치는 차량, 인프라 장치, 서버, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 40 , the controller of the first device may acquire a point data set 2100 through at least one sensor ( S5001 ). In this case, the point data set 2100 may correspond to a point cloud obtained through a lidar device. In addition, the first device may include a vehicle, an infrastructure device, a server, a mobile device, and the like, but is not limited thereto.

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5002). Also, the controller may determine attribute data of a plurality of sub-point data sets included in the point data set (S5002).

또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋이 나타내는 각각의 객체의 클래스 정보를 결정할 수 있다(S5003). Also, the controller may determine class information of each object indicated by the plurality of sub-point data sets (S5003).

또한, 상기 컨트롤러는 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인지 여부에 따라 공유 데이터의 컨텐츠가 달라질 수 있다 (S5004). In addition, the controller may change the content of the shared data according to whether the class of the object included in the class information is a class for which personal information should be protected (S5004).

또한, 상기 컨트롤러는 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인 경우, 프라이버시 보호 데이터를 포함하는 공유 데이터를 생성할 수 있고(S5005), 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우, 프라이버시 보호 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다(S5006). In addition, when the class of the object included in the class information is a class for which personal information should be protected, the controller may generate shared data including privacy protection data (S5005), and If the class is not a class that requires protection of personal information, shared data that does not include privacy protection data may be generated (S5006).

또한, 상기 컨트롤러는 생성된 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5007).Also, the controller may transmit the generated shared data to the second device (S5007).

상기 제1 장치가 상기 제1 차량(124) 경우, 도 40에 나열된 각각의 단계에 대한 상세한 내용은 아래에서 설명한다.When the first device is the first vehicle 124, details of each step listed in FIG. 40 will be described below.

4.1.2.1.1. 센서 데이터의 획득4.1.2.1.1. Acquisition of sensor data

다시 도 40을 참조하면, 상기 제1 차량(124)의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5001). 이때, 상기 포인트 데이터 셋은 복수의 포인트 데이터를 포함할 수 있다. 또한 상기 포인트 데이터 셋은 객체의 적어도 일부를 나타내는 복수의 서브 포인트 데이터 셋을 포함할 수 있다. 또한, 상기 적어도 하나의 센서는 라이다 장치, 카메라 장치, 레이다 장치, 또는 초음파 센서 등을 포함할 수 있으나, 이에 한정되지 않는다. Referring back to FIG. 40 , the controller of the first vehicle 124 may acquire a point data set through at least one sensor ( S5001 ). In this case, the point data set may include a plurality of point data. In addition, the point data set may include a plurality of sub-point data sets representing at least a part of an object. In addition, the at least one sensor may include a lidar device, a camera device, a radar device, or an ultrasonic sensor, but is not limited thereto.

도 41은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.41 is a diagram illustrating a situation in which the first vehicle acquires sensor data for selective sharing of sensor data according to an exemplary embodiment.

도 42는 도 41에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.FIG. 42 is a diagram schematically expressing sensor data obtained by the first vehicle through a lidar device in FIG. 41 on a two-dimensional plane.

도 41 및 도 42를 참조하면, 상기 제1 차량(124)의 컨트롤러는 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2111, 2112)을 포함하는 포인트 데이터 셋(2101)을 획득할 수 있다. 41 and 42 , the controller of the first vehicle 124 may acquire a point data set 2101 including a plurality of sub-point data sets 2111 and 2112 through at least one sensor. .

이때, 상기 제1 차량(124)의 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함된 복수의 서브 포인트 데이터 셋(2111, 2112)을 추출하고, 상기 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보를 포함하는 속성 데이터를 결정할 수 있다(S5002, S5003). At this time, the controller of the first vehicle 124 extracts a plurality of sub-point data sets 2111 and 2112 included in the point data set 2101, and Attribute data including class information may be determined (S5002, S5003).

구체적으로, 상기 컨트롤러는 상기 포인트 데이터 셋(2101)에서 제3 차량(126)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2111) 및 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2112)을 추출할 수 있다. Specifically, in the point data set 2101 , the controller includes a first sub-point data set 2111 representing at least a part of the third vehicle 126 and a second sub-point data set representing at least a part of the pedestrian 800 . (2112) can be extracted.

또한, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2111) 및 상기 제2서브 포인트 데이터 셋(2112)을 목차 2.2.3.에 기재된 방식으로 획득할 수 있다.Also, the controller may acquire the first sub-point data set 2111 and the second sub-point data set 2112 in the manner described in Table of Contents 2.2.3.

도 43은 일 실시예에 따른 센서 데이터에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터 및 클래스 정보를 나타내는 도면이다.43 is a diagram illustrating attribute data and class information of a plurality of sub-point data sets included in sensor data according to an embodiment.

도 43을 참조하면, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2111, 2112)을 기초로, 각각의 서브 포인트 데이터 셋에 대응하는 복수의 속성 데이터(2201, 2202)를 결정할 수 있다. Referring to FIG. 43 , the controller may determine a plurality of attribute data 2201 and 2202 corresponding to each sub-point data set based on the plurality of sub-point data sets 2111 and 2112 .

보다 구체적으로, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2111)을 기초로 제1 클래스 정보(2211)를 포함하는 제1 속성 데이터(2201)를 결정할 수 있다. 이때, 상기 제1 클래스 정보(2211)는 '차량(Vehicle)'으로 나타날 수 있으나, 이에 한정되지 않고 '승용차' 등 차량에 대한 하위 클래스로 결정될 수 있다. More specifically, the controller may determine the first attribute data 2201 including the first class information 2211 based on the first sub-point data set 2111 . In this case, the first class information 2211 may appear as a 'vehicle', but is not limited thereto and may be determined as a subclass of a vehicle, such as a 'passenger vehicle'.

또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2120)을 기초로 제2 클래스 정보(2212)를 포함하는 제2 속성 데이터(2202)를 결정할 수 있다. 이때, 상기 제2 클래스 정보(2212)는 '사람(Human)'으로 나타날 수 있으나, 이에 한정되지 않고 '보행자(Pedestrian)' 등 사람에 대한 하위 클래스로 결정될 수 있다.Also, the controller may determine the second attribute data 2202 including the second class information 2212 based on the second sub-point data set 2120 . In this case, the second class information 2212 may appear as 'Human', but is not limited thereto and may be determined as a subclass of a person such as 'Pedestrian'.

또한, 상기 컨트롤러는 상기 복수의 클래스 정보(2211, 2212)를 포함하는 복수의 속성 데이터(2201, 2202)를 목차 2.2.4.에 기재된 방식으로 획득할 수 있다. Also, the controller may acquire the plurality of attribute data 2201 and 2202 including the plurality of class information 2211 and 2212 in the manner described in Table of Contents 2.2.4.

4.1.2.1.2. 공유 데이터의 선별적 생성 및 공유4.1.2.1.2. Selective creation and sharing of shared data

또한, 상기 컨트롤러는 상기 센서 데이터(2000)를 제2 장치에 전송하기 위해, 공유 데이터(3000)를 생성할 수 있다. Also, the controller may generate the shared data 3000 to transmit the sensor data 2000 to the second device.

이때, 프라이버시와 관련되는 데이터를 공유하지 않기 위해, 상기 공유 데이터의 컨텐츠를 결정하기 위한 기준이 필요할 수 있다. 예를 들어, 상기 공유 데이터(3000)는 상기 센서 데이터(2000)에 포함되는 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보에 따라 상이하게 생성될 수 있다. 여기서, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 복수의 속성 데이터(2201, 2202)를 기초로 상기 공유 데이터의 컨텐츠를 결정할 수 있다.In this case, in order not to share data related to privacy, a criterion for determining the content of the shared data may be required. For example, the shared data 3000 may be generated differently according to class information of a plurality of sub-point data sets 2111 and 2112 included in the sensor data 2000 . Here, the controller may determine the content of the shared data according to whether the class information is related to identification of personal information. Also, the present invention is not limited thereto, and the controller may determine the content of the shared data based on the plurality of attribute data 2201 and 2202 .

도 44는 일 실시예에 따른 제1 차량이 전송하는 공유 데이터에 포함되는 공유 데이터의 컨텐츠를 나타내는 도면이다.44 is a diagram illustrating content of shared data included in shared data transmitted by a first vehicle according to an exemplary embodiment.

도 44를 참조하면, 상기 제1 차량(124)의 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함되는 복수의 객체의 클래스 정보에 기초하여 공유 데이터의 컨텐츠를 결정할 수 있다.Referring to FIG. 44 , the controller of the first vehicle 124 may determine content of shared data based on class information of a plurality of objects included in the point data set 2101 .

또한, 상기 컨트롤러는 상기 속성 데이터가 개인 정보 식별과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 보다 구체적으로, 상기 컨트롤러는 클래스 정보에 포함되는 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인지 여부에 따라 공유 데이터의 컨텐츠를 결정할 수 있다.Further, the controller may determine the content of the shared data according to whether the attribute data relates to personal information identification. More specifically, the controller may determine the content of the shared data according to whether the class of the object included in the class information is a class for which personal information should be protected.

일 예로, 상기 컨트롤러는 상기 클래스 정보가 사람과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 이때, 상기 컨트롤러는 사람의 얼굴 부분을 나타내는 적어도 하나의 포인트 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다. 또한, 상기 컨트롤러는 상기 사람의 얼굴 부분을 나타내는 적어도 하나의 포인트 데이터를 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다.For example, the controller may determine the content of the shared data according to whether the class information relates to a person. In this case, the controller may generate the shared data that does not include at least one point data representing the face of the person. Also, the controller may generate shared data including data obtained by processing at least one point data representing the face of the person.

다른 예로, 상기 컨트롤러는 상기 공유 데이터의 컨텐츠에 차량과 관련된 센서 데이터 중 차량 번호판과 관련된 데이터를 포함하지 않을 수 있다. 또한, 상기 컨트롤러는 상기 차량의 번호판 부분을 나타내는 적어도 하나의 포인트 데이터를 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다.As another example, the controller may not include the vehicle license plate-related data among the vehicle-related sensor data in the content of the shared data. In addition, the controller may generate shared data including data processed by at least one point data representing the license plate portion of the vehicle.

또한, 상기 컨트롤러는 객체의 클래스 정보가 개인 정보와 관련되는 클래스군에 포함되는 적어도 하나의 클래스에 매칭되는지 여부에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 이때, 상기 클래스군은 미리 설정된 기준을 만족하는 적어도 하나의 클래스를 포함하는 클래스의 집단일 수 있다. 예를 들어, 개인 정보와 관련되는 클래스군은 사람과 관련된 클래스, 번호판과 관련된 클래스, 또는 신분증과 관련된 클래스 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, the controller may determine the content of the shared data according to whether class information of the object matches at least one class included in a class group related to personal information. In this case, the class group may be a group of classes including at least one class that satisfies a preset criterion. For example, the class group related to personal information may include a class related to a person, a class related to a license plate, or a class related to an identification card, but is not limited thereto.

예를 들어, 상기 컨트롤러는 적어도 하나의 센서를 통해 획득한 객체의 클래스 정보를 '사람'으로 결정한 경우, 상기 객체에 대한 정보를 공유하기 위한 공유 데이터의 컨텐츠에 상기 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다. 또한, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋 중 사람의 얼굴과 관련된 부분을 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다. For example, when the controller determines that the class information of the object acquired through at least one sensor is 'person', a sub-point indicating at least a part of the object in content of shared data for sharing information on the object Data sets may not be included. In addition, the present invention is not limited thereto, and shared data including data obtained by processing a part of the sub-point data set related to a person's face may be generated.

또한, 상기 제1 차량(124)는 제2 장치에 공유 데이터 전송할 수 있다(S5007). 이때, 상기 제2 장치는 차량(125, 126), 서버(400), 인프라 장치(700), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, the first vehicle 124 may transmit shared data to the second device (S5007). In this case, the second device may include, but is not limited to, the vehicles 125 and 126 , the server 400 , the infrastructure device 700 , and a mobile device.

예를 들어, 다시 도 44를 참조하면, 상기 제2 장치가 제2 차량(125)인 경우, 상기 제1 차량(124)은 상기 제2 차량(125)에 상기 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 프라이버시 보호 데이터(3300) 및 상기 제1 서브 포인트 데이터 셋(2111)등을 포함할 수 있으나, 이에 한정되지 않는다. For example, referring back to FIG. 44 , when the second device is the second vehicle 125 , the first vehicle 124 may transmit the shared data 3000 to the second vehicle 125 . have. In this case, the content of the shared data may include the privacy protection data 3300 and the first sub-point data set 2111, but is not limited thereto.

이때, 상기 공유 데이터의 컨텐츠는 상기 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보에 기초하여 결정될 수 있다. 구체적으로, 상기 제3 차량(126)의 적어도 일부를 나타내는 상기 제1 서브 포인트 데이터 셋의 클래스 정보(2211)가 차량과 관련되므로, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋(2111)을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 차량의 번호판이 개인 정보 식별과 관련될 수 있으므로, 상기 차량의 번호판을 나타내는 적어도 하나의 포인트 데이터를 가공한 프라이버시 보호 데이터를 포함할 수도 있다.In this case, the content of the shared data may be determined based on class information of the plurality of sub-point data sets 2111 and 2112 . Specifically, since class information 2211 of the first sub-point data set representing at least a part of the third vehicle 126 is related to a vehicle, the content of the shared data is the first sub-point data set 2111 may include In addition, the content of the shared data is not limited thereto, and since the license plate of the vehicle may be related to identification of personal information, it may include privacy protection data obtained by processing at least one point data indicating the license plate of the vehicle.

또한, 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋의 클래스 정보는 개인 정보를 보호 받아야할 클래스인 사람과 관련되므로, 상기 공유 데이터의 컨텐츠는 상기 프라이버시 보호 데이터(3300)를 포함할 수 있다. In addition, since the class information of the second sub-point data set representing at least a part of the pedestrian 800 is related to a person who is a class to be protected by personal information, the content of the shared data includes the privacy protection data 3300 may include

4.1.2.1.3. 프라이버시 보호 데이터 4.1.2.1.3. Privacy Protection Data

또한, 상기 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함되는 적어도 하나의 서브 포인트 데이터 셋의 클래스 정보에 포함되는 클래스가 개인 정보를 보호받아야 할 클래스인 경우, 프라이버시 보호 데이터(3300)를 포함하는 공유 데이터(3000)를 생성할 수 있다(S5005). In addition, when the class included in the class information of at least one sub-point data set included in the point data set 2101 is a class for which personal information should be protected, the controller shares the privacy protection data 3300 including Data 3000 may be generated (S5005).

이때, 상기 컨트롤러는 개인 정보 식별과 관련된 데이터를 공유하지 않기 위해 상기 프라이버시 보호 데이터(3300)를 생성할 수 있다. 다시 말해, 상기 프라이버시 보호 데이터(3300)는 프라이버시 보호 목적으로 생성될 수 있다. In this case, the controller may generate the privacy protection data 3300 in order not to share data related to personal information identification. In other words, the privacy protection data 3300 may be generated for the purpose of privacy protection.

또한, 상기 프라이버시 보호 데이터(3300)는 개인 정보 식별과 관련된 데이터를 포함하지 않을 수 있다. 보다 구체적으로, 상기 서브 포인트 데이터 셋은 객체의 인텐시티 정보를 포함하므로, 상기 서브 포인트 데이터 셋은 개인 정보 식별과 관련된 데이터일 수 있다. 이에 따라, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋 중 개인 정보 식별과 관련된 부분을 포함하지 않을 수 있다. 또한, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다. 또한, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋 중 개인 정보 식별과 관련된 부분을 가공한 데이터를 포함할 수 있다.Also, the privacy protection data 3300 may not include data related to identification of personal information. More specifically, since the sub-point data set includes intensity information of an object, the sub-point data set may be data related to identification of personal information. Accordingly, the privacy protection data 3300 may not include a portion related to personal information identification among the sub-point data set. Also, the privacy protection data 3300 may include attribute data of the sub-point data set. Also, the privacy protection data 3300 may include data obtained by processing a portion related to personal information identification among the sub-point data set.

도 45는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 프라이버시 보호 데이터를 설명하기 위한 도면이다.45 is a diagram for explaining privacy protection data included in content of shared data according to an embodiment.

도 45를 참조하면, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)을 기초로 생성된 제2 속성 데이터(2202)를 포함할 수 있다. Referring to FIG. 45 , the privacy protection data 3300 may include second attribute data 2202 generated based on the second sub-point data set 2112 .

예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 중심 위치를 나타내는 중심 위치 정보(2221)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)에 포함된 복수의 포인트 데이터들의 중심 좌표를 나타내는 상기 중심 위치 정보(2221)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.For example, the privacy protection data 3300 may include center location information 2221 indicating the center location of the pedestrian 800 . More specifically, the controller may generate the privacy protection data 3300 including the center location information 2221 indicating the center coordinates of a plurality of point data included in the second sub point data set 2112 . .

또한, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 크기를 나타내는 사이즈 정보(2231)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)이 나타내는 상기 보행자(800)의 볼륨값을 나타내는 상기 사이즈 정보(2231)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.Also, the privacy protection data 3300 may include size information 2231 indicating the size of the pedestrian 800 . More specifically, the controller may generate the privacy protection data 3300 including the size information 2231 indicating the volume value of the pedestrian 800 indicated by the second sub-point data set 2112 .

또한, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 형상을 가공하여 나타낸 형상 정보(2240)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)의 클래스 정보에 따라 상기 제2 서브 포인트 데이터 셋(2112)을 미리 결정된 템플릿 정보(2241)로 대체한 프라이버시 보호 데이터(3300)를 생성할 수 있다. 또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)을 적어도 하나의 포인트로 나타낸 스켈레톤 정보(2242)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.In addition, the privacy protection data 3300 may include shape information 2240 representing the shape of the pedestrian 800 by processing. More specifically, the controller replaces the second sub-point data set 2112 with predetermined template information 2241 according to the class information of the second sub-point data set 2112. Privacy protection data 3300 can create Also, the controller may generate the privacy protection data 3300 including the skeleton information 2242 representing the second sub-point data set 2112 as at least one point.

또한, 이에 한정되지 않고, 상기 프라이버시 보호 데이터(3300)는 상기 제2 속성 데이터에 포함된 복수의 정보 중 적어도 일부를 포함할 수 있다. 예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보, 식별 정보, 클래스 정보 중 적어도 일부를 포함할 수 있으나, 이에 한정되지 않는다.Also, without being limited thereto, the privacy protection data 3300 may include at least a portion of a plurality of pieces of information included in the second attribute data. For example, the privacy protection data 3300 may include at least some of center location information, size information, movement information, shape information, identification information, and class information of the second sub-point data set, but is not limited thereto. does not

다시 도 45를 참조하면, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)의 적어도 일부를 가공한 데이터(3310)를 포함할 수 있다. Referring back to FIG. 45 , the privacy protection data 3300 may include data 3310 obtained by processing at least a portion of the second sub-point data set 2112 .

예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)에 포함된 복수의 포인트 데이터 중 적어도 일부를 모자이크처리한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 적어도 하나의 포인트 데이터를 모자이크 처리한 프라이버시 보호 데이터(3300)를 생성할 수 있다.For example, the privacy protection data 3300 may include data obtained by tessellating at least a portion of a plurality of point data included in the second sub-point data set 2112 . More specifically, the controller is a privacy protection data ( 3300) can be created.

또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2120) 중 적어도 일부를 블러 처리한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 적어도 하나의 포인트 데이터를 블러 처리한 프라이버시 보호 데이터(3300)를 생성할 수 있다.Also, the privacy protection data 3300 may include data obtained by blurring at least a portion of the second sub-point data set 2120 . More specifically, the controller is the privacy protection data ( 3300) can be created.

또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)중 적어도 일부에 노이즈 데이터를 추가한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 부분에 상기 노이즈 데이터를 추가한 프라이버시 보호 데이터(3300)를 생성할 수 있다.Also, the privacy protection data 3300 may include data obtained by adding noise data to at least a portion of the second sub-point data set 2112 . More specifically, in the second sub-point data set 2112 representing at least a part of the pedestrian 800, the controller is configured to add the noise data 3300 to the part related to the face of the pedestrian 800. ) can be created.

또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112) 중 적어도 일부를 제거한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 복수의 포인트 데이터 중 적어도 일부를 제거한 프라이버시 보호 데이터(3300)를 생성할 수 있다. Also, the privacy protection data 3300 may include data obtained by removing at least a portion of the second sub-point data set 2112 . More specifically, the controller removes at least a portion of the plurality of point data related to the face of the pedestrian 800 from the second sub-point data set 2112 representing at least a part of the pedestrian 800 privacy protection data ( 3300) can be created.

또한, 상기 프라이 버시 보호 데이터(3300)는 클래스가 개인 정보를 보호받아야 할 클래스인 객체를 나타내는 서브 포인트 데이터를 제거한 데이터를 포함할 수 있다. 예를 들어, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내느 상기 제2 서브 포인트 데이터 셋(2112)을 제거한 프라이버시 보호 데이터(3300)를 생성할 수 있다.In addition, the privacy protection data 3300 may include data from which sub-point data indicating an object whose class is a class for which personal information is to be protected. For example, the controller may generate the privacy protection data 3300 from which the second sub-point data set 2112 representing at least a part of the pedestrian 800 is removed.

또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112) 중 적어도 일부의 인텐시티 정보를 삭제한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112) 중 사람의 얼굴과 관련된 복수의 포인트 데이터의 인텐시티 값을 0으로 설정한 프라이버시 보호 데이터(3300)를 생성할 수 있다.Also, the privacy protection data 3300 may include data from which intensity information of at least a portion of the second sub-point data set 2112 is deleted. More specifically, the controller may generate the privacy protection data 3300 in which an intensity value of a plurality of point data related to a person's face among the second sub-point data set 2112 is set to 0.

또한, 센서가 카메라 장치인 경우, 상기 프라이버시 보호 데이터(3300)는 상기 카메라 장치의 픽셀 값을 임의로 설정한 데이터를 포함할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112) 중 상기 보행자(800)의 얼굴 부분을 나타내는 부분의 픽셀 값을 임의의 값으로 조정한 프라이버시 보호 데이터(3300)를 생성할 수 있다.Also, when the sensor is a camera device, the privacy protection data 3300 may include data in which pixel values of the camera device are arbitrarily set. For example, the controller may generate the privacy protection data 3300 obtained by adjusting the pixel value of the portion representing the face portion of the pedestrian 800 among the second sub-point data set 2112 to an arbitrary value. .

또한, 이에 한정되지 않고, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)의 적어도 일부를 소정의 데이터 처리 기술을 이용하여 가공한 데이터를 포함할 수 있다. 전술한 소정의 데이터 처리 기술은 해당 분야의 통상의 기술자가 사용할 수 있는 것으로, 소정의 데이터 처리 기술에 대한 상세한 설명은 생략한다.Also, without being limited thereto, the privacy protection data 3300 may include data obtained by processing at least a portion of the second sub-point data set 2112 using a predetermined data processing technology. The above-described predetermined data processing technology can be used by a person skilled in the art, and detailed description of the predetermined data processing technology will be omitted.

4.1.2.2. 다른 일 실시예에 따른 선별적 공유4.1.2.2. Selective sharing according to another embodiment

다른 일 실시예에 따른 데이터 공유 시스템은 공유 데이터를 전송하기 전에 외부 기관에 배치된 서버의 승인이 필요할 수 있다. 예를 들어, 센서 데이터 자체의 공유 여부에 대하여 외부 기관의 승인이 필요할 수도 있고, 센서 데이터에 포함된 개인 정보 식별과 관련된 데이터의 공유 여부에 대하여 외부 기관의 승인이 필요할 수도 있다. 이때, 상기 외부 기관은 정부 기관, 데이터 관리 기관등을 포함할 수 있으나, 이에 한정되지 않고, 상기 외부 기관은 서버를 통해 통신을 수행할 수 있다.The data sharing system according to another embodiment may require approval of a server disposed in an external organization before transmitting shared data. For example, approval from an external organization may be required for sharing of sensor data itself, or approval from an external organization may be required for sharing of data related to identification of personal information included in sensor data. In this case, the external institution may include, but is not limited to, a government institution, a data management institution, and the like, and the external institution may perform communication through a server.

도 46은 일 실시예에 따른 데이터 공유 시스템에서 외부 서버의 데이터 공유 승인이 있는지에 따른 선별적 데이터 공유 방법을 나타내는 흐름도이다. 46 is a flowchart illustrating a selective data sharing method according to whether there is data sharing approval from an external server in a data sharing system according to an embodiment.

도 46을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋(2100)을 획득할 수 있다(S5008). Referring to FIG. 46 , the controller of the first device may acquire a point data set 2100 through at least one sensor ( S5008 ).

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5009). Also, the controller may determine attribute data of a plurality of sub-point data sets included in the point data set ( S5009 ).

또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋이 나타내는 각각의 객체의 클래스 정보를 결정할 수 있다(S5010).Also, the controller may determine class information of each object indicated by the plurality of sub-point data sets (S5010).

또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋을 다른 장치로 전송하는 것에 대해 외부 서버의 승인이 있는지 여부를 판단할 수 있다(S5011). 이때, 상기 외부 서버는 상기 복수의 서브 포인트 데이터 셋을 전송함으로써 발생할 수 있는 프라이버시 침해 문제에도 불구하고 상기 복수의 서브 포인트 데이터 셋을 공유할 필요가 있는지 판단할 수 있다. 예를 들어, 상기 복수의 서브 포인트 데이터 셋 중 적어도 하나가 범죄 상황과 연루된 범죄자의 적어도 일부를 나타내는 경우, 상기 외부 서버는 상기 범죄자의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 공유하는 것에 대한 승인을 수행할 수 있다.In addition, the controller may determine whether there is an approval of the external server for transmitting the plurality of sub-point data sets to another device (S5011). In this case, the external server may determine whether it is necessary to share the plurality of sub-point data sets in spite of a privacy infringement problem that may occur by transmitting the plurality of sub-point data sets. For example, when at least one of the plurality of sub-point data sets indicates at least a part of a criminal involved in a criminal situation, the external server performs an authorization for sharing a sub-point data set indicating at least a part of the criminal can do.

또한, 상기 컨트롤러는 상기 외부 서버에 상기 공유 데이터의 전송에 대한 승인을 요청할 수 있다. 이 경우, 상기 컨트롤러는 개인 정보 식별과 관련되는 서브 포인트 데이터 셋을 상기 외부 서버에 전송하면서 상기 승인을 요청할 수 있다. 또한, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋의 속성 데이터(예를 들어, 클래스 정보)를 상기 외부 서버에 전송하면서 상기 승인을 요청할 수 있다. 또한, 상기 외부 서버는 승인 요청을 수신한 경우, 상기 공유 데이터의 전송을 승인할 지 여부를 판단할 수 있다.In addition, the controller may request the external server to approve the transmission of the shared data. In this case, the controller may request the approval while transmitting the sub-point data set related to personal information identification to the external server. Also, the present invention is not limited thereto, and the approval may be requested while transmitting attribute data (eg, class information) of the sub-point data set to the external server. In addition, when receiving the approval request, the external server may determine whether to approve the transmission of the shared data.

또한, 상기 외부 서버는 상기 컨트롤러의 승인 요청이 없는 경우에도, 상기 컨트롤러가 상기 공유 데이터를 전송하는 것에 대해 승인할 지 여부를 판단할 수 있다.Also, the external server may determine whether to approve the transmission of the shared data by the controller even when there is no request for approval from the controller.

또한, 상기 외부서버의 상기 공유 데이터의 전송에 대한 승인이 1회 있는 경우, 상기 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋이 나타내는 객체와 관련된 데이터 공유에 있어서는 더 이상 상기 외부 서버의 승인이 필요하지 않을 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 공유 데이터를 전송할 때 마다 상기 외부 서버의 승인을 획득할 수 있다.In addition, when the external server approves the transmission of the shared data once, the external server's approval is no longer required for data sharing related to the object indicated by the sub-point data set included in the content of the shared data. may not In addition, the present invention is not limited thereto, and the controller may obtain approval from the external server whenever the shared data is transmitted.

또한, 상기 컨트롤러는 상기 외부 서버의 승인이 있는 경우, 상기 복수의 서브 포인트 데이터 셋의 클래스 정보와 관계없이 상기 복수의 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5013). 예를 들어, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋에 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋이 포함되는 경우에도, 프라이버시 보호 데이터를 생성하지 않고 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다.Also, when there is approval of the external server, the controller may generate shared data including the plurality of sub-point data sets regardless of class information of the plurality of sub-point data sets (S5013). For example, even when the plurality of sub-point data sets include a sub-point data set representing at least a part of a person, the controller includes a sub-point data set representing at least a part of a person without generating privacy protection data shared data can be created.

또한, 상기 컨트롤러는 상기 외부 서버의 승인이 없는 경우, 상기 컨트롤러는 상기 클래스 정보에 포함되는 객체의 클래스가 개인 정보를 보호받아야 할 클래스인지 여부를 판단할 수 있다(S5012). In addition, when there is no approval of the external server, the controller may determine whether the class of the object included in the class information is a class to be protected by personal information ( S5012 ).

또한, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련된 경우 프라이버시 보호 데이터를 포함하는 공유 데이터를 생성할 수 있다(S5013).Also, when the class information is related to identification of personal information, the controller may generate shared data including privacy protection data (S5013).

또한, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련되지 않은 경우, 프라이버시 보호 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다(S5014). 여기서, 공유 데이터의 컨텐츠는 서브 포인트 데이터 셋을 포함할 수 있다. Also, when the class information is not related to identification of personal information, the controller may generate shared data that does not include privacy protection data (S5014). Here, the content of the shared data may include a sub-point data set.

또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5015). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may transmit the shared data to the second device (S5015). In this case, the second device may include, but is not limited to, a vehicle, a server, an infrastructure device, a mobile device, and the like.

4.1.2.3. 센서 배치 위치에 따른 프라이버시 보호 데이터 생성 여부4.1.2.3. Whether to generate privacy-preserving data based on sensor placement location

일 실시예에 따른 프라이버시 보호 데이터는 센서 데이터를 획득하는 적어도 하나의 센서의 배치 위치에 따라 생성 여부가 결정될 수 있다. 예를 들어, 상기 적어도 하나의 센서는 차량에 배치될 수 있으나, 이에 한정되지 않는다. Whether to generate the privacy protection data according to an embodiment may be determined according to an arrangement position of at least one sensor that obtains the sensor data. For example, the at least one sensor may be disposed in a vehicle, but is not limited thereto.

구체적인 예로, 일 실시예에 따른 자율 주행 시스템을 포함하는 차량에서, 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)는 차량 내부에 배치될 수 있다. 이 경우, 상기 적어도 하나의 센서(1300)는 차량 내부의 탑승자에 대한 위치 정보, 형상 및/또는 색상 정보 등을 포함하는 센서 데이터를 획득할 수 있다.As a specific example, in a vehicle including an autonomous driving system according to an embodiment, at least one sensor 1300 included in the autonomous driving system 1000 may be disposed inside the vehicle. In this case, the at least one sensor 1300 may acquire sensor data including location information, shape and/or color information, etc. about an occupant inside the vehicle.

이때, 상기 자율 주행 시스템의 컨트롤러는 상기 센서 데이터에 포함되는 객체의 클래스 정보와 관련 없이 프라이버시 보호 데이터를 생성할 수 있다. 보다 구체적으로, 무인 자동차가 아닌 차량의 경우, 차량이 주행하기 위해서는 승객의 탑승이 필수적이므로, 상기 컨트롤러는 상기 센서 데이터를 기초로 항상 프라이버시 보호 데이터를 생성할 수 있다.In this case, the controller of the autonomous driving system may generate privacy protection data regardless of class information of an object included in the sensor data. More specifically, in the case of a vehicle other than the driverless vehicle, since it is essential for the passenger to ride in order for the vehicle to drive, the controller may always generate privacy protection data based on the sensor data.

또한, 상기 컨트롤러는 상기 센서 데이터에 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋이 포함되었는지 여부에 따라 프라이버시 보호 데이터를 생성할 수 있다. 이때, 상기 컨트롤러는 전술한 바와 같이 상기 서브 포인트 데이터 셋의 클래스 정보를 판단함으로써 상기 센서 데이터에 클래스가 사람과 관련되는 서브 포인트 데이터 셋이 포함되는지 여부를 판단할 수 있다. 또한, 상기 컨트롤러는 차량 내부에 배치된 임의의 장치로부터 승객 탑승 여부에 대한 정보를 획득할 수 있다. 예를 들어, 상기 컨트롤러는 차량에 배치된 무게 감지 센서 등을 통해 차량 탑승 정보를 획득함으로써, 차량 내부에 승객이 탑승하였는지를 판단할 수 있다.Also, the controller may generate privacy protection data according to whether a sub-point data set representing at least a part of a person is included in the sensor data. In this case, the controller may determine whether the sub-point data set whose class is related to a person is included in the sensor data by determining the class information of the sub-point data set as described above. Also, the controller may obtain information on whether or not a passenger is boarding from an arbitrary device disposed inside the vehicle. For example, the controller may determine whether a passenger is in the vehicle by acquiring vehicle boarding information through a weight sensor disposed in the vehicle.

또한, 상기 차량의 컨트롤러(1100)는 상기 센서 데이터(2000)를 적어도 하나의 통신 모듈(1200)을 통해 다른 장치로 전송하기 위한 공유 데이터(3000)를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 프라이버시 보호 데이터(3300)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터에 포함된 객체의 클래스 정보와 관계없이, 개인 정보 보호를 위한 프라이버시 보호 데이터(3300)를 생성할 수 있다. Also, the controller 1100 of the vehicle may generate the shared data 3000 for transmitting the sensor data 2000 to another device through at least one communication module 1200 . In this case, the content of the shared data may include privacy protection data 3300 . More specifically, the controller 1100 may generate privacy protection data 3300 for protecting personal information regardless of class information of an object included in the sensor data.

4.1.2.4. 거리 및 인텐시티 정보에 따른 프라이버시 보호 데이터 생성 여부4.1.2.4. Whether to generate privacy protection data based on distance and intensity information

일 실시예에 따른 데이터 공유 시스템을 이용하는 자율 주행 시스템에 포함된 적어도 하나의 센서는 라이다 장치를 포함할 수 있다. 이때, 상기 라이다 장치는 시야각 내에 위치하는 객체에 대한 거리 정보 및 객체의 반사율에 따른 인텐시티 정보를 획득할 수 있다. 이 경우, 상기 자율 주행 시스템에 포함되는 컨트롤러는 상기 거리 정보 및 인텐시티 정보에 따라 프라이버시 보호 데이터를 생성할지 여부를 결정할 수 있다. At least one sensor included in the autonomous driving system using the data sharing system according to an embodiment may include a lidar device. In this case, the lidar device may acquire distance information for an object located within the viewing angle and intensity information according to the reflectance of the object. In this case, the controller included in the autonomous driving system may determine whether to generate privacy protection data according to the distance information and the intensity information.

일 예로, 라이다 장치로부터 소정 거리 이상 떨어져 있는 객체의 경우, 상기 라이다 장치로부터 획득한 센서 데이터를 기초로 컨트롤러가 개인 정보를 식별할 수 없을 수 있다. 이 경우, 상기 컨트롤러는 상기 컨트롤러가 포함되는 제1 장치와 센서 데이터에 포함되는 제1 객체 사이의 거리가 소정 거리 이상일 경우, 상기 제1 객체의 클래스와 관계없이 프라이버시 보호 데이터를 생성하지 않을 수 있다. 상기 소정 거리는 상기 제1 객체의 반사율에 관계없이 상기 서브 포인트 데이터 셋을 통해 상기 제1 객체의 개인 정보가 식별되지 않는 거리를 의미할 수 있다. 또한, 상기 컨트롤러는 상기 소정 거리를 미리 설정하여 저장할 수도 있고, 센서 데이터를 기초로 설정할 수도 있다. For example, in the case of an object that is more than a predetermined distance from the lidar device, the controller may not be able to identify personal information based on sensor data obtained from the lidar device. In this case, when the distance between the first device including the controller and the first object included in the sensor data is greater than or equal to a predetermined distance, the controller may not generate privacy protection data regardless of the class of the first object . The predetermined distance may mean a distance at which personal information of the first object is not identified through the sub-point data set regardless of the reflectance of the first object. In addition, the controller may set and store the predetermined distance in advance, or may set the predetermined distance based on sensor data.

다른 예로, 객체의 반사율이 낮은 경우 상기 컨트롤러가 라이다 장치를 통해객체의 개인 정보를 식별할 수 없을 수 있다. 이 경우, 상기 컨트롤러는 제2 객체의 인텐시티 값이 임계값 이하인 경우, 상기 제2 객체의 클래스와 관계없이 프라이버시 보호 데이터를 생성하지 않을 수 있다. 이때, 상기 임계값은 상기 제2 객체의 거리 정보에 관계없이 상기 서브 포인트 데이터 셋을 통해 상기 제2 객체의 개인 정보가 식별되지 않는 인텐시티 값을 의미할 수 있다. 또한, 상기 컨트롤러는 상기 임계값을 미리 설정하여 저장할 수도 있고, 센서 데이터를 기초로 설정할 수도 있다.As another example, when the reflectance of the object is low, the controller may not be able to identify the personal information of the object through the lidar device. In this case, when the intensity value of the second object is less than or equal to the threshold value, the controller may not generate the privacy protection data regardless of the class of the second object. In this case, the threshold value may mean an intensity value at which personal information of the second object is not identified through the sub-point data set regardless of distance information of the second object. In addition, the controller may set and store the threshold value in advance, or may set the threshold value based on sensor data.

또한, 상기 컨트롤러는 상기 제1 객체 또는 상기 제2 객체의 적어도 일부를나타내는 복수의 서브 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋의 속성 데이터 중 적어도 하나를 포함하는 공유 데이터를 생성할 수 있다.Also, the controller may generate shared data including at least one of a plurality of sub-point data sets representing at least a portion of the first object or the second object, and attribute data of the plurality of sub-point data sets.

4.1.2.5. 프라이버시 보호를 위한 센서 데이터의 선별적 저장4.1.2.5. Selective storage of sensor data to protect privacy

전술한 프라이버시 보호를 위한 센서 데이터의 선별적 공유에 대한 실시예들은 센서 데이터를 선별적으로 저장하는 경우에도 적용될 수 있다.The above-described embodiments for selectively sharing sensor data for privacy protection may also be applied to selectively storing sensor data.

예를 들어, 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 할 클래스인 경우, 상기 서브 포인트 데이터 셋을 획득한 장치는 상기 서브 포인트 데이터 셋을 저장하지 않을 수 있다. 이때, 상기 장치는 상기 서브 포인트 데이터 셋의 적어도 일부를 가공한 프라이버시 보호 데이터를 생성하여 저장할 수 있다. For example, when the class of the object included in the class information of the sub-point data set is a class for which personal information should be protected, the device that obtained the sub-point data set may not store the sub-point data set. In this case, the device may generate and store privacy protection data obtained by processing at least a portion of the sub-point data set.

또한, 이에 한정되지 않고, 상기 장치는 상기 서브 포인트 데이터 셋의 클래스 정보와 관계없이 상기 서브 포인트 데이터 셋을 항상 저장할 수도 있다.Also, the present invention is not limited thereto, and the device may always store the sub-point data set regardless of class information of the sub-point data set.

4.1.3. 고정밀 지도 생성을 위한 공유 데이터의 선별적 공유4.1.3. Selective sharing of shared data to create high-precision maps

4.1.3.1. 일 실시예에 따른 선별적 공유 방법 4.1.3.1. Selective sharing method according to an embodiment

일 실시예에 따른 데이터 공유 시스템은 통신을 위한 적어도 하나의 통신 모듈을 포함하는 제1 장치 및 제2 장치를 포함할 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.A data sharing system according to an embodiment may include a first device and a second device including at least one communication module for communication. In this case, the first device and the second device may include, but are not limited to, a vehicle, a server, an infrastructure device, or a mobile device.

도 47은 다른 일 실시예에 따른 센서 데이터의 선별적 공유에 대한 구체적인 방법을 나타내는 흐름도이다.47 is a flowchart illustrating a specific method for selectively sharing sensor data according to another embodiment.

도 47을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5017).Referring to FIG. 47 , the controller of the first device may acquire a point data set through at least one sensor (S5017).

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5018).Also, the controller may determine class information of a sub-point data set included in the point data set (S5018).

또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 서브 포인트 데이터 셋이 나타내는 객체의 이동 가능한지 여부를 판단할 수 있다(S5019)Also, the controller may determine whether the object indicated by the sub-point data set is movable based on the class information (S5019)

또한, 상기 컨트롤러는 상기 객체가 이동 가능성이 없는 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5020).Also, when the object has no movement possibility, the controller may generate shared data including the sub-point data set ( S5020 ).

또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5021).Also, the controller may transmit the shared data to the second device (S5021).

이하에서는 각각의 단계에 대해 상세히 설명한다.Hereinafter, each step will be described in detail.

4.1.3.1.1. 센서 데이터의 획득4.1.3.1.1. Acquisition of sensor data

다시 도 47을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5017). 또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5018). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring back to FIG. 47 , the controller of the first device may acquire a point data set through at least one sensor ( S5017 ). Also, the controller may determine class information of a plurality of sub-point data sets included in the point data set (S5018). In this case, the first device may include a vehicle, an infrastructure device, and the like, but is not limited thereto.

도 48은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.48 is a diagram illustrating a situation in which the first vehicle acquires sensor data for selective sharing of sensor data according to an exemplary embodiment.

도 49는 도 48에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.49 is a diagram schematically expressing sensor data obtained by the first vehicle through a lidar device in FIG. 48 on a two-dimensional plane.

도 48 및 도 49를 참조하면, 상기 제1 차량(127)의 컨트롤러는 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)을 포함하는 포인트 데이터 셋(2102)을 획득할 수 있다.48 and 49 , the controller of the first vehicle 127 acquires a point data set 2102 including a plurality of sub-point data sets 2113 , 2114 , and 2115 through at least one sensor. can

예를 들어, 상기 컨트롤러는 상기 포인트 데이터 셋(2102)에서 보행자(800)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2113), 제3 차량(129)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2114), 및 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2115)을 추출할 수 있다. For example, in the point data set 2102 , the controller may include a first sub-point data set 2113 representing at least a portion of the pedestrian 800 , and a second sub-point data representing at least a portion of a third vehicle 129 . The set 2114 and the third sub-point data set 2115 representing at least a part of the building 500 may be extracted.

또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)의 클래스 정보를 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2113)의 클래스 정보를 '사람(Human)'으로 결정할 수 있으나, 이에 한정되지 않고 사람에 대한 하위 클래스로 결정할 수 있다. 또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2114)의 클래스 정보를 '차량(Vehicle)'으로 결정할 수 있으나, 이에 한정되지 않고 차량에 대한 하위 클래스로 결정할 수 있다. 또한, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '건물'로 결정할 수 있으나, 이에 한정되지 않고 건물에 대한 하위 클래스로 결정할 수 있다.Also, the controller may determine class information of the plurality of sub-point data sets 2113 , 2114 , and 2115 . For example, the controller may determine the class information of the first sub-point data set 2113 as 'Human', but is not limited thereto, and may determine the class information as a subclass of the person. Also, the controller may determine the class information of the second sub-point data set 2114 as a 'vehicle', but is not limited thereto and may determine it as a subclass of the vehicle. Also, the controller may determine the class information of the third sub-point data set 2115 as 'building', but is not limited thereto, and may determine the class information as a sub-class of the building.

4.1.3.1.2. 공유 데이터 선별 기준4.1.3.1.2. Criteria for screening shared data

또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 서브 포인트 데이터 셋이 나타내는 객체의 이동 가능한지 여부를 판단할 수 있다(S5019).Also, the controller may determine whether the object indicated by the sub-point data set is movable based on the class information (S5019).

구체적으로, 일 실시예에 따른 센서 데이터의 선별적 공유를 위해, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)이 나타내는 객체의 이동 가능성을 판단할 수 있다.Specifically, in order to selectively share sensor data according to an embodiment, the controller may determine the movement possibility of an object indicated by the plurality of sub-point data sets 2113 , 2114 , and 2115 .

이때, 객체가 이동 가능한지 여부는 상기 객체의 클래스 정보를 기초로 결정될 수 있다. In this case, whether the object is movable may be determined based on class information of the object.

보다 구체적으로, 도 49를 참조하면, 상기 컨트롤러는 보행자(800)의 적어도일부를 나타내는 상기 제1 서브 포인트 데이터 셋(2113) 및 제3 차량(129)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2114)의 클래스 정보를 기초로 상기 보행자(800) 및 상기 제3 차량(129)이 이동 가능한 객체라고 판단할 수 있다. 또한, 상기 컨트롤러는 건물(500)의 적어도 일부를 나타내는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 기초로 상기 건물(500)이 고정된 객체라고 판단할 수 있다.More specifically, referring to FIG. 49 , the controller includes the first sub-point data set 2113 representing at least a part of the pedestrian 800 and the second sub-point data representing at least a part of the third vehicle 129 . It may be determined that the pedestrian 800 and the third vehicle 129 are movable objects based on the class information of the set 2114 . Also, the controller may determine that the building 500 is a fixed object based on class information of the third sub-point data set 2115 representing at least a part of the building 500 .

일 예로, 상기 객체를 나타내는 서브 포인트 데이터 셋의 클래스 정보가 고정형 객체와 관련되는지 또는 이동형 객체와 관련되는지 여부를 기초로 상기 객체의 이동 가능성을 판단할 수 있다. 예를 들어, 상기 컨트롤러가 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '건물'로 결정한 경우, 상기 클래스 정보가 고정형 객체와 관련되므로, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)이 나타내는 건물(500)이 이동 가능성이 없다고 판단할 수 있다. As an example, the movement possibility of the object may be determined based on whether class information of the sub-point data set indicating the object is related to a fixed object or a movable object. For example, when the controller determines the class information of the third sub-point data set 2115 as 'building', since the class information is related to a fixed object, the controller controls the third sub-point data set 2115 ) it can be determined that there is no possibility of movement of the building 500 .

다른 예로, 상기 컨트롤러는 클래스 정보를 고정형 객체와 이동형 객체로 미리 분류할 수 있고, 상기 객체를 나타내는 서브 포인트 데이터 셋의 클래스 정보를 고정형 객체 또는 이동형 객체로 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '고정형 객체'로 결정할 수 있고, 이 경우, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)이 나타내는 건물(500)이 이동 가능성이 없다고 판단할 수 있다.As another example, the controller may pre-classify class information into a fixed object and a movable object, and determine class information of a sub-point data set representing the object as a fixed object or a movable object. For example, the controller may determine the class information of the third sub-point data set 2115 as a 'fixed object', and in this case, the controller determines the building ( 500), it can be determined that there is no possibility of movement.

또한, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보를 기초로 객체의 이동 가능성을 판단하지 않고, 상기 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. In addition, the controller may determine the content of the shared data according to the type of the object included in the class information of the sub-point data set, without determining the movement possibility of the object based on the class information of the sub-point data set. .

구체적으로, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류에 대해 소정의 기준에 따라 상기 공유 데이터의 컨텐츠를 결정할 수 있다. 즉, 상기 객체의 클래스의 종류마다 상기 공유 데이터의 컨텐츠를 결정하기 위한 소정의 기준이 미리 정해질 수 있다.Specifically, the controller may determine the content of the shared data according to a predetermined criterion for the type of the object included in the class information of the sub-point data set. That is, a predetermined criterion for determining the content of the shared data may be predetermined for each type of the class of the object.

일 예로, 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 '사람' 또는 '차량' 인 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않을 수 있고, 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 상기 '사람' 또는 '차량'을 제외한 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋을 포함할 수 있다.For example, when the class type of the object included in the class information of the first sub-point data set is 'person' or 'vehicle', the content of the shared data may not include the first sub-point data set, , when the class of the object included in the class information of the second sub-point data set is a class other than the 'person' or 'vehicle', the content of the shared data may include the second sub-point data set have.

다른 예로, 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 '건물' 등 고정형 객체인 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함할 수 있고, 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 상기 '건물' 등 고정형 객체를 제외한 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋을 포함하지 않을 수 있다. As another example, when the class of the object included in the class information of the first sub-point data set is a fixed object such as 'building', the content of the shared data may include the first sub-point data set, When the class of the object included in the class information of the 2 sub-point data set is a class other than the fixed object such as the 'building', the content of the shared data may not include the second sub-point data set.

물론, 실시예에 따라, 클래스의 종류에 대한 상기 미리 결정된 기준은 다양하게 변할 수 있다. 예를 들어, 공유 데이터의 컨텐츠는 전술한 소정의 기준을 반대로 적용한 기준에 따라 결정될 수 있으나, 이에 한정되지 않는다.Of course, according to an embodiment, the predetermined criterion for the type of class may be variously changed. For example, the content of the shared data may be determined according to a criterion in which the above-described predetermined criterion is applied inversely, but is not limited thereto.

또한, 사용자는 상기 소정의 기준을 실시예에 따른 데이터 공유 시스템을 설계하는 과정에서 설정할 수 있고, 사용 도중 변경할 수도 있다. In addition, the user may set the predetermined criteria in the process of designing the data sharing system according to the embodiment, and may change it during use.

4.1.3.1.3. 공유 데이터 생성 및 전송4.1.3.1.3. Creating and sending shared data

또한, 상기 컨트롤러는 상기 객체가 이동성이 없는 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5020).Also, when the object has no mobility, the controller may generate shared data including the sub-point data set (S5020).

구체적으로, 일 실시예에 따른 센서 데이터의 선별적 공유를 위해, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)이 나타내는 복수의 객체의 이동 가능성을 기초로 공유 데이터를 생성할 수 있다.Specifically, for selective sharing of sensor data according to an embodiment, the controller generates shared data based on the movement possibility of a plurality of objects indicated by the plurality of sub-point data sets 2113, 2114, and 2115. can

일 예로, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보가 고정형 객체와 관련된 경우, 상기 서브 포인트 데이터 셋 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 포함하는 상기 공유 데이터를 생성할 수 있다. For example, when class information of the sub-point data set is related to a fixed object, the controller may generate the shared data including at least a part of the sub-point data set or attribute data of the sub-point data set.

도 50은 일 실시예에 따른 공유 데이터의 컨텐츠를 설명하기 위한 도면이다.50 is a diagram for describing content of shared data according to an embodiment.

도 50을 참조하면, 상기 공유 데이터(3000)의 컨텐츠는 클래스 정보가 고정형 객체와 관련되는 제3 서브 포인트 데이터 셋(2115)을 포함할 수 있다.Referring to FIG. 50 , the content of the shared data 3000 may include a third sub-point data set 2115 in which class information is related to a fixed object.

이때, 상기 제3 서브 포인트 데이터 셋(2115)은 고정형 객체인 건물(500)의 적어도 일부를 나타내므로, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)을 포함하는 공유 데이터(3000)를 생성할 수 있다.At this time, since the third sub-point data set 2115 represents at least a part of the building 500 which is a fixed object, the controller generates the shared data 3000 including the third sub-point data set 2115 . can do.

또한, 이에 한정되지 않고, 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보가 고정형 객체와 관련되는 경우, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋의 제3 속성 데이터(2205)를 포함하는 공유 데이터(3000)를 생성할 수 있다.Also, without being limited thereto, when the class information of the third sub-point data set 2115 is related to a fixed object, the controller shares the third attribute data 2205 of the third sub-point data set Data 3000 may be generated.

이때, 상기 제3 속성 데이터(2205)는 상기 제3 서브 포인트 데이터 셋(2115)을 기초로 획득된 클래스 정보, 중심 위치 정보, 사이즈 정보, 형상 정보, 이동 정보, 또는 식별 정보 중 적어도 일부를 포함할 수 있으나, 이에 한정되지 않는다.In this case, the third attribute data 2205 includes at least part of class information, center location information, size information, shape information, movement information, and identification information obtained based on the third sub-point data set 2115 . can, but is not limited thereto.

또한, 이에 한정되지 않고, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보가 이동형 객체와 관련된 경우에도 상기 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터를 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 서브 포인트 데이터 셋의 클래스 정보가 이동형 객체와 관련된 경우, 상기 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 공유 데이터를 생성할 수 있다.Also, without being limited thereto, the controller may generate shared data including attribute data of the sub-point data set even when class information of the sub-point data set is related to a movable object. More specifically, when the class information of the sub-point data set is related to a movable object, the controller may generate shared data including center position information of the sub-point data set.

예를 들어, 상기 공유 데이터의 컨텐츠는 클래스 정보가 이동형 객체와 관련되는 제1 및 제2 서브 포인트 데이터 셋(2113, 2114)의 제1 및 제2 속성 데이터(2203, 2204)를 더 포함할 수 있다.For example, the content of the shared data may further include first and second attribute data 2203 and 2204 of the first and second sub-point data sets 2113 and 2114 in which class information is related to a movable object. have.

이때, 상기 제1 및 제2 속성 데이터(2203, 2204)는 상기 제1 및 제2 서브 포인트 데이터 셋(2113, 2114)을 기초로 획득된 중심 위치 정보를 포함할 수 있으나, 이에 한정되지 않는다.In this case, the first and second attribute data 2203 and 2204 may include center position information obtained based on the first and second sub-point data sets 2113 and 2114, but is not limited thereto.

또한, 상기 제1 차량(127)은 상기 공유 데이터를 제2 장치에 전송할 수 있다.Also, the first vehicle 127 may transmit the shared data to a second device.

이때, 상기 제2 장치는 차량(128, 129), 인프라 장치(700), 서버(400), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.In this case, the second device may include, but is not limited to, the vehicles 128 and 129 , the infrastructure device 700 , the server 400 , and a mobile device.

예를 들어, 상기 제2 장치가 서버(400)인 경우, 상기 제1 차량(127)은 상기 공유 데이터(3000)를 상기 서버(400)에 전송할 수 있다. 이때, 상기 서버(400)는 상기 공유 데이터를 기초로 고정밀 지도를 생성할 수 있다.For example, when the second device is the server 400 , the first vehicle 127 may transmit the shared data 3000 to the server 400 . In this case, the server 400 may generate a high-precision map based on the shared data.

4.1.3.2. 부가 정보를 포함하는 공유 데이터4.1.3.2. Shared data with additional information

또한, 상기 공유 데이터의 컨텐츠는 고정형 객체의 정지 시간과 관련된 부가 정보를 포함할 수 있다.In addition, the content of the shared data may include additional information related to the stop time of the fixed object.

구체적으로, 상기 센서 데이터에 포함되는 객체의 클래스 정보가 고정형 객체와 관련되되, 상기 센서 데이터에 상기 객체의 정지 시간과 관련된 부가 정보가 포함된 경우, 상기 컨트롤러는 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.Specifically, when class information of an object included in the sensor data is related to a fixed object, and the sensor data includes additional information related to a stop time of the object, the controller transmits shared data including the additional information can create

도 51은 일 실시예에 따른 부가 정보를 포함하는 센서 데이터를 선별적으로 공유하는 방법에 대한 흐름도이다.51 is a flowchart of a method for selectively sharing sensor data including additional information according to an embodiment.

도 51을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득하고, 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5022). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 클래스 정보는 고정형 객체와 관련될 수도 있고, 이동형 객체와 관련될 수도 있다.Referring to FIG. 51 , the controller of the first device may acquire a point data set through at least one sensor and determine class information of a plurality of sub-point data sets included in the point data set ( S5022 ). In this case, the first device may include a vehicle, an infrastructure device, and the like, but is not limited thereto. In addition, the class information may be related to a fixed object or may be related to a movable object.

또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 복수의 서브 포인트 데이터 셋이 나타내는 복수의 객체의 이동 가능성을 판단할 수 있다(S5023). 예를 들어, 상기 컨트롤러는 객체가 고정형 객체와 관련된 경우, 상기 객체가 이동 가능성이 없다고 판단할 수 있다. Also, the controller may determine the possibility of movement of a plurality of objects indicated by the plurality of sub-point data sets based on the class information ( S5023 ). For example, when the object is related to a stationary object, the controller may determine that the object is unlikely to move.

또한, 상기 컨트롤러는 이동 가능성이 없다고 판단한 객체에 대해, 이동 가능성과 관련된 부가 정보를 획득할 수 있다(S5024). 이때, 상기 부가 정보는 고정형 객체의 정지 시간을 포함할 수 있다.In addition, the controller may acquire additional information related to the possibility of movement for the object determined to be not likely to move ( S5024 ). In this case, the additional information may include a stop time of the fixed object.

또한, 상기 컨트롤러는 상기 부가 정보를 획득한 경우, 상기 서브 포인트 데이터 셋 및 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다(S5025)In addition, when acquiring the additional information, the controller may generate shared data including the sub-point data set and the additional information (S5025)

또한, 상기 컨트롤러는 상기 부가 정보를 획득하지 못한 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5026).Also, when the controller fails to obtain the additional information, the controller may generate shared data including the sub-point data set (S5026).

또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5027). 이때, 상기 제2 장치는 차량, 인프라 장치, 서버 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may transmit the shared data to the second device (S5027). In this case, the second device may include a vehicle, an infrastructure device, a server, and the like, but is not limited thereto.

도 52는 일 실시예에 따른 제1 차량이 적어도 하나의 센서를 통해 부가 정보를 획득하는 상황을 나타내는 도면이다.52 is a diagram illustrating a situation in which the first vehicle acquires additional information through at least one sensor according to an exemplary embodiment.

도 53는 도52에 따른 제1 차량이 획득한 센서 데이터를 2차원 평면 상에 간략히 나타내는 도면이다.53 is a diagram schematically illustrating sensor data acquired by the first vehicle according to FIG. 52 on a two-dimensional plane.

도 52 및 도 53를 참조하면, 제1 차량(130) 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2116, 2117, 2118)를 포함하는 포인트 데이터 셋(2103)을 획득할 수 있다.52 and 53 , the first vehicle 130 may acquire a point data set 2103 including a plurality of sub-point data sets 2116 , 2117 , and 2118 through at least one sensor.

이때, 상기 복수의 서브 포인트 데이터 셋(2116, 2117, 2118)은 공사 표지판(900)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2116), 제3 차량(132)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2117), 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2118)을 포함할 수 있으나, 이에 한정되지 않는다.At this time, the plurality of sub-point data sets 2116 , 2117 , and 2118 are a first sub-point data set 2116 representing at least a part of the construction sign 900 , and a second sub-point data set representing at least a part of the third vehicle 132 . The sub-point data set 2117 and the third sub-point data set 2118 representing at least a part of the building 500 may be included, but the present invention is not limited thereto.

또한, 상기 제1 차량의 컨트롤러는 상기 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116)의 클래스 정보를 '표지판'으로 결정할 수 있고, 상기 제2 서브 포인트 데이터 셋(2117)의 클래스 정보를 '차량(Vehicle)'으로 결정할 수 있고, 상기 제3 서브 포인트 데이터 셋(2118)의 클래스 정보를 '건물'로 결정할 수 있다.Also, the controller of the first vehicle may determine class information of the plurality of sub-point data sets. For example, the controller may determine the class information of the first sub-point data set 2116 as a 'sign,' and set the class information of the second sub-point data set 2117 as a 'Vehicle'. may be determined, and class information of the third sub-point data set 2118 may be determined as 'building'.

또한, 상기 컨트롤러는 복수의 객체의 클래스 정보가 고정형 객체와 관련되는지 여부를 판단하여, 상기 복수의 객체의 이동 가능성을 판단할 수 있다. 예를 들어, 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 제3 서브 포인트 데이터 셋(2118) 의 클래스 정보가 고정형 객체와 관련되므로, 상기 컨트롤러는 상기 공사 표지판(900) 및 상기 건물(500)의 이동 가능성이 없다고 판단할 수 있다.Also, the controller may determine whether the class information of the plurality of objects is related to the fixed object to determine the possibility of movement of the plurality of objects. For example, since class information of the first sub-point data set 2116 and the third sub-point data set 2118 is related to a fixed object, the controller controls the construction sign 900 and the building 500 It can be concluded that there is no possibility of movement of

또한, 상기 컨트롤러는 이동 가능성이 없는 객체를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다. 이때, 상기 이동 가능성이 없는 객체를 나타내는 서브 포인트 데이터 셋에 객체의 정지 시간과 관련되는 부가 정보가 포함된 경우, 상기 컨트롤러는 상기 부가 정보를 더 포함하는 공유 데이터를 생성할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116)에 상기 공사 표지판(900)의 상기 표지판의 정지 시간과 관련된 부가 정보(예를 들어, 공사 기간에 대한 정보)가 포함될 수 있다. 이때, 상기 부가 정보는 적어도 하나의 라이다 장치로부터 획득된 상기 공사 표지판(900)의 인텐시티 정보를 기초로 획득될 수 있다. 보다 구체적으로, 상기 컨트롤러는 라이다 장치로부터 획득된 상기 공사 표지판(900)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2116)에 포함된 인텐시티 값을 기초로, 상기 공사 표지판(900) 상에 표시된 공사 종료 시점을 나타내는 부가 정보를 인지할 수 있다. 또한, 상기 컨트롤러가 상기 부가 정보를 인지한 경우, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.Also, the controller may generate shared data including a sub-point data set representing an object with no movement possibility. In this case, when the sub-point data set indicating the object having no movement possibility includes additional information related to the stopping time of the object, the controller may generate shared data further including the additional information. For example, the controller may include additional information (eg, information about the construction period) related to the stop time of the sign of the construction sign 900 in the first sub-point data set 2116 . In this case, the additional information may be obtained based on intensity information of the construction sign 900 obtained from at least one lidar device. More specifically, the controller is on the construction sign 900 based on the intensity value included in the first sub-point data set 2116 representing at least a part of the construction sign 900 obtained from the lidar device. Additional information indicating the displayed construction end time can be recognized. Also, when the controller recognizes the additional information, the controller may generate shared data including the first sub-point data set 2116 and the additional information.

또한, 상기 부가 정보는 외부로부터 획득될 수 있다. 예를 들어, 상기 컨트롤러는 외부 서버로부터 상기 공사 표지판(900)의 정지 시간과 관련된 부가 정보를 획득할 수 있고, 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.In addition, the additional information may be obtained from the outside. For example, the controller may obtain additional information related to the stop time of the construction sign 900 from an external server, and may generate shared data including the additional information.

또한, 상기 컨트롤러는 공유 데이터를 제2 장치에 전송할 수 있다. 이때, 상기 제2 장치는 차량(131, 132), 서버(400), 인프라 장치(700) 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may transmit the shared data to the second device. In this case, the second device may include, but is not limited to, the vehicles 131 and 132 , the server 400 , the infrastructure device 700 , and the like.

도 54는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋 및 부가 정보를 설명하기 위한 도면이다.54 is a diagram for describing a sub-point data set and additional information included in content of shared data according to an embodiment.

도 54를 참조하면, 상기 제1 차량(130)은 상기 서버(400)에 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 클래스 정보가 고정형 객체와 관련되는 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 제3 서브 포인트 데이터 셋(2118)을 포함할 수 있다. 또한, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋(2110)이 나타내는 공사 표지판(900)의 정지 시간을 나타내는 부가 정보(2300)를 포함할 수 있다.Referring to FIG. 54 , the first vehicle 130 may transmit shared data 3000 to the server 400 . In this case, the content of the shared data may include the first sub-point data set 2116 and the third sub-point data set 2118 in which class information is related to a fixed object. In addition, the content of the shared data may include additional information 2300 indicating a stop time of the construction sign 900 indicated by the first sub-point data set 2110 .

또한, 상기 제1 차량(130)의 컨트롤러가 상기 제1 서브 포인트 데이터 셋(2116)으로부터 부가 정보를 획득하지 못하더라도, 상기 컨트롤러가 상기 공사 표지판(900) 주변의 공사 현장과 관련된 센서 데이터를 획득한 경우, 상기 공사 현장의 정지 시점과 관련된 부가 정보를 획득할 수 있다. 보다 구체적으로, 상기 공사 현장에 포함되는 작업자 및 포크레인을 나타내는 복수의 서브 포인트 데이터 셋의 클래스 정보가 '공사 현장'으로 결정된 경우, 상기 컨트롤러는 상기 공사 현장의 공사 종료 시점을 포함하는 부가 정보를 획득할 수 있다. 이때, 상기 공사 종료 시점은 상기 공사 현장과 관련된 복수의 객체의 정지 시점을 의미할 수 있다. 이에 따라, 상기 컨트롤러는 상기 부가 정보를 포함하는 공유 데이터를 생성하여 제2 장치에 전송할 수 있다.In addition, even if the controller of the first vehicle 130 fails to acquire additional information from the first sub-point data set 2116 , the controller acquires sensor data related to the construction site around the construction sign 900 . In one case, additional information related to the stopping time of the construction site may be obtained. More specifically, when class information of a plurality of sub-point data sets representing workers and fork cranes included in the construction site is determined to be 'construction site', the controller acquires additional information including the construction end time of the construction site can do. In this case, the construction end time may mean a stop time of a plurality of objects related to the construction site. Accordingly, the controller may generate and transmit the shared data including the additional information to the second device.

4.1.3.3. 다른 일 실시예에 따른 센서 데이터의 선별적 공유4.1.3.3. Selective sharing of sensor data according to another embodiment

고정밀 지도를 생성하는 장치에는 고정형 객체에 대한 정보가 미리 저장될 수 있다. 이 경우, 센서 데이터를 전송하는 장치는 센서 데이터 중 이동형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다. In the device for generating a high-precision map, information on a fixed object may be stored in advance. In this case, the device transmitting the sensor data may select only data related to the movable object from among the sensor data and transmit it to the device generating the high-precision map.

도 55는 일 실시예에 따른 이동형 객체와 관련된 센서 데이터를 공유하는 방법을 나타내는 흐름도이다.55 is a flowchart illustrating a method of sharing sensor data related to a movable object according to an embodiment.

도 55를 참조하면, 제1 장치에 포함된 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5028). 이때, 상기 제1 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 55 , the controller included in the first device may acquire a point data set through at least one sensor (S5028). In this case, the first device may include, but is not limited to, a vehicle, a server, an infrastructure device, a mobile device, and the like.

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5029).Also, the controller may determine class information of a plurality of sub-point data sets included in the point data set (S5029).

또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 복수의 서브 포인트 데이터 셋이 나타내는 복수의 객체의 이동 가능성을 판단할 수 있다(S5030).Also, the controller may determine the movement possibility of a plurality of objects indicated by the plurality of sub-point data sets based on the class information (S5030).

또한, 상기 컨트롤러는 제1 객체의 클래스 정보가 이동형 객체와 관련되어, 상기 제1 객체가 이동 가능성이 있는 객체라고 판단한 경우, 상기 제1 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5031). 이때, 상기 공유 데이터의 컨텐츠는 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있고, 클래스 정보가 고정형 객체와 관련되는 제2 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 더 포함할 수 있다.In addition, when the controller determines that the first object is a movable object because the class information of the first object is related to the movable object, shared data including a sub-point data set indicating at least a part of the first object can be generated (S5031). In this case, the content of the shared data may include attribute data of the sub-point data set, and may further include attribute data of the sub-point data set in which class information indicates at least a part of a second object related to a fixed object. have.

또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5032). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may transmit the shared data to the second device (S5032). In this case, the second device may include, but is not limited to, a vehicle, a server, an infrastructure device, a mobile device, and the like.

4.1.3.4. 또 다른 일 실시예에 따른 센서 데이터의 선별적 공유4.1.3.4. Selective sharing of sensor data according to another embodiment

또한, 제1 장치로부터 공유 데이터를 수신하는 제2 장치의 컨트롤러는 상기 공유 데이터에 포함되는 서브 포인트 데이터 셋의 클래스 정보에 따라 상기 공유 데이터를 저장할지 여부를 결정할 수 있다.Also, the controller of the second device receiving the shared data from the first device may determine whether to store the shared data according to class information of a sub-point data set included in the shared data.

도 56 일 실시예에 따른 공유 데이터를 선별적으로 저장하는 방법을 나타내는 도면이다.56 is a diagram illustrating a method of selectively storing shared data according to an embodiment.

도 56을 참조하면, 제1 장치는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5033). Referring to FIG. 56 , the first device may acquire a point data set through at least one sensor ( S5033 ).

또한 제1 장치에 포함된 컨트롤러는 적어도 하나의 통신 모듈을 통해 제2 장치에 상기 포인트 데이터 셋을 포함하는 공유 데이터를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 제2 장치가 좌표계 정렬을 용이하게 하기 위한 추가 정보를 더 포함할 수 있다. 예를 들어, 상기 추가 정보는 상기 제1 장치의 센서의 샘플링 속도와 관련된 정보, 해상도 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller included in the first device may transmit the shared data including the point data set to the second device through at least one communication module. In this case, the content of the shared data may further include additional information for facilitating the coordinate system alignment of the second device. For example, the additional information may include information related to a sampling rate of the sensor of the first device, resolution information, and the like, but is not limited thereto.

또한, 상기 공유 데이터를 수신한 제2 장치의 컨트롤러는, 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5035).In addition, the controller of the second device receiving the shared data may determine class information of a plurality of sub-point data sets included in the point data set (S5035).

또한, 상기 제2 장치의 컨트롤러는 상기 클래스 정보에 기초하여, 상기 공유 데이터에 포함된 데이터를 저장할지 여부를 결정할 수 있다(S5036). Also, the controller of the second device may determine whether to store data included in the shared data based on the class information (S5036).

일 예로, 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인 경우, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋의 적어도 일부를 가공한 프라이버시 보호 데이터를 생성하여 저장할 수 있다. 이 경우, 상기 제2 장치의 컨트롤러는 상기 개인 정보를 보호받아야 하는 클래스를 가지는 객체를 나타내는 서브 포인트 데이터 셋을 저장하지 않고 삭제할 수 있다.For example, when the class of the object included in the class information is a class for which personal information needs to be protected, the controller of the second device may generate and store privacy protection data obtained by processing at least a part of the point data set. In this case, the controller of the second device may delete the sub-point data set indicating the object having the class for which the personal information should be protected without storing.

다른 예로, 상기 제2 장치의 컨트롤러는 클래스 정보를 기초로 객체의 이동 가능성을 판단하여, 이동 가능성이 없는 객체를 나타내는 센서 데이터를 저장할 수 있다. 보다 구체적으로, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 클래스 정보가 고정형 객체와 관련되는 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터를 저장할 수 있다.As another example, the controller of the second device may determine a movement possibility of an object based on class information and store sensor data indicating an object having no movement possibility. More specifically, the controller of the second device may store a sub-point data set in which class information is related to a fixed object among a plurality of sub-point data sets included in the point data set, or attribute data of the sub-point data set. have.

다른 예로, 상기 제2 장치의 컨트롤러는 클래스 정보를 기초로 객체의 이동 가능성을 판단하여, 이동 가능성이 있는 객체를 나타내는 센서 데이터를 저장할 수 있다. 보다 구체적으로, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 클래스 정보가 이동형 객체와 관련되는 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터를 저장할 수 있다.As another example, the controller of the second device may determine the movement possibility of the object based on class information, and store sensor data indicating the movement possibility object. More specifically, the controller of the second device may store a sub-point data set in which class information is related to a movable object among a plurality of sub-point data sets included in the point data set, or attribute data of the sub-point data set. have.

또한, 상기 제2 장치는 수신한 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋이 나타내는 객체에 대한 정보가 상기 제2 장치에 저장되어 있는지 여부에 따라 상기 공유 데이터에 포함된 데이터를 저장할지 여부를 결정할 수 있다. In addition, the second device determines whether to store the data included in the shared data according to whether information on the object indicated by the sub-point data set included in the received shared data content is stored in the second device can decide

또한, 상기 제2 장치는 상기 공유 데이터를 수신하여 고정밀 지도를 생성할 수 있다. 이때, 상기 제2 장치의 고정밀 지도 상에 고정형 객체와 관련된 정보가 저장되어 있는 경우, 상기 제2 장치는 상기 이동형 객체와 관련된 센서 데이터를 수신하여 상기 고정밀 지도를 갱신할 수 있다. 또한, 이에 한정되지 않고, 상기 고정밀 지도 상에 고정형 객체와 관련된 정보를 갱신하기 위해, 상기 제2 장치는 상기 고정형 객체와 관련된 센서 데이터를 수신하여 상기 고정밀 지도를 갱신할 수 있다. 이때, 상기 센서 데이터는 포인트 데이터 셋, 복수의 서브 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있으나, 이에 한정되지 않는다.Also, the second device may receive the shared data and generate a high-precision map. In this case, when information related to a stationary object is stored on the high-precision map of the second device, the second device may receive sensor data related to the movable object and update the high-precision map. In addition, the present invention is not limited thereto, and in order to update information related to a fixed object on the high-precision map, the second device may receive sensor data related to the fixed object and update the high-precision map. In this case, the sensor data may include a point data set, a plurality of sub-point data sets, and attribute data of the plurality of sub-point data sets, but is not limited thereto.

또한, 상기 제2 장치는 프라이버시 보호 데이터를 포함하는 공유 데이터를 수신하여 상기 프라이버시 보호 데이터를 상기 고정밀 지도 상에 매칭시킬 수 있다. Also, the second device may receive shared data including the privacy protection data and match the privacy protection data on the high-precision map.

4.2. 이벤트 발생에 따른 센서 데이터의 선별적 공유4.2. Selective sharing of sensor data according to event occurrence

4.2.1. 이벤트 발생에 따른 선별적 공유의 필요성4.2.1. The need for selective sharing according to the occurrence of an event

일 실시예에 따른 데이터 공유 시스템은 데이터 공유 주체로서 제1 장치 및 제2 장치를 포함할 수 있다. 여기서, 상기 제1 장치는 상기 제2 장치 또는 서버로 공유 데이터를 전송할 수 있으나, 이에 한정되지 않는다.A data sharing system according to an embodiment may include a first device and a second device as data sharing subjects. Here, the first device may transmit the shared data to the second device or the server, but is not limited thereto.

이때, 제1 장치에서 획득한 모든 센서 데이터를 제2 장치 또는 서버와 공유하게 되면 데이터 공유의 효율성이 떨어지는 등 다양한 문제가 발생할 수 있다. 예를 들어, 상기 센서 데이터에 포함되는 포인트 데이터 셋을 어떠한 가공도 없이 공유하게 되면, 데이터 저장 용량 문제, 통신 서버의 과부하 문제 등이 발생할 수 있으나, 이에 한정되지 않는다. In this case, if all sensor data acquired by the first device is shared with the second device or the server, various problems may occur, such as a decrease in data sharing efficiency. For example, if the point data set included in the sensor data is shared without any processing, a data storage capacity problem, an overload problem of a communication server, etc. may occur, but is not limited thereto.

상기와 같은 문제를 해결하기 위해, 상기 제1 장치의 컨트롤러는 이벤트 발생 여부에 따라 공유 데이터의 컨텐츠를 적어도 일부 다르게 생성할 수 있다. In order to solve the above problem, the controller of the first device may at least partially differently generate the content of the shared data according to whether an event occurs.

예를 들어, 상기 컨트롤러는 상기 이벤트 발생 전에는 속성 데이터를 포함하는 제1 공유 데이터를 생성하여 전송할 수 있다. 이때, 상기 이벤트는 차량의 주행과 관련되는 트래픽 이벤트, 비와 눈과 같은 환경 이벤트, 어린이 보호 구역 진입과 같은 규제 이벤트를 포함할 수 있으나, 이에 한정되지 않는다. 상기 이벤트와 관련된 상세한 내용은 하기에서 설명한다.For example, the controller may generate and transmit first shared data including attribute data before the event occurs. In this case, the event may include, but is not limited to, a traffic event related to driving of a vehicle, an environmental event such as rain and snow, and a regulatory event such as entry into a child protection area. Details related to the event will be described below.

또한, 상기 컨트롤러는 상기 이벤트 발생 후에는 보다 상기 이벤트와 관련된 정확한 정보를 전송하기 위해, 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋을 포함하는 제2 공유 데이터를 생성하여 전송할 수 있다. 이때, 상기 제2 공유 데이터는 이벤트 발생 전후 소정 시간 동안 획득된 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋을 포함할 수 있다.In addition, after the occurrence of the event, in order to transmit more accurate information related to the event, the controller may generate and transmit second shared data including a point data set or a plurality of sub-point data sets. In this case, the second shared data may include a point data set or a plurality of sub-point data sets obtained for a predetermined time before and after the occurrence of the event.

4.2.2. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (1) 4.2.2. Method for selectively sharing sensor data according to an embodiment (1)

도 57은 다른 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 설명하기 위한 흐름도이다.57 is a flowchart illustrating a method for selectively sharing sensor data according to another embodiment.

도 57을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5037). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다. Referring to FIG. 57 , the controller of the first device may acquire a point data set through at least one sensor (S5037). In this case, the first device may include a vehicle, an infrastructure device, and the like, but is not limited thereto.

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5038). 이때, 상기 속성 데이터는 상기 서브 포인트 데이터 셋의 클래스 정보, 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보, 식별 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may determine attribute data of a plurality of sub-point data sets included in the point data set (S5038). In this case, the attribute data may include class information, center position information, size information, movement information, shape information, and identification information of the sub-point data set, but is not limited thereto.

또한, 상기 컨트롤러는 상기 속성 데이터를 포함하는 제1 공유 데이터를 생성하여 제2 장치에 전송할 수 있다(S5039, S5040). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, the controller may generate the first shared data including the attribute data and transmit it to the second device (S5039 and S5040). In this case, the second device may include, but is not limited to, a vehicle, a server, an infrastructure device, a mobile device, and the like.

또한, 상기 컨트롤러는 이벤트 발생 사실을 확인할 수 있다(S5041). 이때, 상기 이벤트는 차량의 주행 및 사고와 관련되는 트래픽 이벤트를 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may check the event occurrence (S5041). In this case, the event may include, but is not limited to, a traffic event related to driving of a vehicle and an accident.

또한, 상기 컨트롤러는 상기 이벤트 발생 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함하는 제2 공유 데이터를 생성하여 전송할 수 있다(S5042). In addition, the controller may generate and transmit second shared data including a plurality of point data sets acquired during the first time period before and after the occurrence of the event (S5042).

이하에서는 일 실시예에 따른 이벤트 발생을 확인하는 방법에 대해 구체적으로 설명한다.Hereinafter, a method of confirming the occurrence of an event according to an embodiment will be described in detail.

4.2.2.1. 공유 데이터의 생성 및 이벤트 발생 확인 방법4.2.2.1. How to create shared data and check event occurrence

도 58은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 센서 데이터를 획득하는 상황을 나타내는 도면이다.58 is a diagram illustrating a situation in which sensor data is acquired from the first vehicle before an event occurs, according to an exemplary embodiment.

도 59는 도58에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타내는 도면이다.59 is a diagram schematically illustrating a point data set included in the sensor data obtained according to FIG. 58 on a two-dimensional plane.

도 58 및 도 59를 참조하면, 제1 차량(133)은 제2 차량(134)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2119) 및 제3 차량(135)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2120)을 포함하는 포인트 데이터 셋(2104)을 포함할 수 있다. 58 and 59 , the first vehicle 133 includes a first sub-point data set 2119 representing at least a portion of the second vehicle 134 and a second sub-point data set 2119 representing at least a portion of the third vehicle 135 . It may include a point data set 2104 including a sub-point data set 2120 .

또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋(2119, 2120)의 복수의 속성 데이터를 결정할 수 있다. 이때, 상기 복수의 속성 데이터는 상기 복수의 서브 포인트 데이터 셋(2119, 2120)의 중심 위치 정보, 사이즈 정보, 클래스 정보, 형상 정보, 이동 정보, 또는 식별 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.Also, the controller may determine a plurality of attribute data of a plurality of sub-point data sets 2119 and 2120 included in the point data set. In this case, the plurality of attribute data may include at least one of center location information, size information, class information, shape information, movement information, and identification information of the plurality of sub-point data sets 2119 and 2120, but not limited

또한, 상기 제1 장치는 제1 공유 데이터를 생성하여 제2 장치에 전송할 수 있다(S5039, S5040).In addition, the first device may generate and transmit the first shared data to the second device (S5039, S5040).

도 60은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 전송하는 제1 공유 데이터를 설명하기 위한 도면이다.60 is a diagram for describing first shared data transmitted from the first vehicle before an event occurs according to an embodiment.

도 60을 참조하면, 상기 제1 차량의 컨트롤러는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터(2206) 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터(2207)를 포함하는 제1 공유 데이터(3000a)를 생성하여 상기 제2 차량(134)에 전송할 수 있다.Referring to FIG. 60 , the controller of the first vehicle shares a first share including first attribute data 2206 of the first sub-point data set and second attribute data 2207 of the second sub-point data set The data 3000a may be generated and transmitted to the second vehicle 134 .

또한, 상기 컨트롤러는 이벤트 발생 사실을 확인할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이의 트래픽 이벤트(6100)를 확인할 수 있다. 이때, 상기 트래픽 이벤트(6100)는 상기 제1 차량(133)과 관련된 사고 상황 또는 상기 제1 차량 주변의 다른 차량(134, 135)과 관련된 사고 상황 중 적어도 하나 관련될 수 있다.Also, the controller may check the event occurrence. For example, the controller may identify a traffic event 6100 between the second vehicle 134 and the third vehicle 135 . In this case, the traffic event 6100 may be related to at least one of an accident situation related to the first vehicle 133 or an accident situation related to other vehicles 134 and 135 in the vicinity of the first vehicle.

도 61은 일 실시예에 따른 이벤트 발생 시점에 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.61 is a diagram illustrating a situation in which the first vehicle acquires sensor data at an event occurrence time point according to an exemplary embodiment.

도 62는 도 61에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타낸 도면이다.62 is a diagram schematically illustrating a point data set included in the sensor data obtained according to FIG. 61 on a two-dimensional plane.

도 61 및 도 62를 참조하면, 상기 제1 차량(133)의 컨트롤러는 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 차량(134,135)을 포함하는 제2 포인트 데이터 셋(2105)을 획득할 수 있다. 이때, 상기 포인트 데이터 셋(2105)은 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(135)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)을 포함할 수 있다. 61 and 62 , the controller of the first vehicle 133 obtains a second point data set 2105 including vehicles 134 and 135 related to the traffic event 6100 through at least one sensor. can do. In this case, the point data set 2105 includes a third sub-point data set 2121 representing at least a portion of the second vehicle 134 and a fourth sub-point data set representing at least a portion of the third vehicle 135 . (2122).

일 예로, 상기 컨트롤러는 포인트 데이터 셋 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 기초로 상기 이벤트 발생을 확인할 수 있다(S5041). 보다 구체적으로, 상기 컨트롤러는 복수의 서브 포인트 데이터 셋에 포함되는 객체들의 위치 정보 또는 복수의 속성 데이터에 포함되는 복수의 정보 중 적어도 일부를 기초로 상기 이벤트 발생을 확인할 수 있다.For example, the controller may confirm the occurrence of the event based on at least a part of attribute data of a point data set or a sub-point data set ( S5041 ). More specifically, the controller may identify the occurrence of the event based on at least a part of location information of objects included in a plurality of sub-point data sets or a plurality of pieces of information included in a plurality of attribute data.

구체적인 예로, 제1 차량(133)의 컨트롤러는 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(135)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)에 포함되는 각각의 포인트 데이터가 적어도 일부분 겹쳐지고, 상기 컨트롤러를 통해 판단되는 거리 정보를 기초로 상기 제3 서브 포인트 데이터 셋(2121) 및 상기 제4 서브 포인트 데이터 셋(2122) 사이의 거리가 소정 거리 이하일 경우, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이에 트래픽 이벤트(6100)가 발생했다고 판단할 수 있다. 이때, 상기 제1 차량(133)이 획득한 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋(2121, 2122) 중 적어도 하나는 이벤트와 관련된 차량(134, 135)의 적어도 일부를 나타낼 수 있다. As a specific example, the controller of the first vehicle 133 may include a third sub-point data set 2121 representing at least a portion of the second vehicle 134 and a fourth sub-point representing at least a portion of the third vehicle 135 . Each point data included in the data set 2122 overlaps at least partially, and the third sub-point data set 2121 and the fourth sub-point data set 2122 are based on distance information determined through the controller. When the distance between them is equal to or less than a predetermined distance, the controller may determine that a traffic event 6100 has occurred between the second vehicle 134 and the third vehicle 135 . In this case, at least one of the plurality of sub-point data sets 2121 and 2122 included in the point data set acquired by the first vehicle 133 may represent at least a portion of the vehicles 134 and 135 related to the event.

또한, 상기 포인트 데이터 셋을 기초로 생성된 3d 포인트 데이터 맵 상에서 상기 복수의 서브 포인트 데이터 셋 또는 복수의 속성 데이터가 일정 영역 겹쳐지는 경우, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이에 트래픽 이벤트(6100)가 발생했다고 판단할 수 있다.Also, when the plurality of sub-point data sets or the plurality of attribute data overlap in a predetermined area on a 3d point data map generated based on the point data set, the controller controls the second vehicle 134 and the third vehicle It may be determined that a traffic event 6100 has occurred between 135 .

또한, 이에 한정되지 않고, 상기 컨트롤러는 포인트 데이터 셋에 이벤트와 관련된 객체를 나타내는 서브 포인트 데이터 셋이 포함되지 않는 경우에도, 상기 이벤트 발생을 확인할 수 있다.Also, without being limited thereto, the controller may check the occurrence of the event even when the point data set does not include a sub-point data set representing an object related to an event.

일 예로, 상기 컨트롤러는 상기 포인트 데이터 셋에 상기 이벤트 발생을 확인할 수 있게 하는 정보가 포함된 경우, 상기 이벤트 발생을 확인할 수 있게 하는 정보를 기초로 이벤트 발생을 확인할 수 있다. 구체적인 예로, 상기 포인트 데이터 셋에 사고 현장을 표시하는 객체를 나타내는 서브 포인트 데이터 셋이 포함되는 경우, 상기 컨트롤러는 상기 사고 현장을 표시하는 객체를 나타내는 서브 포인트 데이터 셋을 기초로 이벤트 발생을 확인할 수 있다. For example, when the point data set includes information enabling confirmation of the occurrence of the event, the controller may confirm the occurrence of the event based on the information enabling confirmation of the occurrence of the event. As a specific example, when the point data set includes a sub-point data set representing an object displaying an accident site, the controller may check the occurrence of an event based on a sub-point data set representing an object representing the accident site. .

또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 제2 장치 또는 제3 장치로부터 이벤트 발생 사실을 포함하는 정보를 획득함에 따라 상기 이벤트 발생을 확인할 수 있다. 이때, 상기 제3 장치는 차량(134, 135), 서버(400), 인프라 장치(700) 등을 포함할 수 있으나, 이에 한정되지 않는다. Also, the present invention is not limited thereto, and the controller may confirm the occurrence of the event by acquiring information including the fact that the event has occurred from the second device or the third device. In this case, the third device may include, but is not limited to, the vehicles 134 and 135 , the server 400 , the infrastructure device 700 , and the like.

예를 들어, 서버(400)가 상기 이벤트 발생을 확인한 경우, 상기 서버(400)는 상기 이벤트가 발생한 영역의 주변에 있는 장치에 이벤트 발생 사실을 포함하는 정보를 전송할 수 있다. 구체적인 예로, 상기 서버(400)는 상기 트래픽 이벤트(6100)가 발생한 사실을 확인한 경우, 상기 트래픽 이벤트(6100)가 발생한 영역의 주변에 위치한 상기 제1 차량(133)에 상기 트래픽 이벤트(6100)가 발생한 사실을 포함하는 정보를 전송할 수 있다. 이 경우, 상기 제1 차량(133)은 상기 트래픽 이벤트가 발생한 사실을 포함하는 정보를 수신한 시점에서 상기 트래픽 이벤트(6100) 발생 사실을 확인할 수 있다.For example, when the server 400 confirms the occurrence of the event, the server 400 may transmit information including the fact that the event has occurred to a device in the vicinity of the area where the event occurred. As a specific example, when the server 400 confirms that the traffic event 6100 has occurred, the traffic event 6100 is transmitted to the first vehicle 133 located in the vicinity of the area where the traffic event 6100 occurred. It can transmit information containing facts that have occurred. In this case, the first vehicle 133 may check the fact that the traffic event 6100 has occurred at the point in time when the information including the fact that the traffic event has occurred is received.

또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 제2 장치 또는 상기 제3 장치 중 적어도 하나로부터 데이터 요청 정보를 획득함에 따라 상기 이벤트 발생을 확인할 수 있다. 이때, 상기 요청 정보는 상기 이벤트가 발생한 사실을 나타내는 정보를 포함할 수 있다. Also, the present invention is not limited thereto, and the controller may check the occurrence of the event as data request information is obtained from at least one of the second device or the third device. In this case, the request information may include information indicating that the event has occurred.

예를 들어, 상기 서버(400)가 상기 제1 차량(133)에 상기 트래픽 이벤트(6100)와 관련된 데이터를 요청하는 요청 정보를 전송하는 경우, 상기 요청 정보는 상기 트래픽 이벤트(6100)가 발생한 사실을 나타내는 정보를 포함하므로, 상기 제1 차량(133)은 상기 요청 정보를 수신한 시점에서 상기 트래픽 이벤트(6100)가 발생한 사실을 확인할 수 있다.For example, when the server 400 transmits request information for requesting data related to the traffic event 6100 to the first vehicle 133 , the request information is the fact that the traffic event 6100 has occurred. Since it includes information indicating

또한, 상기 컨트롤러는 상기 제2 포인트 데이터 셋(3100)을 포함하는 제2 공유 데이터(3000b)를 생성할 수 있다(S5042).In addition, the controller may generate the second shared data 3000b including the second point data set 3100 (S5042).

도 63은 일 실시예에 따른 이벤트 발생 후에 제1 차량에서 전송하는 제2 공유 데이터를 설명하기 위한 도면이다.63 is a diagram for describing second shared data transmitted from the first vehicle after an event occurs according to an embodiment.

도 63을 참조하면, 상기 제1 차량의 컨트롤러는 상기 제2 포인트 데이터 셋을 포함하는 제2 공유 데이터(3000b)를 생성하여 상기 제2 차량(134)에 전송할 수 있다. 이때, 상기 제2 포인트 데이터 셋은 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(134)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)을 포함할 수 있다.Referring to FIG. 63 , the controller of the first vehicle may generate second shared data 3000b including the second point data set and transmit it to the second vehicle 134 . In this case, the second point data set includes a third sub-point data set 2121 representing at least a portion of the second vehicle 134 and a fourth sub-point data set representing at least a portion of the third vehicle 134 ( 2122) may be included.

이때, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 공유 데이터의 컨텐츠와 적어도 일부가 상이할 수 있다. 일 예로, 상기 공유 데이터(3000a, 3000b)를 수신하는 제2 장치는 상기 트래픽 이벤트(6100)와 관련된 보다 정확한 데이터가 필요하므로, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)의 발생을 확인한 후에 획득된 복수의 서브 포인트 데이터 셋(2121,2122)을 포함할 수 있다. 다른 예로, 상기 제2 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도는 상기 제1 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도와 상이할 수 있다. 예를 들어, 상기 제2 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도는 상기 제1 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도보다 클 수 있으나, 이에 한정되지 않는다.In this case, the content of the second shared data may be at least partially different from the content of the first shared data. For example, since the second device receiving the shared data 3000a and 3000b needs more accurate data related to the traffic event 6100, the second shared data 3000b is the occurrence of the traffic event 6100. It may include a plurality of sub-point data sets 2121,2122 obtained after confirming . As another example, the resolution of the sensor for acquiring the sensor data included in the content of the second shared data may be different from the resolution of the sensor for acquiring the sensor data included in the content of the first shared data. For example, the resolution of the sensor for acquiring the sensor data included in the content of the second shared data may be greater than the resolution of the sensor for acquiring the sensor data included in the content of the first shared data, but limited thereto doesn't happen

또한, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100)가 발생한 시점 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 보다 구체적으로, 상기 복수의 포인트 데이터 셋은 상기 트래픽 이벤트(6100) 발생 후에 상기 제1 차량(133)의 센서로부터 획득된 포인트 데이터 셋 뿐만 아니라, 상기 트래픽 이벤트(6100) 발생 이전에 획득된 포인트 데이터 셋을 포함할 수 있다. 이는, 상기 트래픽 이벤트(6100) 발생 전후의 데이터를 통해 상기 트래픽 이벤트(6100)의 발생 원인 등과 관련된 정확한 정보를 얻기 위함 일 수 있다.In addition, the content of the second shared data may include a plurality of point data sets acquired during the first time period before and after the time when the traffic event 6100 occurs. More specifically, the plurality of point data sets include not only the point data sets obtained from the sensor of the first vehicle 133 after the traffic event 6100 occurs, but also point data obtained before the traffic event 6100 occurs. It can contain three. This may be to obtain accurate information related to the cause of the traffic event 6100 through data before and after the occurrence of the traffic event 6100 .

또한, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 이벤트와 관련 있는 속성 데이터를 더 포함할 수 있다.Also, without being limited thereto, the content of the second shared data may further include attribute data related to the event.

물론, 일 실시예에 따른 센서 데이터의 선별적 공유 방법은 도 57에 기재된 단계에 한정되지 않는다. 예를 들어, 제1 장치는 이벤트 발생을 확인하기 전에는 공유 데이터를 생성하지 않을 수 있다. 이에 따라, 상기 이벤트 발생을 확인하기 전에는 상기 제1 장치는 제2 장치에 데이터를 공유하지 않을 수 있다.Of course, the method for selectively sharing sensor data according to an embodiment is not limited to the steps illustrated in FIG. 57 . For example, the first device may not generate the shared data before confirming the occurrence of the event. Accordingly, the first device may not share data with the second device before confirming the occurrence of the event.

4.2.2.2. 데이터 공유 주체4.2.2.2. Data sharing subject

또한, 제1 장치는 상기 제2 공유 데이터를 전송할 수 있다(S5042). Also, the first device may transmit the second shared data (S5042).

이때, 상기 제2 공유 데이터의 수신 주체는 차량, 인프라 장치, 서버, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 상기 제1 장치는 상기 제1 공유 데이터를 전송했던 제2 장치에 상기 제2 공유 데이터를 전송할 수 있다.In this case, the receiving subject of the second shared data may include a vehicle, an infrastructure device, a server, a mobile device, and the like, but is not limited thereto. For example, the first device may transmit the second shared data to a second device that has transmitted the first shared data.

다시 도 61을 참조하면, 상기 제1 차량(133)의 컨트롤러는 상기 트래픽 이벤트(6100)와 관련된 제2 차량(134)에 상기 제2 공유 데이터를 전송할 수 있다. Referring back to FIG. 61 , the controller of the first vehicle 133 may transmit the second shared data to the second vehicle 134 related to the traffic event 6100 .

또한, 이에 한정되지 않고, 상기 컨트롤러가 상기 서버(400)로부터 상기 트래픽 이벤트(600)와 관련된 데이터를 요청하는 요청 정보를 획득한 경우, 상기 컨트롤러는 상기 제2 공유 데이터(3000b)를 상기 서버(400)에 전송할 수 있다. Also, without being limited thereto, when the controller obtains request information for requesting data related to the traffic event 600 from the server 400, the controller transmits the second shared data 3000b to the server ( 400) can be transmitted.

물론, 상기 요청 정보에 공유 데이터 수신 주체와 관련된 정보가 포함되어 있는 경우, 상기 컨트롤러는 상기 공유 데이터 수신 주체와 관련된 정보를 기초로 상기 제2 공유 데이터(3000b)를 전송할 수 있다. 예를 들어, 상기 서버(400)로부터 수신한 요청 정보에 상기 제3 차량(135)에 공유 데이터를 전송하라는 공유 데이터 수신 주체와 관련된 정보가 포함되어 있는 경우, 상기 컨트롤러는 상기 제3 차량(135)에 상기 제2 공유 데이터(3000b)를 전송할 수 있다.Of course, when the request information includes information related to the shared data receiving subject, the controller may transmit the second shared data 3000b based on the information related to the shared data receiving subject. For example, when the request information received from the server 400 includes information related to a shared data receiving subject for transmitting shared data to the third vehicle 135 , the controller controls the third vehicle 135 . ) to transmit the second shared data 3000b.

4.2.2.3. 공유 데이터 생성 시기4.2.2.3. When to create shared data

제1 장치의 컨트롤러는 이벤트 발생을 확인한 경우, 상기 이벤트 발생 시점 이후로 일정 주기로 공유 데이터를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 이벤트 발생 시점 전에 획득된 적어도 하나의 포인트 데이터 셋을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 상기 이벤트 발생 시점 이후에 획득된 적어도 하나의 포인트 데이터 셋을 포함할 수 있다. 이 경우, 상기 컨트롤러는 상기 공유 데이터가 생성될 때 마다 상기 공유 데이터를 제2 장치에 전송할 수 있다.When the controller of the first device confirms the occurrence of the event, the controller of the first device may generate the shared data at a predetermined period after the occurrence of the event. In this case, the content of the shared data may include at least one point data set acquired before the event occurs. Also, without being limited thereto, the content of the shared data may include at least one point data set obtained after the event occurs. In this case, the controller may transmit the shared data to the second device whenever the shared data is generated.

또한, 상기 컨트롤러는 이벤트 발생 시점을 포함하는 제1 시간 구간의 종류 이후에 상기 공유 데이터를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 발생 시점 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 이 경우, 상기 컨트롤러는 상기 공유 데이터가 생성된 이후에 상기 공유 데이터를 제2 장치에 전송할 수 있다.In addition, the controller may generate the shared data after the type of the first time period including the event occurrence time. In this case, the content of the shared data may include a plurality of point data sets obtained during the first time period before and after the generation time point. In this case, the controller may transmit the shared data to the second device after the shared data is generated.

예를 들어, 다시 도 63을 참조하면, 상기 제1 차량(133)은 제2 공유 데이터(3000b)를 상기 제2 차량(134)에 전송할 수 있다. 이때, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)가 발생한 시점으로부터 일정 주기로 생성될 수 있다. 이 경우, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 발생 시점에 획득한 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋(2121, 2122)을 포함할 수 있다. 또한, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 발생 전에 획득한 복수의 포인트 데이터 셋을 포함할 수 있으며, 상기 트래픽 이벤트 발생 후에 획득한 복수의 포인트 데이터 셋을 포함할 수도 있다.For example, referring back to FIG. 63 , the first vehicle 133 may transmit the second shared data 3000b to the second vehicle 134 . In this case, the second shared data 3000b may be generated at a predetermined period from the point in time when the traffic event 6100 occurs. In this case, the content of the second shared data may include a point data set or a plurality of sub-point data sets 2121 and 2122 acquired at the time of occurrence of the traffic event. In addition, the content of the second shared data may include a plurality of point data sets acquired before the traffic event occurs, and may include a plurality of point data sets acquired after the traffic event occurs.

또한, 이에 한정되지 않고, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)가 발생한 시점을 전 후의 제1 시간 구간 종류 후에 생성될 수 있다. 이때, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 전후의 소정 시간을 포함하는 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트가 발생한 시점에 획득된 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋(2121, 2122)을 포함할 수 있다. In addition, the present invention is not limited thereto, and the second shared data 3000b may be generated after the first time period before and after the time when the traffic event 6100 occurs. In this case, the content of the second shared data may include a plurality of point data sets obtained during a first time period including a predetermined time before and after the traffic event. Also, the content of the second shared data is not limited thereto, and may include a point data set or a plurality of sub-point data sets 2121 and 2122 acquired at the time the traffic event occurs.

또한, 이에 한정되지 않고, 상기 공유 데이터는 센서 데이터 획득 시점에 동시에 생성될 수 있다. 물론, 상기 공유 데이터는 상기 센서 데이터 획득 시점과 무관하게 임의의 시점에 생성될 수도 있다.Also, the present invention is not limited thereto, and the shared data may be simultaneously generated at the time of acquiring the sensor data. Of course, the shared data may be generated at any point in time regardless of the point in time of acquiring the sensor data.

4.2.2.4. 이벤트의 다양한 실시예들 4.2.2.4. Various embodiments of events

상기 이벤트(6000)는 제1 장치의 내부 및 외부와 관련된 모든 상황적 조건들을 의미할 수 있다. 예를 들어, 상기 이벤트는 트래픽 이벤트, 환경 이벤트, 규제 이벤트, 블라인드 스팟의 발견, 사용자의 인풋 수신 등을 포함할 수 있으나, 이에 한정되지 않는다.The event 6000 may mean all situational conditions related to the inside and outside of the first device. For example, the event may include, but is not limited to, a traffic event, an environmental event, a regulatory event, discovery of a blind spot, and reception of a user's input.

예를 들어, 상기 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련된 트래픽 이벤트, 상기 제1 장치의 주변 환경과 관련된 환경 이벤트, 및 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련된 규제 이벤트 등을 포함할 수 있으나, 이에 한정되지 않는다. For example, the event may include a traffic event related to at least one of an accident situation related to the first device or an accident situation related to another device around the first device, an environmental event related to the surrounding environment of the first device, and the second device It may include, but is not limited to, a regulation event related to regulation of one device or other devices around the first device.

또한, 다양한 종류의 이벤트와 관련하여 전술한 센서 데이터의 선별적 공유 방법에 대한 실시예들이 적용될 수 있음은 물론이다.In addition, it goes without saying that the embodiments of the method for selectively sharing sensor data described above in relation to various types of events may be applied.

이때, 상기 트래픽 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련될 수 있다. 예를 들어, 상기 트래픽 이벤트는 차량 사고 발생, 차량과 보행자 사이의 사고 발생, 트래픽 잼 발생 등을 포함할 수 있으나, 이에 한정되지 않는다. In this case, the traffic event may be related to at least one of an accident situation related to the first device or an accident situation related to another device around the first device. For example, the traffic event may include, but is not limited to, a vehicle accident, an accident between a vehicle and a pedestrian, and a traffic jam.

도 64는 일 실시예에 따른 트래픽 이벤트 발생 상황을 설명하기 위한 도면이다.64 is a diagram for explaining a traffic event occurrence situation according to an embodiment.

도 64를 참조하면, 차량 사이의 연쇄 추돌 사고는 트래픽 이벤트(6100)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 트래픽 이벤트(6100) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 트래픽 이벤트(6100) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다.Referring to FIG. 64 , a chain collision between vehicles may be included in a traffic event 6100 . In this case, the content of the shared data shared between the data sharing subjects may change before and after the occurrence of the traffic event 6100 . For example, before the traffic event 6100 occurs, shared data including attribute data of a sub-point data set may be shared, but after the traffic event 6100 occurs, at least one of a point data set or a sub-point set Included shared data may be shared.

또한, 상기 환경 이벤트는 상기 제1 장치의 주변 환경과 관련될 수 있다. 예를 들어, 상기 환경 이벤트는 악천후 발생, 도로 상황 악화, 갑작스러운 비 또는 눈이 오는 상황, 안개 또는 해무 발생 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the environmental event may be related to a surrounding environment of the first device. For example, the environmental event may include, but is not limited to, occurrence of bad weather, deterioration of road conditions, sudden rain or snow, fog or sea fog, and the like.

도 65는 일 실시예에 따른 환경 이벤트 발생 상황을 설명하기 위한 도면이다.65 is a diagram for describing an environment event occurrence situation according to an exemplary embodiment.

도 65를 참조하면, 주행 중인 차가 포함되는 영역에 갑자기 내리는 비는 환경 이벤트(6200)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 환경 이벤트(6200) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 환경 이벤트(6200) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 환경 이벤트(6200) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다. Referring to FIG. 65 , rain that suddenly falls on an area including a driving vehicle may be included in an environmental event 6200 . In this case, the content of shared data shared between data sharing subjects may change before and after the occurrence of the environmental event 6200 . For example, before the environmental event 6200 occurs, shared data including attribute data of a sub-point data set may be shared, but after the environmental event 6200 occurs, at least one of a point data set or a sub-point set Included shared data may be shared.

예를 들어, 차량이 운행 중에 갑작스럽게 비가 오는 경우, 상기 차량에 배치된 적어도 하나의 센서는 상기 차량의 주변에 위치하는 복수의 객체에 대한 정확한 센서 데이터를 획득하기 어려울 수 있다. 이에 따라, 상기 차량 및 다른 장치는 보다 정확한 센서 데이터를 공유 하기 위해, 비가오는 경우에는 포인트 데이터 셋 또는 서브 포인트 데이터 셋 중 적어도 일부를 포함하는 공유 데이터를 생성하여 공유할 수 있다.For example, when it rains suddenly while the vehicle is driving, it may be difficult for the at least one sensor disposed in the vehicle to obtain accurate sensor data for a plurality of objects located in the vicinity of the vehicle. Accordingly, in order to share more accurate sensor data, the vehicle and other devices may generate and share shared data including at least a part of a point data set or a sub point data set in case of rain.

다른 예로, 상기 규제 이벤트는 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련될 수 있다. 예를 들어, 상기 규제 이벤트는 어린이 보호 구역 진입, 과속 단속 영역 진입, 외부 서버의 데이터 공유에 대한 승인, 통신 가능 영역 진입 등을 포함할 수 있으나, 이에 한정되지 않는다.As another example, the regulation event may relate to regulation of the first device or another device surrounding the first device. For example, the regulatory event may include, but is not limited to, entry into a child protection zone, entry into a speed enforcement zone, approval for data sharing of an external server, entry into a communicationable zone, and the like.

도 66은 일 실시예에 따른 규제 이벤트 발생 상황을 설명하기 위한 도면이다.66 is a diagram for explaining a regulation event occurrence situation according to an embodiment.

도 66을 참조하면, 주행 중인 차가 어린이 보호 구역에 진입한 상황은 규제 이벤트(6300)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 규제 이벤트(6300) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 규제 이벤트(6300) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 규제 이벤트(6300) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다.Referring to FIG. 66 , a situation in which a driving car enters the child protection zone may be included in a regulation event 6300 . In this case, the content of the shared data shared between the data sharing subjects may change before and after the occurrence of the regulation event 6300 . For example, before the regulatory event 6300 occurs, shared data including attribute data of a sub-point data set may be shared, but after the regulatory event 6300 occurs, at least one of a point data set or a sub-point set Included shared data may be shared.

예를 들어, 차량이 어린이 보호 구역에 진입하는 경우, 상기 차량은 갑작스럽게 도로상에 뛰어드는 보행자와의 충돌을 피하기 어려울 수 있다. 이에 따라, 상기 차량 및 다른 장치는 상기 차량 및 다른 장치로부터 획득된 센서 데이터에 포함되는 적어도 하나의 객체에 대한 정확한 정보를 공유하기 위해, 상기 적어도 하나의 객체를 나타내는 서브 포인트 데이터 셋 또는 포인트 데이터 셋을 포함하는 공유 데이터를 생성하여 공유할 수 있다. For example, when a vehicle enters a child restraint area, it may be difficult to avoid a collision with a pedestrian who abruptly jumps onto the road. Accordingly, in order for the vehicle and other devices to share accurate information on at least one object included in the sensor data obtained from the vehicle and other devices, a sub-point data set or a point data set representing the at least one object You can create and share shared data that includes

또한, 상기 차량에 배치된 적어도 하나의 센서의 시야각 내에 위치하지 않거나, 상기 적어도 하나의 센서로부터 획득된 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 상기 차량이 어린이 보호 구역에 진입한 후에는, 상기 차량은 어린이 보호 구역 내에 위치한 적어도 하나의 인프라 장치로부터 센서 데이터를 수신할 수 있다.In addition, in order to obtain information about an object that is not located within the viewing angle of at least one sensor disposed in the vehicle or is not included in the sensor data obtained from the at least one sensor, the vehicle enters the child protection zone. Afterwards, the vehicle may receive sensor data from at least one infrastructure device located within the child restraint area.

또 다른 예로, 상기 이벤트는 센서 고장 이벤트를 포함할 수 있다. 구체적으로, 적어도 하나의 센서를 포함하는 자율 주행 차량이 주행 중에 센서가 고장난 경우, 센서가 고장난 시점을 전후로 상기 자율 주행 차량 및 다른 장치 간에 공유 되는 공유 데이터의 컨텐츠가 달라질 수 있다.As another example, the event may include a sensor failure event. Specifically, when a sensor fails while an autonomous vehicle including at least one sensor is driving, the content of shared data shared between the autonomous vehicle and other devices may vary before and after the time when the sensor fails.

4.2.3. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (2)4.2.3. Method for selectively sharing sensor data according to an embodiment (2)

도 67은 일 실시예에 따른 서버가 이벤트와 관련된 데이터를 요청하거나 이벤트의 발생을 알리는 방법을 나타내는 도면이다.67 is a diagram illustrating a method in which a server requests data related to an event or notifies occurrence of an event according to an exemplary embodiment.

도 67을 참조하면, 상기 서버는 제1 시간에 제1 영역에서 발생한 이벤트를 확인할 수 있다(S5043). Referring to FIG. 67 , the server may check an event occurring in the first area at the first time ( S5043 ).

상기 서버가 이벤트(트래픽 이벤트에서 이벤트로 변경)를 확인하는 방법과 관련된 구체적인 내용은 목차확인 방법은 목차 4.2.2.1.에 상세히 설명하였으므로 생략하기로 한다.Details related to the method for the server to check an event (change from a traffic event to an event) will be omitted since the method for checking the table of contents has been described in detail in Table of Contents 4.2.2.1.

또한, 상기 제1 시간은 상기 이벤트 발생과 관련되는 대표적인 시간을 의미할 수 있다. 예를 들어, 상기 제1 시간은 상기 이벤트가 실제 발생한 시간을 의미할 수 있다. 또한, 이에 한정되지 않고, 상기 제1 시간은 상기 서버가 상기 이벤트를 확인한 시간을 의미할 수 있다. In addition, the first time may mean a representative time related to the occurrence of the event. For example, the first time may mean a time at which the event actually occurred. Also, without being limited thereto, the first time may mean a time when the server confirms the event.

또한, 상기 제1 영역은 상기 이벤트 발생과 관련되는 대표적인 영역을 의미할 수 있다. 예를 들어, 상기 제1 영역은 상기 이벤트에 관련되는 모든 객체를 포함하는 영역을 의미할 수 있다. 또한, 이에 한정되지 않고, 상기 이벤트가 차량 간의 접촉 사고인 경우, 상기 제1 영역은 상기 차량 간의 접촉이 발생한 시점에서 접촉이 발생한 지점을 의미할 수 있고, 상기 접촉이 발생한 지점을 포함하는 소정 영역을 의미할 수도 있다. Also, the first area may mean a representative area related to the occurrence of the event. For example, the first area may mean an area including all objects related to the event. In addition, the present invention is not limited thereto, and when the event is a vehicle-to-vehicle contact accident, the first area may mean a point at which the vehicle-to-vehicle contact occurred at the time point, and a predetermined area including the contact point. may mean

또한, 상기 서버는 상기 이벤트와 관련된 센서 데이터를 요청하는 제1 메시지를 제1 장치에 전송할 수 있다(S5044)Also, the server may transmit a first message requesting sensor data related to the event to the first device (S5044)

또한, 상기 서버는 상기 이벤트 발생 사실을 알리는 제2 메시지를 제2 장치에 전송할 수 있다(S5045).Also, the server may transmit a second message informing of the occurrence of the event to the second device (S5045).

또한, 상기 서버는 상기 제1 장치로부터 상기 이벤트와 관련된 센서 데이터를 수신할 수 있다(S5046).Also, the server may receive sensor data related to the event from the first device (S5046).

전술한 서버의 동작 방법에 포함되는 단계 중 메시지 전송과 공유 데이터 수신에 대한 단계에 관련된 상세한 내용은 아래에서 설명한다.Among the steps included in the above-described method of operating the server, details related to the steps for message transmission and shared data reception will be described below.

4.2.3.1. 메시지 전송 범위 4.2.3.1. message transmission range

이벤트를 확인한 서버는 상기 이벤트가 발생한 제1 영역 주변에 위치하는 제1 장치에 데이터를 요청할 수 있다. 이때, 상기 서버는 상기 제1 장치에 센서 데이터를 요청할 수도 있으나, 센서 데이터 외에 다양한 데이터를 요청할 수도 있다. The server confirming the event may request data from the first device located around the first area where the event occurred. In this case, the server may request sensor data from the first device, or may request various data other than sensor data.

도 68은 일 실시예에 따른 서버 및 차량이 데이터 공유를 위해 통신을 수행하는 상황을 나타내는 도면이다.68 is a diagram illustrating a situation in which a server and a vehicle perform communication for data sharing according to an embodiment.

도 68을 참조하면, 제1 차량(136)은 상기 이벤트(6100)가 발생한 영역으로부터 제1 범위(7100)내에 위치하고, 상기 제1 차량(136)은 적어도 하나의 센서를 통해 트래픽 이벤트(6100)와 관련된 센서 데이터를 획득할 수 있다.Referring to FIG. 68 , the first vehicle 136 is located within a first range 7100 from the region where the event 6100 occurs, and the first vehicle 136 receives a traffic event 6100 through at least one sensor. It is possible to acquire sensor data related to

또한, 상기 제1 차량(136)이 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제1 범위(7100) 내에 위치하는 경우, 상기 트래픽 이벤트(6100)를 확인한 서버(400)는 상기 제1 차량(136)에 센서 데이터를 요청하는 제1 메시지를 전송할 수 있다.In addition, when the first vehicle 136 is located within a first range 7100 from the first area where the traffic event 6100 occurs, the server 400 confirming the traffic event 6100 sends the first vehicle A first message requesting sensor data may be sent to 136 .

이때, 상기 제1 범위(7100)는 상기 제1 영역을 기준으로 하는 소정의 형상의 내부에 포함되는 영역에 대응될 수 있다. 예를 들어, 상기 제1 범위는 불규칙한 형상의, 원형, 또는 다각형상 등의 내부에 포함되는 영역일 수 있으나, 이에 한정되지 않는다.In this case, the first range 7100 may correspond to an area included in a predetermined shape based on the first area. For example, the first range may be an area included in an irregular shape, a circular shape, or a polygonal shape, but is not limited thereto.

또한, 상기 제1 범위(7100)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위 내에 위치하는 제1 장치가 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되는 경우, 상기 제1 장치가 상기 제1 영역으로부터 상기 제1 범위내에 위치하도록 상기 제1 범위가 설정될 수 있다.Also, the first range 7100 may be determined based on sensor data. More specifically, when the object related to the traffic event is included in the sensor data acquired by the first device located within the first range, the first device is located within the first range from the first area. 1 range can be set.

또한, 상기 제1 범위(7100)는 제1 서브 범위 및 제2 서브 범위를 포함할 수 있다.Also, the first range 7100 may include a first sub-range and a second sub-range.

도 69는 일 실시예에 따른 제1 범위에 포함되는 제1 서브 범위를 설명하기 위한 도면이다.69 is a diagram for describing a first sub-range included in the first range, according to an exemplary embodiment.

도 69를 참조하면, 상기 제1 범위(7100)는 상기 트래픽 이벤트(6100)가 발생한 영역을 기준으로 구형상의 내부를 포함할 수 있다. Referring to FIG. 69 , the first range 7100 may include a spherical interior with respect to the area where the traffic event 6100 occurs.

또한, 제4 차량(139)은 상기 제1 범위(7100)에 포함되는 제1 서브 범위(7110) 내에 위치할 수 있다. 이때, 상기 제1 서브 범위(7110)는 상기 제1 범위(7100) 내에서 상기 트래픽 이벤트(6100)와 관련된 정보를 획득 가능한 영역에 대응될 수 있다. 보다 구체적으로, 상기 제4 차량(139)이 상기 제1 서브 범위(7110) 내에 위치하는 경우, 상기 제4 차량(139)은 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 데이터를 획득할 수 있다.Also, the fourth vehicle 139 may be located within the first sub-range 7110 included in the first range 7100 . In this case, the first sub-range 7110 may correspond to an area in which information related to the traffic event 6100 can be obtained within the first range 7100 . More specifically, when the fourth vehicle 139 is located within the first sub-range 7110 , the fourth vehicle 139 obtains data related to the traffic event 6100 through at least one sensor. can do.

또한, 상기 제1 서브 범위(7110)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위(7100) 내에 위치하는 제4 차량(139)이 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되는 경우, 상기 제4 차량(139)이 상기 제1 영역으로부터 상기 제1 서브 범위(7110)내에 위치하도록 상기 제1 서브 범위(7110)가 설정될 수 있다. 이때, 상기 제4 차량(139)이 획득한 센서 데이터는 상기 트래픽 이벤트(6100)와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있다.Also, the first sub-range 7110 may be determined based on sensor data. More specifically, when the object related to the traffic event is included in the sensor data acquired by the fourth vehicle 139 located within the first range 7100, the fourth vehicle 139 moves from the first area The first sub-range 7110 may be set to be located within the first sub-range 7110 . In this case, the sensor data acquired by the fourth vehicle 139 may include a sub-point data set indicating at least a portion of an object related to the traffic event 6100 .

또한, 제3 차량(138)은 상기 제1 범위(7100)에 포함되는 제2 서브 범위(7120) 내에 위치할 수 있다. 이때, 상기 제2 서브 범위(7120)는 상기 제1 범위(7100) 내에서 상기 트래픽 이벤트(6100)와 관련된 정보를 획득할 수 없는 영역에 대응될 수 있다. 보다 구체적으로, 상기 제3 차량(138)이 상기 제2 서브 범위(7120) 내에 위치하는 경우, 상기 제3 차량(138)은 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 데이터를 획득할 수 없다.Also, the third vehicle 138 may be located within the second sub-range 7120 included in the first range 7100 . In this case, the second sub-range 7120 may correspond to an area in which information related to the traffic event 6100 cannot be obtained within the first range 7100 . More specifically, when the third vehicle 138 is located within the second sub-range 7120 , the third vehicle 138 obtains data related to the traffic event 6100 through at least one sensor. Can not.

또한, 상기 제2 서브 범위(7120)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위(7100) 내에 위치하는 제3 차량(138)이 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되지 않거나, 상기 센서 데이터와 상기 트래픽 이벤트에 관련된 객체가 관련성이 낮을 경우, 상기 제3 차량(138)이 상기 제1 영역으로부터 상기 제2 서브 범위(7120)내에 위치하도록 상기 제2 서브 범위(7120)가 설정될 수 있다. 이때, 상기 제3 차량(138)이 획득한 센서 데이터는 상기 트래픽 이벤트(6100)와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다.Also, the second sub-range 7120 may be determined based on sensor data. More specifically, the object related to the traffic event is not included in the sensor data acquired by the third vehicle 138 located within the first range 7100, or the sensor data and the object related to the traffic event are not related. When it is low, the second sub-range 7120 may be set such that the third vehicle 138 is located within the second sub-range 7120 from the first area. In this case, the sensor data obtained by the third vehicle 138 may not include a sub-point data set indicating at least a portion of an object related to the traffic event 6100 .

또한, 상기 서버는 상기 트래픽 이벤트가 발생한 영역 주변에 위치하는 제2장치에 상기 트래픽 이벤트 발생 사실을 알릴 수 있다.Also, the server may notify the fact that the traffic event has occurred to a second device located around the area where the traffic event occurred.

다시 도 68을 참조하면, 제2 차량(137)은 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제2 범위(7200) 내에 위치할 수 있다. Referring back to FIG. 68 , the second vehicle 137 may be located within a second range 7200 from the first area where the traffic event 6100 occurs.

또한, 상기 제2 차량(137)이 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제1 범위(7100) 외측의 소정 영역을 나타내는 제2 범위(7200) 내에 위치하는 경우, 상기 서버는 제2 차량(137)에 상기 트래픽 이벤트가 발생한 사실을 알리는 제2 메시지를 전송할 수 있다.In addition, when the second vehicle 137 is located within a second range 7200 indicating a predetermined area outside the first range 7100 from the first area where the traffic event 6100 occurs, the server A second message informing the vehicle 137 that the traffic event has occurred may be transmitted.

이때, 상기 제2 범위(7200)는 상기 제1 범위(7100) 외측 영역 중 상기 제1 영역을 기준으로 하는 소정의 형상의 내부에 포함되는 영역에 대응될 수 있다. 예를 들어, 상기 제2 범위는 상기 제1 범위(7100) 외측 영역 중 불규칙한 형상의, 원형, 또는 다각형상 등의 내부에 포함되는 영역일 수 있으나, 이에 한정되지 않는다.In this case, the second range 7200 may correspond to an area included inside a predetermined shape based on the first area among the areas outside the first range 7100 . For example, the second range may be an area included in an irregular shape, a circle shape, or a polygon shape among the areas outside the first range 7100 , but is not limited thereto.

다시 도 68을 참조하면, 상기 제2 차량(137)의 경로는 상기 트래픽 이벤트(6100)가 발생한 제1 영역과 관련될 수 있다. 보다 구체적으로, 상기 제1 영역으로부터 상기 제2 범위(7200) 내에 위치하는 상기 제2 차량(137)의 경로 상에 상기 트래픽 이벤트(6100)와 관련되는 제1 영역이 관련되는 경우, 상기 서버(400)는 상기 제2 차량(137)에 트래픽 이벤트 발생 사실을 알리는 제2 메시지를 전송할 수 있다. Referring back to FIG. 68 , the path of the second vehicle 137 may be related to the first area in which the traffic event 6100 occurs. More specifically, when the first area related to the traffic event 6100 is related on the path of the second vehicle 137 located within the second range 7200 from the first area, the server ( 400 may transmit a second message informing the second vehicle 137 that a traffic event has occurred.

또한, 상기 제2 범위(7200)는 상기 제2 차량(137)의 경로를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제2 차량(137)의 경로가 상기 트래픽 이벤트(6100)가 발생한 제1 영역과 관련되는 경우, 상기 서버(400)는 상기 제2 차량(137)이 상기 제2 범위(7200) 내에 위치하도록 상기 제2 범위(7200)를 결정할 수 있다.Also, the second range 7200 may be determined based on the path of the second vehicle 137 . More specifically, when the path of the second vehicle 137 is related to the first area in which the traffic event 6100 occurs, the server 400 determines that the second vehicle 137 is located within the second range 7200. ) may be determined to be within the second range 7200 .

또한, 상기 제2 범위는 상기 제1 범위를 포함할 수 있다. 이 경우, 상기 서버는 상기 제1 범위 내에 위치하는 차량에 제1 메시지 및 제2 메시지를 전송할 수 있다.Also, the second range may include the first range. In this case, the server may transmit the first message and the second message to the vehicle located within the first range.

4.2.3.2. 공유 데이터의 수신4.2.3.2. Receiving shared data

또한, 상기 서버는 상기 제1 메시지에 대한 응답으로 상기 제1 장치로부터 센서 데이터를 수신할 수 있다. 이때, 상기 센서 데이터는 포인트 데이터 셋, 서브 포인트 데이터 셋, 서브 포인트 데이터 셋의 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, the server may receive sensor data from the first device in response to the first message. In this case, the sensor data may include, but is not limited to, a point data set, a sub-point data set, and attribute data of a sub-point data set.

도 70은 일 실시예에 따른 제1 차량이 서버에 전송하는 공유 데이터에 포함되는 데이터를 설명하기 위한 도면이다.70 is a diagram for describing data included in shared data transmitted by the first vehicle to a server according to an exemplary embodiment.

도 70을 참조하면, 제1 범위 내에 포함되는 상기 제1 차량(136)은 상기 제1 메시지에 대한 응답으로, 상기 서버(400)에 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100)가 발생한 제1 시점에서 획득된 제1 포인트 데이터 셋(2106)을 포함할 수 있다. Referring to FIG. 70 , the first vehicle 136 included in a first range may transmit shared data 3000 to the server 400 in response to the first message. In this case, the content of the shared data may include a first point data set 2106 obtained at a first time point when the traffic event 6100 occurs.

또한, 상기 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100) 발생 전후에대한 정보를 공유하기 위해, 상기 트래픽 이벤트가 발생한 제1 시간을 포함하는 제1 시간 구간동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 이때, 상기 복수의 포인트 데이터 셋은 상기 제1 포인트 데이터 셋(2106)을 포함할 수 있다. In addition, the content of the shared data may include a plurality of point data sets obtained during a first time period including the first time when the traffic event 6100 occurs in order to share information about before and after the occurrence of the traffic event 6100. can In this case, the plurality of point data sets may include the first point data set 2106 .

또한, 상기 공유 데이터의 생성 시기와 관련된 내용은 목차 4.2.2.3.에 상세히 설명하였으므로 생략하기로 한다.In addition, since the content related to the generation time of the shared data has been described in detail in 4.2.2.3. of the table of contents, it will be omitted.

또한, 상기 공유 데이터를 수신한 서버(400)는 상기 공유 데이터의 컨텐츠에 포함된 복수의 포인트 데이터 셋을 기초로, 상기 트래픽 이벤트를 재구성할 수 있다. 보다 구체적으로, 상기 서버(400)는 상기 제1 시간 구간동안 획득된 상기 트래픽 이벤트와 관련된 복수의 포인트 데이터 셋을 시간 순서대로 나열하여 상기 트래픽 이벤트를 재구성할 수 있다. 또한, 상기 서버(400)는 상기 제1 시간 구간동안 획득된 상기 트래픽 이벤트와 관련된 복수의 포인트 데이터 셋을 리샘플링하여 상기 트래픽 이벤트를 재구성할 수 있다. In addition, the server 400 receiving the shared data may reconstruct the traffic event based on a plurality of point data sets included in the content of the shared data. More specifically, the server 400 may reconstruct the traffic event by arranging a plurality of point data sets related to the traffic event acquired during the first time period in chronological order. Also, the server 400 may re-sample the plurality of point data sets related to the traffic event acquired during the first time period to reconstruct the traffic event.

상기 트래픽 이벤트를 재구성하는 방식은 해당 분야의 통상의 기술자가 사용할 수 있는 것으로, 트래픽 이벤트를 재구성하는 방식에 대한 상세한 설명은 생략한다.The method of reconfiguring the traffic event can be used by a person skilled in the art, and a detailed description of the method of reconfiguring the traffic event will be omitted.

또한, 재구성된 트래픽 이벤트는 적어도 하나의 차량에 전송되어 상기 적어도 하나의 차량의 인포테인먼트 시스템을 통해 탑승자에게 디스플레이될 수 있다. 또한, 이에 한정되지 않고, 상기 재구성된 트래픽 이벤트는 외부 기관에 전송될 수도 있다.In addition, the reconfigured traffic event may be transmitted to at least one vehicle and displayed to a passenger through an infotainment system of the at least one vehicle. Also, without being limited thereto, the reconfigured traffic event may be transmitted to an external organization.

4.2.3.3. 메시지에 포함되는 정보4.2.3.3. Information contained in the message

도 71은 일 실시예에 따른 제1 메시지에 포함되는 정보를 설명하기 위한 도면이다.71 is a diagram for explaining information included in a first message according to an embodiment.

도 71을 참조하면, 차량의 적어도 하나의 인포테인먼트 시스템에 포함되는 메시지창(1430)에 서버로부터 수신한 제1 메시지(1431)가 디스플레이될 수 있다.Referring to FIG. 71 , the first message 1431 received from the server may be displayed on a message window 1430 included in at least one infotainment system of the vehicle.

또한, 상기 제1 메시지(1431)는 상기 이벤트의 발생 시간과 관련되는 시간 정보를 포함할 수 있다. 이때, 상기 시간 정보는 상기 이벤트가 제1 시간에 발생한 사실을 나타내는 제1 정보를 포함할 수 있다. 또한, 상기 차량의 컨트롤러는 상기 제1 메시지(1431)를 수신한 시점, 상기 시간 정보를 획득한 시점, 또는 상기 제1 정보를 획득한 시점 중 적어도 하나에 상기 이벤트가 발생한 사실을 확인할 수 있다. Also, the first message 1431 may include time information related to the occurrence time of the event. In this case, the time information may include first information indicating that the event occurred at a first time. Also, the controller of the vehicle may confirm that the event occurred at at least one of a time point at which the first message 1431 is received, a time point at which the time information is obtained, and a time point at which the first information is obtained.

또한, 상기 제1 메시지(1431)는 상기 이벤트와 관련된 데이터에 대한 요청 정보를 포함할 수 있다. Also, the first message 1431 may include request information for data related to the event.

또한, 상기 차량의 컨트롤러는 상기 차량에 탑승한 탑승자로부터 상기 제1 메시지(14310)에 응답하는 인풋을 수신할 수 있다. 이때, 상기 컨트롤러는 상기 탑승자로부터 상기 이벤트와 관련된 데이터의 전송을 수락하는 인풋을 수신할 수 있고, 상기 이벤트와 관련된 데이터의 전송을 거절하는 인풋을 수신할 수도 있다. Also, the controller of the vehicle may receive an input in response to the first message 14310 from a passenger riding in the vehicle. In this case, the controller may receive an input for accepting transmission of data related to the event from the passenger, and may receive an input for rejecting transmission of data related to the event.

상기 컨트롤러가 상기 탑승자로부터 상기 이벤트와 관련된 데이터의 전송을 수락하는 인풋을 수신한 경우, 상기 컨트롤러는 상기 이벤트와 관련되는 객체의 적어도 일부를 나타내는 적어도 하나의 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성하여 상기 서버 또는 상기 이벤트에 관련되는 객체에 전송할 수 있다.When the controller receives an input for accepting transmission of data related to the event from the passenger, the controller generates shared data including at least one sub-point data set representing at least a portion of an object related to the event to transmit to the server or an object related to the event.

도 72는 일 실시예에 따른 제2 메시지에 포함되는 정보를 설명하기 위한 도면이다.72 is a diagram for explaining information included in a second message according to an embodiment.

도 72를 참조하면, 차량의 적어도 하나의 인포테인먼트 시스템에 포함되는 메시지창(1430)에 서버로부터 수신한 제2 메시지(1432)가 디스플레이될 수 있다.Referring to FIG. 72 , the second message 1432 received from the server may be displayed on a message window 1430 included in at least one infotainment system of the vehicle.

또한, 상기 제2 메시지(1432)는 상기 이벤트의 발생 위치와 관련되는 위치 정보를 포함할 수 있다. 이때, 상기 위치 정보는 상기 이벤트가 제1 영역에서 발생한 사실을 나타내는 제2 정보를 포함할 수 있다. 또한, 상기 차량의 컨트롤러는 상기 제2 메시지(1432)를 수신한 시점, 상기 위치 정보를 획득한 시점, 상기 제2 정보를 획득한 시점 중 적어도 하나에 상기 이벤트가 발생한 사실을 확인할 수 있다.In addition, the second message 1432 may include location information related to the occurrence location of the event. In this case, the location information may include second information indicating that the event occurred in the first area. Also, the controller of the vehicle may confirm that the event has occurred at at least one of a time when the second message 1432 is received, a time when the location information is obtained, and a time when the second information is obtained.

또한, 상기 제2 메시지(1432)는 상기 제1 메시지에 포함된 정보들 중 적어도 일부를 포함할 수 있다. 예를 들어, 상기 제2 메시지(1432)는 상기 이벤트가 제1 시간에 발생한 사실을 나타내는 시간 정보를 포함할 수 있으나, 이에 한정되지 않는다.Also, the second message 1432 may include at least a portion of information included in the first message. For example, the second message 1432 may include time information indicating that the event occurred at the first time, but is not limited thereto.

또한, 실시예에 따라, 이벤트 발생을 확인한 서버는 상기 이벤트와 관련된 장치 및 상기 장치의 주변에 위치하는 장치 간에 지속적인 데이터 공유를 요청하는 메시지를 전송할 수 있다. 예를 들어, 서버가 갑작스럽게 비가 오는 상황 등 환경 이벤트가 발생한 사실을 확인한 경우, 상기 서버는 상기 환경 이벤트와 관련되는 복수의 차량들 사이의 지속적인 데이터 공유를 요청하는 메시지를 전송할 수 있다. Also, according to an embodiment, the server confirming the occurrence of the event may transmit a message requesting continuous data sharing between the device related to the event and devices located in the vicinity of the device. For example, when the server confirms that an environmental event such as a sudden rain situation has occurred, the server may transmit a message requesting continuous data sharing between a plurality of vehicles related to the environmental event.

또한, 실시예에 따라, 서버가 적어도 하나의 센서가 배치된 자율 주행 차량에 센서 고장 이벤트가 발생한 사실을 확인할 수 있다. 이 경우, 상기 서버는 센서 고장에 따라 발생할 수 있는 상기 자율 주행 차량에 대한 사고 위험을 방지하기 위해, 상기 자율 주행 차량의 주변에 위치한 장치에 상기 자율 주행 차량에 데이터를 공유할 것을 요청하는 메시지를 전송할 수 있다.Also, according to an embodiment, the server may confirm that a sensor failure event has occurred in the autonomous vehicle in which at least one sensor is disposed. In this case, the server sends a message requesting a device located in the vicinity of the autonomous vehicle to share data with the autonomous vehicle in order to prevent the risk of an accident to the autonomous vehicle that may occur due to a sensor failure. can be transmitted

4.2.4. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (3)4.2.4. Method for selectively sharing sensor data according to an embodiment (3)

도 73은 범위에 따른 센서 데이터의 선별적 공유 방법과 관련된 실시예를 설명하기 위한 도면이다.73 is a diagram for explaining an embodiment related to a method for selectively sharing sensor data according to a range.

도 73을 참조하면, 제2 장치 및 제3 장치는 적어도 하나의 센서를 이용해 포인트 데이터 셋을 획득할 수 있다(S5047).Referring to FIG. 73 , the second device and the third device may acquire a point data set using at least one sensor ( S5047 ).

또한, 트래픽 이벤트가 발생한 영역으로부터 통신 가능 범위에 포함되는 제3 범위 내에 위치하는 상기 제2 장치는 제1 장치에 포인트 데이터 셋을 포함하는 제1 공유 데이터를 전송할 수 있다(S5048).In addition, the second device located within a third range included in the communicable range from the area where the traffic event occurred may transmit the first shared data including the point data set to the first device (S5048).

이때, 상기 제3 범위는 상기 트래픽 이벤트와 관련된 데이터를 획득할 수 있는 범위를 의미할 수 있다. 또한, 상기 제3 범위는 전술한 목차 4.2.3.1.에 포함되는 제1 범위를 결정하는 방식과 동일한 방식으로 결정될 수 있다.In this case, the third range may mean a range in which data related to the traffic event can be obtained. In addition, the third range may be determined in the same manner as the method of determining the first range included in 4.2.3.1.

또한 제1 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋을 포함할 수 있지만, 이에 한정되지 않고, 상기 제1 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋, 상기 포인트 데이터 셋에 포함되는 적어도 하나의 서브 포인트 데이터 셋, 또는 상기 적어도 하나의 서브 포인트 데이터 셋의 속성 데이터, 상기 제2 장치에 대한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.In addition, the content of the first shared data may include the point data set, but is not limited thereto, and the content of the first shared data is the point data set and at least one sub-point data set included in the point data set. , or at least one of attribute data of the at least one sub-point data set and information on the second device, but is not limited thereto.

또한, 상기 트래픽 이벤트가 발생한 영역으로부터 통신 가능 범위 내에 위치하되, 상기 제3 범위 밖에 위치하는 제3 장치는 제1 장치에 상기 제3 장치의 위치 정보를 포함하는 제2 공유 데이터를 전송할 수 있다(S5049).In addition, a third device located within a communicable range from the area where the traffic event occurred, but located outside the third range may transmit second shared data including location information of the third device to the first device ( S5049).

이때, 상기 통신 가능 범위는 상기 트래픽 이벤트에 관련되는 객체와 데이터 공유를 위한 통신이 가능한 소정 영역을 의미할 수 있다. 예를 들어, 상기 통신 가능 범위는 상기 트래픽 이벤트에 관련되는 차량이 V2X 시스템을 통해 다른 장치와 통신할 수 있는 영역을 포함할 수 있다.In this case, the communicable range may mean a predetermined area in which communication for sharing data with an object related to the traffic event is possible. For example, the communication range may include an area in which the vehicle involved in the traffic event can communicate with other devices through the V2X system.

또한, 상기 제2 공유 데이터의 컨텐츠는 상기 제3 장치의 위치 정보를 포함할 수 있지만, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 제3 장치에 대한 기본 정보를 포함할 수 있다. 이때, 상기 제3 장치의 위치 정보는 상기 제3 장치의 GPS 정보를 포함할 수 있다. 또한, 제3 장치의 위치 정보는 상기 제3 장치의 주변에 위치하는 제4 장치에 포함되는 적어도 하나의 센서로부터 획득된 상기 제3 장치의 위치 좌표를 포함할 수 있다.In addition, the content of the second shared data may include location information of the third device, but is not limited thereto, and the content of the second shared data may include basic information about the third device. In this case, the location information of the third device may include GPS information of the third device. Also, the location information of the third device may include location coordinates of the third device obtained from at least one sensor included in a fourth device positioned around the third device.

4.2.5. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (4)4.2.5. Method for selectively sharing sensor data according to an embodiment (4)

도 74는 일 실시예에 따른 규제 이벤트와 관련하여 차량의 주행 중 블라인드 스팟에 따른 데이터의 선별적 공유 방법을 설명하기 위한 도면이다.74 is a view for explaining a method of selectively sharing data according to a blind spot while driving of a vehicle in relation to a regulatory event according to an exemplary embodiment.

도 74를 참조하면, 제1 장치(예를 들어, 차량)은 어린이 보호 구역과 같은 특정 규제 영역에 진입할 수 있다(S5050). 여기서, 특정 규제 영역은 다른 영역에 비하여 제1 장치에 있어서 법적인 규제 또는 관습적인 규제가 적용되는 영역을 의미할 수 있다. 예를 들어, 어린이 보호 구역은 어린이를 차량으로부터 보호하기 위하여, 차량의 주행속도가 소정 속도 이하로 규제되고, 어린이를 포함한 보행자의 안전에 특별히 주의해야 하는 영역을 의미할 수 있다. 따라서, 어린이 보호구역 내에서, 제1 장치는 다른 구역보다 특히 주변 보행자의 위치 또는 움직임을 정확하게 확인해야 할 수 있다.Referring to FIG. 74 , a first device (eg, a vehicle) may enter a specific regulated area, such as a child protection area ( S5050 ). Here, the specific regulatory region may mean a region to which a legal regulation or a customary regulation is applied in the first device compared to other regions. For example, the child protection zone may refer to an area in which a driving speed of a vehicle is regulated to a predetermined speed or less in order to protect a child from a vehicle, and special attention must be paid to the safety of pedestrians including children. Thus, within the child restraint zone, the first device may have to accurately ascertain the position or movement of nearby pedestrians, in particular, more precisely than in other zones.

또한, 상기 제1 장치는 어린이 보호 구역 내에 배치된 제2 장치에 상기 제1 장치의 센서의 시야각 내에 객체를 인지할 수 없는 블라인드 스팟이 존재하는지 여부에 대한 판단을 요청할 수 있다.Also, the first device may request the second device disposed in the child protection zone to determine whether a blind spot where an object cannot be recognized exists within a viewing angle of a sensor of the first device.

또한, 어린이 보호 구역 내에 배치된 제2 장치(예를 들어, 인프라 장치)는 상기 제1 장치에 상기 제1 장치가 어린이 보호 구역에 진입하였음을 알릴 수 있다(S5051). 이때, 상기 제2 장치가 상기 제1 장치에 상기 제1 장치가 어린이 보호 구역에 진입하였음을 알리는 방법은 전술한 규제 이벤트가 발생한 사실을 알리는 알림 메시지를 전송하는 것을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 이에 한정되지 않고, 상기 제1 장치는 상기 제1 장치가 어린이 보호 구역에 진입한 사실을 상기 제2 장치에 알릴 수 있다.In addition, a second device (eg, an infrastructure device) disposed in the child protection zone may notify the first device that the first device has entered the child protection zone ( S5051 ). In this case, the method by the second device notifying the first device that the first device has entered the child protection area may include transmitting a notification message informing that the above-described regulatory event has occurred, but is not limited thereto. does not Also, without being limited thereto, the first device may notify the second device of the fact that the first device has entered the child protection zone.

또한, 상기 제2 장치는 상기 제1 장치가 어린이 보호 구역에 진입한 경우, 상기 제1 장치에 제1 공유 데이터를 전송할 수 있다(S5052). 이때, 상기 제1 공유 데이터의 컨텐츠는 상기 제2 장치에 배치된 적어도 하나의 센서로부터 획득된 센서 데이터, 상기 센서 데이터 외에 기타 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 상기 센서 데이터는 포인트 데이터 셋, 서브 포인트 데이터 셋, 상기 서브 포인트 데이터 셋의 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.Also, when the first device enters the child protection zone, the second device may transmit the first shared data to the first device (S5052). In this case, the content of the first shared data may include, but is not limited to, sensor data acquired from at least one sensor disposed in the second device, and other data in addition to the sensor data. For example, the sensor data may include, but is not limited to, a point data set, a sub-point data set, and attribute data of the sub-point data set.

또한, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟을 감지할 수 있다(S5053). 이때, 상기 제2 장치가 상기 제1 장치와 관련된 블라인드 스팟을 감지하는 방법은 다양한 방법을 포함할 수 있다. Also, the second device may detect a blind spot related to the first device (S5053). In this case, a method for the second device to detect a blind spot related to the first device may include various methods.

일 예로, 상기 제1 장치가 스스로 상기 제1 장치와 관련된 블라인드 스팟을 감지하여 상기 제2 장치에 블라인드 스팟 관련 정보를 전송할 수 있다. 구체적인 예로, 상기 제1 장치가 차량인 경우, 상기 차량은 외부로부터 수신한 고정밀 지도와 상기 차량에 배치된 적어도 하나의 센서로부터 획득한 센서 데이터를 비교하여 상기 센서 데이터에 포함되지 않은 객체가 상기 고정밀 지도 상에 포함되는 경우, 블라인드 스팟이 존재한다고 판단할 수 있다. 이 경우, 상기 차량은 상기 제2 장치에 블라인드 스팟의 존재와 관련된 정보를 전송할 수 있다. For example, the first device may detect a blind spot related to the first device by itself and transmit blind spot related information to the second device. As a specific example, when the first device is a vehicle, the vehicle compares a high-precision map received from the outside with sensor data obtained from at least one sensor disposed in the vehicle, so that an object not included in the sensor data is determined to be the high-precision map. When included on the map, it may be determined that a blind spot exists. In this case, the vehicle may transmit information related to the existence of the blind spot to the second device.

또한, 이에 한정되지 않고, 상기 제1 장치는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 획득된 센서 데이터 상에서 지면과 관련된 데이터와 지면이 아닌 데이터의 비율을 기초로 블라인드 스팟을 감지할 수 있다. 보다 구체적으로, 상기 제1 장치가 획득한 센서 데이터 상에 포함된 객체에 의해 가려지는 지면이 아닌 데이터의 비율이 소정 비율 이상인 경우, 상기 제1 장치는 블라인드 스팟이 존재한다고 판단하여 상기 제2 장치에 상기 블라인드 스팟의 존재와 관련된 정보를 전송할 수 있다.Also, without being limited thereto, the first device may detect a blind spot based on a ratio of ground-related data and non-ground data on sensor data acquired through at least one sensor disposed in the first device. have. More specifically, when the ratio of non-ground data covered by an object included in the sensor data acquired by the first device is equal to or greater than a predetermined ratio, the first device determines that a blind spot exists and the second device information related to the existence of the blind spot may be transmitted to .

다른 예로, 상기 제1 장치가 어린이 보호 구역과 같은 특정 규제 영역에 진입하는 경우, 상기 제1 장치와 관련된 블라인드 스팟이 실제로 존재하는지 여부와 관계없이 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟이 존재한다고 판단할 수 있다. 구체적으로, 어린이 보호 구역과 같은 특정 규제 영역의 경우, 상기 제1 장치와 보행자 사이의 충돌 위험성이 높으므로, 상기 제2 장치는 상기 제1 장치가 어린이 보호 구역에 진입하는 시점에서 상기 제1 장치와 관련된 블라인드 스팟이 존재한다고 판단할 수 있다.As another example, when the first device enters a specific regulated area, such as a child restraint area, the second device detects a blind spot associated with the first device regardless of whether a blind spot associated with the first device actually exists. It can be judged that this exists. Specifically, in the case of a specific regulated area, such as a child protection zone, since the risk of collision between the first device and a pedestrian is high, the second device activates the first device when the first device enters the child protection zone. It may be determined that a blind spot related to .

또한, 이에 한정되지 않고, 상기 제2 장치는 상기 제2 장치에 배치된 적어도 하나의 센서를 통해 획득한 센서 데이터를 기초로 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다. 다시 말해, 상기 제2 장치가 획득한 센서 데이터에 포함되는 상기 제1 장치를 포함한 복수의 객체의 위치 관계를 기초로, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다. 보다 구체적으로, 상기 제2 장치가 상기 제1 장치의 위치 정보를 기초로, 상기 제1 장치에서 상기 센서 데이터에 포함되는 특정 객체를 인지할 수 없다고 판단한 경우, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다.Also, the present invention is not limited thereto, and the second device may determine the existence of the blind spot related to the first device based on sensor data acquired through at least one sensor disposed in the second device. In other words, based on the positional relationship of a plurality of objects including the first device included in the sensor data obtained by the second device, the second device may determine the existence of a blind spot related to the first device have. More specifically, when the second device determines that the first device cannot recognize a specific object included in the sensor data based on the location information of the first device, the second device It is possible to determine the existence of a blind spot related to .

또한, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟이 감지된 경우, 제2 공유 데이터를 상기 제1 장치에 전송할 수 있다. 이때, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 장치의 블라인드 스팟 내에 위치한 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있으나, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수도 있다. 또한, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 장치의 블라인드 스팟 내에 위치한 객체에 대한 데이터 뿐만 아니라, 상기 제2 장치가 획득한 센서 데이터에 포함되는 모든 데이터를 포함할 수 있다.Also, when a blind spot related to the first device is detected, the second device may transmit second shared data to the first device. In this case, the content of the second shared data may include, but is not limited to, a sub-point data set indicating at least a portion of an object located within the blind spot of the first device, and includes attribute data of the sub-point data set. You may. In addition, the content of the second shared data may include all data included in the sensor data acquired by the second device as well as data on an object located within the blind spot of the first device.

5. 공유 데이터의 처리 및 활용5. Processing and utilization of shared data

5.1. 개괄5.1. generalization

일 실시예에 따른 데이터 공유 시스템에서, 제1 장치는 센서 데이터를 포함하는 공유 데이터를 제2 장치에 전송할 수 있다. 이때, 상기 제1 장치 및 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. 이때, 공유 데이터를 수신한 제2 장치는 공유 데이터의 컨텐츠에 포함된 센서 데이터를 처리하여 제2 장치의 제어 또는 제2 장치가 포함된 장치의 제어 등에 활용할 수 있다. 예를 들어, 제2 장치가 라이다 장치이고, 제2 장치가 포함된 장치가 차량인 경우, 라이다 장치의 컨트롤러 또는 차량의 컨트롤러는 공유 데이터의 컨텐츠에 포함된 센서 데이터를 처리하여 라이다 장치를 제어하거나 또는 차량을 제어할 수 있다. In the data sharing system according to an embodiment, a first device may transmit shared data including sensor data to a second device. In this case, the first device and the second device may include, but are not limited to, a vehicle, a server, an infrastructure device, or a mobile device. In this case, the second device receiving the shared data may process the sensor data included in the content of the shared data and utilize it for controlling the second device or controlling the device including the second device. For example, when the second device is a lidar device and the device including the second device is a vehicle, the controller of the lidar device or the controller of the vehicle processes sensor data included in the content of the shared data to process the lidar device can be controlled or the vehicle can be controlled.

이하에서는, 설명의 편의를 위하여, 대목차 5에서 설명되는 사항들의 주체를 차량의 컨트롤로 표현하였지만, 이에 한정되는 것은 아니고, 제2 장치의 컨트롤러 또는 제2 장치가 포함된 장치의 컨트롤러 역서 대목차 5에서 설명되는 사항들의 주체가 될 수 있음은 물론이다.Hereinafter, for convenience of explanation, subjects described in Table 5 are expressed as vehicle controls, but the present invention is not limited thereto, and the controller of the second device or the controller of the device including the second device Of course, it can be the subject of the matters described in 5.

또한, 공유 데이터의 컨텐츠는 포인트 데이터 셋, 서브 포인트 데이터 셋, 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the content of the shared data may include a point data set, a sub-point data set, attribute data, and the like, but is not limited thereto.

또한, 공유 데이터의 컨텐츠는 센서 데이터 외에 기타 데이터 포함할 수 있다. 예를 들어, 공유 데이터의 컨텐츠는 트래픽 이벤트 관련 정보, 제1 장치의 위치 정보, 또는 제1 장치의 목적지 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the content of the shared data may include other data in addition to the sensor data. For example, the content of the shared data may include, but is not limited to, traffic event related information, location information of the first device, or a destination of the first device.

또한, 제2 장치의 컨트롤러는 수신한 공유 데이터의 컨텐츠의 타입에 따라 전술한 목차 3.4.1. 에서 기재된 방식과 같이 공유 데이터를 상이하게 처리할 수 있다. In addition, the controller of the second device according to the type of content of the received shared data, Table of Contents 3.4.1. Shared data can be handled differently as described in .

또한, 제2 장치 컨트롤러는 공유 데이터의 컨텐츠에 포함된 제1 장치로부터획득된 센서 데이터를 제2 장치로부터 획득된 센서 데이터와 정합하기 위해 전술한 목차 3.4.2. 에 기재된 방식을 이용해 좌표계를 정렬시킬 수 있다. In addition, the second device controller is configured to match the sensor data obtained from the first device included in the content of the shared data with the sensor data obtained from the second device in Table of Contents 3.4.2. You can align the coordinate system using the method described in .

또한, 제2 장치는 제2 장치에 포함된 적어도 하나의 센서의 시야각 내에서 센서 데이터를 획득할 수 없는 영역(예를 들어, 블라인드 스팟)에 배치된 객체에 대한 정보를 획득하기 위해, 제1 장치로부터 공유 데이터를 수신할 수 있다. 예를 들어, 주행 중인 차량이 어린이 보호 구역에 진입하는 경우, 상기 차량에 배치된 센서로부터 획득한 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 상기 어린이 보호 구역에 배치된 인프라 장치로부터 상기 인프라 장치의 센서로부터 획득된 센서 데이터를 포함하는 공유 데이터를 수신할 수 있다.In addition, in order to acquire information about an object disposed in an area (eg, blind spot) in which sensor data cannot be acquired within the viewing angle of at least one sensor included in the second device, the second device may perform the first Receive shared data from the device. For example, when a moving vehicle enters the child protection area, in order to obtain information on an object not included in sensor data obtained from a sensor located in the vehicle, from the infrastructure device located in the child protection area Shared data including sensor data obtained from a sensor of the infrastructure device may be received.

5.2. 센서 데이터 및 공유 데이터에 대한 처리 및 활용의 다양한 실시예5.2. Various embodiments of processing and utilization of sensor data and shared data

5.2.1. 공유 데이터에 포인트 데이터 셋이 포함되는 경우5.2.1. If the shared data contains a point data set

일 실시예에 따른 데이터 공유 시스템에서, 제1 장치는 센서로부터 획득한 포인트 데이터 셋을 포함하는 공유 데이터를 제2 장치에 전송할 수 있다. 이 경우, 제2 장치는 공유 받은 포인트 데이터 셋을 전술한 목차 3.4.1.1.에 기재된 방법과 같은 방법으로 처리할 수 있다. In the data sharing system according to an embodiment, the first device may transmit the shared data including the point data set obtained from the sensor to the second device. In this case, the second device may process the shared point data set in the same way as described in 3.4.1.1.

예를 들어, 다시 도 36 내지 도 38을 참조하면, 인프라 장치(700)는 제1 차량(122)에 제1 포인트 데이터 셋(3100)을 포함하는 공유 데이터(3000)를 전송할 수 있다. 설명의 편의를 위해, 도 36 내지 도 38의 설명에서 기재된 구성 요소들을 목차 5.2.1.의 설명에서 기재된 구성 요소들에 대응시키면, 도 36 내지 도 38의 설명의 인프라 장치(700)는 목차 5.2.1.의 설명의 제1 장치와 대응될 수 있고, 도 36 내지 도 38의 설명의 제1 차량(122)은 목차 5.2.1.의 설명의 제2 장치와 대응될 수 있다. 이때, 상기 제1 차량(122)의 컨트롤러는 상기 제1 차량(122)에 배치된 센서로부터 획득된 제2 포인트 데이터 셋(2100) 및 상기 인프라 장치(700)로부터 획득한 상기 공유 데이터에 포함된 제1 포인트 데이터 셋(3100)을 이용하여 복수의 포인트 데이터 셋에 포함되는 객체에 대한 정보를 획득할 수 있다.For example, referring back to FIGS. 36 to 38 , the infrastructure device 700 may transmit the shared data 3000 including the first point data set 3100 to the first vehicle 122 . For convenience of explanation, if the components described in the description of FIGS. 36 to 38 correspond to the components described in the description of Table of Contents 5.2.1., the infrastructure device 700 of the description of FIGS. 36 to 38 is the table of contents 5.2 It may correspond to the first device described in .1., and the first vehicle 122 described in FIGS. 36 to 38 may correspond to the second device described in 5.2.1. of the table of contents. In this case, the controller of the first vehicle 122 includes a second point data set 2100 obtained from a sensor disposed in the first vehicle 122 and the shared data obtained from the infrastructure device 700 . Information on objects included in a plurality of point data sets may be obtained using the first point data set 3100 .

5.2.2. 공유 데이터에 속성 데이터가 포함되는 경우 5.2.2. When shared data contains attribute data

다시 도 39를 참조하면, 공유 데이터(3000)는 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다. 이때, 상기 속성 데이터는 상기 서브 포인트 셋의 중심 위치 정보, 사이즈 정보, 형상 정보, 이동 정보, 식별 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.Referring back to FIG. 39 , the shared data 3000 may include attribute data of a sub-point data set representing at least a part of an object. In this case, the attribute data may include center position information, size information, shape information, movement information, and identification information of the sub-point set, but is not limited thereto.

5.2.2.1. 일 실시예에 따른 공유 데이터의 처리 및 좌표계 정렬5.2.2.1. Processing of shared data and alignment of the coordinate system according to an embodiment

도 75는 일 실시예에 따른 공유 데이터에 포함되는 속성 데이터를 처리하는 방식을 설명하기 위한 흐름도이다. 75 is a flowchart illustrating a method of processing attribute data included in shared data according to an embodiment.

도 75를 참조하면, 차량의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있다(S5055).Referring to FIG. 75 , the controller of the vehicle may acquire a first point data set through at least one sensor disposed in the vehicle ( S5055 ).

또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함된 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정할 수 있다(S5056).Also, the controller of the vehicle may determine first attribute data of a first sub-point data set included in the first point data set (S5056).

또한, 상기 차량의 컨트롤러는 상기 제1 속성 데이터를 기초로, 제1 표준 속성 데이터를 생성할 수 있다(S5057).Also, the controller of the vehicle may generate first standard attribute data based on the first attribute data (S5057).

또한, 제1 장치는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5058).Also, the first device may acquire the second point data set through at least one sensor disposed in the first device ( S5058 ).

또한, 상기 제1 장치의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 결정할 수 있다(S5059).Also, the controller of the first device may determine second attribute data of a second sub-point data set included in the second point data set (S5059).

또한, 상기 제1 장치의 컨트롤러는 상기 제2 속성 데이터를 포함하는 공유 데이터를 상기 차량에 전송할 수 있다(S5060).Also, the controller of the first device may transmit shared data including the second attribute data to the vehicle (S5060).

또한, 상기 차량의 컨트롤러는 상기 제1 장치로부터 수신한 제2 속성 데이터를 이용하여 제2 표준 속성 데이터를 생성할 수 있다(S5061).Also, the controller of the vehicle may generate second standard attribute data by using the second attribute data received from the first device (S5061).

또한, 상기 차량의 컨트롤러는 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터를 기초로 상기 차량을 제어할 수 있다(S5062).Also, the controller of the vehicle may control the vehicle based on the first standard attribute data and the second standard attribute data ( S5062 ).

도 75에 기재된 각 단계에 대한 상세한 내용은 이하에서 설명한다.Details of each step described in FIG. 75 will be described below.

5.2.2.1.1. 포인트 데이터 셋 및 속성 데이터의 획득 5.2.2.1.1. Acquisition of point data sets and attribute data

도 76은 일 실시예에 따른 차량 및 인프라 장치가 데이터 공유를 위해 센서데이터를 획득하는 상황을 나타내는 도면이다.76 is a diagram illustrating a situation in which a vehicle and an infrastructure device acquire sensor data for data sharing according to an exemplary embodiment.

도 76을 참조하면, 차량(140) 및 인프라 장치(700)는 적어도 하나의 센서를 통해 센서의 시야각 내에 위치하는 적어도 하나의 객체에 대한 정보를 포함하는 센서 데이터를 획득할 수 있다.Referring to FIG. 76 , the vehicle 140 and the infrastructure device 700 may acquire sensor data including information on at least one object located within a viewing angle of the sensor through at least one sensor.

구체적으로, 차량(140)의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있고, 상기 제1 포인트 데이터 셋에 포함된 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정할 수 있다 (S5055, S5056). 이 경우, 상기 제1 포인트 데이터 셋은 상기 건물(500)에 가려진 보행자(800)에 대한 정보를 포함하지 않을 수 있다.Specifically, the controller of the vehicle 140 may acquire a first point data set through at least one sensor disposed in the vehicle, and indicates at least a part of the building 500 included in the first point data set. It is possible to determine the first attribute data of the first sub-point data set (S5055, S5056). In this case, the first point data set may not include information on the pedestrian 800 covered by the building 500 .

또한, 상기 제1 속성 데이터(도 77의 도면 부호 2208 참조)는 제1 서브 포인트 데이터 셋의 중심 위치 정보, 사이즈 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. In addition, the first attribute data (refer to reference numeral 2208 of FIG. 77 ) may include center position information, size information, shape information, and the like of the first sub-point data set, but is not limited thereto.

또한, 인프라 장치(700)의 배치 위치를 고려하면, 상기 인프라 장치(700)는적어도 하나의 센서를 이용하여 보행자(800) 및 건물(500)을 측정할 수 있다. 이때, 인프라 장치(700)는 상기 인프라 장치(700)에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함된 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 결정할 수 있다(S5058, S5059). 또한, 상기 제2 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 포함할 수 있다. In addition, considering the arrangement position of the infrastructure device 700 , the infrastructure device 700 may measure the pedestrian 800 and the building 500 using at least one sensor. In this case, the infrastructure device 700 may acquire the second point data set through at least one sensor disposed in the infrastructure device 700 , and the controller of the infrastructure device 700 is the second point data set. Second attribute data of the second sub-point data set representing at least a part of the included pedestrian 800 may be determined (S5058 and S5059). In addition, the second point data set may include a third sub-point data set representing at least a part of the building 500 .

이때, 상기 제2 서브 포인트 데이터 셋이 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 적어도 일부를 나타내므로, 상기 차량(140)의 주행 중 발생할 수 있는 상기 보행자(800)와의 충돌 위험을 방지하기 위해, 상기 인프라 장치(700)는 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 상기 차량(140)에 전송할 수 있다. At this time, since the second sub-point data set represents at least a part of the pedestrian 800 not included in the first point data set, the risk of collision with the pedestrian 800 that may occur while the vehicle 140 is driving To prevent this, the infrastructure device 700 may transmit a second sub-point data set or second attribute data of the second sub-point data set to the vehicle 140 .

5.2.2.1.2. 표준 속성 데이터의 생성5.2.2.1.2. Generation of standard attribute data

적어도 하나의 센서로부터 획득된 센서 데이터에 포함되는 포인트 데이터 셋 및 속성 데이터는 임의의 원점을 기준으로 하는 좌표계 상에 나타날 수 있다. 이때, 임의의 원점은 상기 포인트 데이터 셋 및 속성 데이터를 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 임의의 원점은 상기 센서 데이터를 획득한 라이다 장치의 광학 원점에 대응될 수 있으나, 이에 한정되지 않는다.A point data set and attribute data included in sensor data obtained from at least one sensor may appear on a coordinate system based on an arbitrary origin. In this case, an arbitrary origin may correspond to a position of a sensor that has obtained the point data set and attribute data. For example, the arbitrary origin may correspond to the optical origin of the lidar device that obtained the sensor data, but is not limited thereto.

도 77은 일 실시예에 따른 차량의 컨트롤러가 제1 속성 데이터 및 제1 표준속성 데이터를 각각 제1 지역 좌표계 및 전역 좌표계 상에 나타내는 방법을 설명하기 위한 도면이다.77 is a diagram for explaining a method in which a vehicle controller displays first attribute data and first standard attribute data on a first local coordinate system and a global coordinate system, respectively, according to an exemplary embodiment;

도 77을 참조하면, 제1 속성 데이터(2208)는 제1 원점(O₁)을 기준으로 하는 제1 지역 좌표계(9100) 상에 나타날 수 있다. 또한, 이에 한정되지 않고, 상기 제1 포인트 데이터 셋 및 상기 제1 서브 포인트 데이터 셋 또한 상기 제1 지역 좌표계(9100) 상에 나타날 수 있다. Referring to FIG. 77 , the first attribute data 2208 may appear on the first local coordinate system 9100 based on the first origin O₁. Also, the present invention is not limited thereto, and the first point data set and the first sub-point data set may also appear on the first regional coordinate system 9100 .

구체적인 예로, 상기 제1 속성 데이터(2208)가 상기 제1 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 경우, 상기 중심 위치 정보에 포함되는 상기 제1 서브 포인트 데이터 셋의 중심 위치 좌표는 상기 제1 지역 좌표계(9100) 상에 나타날 수 있다.As a specific example, when the first attribute data 2208 includes center position information of the first sub-point data set, the center position coordinates of the first sub-point data set included in the center position information are the first It may appear on the local coordinate system 9100 .

이때, 상기 제1 원점(O₁)은 상기 제1 포인트 데이터 셋을 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 차량(140)이 라이다 장치를 통해 상기 제1 포인트 데이터 셋을 획득한 경우, 상기 제1 원점(O₁)은 상기 라이다 장치의 광학 원점에 대응될 수 있다. In this case, the first origin O₁ may correspond to the position of the sensor that obtained the first point data set. For example, when the vehicle 140 acquires the first point data set through a lidar device, the first origin O₁ may correspond to an optical origin of the lidar device.

또한, 상기 제1 원점(O₁)은 상기 차량(140)의 위치에 대응될 수 있다. 예를 들어, 상기 차량(140)의 컨트롤러는 상기 차량(140)의 GPS 위치 정보를 기초로 상기 제1 원점(O₁)을 설정할 수 있다.Also, the first origin O₁ may correspond to the position of the vehicle 140 . For example, the controller of the vehicle 140 may set the first origin O₁ based on GPS location information of the vehicle 140 .

또한, 상기 제1 원점(O₁)은 상기 차량(140)의 무게 중심의 위치, 상기 센서의 무게 중심의 위치 등에 대응될 수 있으나, 이에 한정되지 않는다.In addition, the first origin O₁ may correspond to the position of the center of gravity of the vehicle 140 , the position of the center of gravity of the sensor, and the like, but is not limited thereto.

또한, 다시 도 77을 참조하면, 상기 차량(140)의 컨트롤러는 상기 제1 속성 데이터(2208)를 기초로 제1 표준 속성 데이터(2501)를 생성할 수 있다(S5057).Also, referring back to FIG. 77 , the controller of the vehicle 140 may generate first standard attribute data 2501 based on the first attribute data 2208 ( S5057 ).

여기서, 표준 속성 데이터는 다양한 속성 데이터의 위치를 단일 좌표계에 정합시키기 위한 데이터를 나타내는 것으로서, 제1 속성 데이터(2501)를 기초로 생성된 제1 표준 속성 데이터(2501)와 제2 속성 데이터(도 78의 도면부호 3202 참조)를 기초로 생성된 제2 표준 속성 데이터(도 78의 도면부호 3502 참조)의 원점은 서로 동일할 수 있다.Here, the standard attribute data represents data for matching the positions of various attribute data to a single coordinate system, and the first standard attribute data 2501 and the second attribute data (FIG. The origin of the second standard attribute data (refer to reference numeral 3502 of FIG. 78 ) generated based on reference numeral 3202 of FIG. 78 may be the same.

도 77의 예에서, 상기 제1 표준 속성 데이터(2501)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100) 상에 나타나는 상기 제1 속성 데이터(2208)를 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제1 표준 속성 데이터(2501)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제1 지역 좌표계(9100)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다. In the example of FIG. 77 , the first standard attribute data 2501 may appear on the global coordinate system 9200 based on the second origin O2. More specifically, the controller of the vehicle 140 aligns the first attribute data 2208 appearing on the first local coordinate system 9100 on the global coordinate system 9200 to thereby align the first standard attribute data 2501 ) can be created. In this case, the controller of the vehicle 140 may align the first local coordinate system 9100 to the global coordinate system 9200 based on the method described in Table of Contents 3.4.2.

또한, 이에 한정되지 않고, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100)를 전역 좌표계로 설정할 수 있다. 이 경우, 상기 제1 지역 좌표계(9100)의 원점이 전역 좌표계의 원점과 동일할 수 있다. 다시 말해, 상기 제1 지역 좌표계(9100)가 전역 좌표계로 설정된 경우, 상기 제2 원점(O₂)의 위치는 상기 제1 원점(O₁)의 위치와 일치할 수 있다. Also, the present invention is not limited thereto, and the controller of the vehicle 140 may set the first local coordinate system 9100 as a global coordinate system. In this case, the origin of the first local coordinate system 9100 may be the same as the origin of the global coordinate system. In other words, when the first local coordinate system 9100 is set as the global coordinate system, the position of the second origin O₂ may coincide with the position of the first origin O₁.

보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100)의 원점 위치를 바꾸지 않고 상기 제1 지역 좌표계(9100)를 상기 제1 원점(O₁)을 기준으로 하는 전역 좌표계로 설정할 수 있다.More specifically, the controller of the vehicle 140 sets the first local coordinate system 9100 as a global coordinate system based on the first origin O₁ without changing the position of the origin of the first local coordinate system 9100 . can

구체적인 예로, 상기 제1 속성 데이터(2208)가 상기 제1 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 경우, 상기 차량(140)의 컨트롤러는 상기 중심 위치 정보에 포함된 제1 서브 포인트 데이터 셋의 중심 위치 좌표를 상기 전역 좌표계(9200) 상에 나타날 수 있다.As a specific example, when the first attribute data 2208 includes center position information of the first sub-point data set, the controller of the vehicle 140 determines the location of the first sub-point data set included in the center position information. The center position coordinates may be displayed on the global coordinate system 9200 .

또한, 상기 전역 좌표계(9200)는 미리 결정된 원점을 포함할 수 있다. 이때, 상기 미리 결정된 원점은 GPS 위치 정보를 기초로 하는 좌표계의 원점을 의미할 수 있다.Also, the global coordinate system 9200 may include a predetermined origin. In this case, the predetermined origin may mean an origin of a coordinate system based on GPS location information.

또한, 상기 제2 원점(O₂)은 상기 차량(140)에 포함된 라이다 장치의 광학 원점에 대응될 수 있다. Also, the second origin O2 may correspond to the optical origin of the lidar device included in the vehicle 140 .

또한, 상기 제1 지역 좌표계(9100)가 전역 좌표계로 설정된 경우, 상기 제2 원점(O₂)의 위치는 상기 제1 원점(O₁)의 위치와 일치할 수 있다.Also, when the first local coordinate system 9100 is set as the global coordinate system, the position of the second origin O2 may coincide with the position of the first origin O₁.

도 78은 일 실시예에 따른 차량의 컨트롤러가 제2 지역 좌표계 상에 나타나는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하는 방법을 설명하기 위한 도면이다.78 is a diagram for explaining a method of generating, by a vehicle controller, second standard attribute data based on second attribute data appearing on a second regional coordinate system, according to an exemplary embodiment;

도 78을 참조하면, 상기 인프라 장치의 컨트롤러는 제2 속성 데이터(3202) 및 제3 속성 데이터(3203)를 제3 원점(O₃)을 기준으로 하는 제2 지역 좌표계(9300) 상에 나타낼 수 있다. Referring to FIG. 78 , the controller of the infrastructure device may display the second attribute data 3202 and the third attribute data 3203 on the second local coordinate system 9300 based on the third origin O₃. .

여기서, 제2 지역 좌표계(9300)는 제1 지역 좌표계와 원점이 상이한 좌표계를 나타내는 것으로, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)의 좌표계의 타입이 동일(예를 들어, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)가 직교 좌표계인 경우)할 수도 있고, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)의 좌표계의 타입이 상이(예를 들어, 제2 지역 좌표계(9300)가 극 좌표계이고, 제1 지역 좌표계(9100)가 직교 좌표계인 경우)할 수도 있다. Here, the second regional coordinate system 9300 represents a coordinate system having a different origin from the first regional coordinate system, and the type of the coordinate system of the second regional coordinate system 9300 and the first regional coordinate system 9100 is the same (eg, the first regional coordinate system 9300 ). The second regional coordinate system 9300 and the first regional coordinate system 9100 may be a Cartesian coordinate system), and the coordinate system types of the second regional coordinate system 9300 and the first regional coordinate system 9100 are different (for example, When the second regional coordinate system 9300 is a polar coordinate system and the first regional coordinate system 9100 is a Cartesian coordinate system).

또한, 상기 제2 속성 데이터(3202)는 도 76의 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 기초로 결정되고, 상기 제3 속성 데이터(3203)는 도 76의 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 기초로 결정될 수 있다. 또한, 이에 한정되지 않고, 상기 제2 포인트 데이터 셋, 상기 제2 서브 포인트 데이터 셋, 및 상기 제3 서브 포인트 데이터 셋은 상기 제2 지역 좌표계(9300) 상에 나타날 수 있다.In addition, the second attribute data 3202 is determined based on a second sub-point data set representing at least a part of the pedestrian 800 of FIG. 76 , and the third attribute data 3203 is the building 500 of FIG. 76 . ) may be determined based on the third sub-point data set representing at least a part of. Also, the present invention is not limited thereto, and the second point data set, the second sub-point data set, and the third sub-point data set may appear on the second regional coordinate system 9300 .

이때, 상기 제3 원점(O₃)은 상기 제2 포인트 데이터 셋을 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 인프라 장치(700)이 라이다 장치를 통해 상기 제2 포인트 데이터 셋을 획득한 경우, 상기 제3 원점(O₃)은 상기 라이다 장치의 광학 원점에 대응될 수 있다.In this case, the third origin O₃ may correspond to the position of the sensor that obtained the second point data set. For example, when the infrastructure device 700 acquires the second point data set through the LIDAR device, the third origin O₃ may correspond to the optical origin of the LIDAR device.

또한, 상기 제3 원점(O₃)은 상기 인프라 장치(700)의 위치에 대응될 수 있다. 예를 들어, 상기 인프라 장치(700)의 컨트롤러는 상기 인프라 장치(700)의 GPS 위치 정보를 기초로 상기 제3 원점(O₃)을 설정할 수 있다.Also, the third origin O₃ may correspond to the location of the infrastructure device 700 . For example, the controller of the infrastructure device 700 may set the third origin O₃ based on the GPS location information of the infrastructure device 700 .

또한, 상기 제3 원점(O₃)은 상기 인프라 장치(700)의 무게 중심의 위치, 상기 센서의 무게 중심의 위치 등에 대응될 수 있으나, 이에 한정되지 않는다.Also, the third origin O₃ may correspond to a position of a center of gravity of the infrastructure device 700 , a position of a center of gravity of the sensor, and the like, but is not limited thereto.

또한, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 속성 데이터(3202)를 포함하는 공유 데이터를 상기 차량(140)에 전송할 수 있다(S5060). Also, the controller of the infrastructure device 700 may transmit shared data including the second attribute data 3202 to the vehicle 140 ( S5060 ).

이때, 상기 제2 속성 데이터(3202)는 상기 제2 포인트 데이터 셋에 포함되되, 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 기초로 결정될 수 있다. In this case, the second attribute data 3202 may be determined based on a second sub-point data set that is included in the second point data set but indicates at least a portion of pedestrians that are not included in the first point data set.

또한, 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터(3203)를 더 포함할 수 있다. 이때, 상기 제3 속성 데이터(3203)는 상기 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋에 포함되는 건물의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 기초로 결정될 수 있다. Also, the content of the shared data may further include the third attribute data 3203 . In this case, the third attribute data 3203 may be determined based on a third sub-point data set representing at least a part of a building included in the first point data set and the second point data set.

물론, 실시예에 따라 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터(3203)를 포함하지 않을 수도 있다.Of course, according to an embodiment, the content of the shared data may not include the third attribute data 3203 .

또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 상기 인프라 장치(700)에 대한 기본 정보 등을 더 포함할 수 있다.In addition, the content of the shared data is not limited thereto, and may further include basic information about the infrastructure device 700 and the like.

또한, 다시 도 78을 참조하면, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 수신한 공유 데이터에 포함되는 상기 제2 속성 데이터(3202)를 기초로, 제2 표준 속성 데이터(3502)를 생성할 수 있다(S5061).Also, referring back to FIG. 78 , the controller of the vehicle 140 uses the second standard attribute data 3502 based on the second attribute data 3202 included in the shared data received from the infrastructure device 700 . ) can be generated (S5061).

이때, 상기 제2 표준 속성 데이터(3502)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제2 지역 좌표계(9300) 상에 나타나는 상기 제2 속성 데이터(3202)를 상기 제1 표준 속성 데이터(2501)이 나타나는 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제2 표준 속성 데이터(3502)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제2 지역 좌표계(9300)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다.In this case, the second standard attribute data 3502 may appear on the global coordinate system 9200 based on the second origin O2. More specifically, the controller of the vehicle 140 converts the second attribute data 3202 appearing on the second local coordinate system 9300 to the global coordinate system 9200 in which the first standard attribute data 2501 appears. By aligning to , the second standard attribute data 3502 may be generated. In this case, the controller of the vehicle 140 may align the second local coordinate system 9300 to the global coordinate system 9200 based on the method described in Table of Contents 3.4.2.

예를 들어, 상기 제1 지역 좌표계(9100)가 전역 좌표계(9200)로 설정된 경우, 상기 차량의 컨트롤러는 수신한 상기 제2 속성 데이터(3202)를 상기 제1 지역 좌표계(1200)상에 정렬시킴으로써 상기 제2 표준 속성 데이터(3502)를 생성할 수 있다.For example, when the first local coordinate system 9100 is set as the global coordinate system 9200, the vehicle controller aligns the received second attribute data 3202 on the first local coordinate system 1200 by The second standard attribute data 3502 may be generated.

또한, 도 76에 기재된 일 실시예에 따른 공유 데이터의 처리 및 활용 방법에서, 차량의 컨트롤러는 공유 데이터의 컨텐츠에 포함되는 적어도 하나의 속성 데이터가 나타내는 객체가 제1 포인트 데이터 셋에 의해 나타나는 객체와 동일한지 여부를 판단할 수 있다.In addition, in the method for processing and utilizing shared data according to the embodiment described in FIG. 76, the controller of the vehicle includes an object indicated by at least one attribute data included in the content of the shared data, an object indicated by the first point data set, and It can be determined whether they are the same.

예를 들어, 상기 인프라 장치(700)로부터 수신한 공유 데이터에 포함되는 제3 속성 데이터(3203)가 나타내는 객체가 상기 제1 속성 데이터가 나타내는 건물(500)과 동일할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 상기 제3 속성 데이터(3203)를 기초로 제3 표준 속성 데이터(3503)를 생성할 수 있다.For example, the object indicated by the third attribute data 3203 included in the shared data received from the infrastructure device 700 may be the same as the building 500 indicated by the first attribute data. In this case, the controller of the vehicle 140 may generate third standard attribute data 3503 based on the third attribute data 3203 .

이때, 상기 제3 표준 속성 데이터(3503)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제2 지역 좌표계(9300) 상에 나타나는 상기 제3 속성 데이터(3203)를 상기 제1 표준 속성 데이터(2501)이 나타나는 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제3 표준 속성 데이터(3503)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제2 지역 좌표계(9300)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다.In this case, the third standard attribute data 3503 may appear on the global coordinate system 9200 based on the second origin O2. More specifically, the controller of the vehicle 140 converts the third attribute data 3203 appearing on the second local coordinate system 9300 to the global coordinate system 9200 in which the first standard attribute data 2501 appears. By aligning to , the third standard attribute data 3503 may be generated. In this case, the controller of the vehicle 140 may align the second local coordinate system 9300 to the global coordinate system 9200 based on the method described in Table of Contents 3.4.2.

또한, 상기 차량(140)의 컨트롤러는 동일한 건물(500)에 대한 제3 속성 데이터(3203) 또는 제3 표준 속성 데이터(3503)를 획득함에 따라, 상기 건물(500)에 대해 더 높은 시간 해상도를 가지는 효과를 얻을 수 있다. 보다 구체적으로, 상기 차량(140)에 배치된 라이다 장치의 프레임 레이트(frame rate)에 따라 일정 시간 간격 사이에 획득할 수 없는 상기 건물(500)에 대한 정보를 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203) 또는 상기 제3 표준 속성 데이터(3503)를 획득함으로써 보강할 수 있다.In addition, as the controller of the vehicle 140 acquires the third attribute data 3203 or the third standard attribute data 3503 for the same building 500 , a higher temporal resolution for the building 500 is obtained. effect can be obtained. More specifically, information on the building 500 that cannot be acquired between predetermined time intervals according to the frame rate of the lidar device disposed in the vehicle 140 is obtained from the infrastructure device 700 Reinforcement may be achieved by acquiring the third attribute data 3203 or the third standard attribute data 3503 .

또한, 이에 한정되지 않고, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203)를 수신하지 않을 수 있다. 보다 구체적으로, 상기 차량(140)이 센서를 통해 획득한 제1 포인트 데이터 셋이 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함하므로, 상기 인프라 장치(700)로부터 동일한 객체를 나타내는 제3 서브 포인트 데이터 셋 및 상기 제3 서브 포인트 데이터 셋을 기초로 결정된 상기 제3 속성 데이터(3202)를 수신하지 않을 수 있다. Also, without being limited thereto, the controller of the vehicle 140 may not receive the third attribute data 3203 from the infrastructure device 700 . More specifically, since the first point data set obtained by the vehicle 140 through the sensor includes the first sub point data set representing at least a part of the building 500 , the same object is retrieved from the infrastructure device 700 . The indicated third sub-point data set and the third attribute data 3202 determined based on the third sub-point data set may not be received.

또한, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 수신한 상기 제3 속성 데이터(3203)를 저장하지 않을 수 있다. Also, the controller of the vehicle 140 may not store the third attribute data 3203 received from the infrastructure device 700 .

또한, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203)를 수신한 경우, 상기 제1 표준 속성 데이터(2501)를 생성하지 않고, 상기 제3 표준 속성 데이터(3503)를 생성할 수 있다. In addition, when the controller of the vehicle 140 receives the third attribute data 3203 from the infrastructure device 700 , the controller of the vehicle 140 does not generate the first standard attribute data 2501 and does not generate the third standard attribute data (3503) can be created.

또한, 상기 차량(140)의 컨트롤러는 상기 제1 표준 속성 데이터(2501)와 상기 제3 표준 속성 데이터(3503)를 기초로 상기 차량(140)에 배치된 센서에 이상이 있는지 여부를 판단할 수 있다. 보다 구체적으로, 전술한 좌표계 정렬 방법을 통해 생성된 상기 제3 표준 속성 데이터(3503)에 포함되는 건물(500)의 위치 정보가 상기 제1 표준 속성 데이터(2501)에 포함되는 건물(500)의 위치 정보와 상이한 경우, 상기 차량(140)의 컨트롤러는 상기 차량(140)에 배치된 센서의 고정이 풀린 것으로 판단할 수 있다. 또한, 상기 센서의 고정이 풀린 것으로 판단된 경우, 상기 차량(140)의 컨트롤러는 탑승자에게 상기 센서의 고정이 풀린 것에 대한 알림을 전송할 수 있다. 이때, 상기 알림은 인포테인먼트 시스템을 통해 상기 탑승자에게 디스플레이되거나, 이에 한정되지 않고, 소리 등의 통상의 기술자에게 알려진 방식을 통해 상기 탑승자에게 전송될 수 있다.In addition, the controller of the vehicle 140 may determine whether there is an abnormality in the sensor disposed in the vehicle 140 based on the first standard attribute data 2501 and the third standard attribute data 3503 . have. More specifically, the location information of the building 500 included in the third standard property data 3503 generated through the above-described coordinate system alignment method is included in the first standard property data 2501 of the building 500 If it is different from the location information, the controller of the vehicle 140 may determine that the sensor disposed in the vehicle 140 is unfixed. In addition, when it is determined that the sensor is released, the controller of the vehicle 140 may transmit a notification to the occupant that the sensor is released. In this case, the notification may be displayed to the passenger through the infotainment system, or may be transmitted to the passenger through a method known to those skilled in the art, such as sound, without being limited thereto.

또한, 일 실시예에 따른 센서 데이터 처리 방법은 도 75에 나타나는 단계에 한정되는 것은 아니고, 인프라 장치의 컨트롤러는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하고, 상기 제2 표준 속성 데이터를 포함하는 공유 데이터를 차량에 전송할 수 있다.In addition, the sensor data processing method according to an embodiment is not limited to the step shown in FIG. 75 , and the controller of the infrastructure device generates second standard attribute data based on the second attribute data, and the second standard attribute data It is possible to transmit shared data including

또한, 이에 한정되지 않고, 차량의 컨트롤러가 상기 제2 속성 데이터를 포함하는 고정밀 지도를 수신한 경우, 상기 차량의 컨트롤러는 상기 제2 지역 좌표계를 전역 좌표계로 설정할 수 있다. 이 경우, 상기 차량에 배치된 센서로부터 획득한 센서 데이터를 상기 고정밀 지도에 매칭시키기 위해, 상기 차량의 컨트롤러는 상기 제1 속성 데이터가 나타나는 제1 지역 좌표계를 상기 전역 좌표계로 정렬시킬 수 있다. In addition, the present invention is not limited thereto, and when the vehicle controller receives the high-precision map including the second attribute data, the vehicle controller may set the second local coordinate system as a global coordinate system. In this case, in order to match sensor data obtained from a sensor disposed in the vehicle to the high-precision map, the controller of the vehicle may align a first local coordinate system in which the first attribute data appears to the global coordinate system.

5.2.2.1.3. 표준 속성 데이터를 이용한 차량 제어 - 경로 생성(path planning)5.2.2.1.3. Vehicle Control Using Standard Attribute Data - Path Planning

차량의 컨트롤러는 복수의 표준 속성 데이터를 기초로 상기 차량을 제어할 수 있다. 또한, 이에 한정되지 않고, 상기 차량의 컨트롤러는 포인트 데이터 셋, 서브 포인트 데이터 셋, 속성 데이터 중 적어도 하나를 기초로 상기 차량을 제어할 수 있다.A controller of the vehicle may control the vehicle based on a plurality of standard attribute data. Also, the present invention is not limited thereto, and the vehicle controller may control the vehicle based on at least one of a point data set, a sub-point data set, and attribute data.

예를 들어, 상기 차량의 컨트롤러는 전술한 목차 2.3. 또는 목차 3.5.에 기재된 사항과 같이 센서 데이터 또는 공유 데이터를 이용하여 상기 차량을 제어할 수 있다. 구체적인 예로, 상기 차량의 컨트롤러는 복수의 표준 속성 데이터를 기초로 상기 복수의 표준 속성 데이터를 고정밀 지도 상에 매칭시키나, 상기 차량의 속도 및 방향을 제어하거나, 또는 상기 차량의 경로를 제어할 수 있다. For example, the controller of the vehicle may be configured in the above-mentioned Table of Contents 2.3. Alternatively, as described in Table of Contents 3.5., the vehicle may be controlled using sensor data or shared data. As a specific example, the controller of the vehicle may match the plurality of standard attribute data on a high-precision map based on the plurality of standard attribute data, but may control the speed and direction of the vehicle, or control the route of the vehicle .

이때, 상기 차량의 경로는 글로벌 경로 및 로컬 경로 포함할 수 있다. 여기서, 상기 글로벌 경로는 상기 차량의 목적지까지 GPS 위치 정보를 기초로 생성된 경로를 의미할 수 있으나, 이에 한정되지 않는다. 또한, 상기 로컬 경로는 상기 차량에 배치된 센서로부터 획득한 센서 데이터 또는 공유 받은 공유 데이터를 기초로 생성된 경로를 의미할 수 있으나, 이에 한정되지 않는다. 일 예로, 하나의 글로벌 경로에 복수의 로컬 경로가 대응될 수 있고, 또한, 복수의 로컬 경로가 합쳐져 하나의 글로벌 경로가 생성될 수 있다. 물론 이에 한정되는 것은 아니고, 글로벌 경로와 로컬 경로가 독립적으로 구성될 수 있다.In this case, the route of the vehicle may include a global route and a local route. Here, the global route may mean a route generated based on GPS location information to the destination of the vehicle, but is not limited thereto. Also, the local path may mean a path generated based on sensor data acquired from a sensor disposed in the vehicle or shared data received, but is not limited thereto. For example, a plurality of local paths may correspond to one global path, and a plurality of local paths may be combined to generate one global path. Of course, the present invention is not limited thereto, and a global path and a local path may be configured independently.

또한, 상기 글로벌 경로 또는 로컬 경로는 상기 차량의 방향 및 상기 차량의 속도 등을 포함할 수 있다. 보다 구체적으로, 상기 글로벌 경로 또는 로컬 경로는 상기 차량의 위치, 상기 차량이 주행할 방향, 상기 차량의 주행 속도 등을 포함할 수 있으나, 이에 한정되지 않는다.In addition, the global route or the local route may include a direction of the vehicle and a speed of the vehicle. More specifically, the global route or the local route may include, but is not limited to, a location of the vehicle, a direction in which the vehicle will travel, and a traveling speed of the vehicle.

도 79는 일 실시예에 따른 글로벌 경로를 설명하기 위한 도면이다.79 is a diagram for describing a global path according to an embodiment.

도 79를 참조하면, 차량의 컨트롤러는 글로벌 경로(8000)를 생성하여 고정밀 지도 상에 나타낼 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 차량을 상기 글로벌 경로(8000)를 따라 주행하도록 제어할 수 있다.Referring to FIG. 79 , the vehicle controller may generate a global route 8000 and display it on a high-precision map. In this case, the controller of the vehicle may control the vehicle to travel along the global path 8000 .

이때, 상기 차량의 컨트롤러는 상기 차량이 주행하기 전에 상기 차량의 위치와 상기 차량의 목적지를 기초로 상기 차량이 주행하기 위한 글로벌 경로(8000)를 생성할 수 있다.In this case, the controller of the vehicle may generate a global route 8000 for the vehicle to travel based on the location of the vehicle and the destination of the vehicle before the vehicle travels.

또한, 상기 차량의 컨트롤러는 탑승자의 출발지와 목적지에 대한 인풋을 수신한 경우, 출발지와 목적지의 GPS 위치 정보를 기초로 글로벌 경로(8000)를 생성할 수 있다.In addition, when receiving the input for the departure point and the destination of the passenger, the controller of the vehicle may generate the global route 8000 based on GPS location information of the departure point and the destination.

또한, 상기 차량의 컨트롤러는 상기 차량의 위치와 상기 차량의 목적지 사이의 교통 정보를 반영하여 글로벌 경로(8000)를 생성할 수 있다. Also, the controller of the vehicle may generate the global route 8000 by reflecting traffic information between the location of the vehicle and the destination of the vehicle.

일 예로, 상기 차량의 컨트롤러는 상기 차량의 위치에서 상기 차량의 목적지로 상기 차량을 최단 시간으로 주행할 수 있는 경로를 글로벌 경로(8000)로 설정할 수 있다.As an example, the controller of the vehicle may set a route for driving the vehicle from the location of the vehicle to the destination of the vehicle in the shortest time as the global route 8000 .

다른 예로, 상기 차량의 컨트롤러는 상기 차량이 차량의 현재 위치에서 최단 거리로 목적지로 주행할 수 있는 경로를 글로벌 경로(8000)로 설정할 수 있다.As another example, the controller of the vehicle may set a route through which the vehicle can travel from the current location of the vehicle to the destination by the shortest distance as the global route 8000 .

또한, 상기 글로벌 경로(8000)는 차선 단위의 상세 경로를 포함하지 않을 수 있다. 보다 구체적으로, 상기 글로벌 경로(8000)는 상기 차량의 컨트롤러가 상기 차량을 차선 변경을 통해 옆차선으로 주행하게 하기 위한 상세 경로를 포함하지 않을 수 있다. Also, the global route 8000 may not include a detailed route in lane units. More specifically, the global route 8000 may not include a detailed route for causing the vehicle controller to drive the vehicle to the next lane through lane change.

물론, 실시예에 따라 상기 글로벌 경로(8000)는 차선 단위의 상세 경로를 포함할 수도 있다.Of course, according to an embodiment, the global route 8000 may include a detailed route in units of lanes.

도 80은 일 실시예에 따른 로컬 경로 및 수정 경로를 설명하기 위한 도면이다.80 is a diagram for describing a local path and a modified path according to an embodiment.

도 80을 참조하면, 차량의 컨트롤러는 차량이 주행하기 위한 로컬 경로(8100)를 생성하여 고정밀 지도(1420) 상에 디스플레이할 수 있다.Referring to FIG. 80 , the controller of the vehicle may generate a local route 8100 for the vehicle to travel and display it on the high-precision map 1420 .

보다 구체적으로, 글로벌 경로를 주행 중인 차량에 배치된 적어도 하나의 센서의 시야각에 포함되는 적어도 하나의 객체에 대한 센서 데이터에 기초하여, 상기 차량의 컨트롤러는 상기 글로벌 경로 상의 적어도 일부분에 대한 로컬 경로(8100)를 생성할 수 있다. More specifically, based on the sensor data of at least one object included in the viewing angle of at least one sensor disposed in the vehicle traveling on the global route, the controller of the vehicle controls the local route ( 8100) can be created.

또한, 이에 한정되지 않고, 상기 차량의 컨트롤러는 상기 센서 데이터 및 다른 장치로부터 획득한 공유 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다.Also, without being limited thereto, the controller of the vehicle may generate the local route 8100 based on the sensor data and shared data obtained from other devices.

보다 구체적으로, 글로벌 경로를 주행 중인 차량에 배치된 센서의 시야각에 포함되는 적어도 하나의 객체에 대한 센서 데이터 및 다른 장치에 배치된 센서로부터 획득된 센서 데이터를 포함하는 공유 데이터를 기초로, 상기 차량의 컨트롤러는 로컬 경로(8100)를 생성할 수 있다.More specifically, based on shared data including sensor data obtained from sensors disposed in other devices and sensor data for at least one object included in a field of view of a sensor disposed in a vehicle traveling on a global route, the vehicle The controller of the may create a local path (8100).

예를 들어, 제1 지점에 위치하는 차량이 제2 지점을 목적지로 설정한 경우, 상기 차량의 컨트롤러는 상기 제1 지점에서 상기 제2 지점까지 차량이 주행하기 위한 글로벌 경로를 생성하고, 상기 차량이 상기 글로벌 경로를 따라 주행 중에 획득한 센서 데이터 및 공유 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다.For example, when the vehicle located at the first point sets the second point as the destination, the controller of the vehicle generates a global route for the vehicle to travel from the first point to the second point, and the vehicle A local route 8100 may be generated based on sensor data and shared data acquired while driving along the global route.

또한, 상기 로컬 경로(8100)는 차선 단위의 상세 경로를 포함할 수 있다. 보다 구체적으로, 상기 로컬 경로(8100)는 상기 차량의 컨트롤러가 상기 차량을 차선 변경을 통해 옆차선으로 주행하게 하기 위한 상세 경로를 포함할 수 있다.Also, the local route 8100 may include a detailed route in units of lanes. More specifically, the local route 8100 may include a detailed route for allowing the controller of the vehicle to drive the vehicle to the next lane through a lane change.

또한, 상기 로컬 경로(8100)는 운전자의 가시 영역에서 이동 가능한 영역을 포함할 수 있다. Also, the local path 8100 may include a movable area in the driver's visible area.

또한, 상기 로컬 경로(8100)는 상기 차량에 배치된 센서의 시야각 내에 포함되는 적어도 하나의 객체가 포함되는 영역을 포함할 수 있다. In addition, the local path 8100 may include an area including at least one object included in a viewing angle of a sensor disposed in the vehicle.

또한, 상기 로컬 경로(8100)가 상기 차량이 주행 중에 획득한 센서 데이터 및 다른 장치로부터 수신한 공유 데이터를 기초로 생성된 경우, 상기 로컬 경로(8100)는 상기 차량에 배치된 센서의 시야각 내에 포함되는 적어도 하나의 객체가 포함하는 영역 및 상기 차량에 배치된 센서의 시야각 내에 포함되지 않는 적어도 하나의 객체가 포함되는 영역을 함께 포함할 수 있다.In addition, when the local route 8100 is generated based on sensor data acquired while the vehicle is driving and shared data received from other devices, the local route 8100 is included within the field of view of a sensor disposed in the vehicle. It may include an area including at least one object that is a target object and an area including at least one object not included in a viewing angle of a sensor disposed in the vehicle.

또한, 상기 로컬 경로(8100)는 수정 경로(8110)를 포함할 수 있다. Also, the local path 8100 may include a modification path 8110 .

구체적으로, 차량의 컨트롤러는 센서 데이터 및 공유 데이터를 기초로 차량의 글로벌 경로 또는 로컬 경로 상에 차량에 위협이 되는 장애물을 발견한 경우, 수정 경로(8110)를 생성할 수 있다. 이때, 상기 차량의 컨트롤러는 상기 수정 경로(8110)를 차량이 주행하기 위한 로컬 경로로 설정할 수 있다.Specifically, when the controller of the vehicle detects an obstacle threatening the vehicle on the global route or the local route of the vehicle based on the sensor data and the shared data, the vehicle controller may generate a correction route 8110 . In this case, the controller of the vehicle may set the correction path 8110 as a local path for the vehicle to travel.

상기 수정 경로(8110)에 대한 자세한 내용은 하기(목차 5.2.2.2.2.)에서 설명한다.Details of the correction path 8110 will be described below (Table of Contents 5.2.2.2.2.).

5.2.2.2. 일 실시예에 따른 공유 데이터의 처리 및 경로 생성5.2.2.2. Processing and path generation of shared data according to an embodiment

일 실시예에 따른 공유 데이터를 수신한 차량은 상기 공유 데이터 및 상기 차량에 배치된 센서로부터 획득된 센서 데이터를 기초로 상기 차량이 주행하기 위한 경로를 생성할 수 있다.The vehicle receiving the shared data according to an embodiment may generate a route for the vehicle to travel based on the shared data and sensor data obtained from a sensor disposed in the vehicle.

도 81은 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법을 설명하기 위한 흐름도이다.81 is a flowchart illustrating a method for a vehicle to create or modify a route based on shared data according to an embodiment.

도 81을 참조하면, 차량의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있다(S5063).Referring to FIG. 81 , the vehicle controller may acquire a first point data set through at least one sensor disposed in the vehicle ( S5063 ).

또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함된 적어도 하나의 서브 포인트 데이터 셋을 기초로 제1 속성 데이터를 결정할 수 있다(S5064).Also, the controller of the vehicle may determine the first attribute data based on at least one sub-point data set included in the first point data set ( S5064 ).

또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋, 적어도 하나의 서브 포인트 데이터 셋, 또는 상기 제1 속성 데이터 중 적어도 일부를 기초로 상기 차량이 주행하기 위한 로컬 경로를 생성할 수 있다(S5065).Also, the controller of the vehicle may generate a local route for the vehicle to travel based on at least a part of the first point data set, at least one sub point data set, or the first attribute data (S5065) .

또한, 제1 장치의 컨트롤러는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5066).Also, the controller of the first device may acquire the second point data set through at least one sensor disposed in the first device (S5066).

또한, 상기 제1 장치의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함되는 제2 서브 포인트 데이터 셋을 기초로 제2 속성 데이터를 결정할 수 있다(S5067).Also, the controller of the first device may determine second attribute data based on a second sub-point data set included in the second point data set ( S5067 ).

또한, 상기 제1 장치의 컨트롤러는 상기 제2 속성 데이터를 포함하는 공유 데이터를 상기 차량에 전송할 수 있다(S5068).Also, the controller of the first device may transmit shared data including the second attribute data to the vehicle (S5068).

또한, 상기 차량은 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 수정 경로를 생성할 수 있다(S5069).Also, the vehicle may generate a correction path based on at least one of the first point data set, the first attribute data, or the local path, and the second attribute data (S5069).

이하에서는 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법의 각 단계에 대한 상세한 내용을 설명한다.Hereinafter, details of each step of a method for a vehicle to create or modify a route based on shared data according to an embodiment will be described.

5.2.2.2.1. 센서 데이터 및 공유 데이터의 생성 및 공유5.2.2.2.1. Creation and sharing of sensor data and shared data

도 82는 일 실시예에 따른 제1 차량이 센서 데이터 및 공유 데이터를 기초로 생성된 경로를 따라 주행하는 상황을 나타내는 도면이다.82 is a diagram illustrating a situation in which the first vehicle travels along a path generated based on sensor data and shared data, according to an exemplary embodiment.

도 82를 참조하면, 제1 차량(141)의 컨트롤러는 상기 제1 차량(141)에 배치된 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있고, 인프라 장치(700)의 컨트롤러는 상기 인프라 장치(700)에 배치된 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5063, S5066)Referring to FIG. 82 , the controller of the first vehicle 141 may acquire a first point data set through a sensor disposed in the first vehicle 141 , and the controller of the infrastructure device 700 is the infrastructure device. A second point data set may be acquired through the sensor disposed in 700 (S5063, S5066).

이때, 상기 제1 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함할 수 있고, 상기 제1 차량(141)의 컨트롤러는 상기 제1 서브 포인트 데이터 셋을 기초로 제1 속성 데이터를 결정할 수 있다(S5064). 이 경우, 상기 제1 포인트 데이터 셋은 상기 건물(500)에 가려져서 센서의 시야각에 포함되지 않는 보행자(800)에 대한 정보를 포함하지 않을 수 있다. 또한, 상기 제1 속성 데이터는 상기 건물(500)의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.In this case, the first point data set may include a first sub-point data set representing at least a part of the building 500 , and the controller of the first vehicle 141 uses the first sub-point data set based on the first sub-point data set. First attribute data may be determined (S5064). In this case, the first point data set may not include information on the pedestrian 800 that is not included in the viewing angle of the sensor because it is obscured by the building 500 . Also, the first attribute data may include center location information, size information, movement information, shape information, and the like of the building 500 , but is not limited thereto.

또한, 상기 제2 포인트 데이터 셋은 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 서브 포인트 데이터 셋을 기초로 제2 속성 데이터를 결정할 수 있다(S5067). 이때, 상기 제2 속성 데이터는 상기 보행자(800)의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. In addition, the second point data set may include a second sub-point data set representing at least a part of the pedestrian 800, and the controller of the infrastructure device 700 generates a second sub-point data set based on the second sub-point data set. 2 attribute data may be determined (S5067). In this case, the second attribute data may include center position information, size information, movement information, shape information, etc. of the pedestrian 800, but is not limited thereto.

또한, 이에 한정되지 않고, 상기 제2 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 포함할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제3 서브 포인트 데이터 셋을 기초로 제3 속성 데이터를 결정할 수 있다.In addition, without being limited thereto, the second point data set may include a third sub-point data set representing at least a part of the building 500 , and the controller of the infrastructure device 700 may include the third sub-point data The third attribute data may be determined based on the set.

또한, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 속성 데이터를 기초로 공유 데이터를 생성하여 상기 제1 차량(141)에 전송할 수 있다(S5068). 보다 구체적으로, 상기 인프라 장치(700)는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)를 나타내는 제2 서브 포인트 데이터 셋을 기초로 생성된 제2 속성 데이터를 상기 제1 차량(141)에 전송할 수 있다. 이때, 상기 제2 속성 데이터는 상기 보행자(800)의 이동 방향 및 이동 속도에 따라 예측되는 상기 보행자(800)의 트래킹 정보를 포함할 수 있다. 이 경우, 상기 제1 차량(141)의 컨트롤러는 상기 트래킹 정보를 기초로, 상기 제1 차량(141)과 상기 보행자(800)의 충돌 확률을 계산할 수 있다.Also, the controller of the infrastructure device 700 may generate shared data based on the second attribute data and transmit it to the first vehicle 141 ( S5068 ). More specifically, the infrastructure device 700 transmits second attribute data generated based on a second sub-point data set indicating a pedestrian 800 not included in the first point data set to the first vehicle 141 . can be sent to In this case, the second attribute data may include tracking information of the pedestrian 800 predicted according to the moving direction and moving speed of the pedestrian 800 . In this case, the controller of the first vehicle 141 may calculate a collision probability between the first vehicle 141 and the pedestrian 800 based on the tracking information.

또한, 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터를 포함할 수 있으나, 실시예에 따라 포함하지 않을 수도 있다.In addition, the content of the shared data may include the third attribute data, but may not include it according to an embodiment.

5.2.2.2.2 로컬 경로의 생성 및 수정5.2.2.2.2 Creating and modifying local paths

상기 제1 차량(141)의 컨트롤러는 상기 제1 차량(141)에 배치된 센서를 통해 획득한 센서 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다(S5065). 이때, 상기 제1 차량(141)은 상기 인프라 장치(700)로부터 상기 공유 데이터를 수신하기 전에 상기 로컬 경로(8100)를 생성할 수 있으나, 실시예에 따라 상기 공유 데이터를 수신한 후에 상기 로컬 경로(8100)를 생성할 수도 있다. The controller of the first vehicle 141 may generate a local route 8100 based on sensor data acquired through a sensor disposed in the first vehicle 141 ( S5065 ). In this case, the first vehicle 141 may generate the local path 8100 before receiving the shared data from the infrastructure device 700 , but according to an embodiment, after receiving the shared data, the local path 8100 may be generated.

일 예로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 속성 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다. 보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 차량을 글로벌 경로를 따라 제어하되, 상기 차량에 배치된 센서의 시야각 내에 존재하는 객체에 대한 센서 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다. 구체적인 예로, 상기 제1 차량(141)의 컨트롤러는 건물(500)에 대한 센서 데이터(예를 들어, 제1 서브 포인트 데이터 셋 또는 제1 속성 데이터)를 기초로 상기 차량과 상기 건물(500)의 충돌을 방지하기 위한 로컬 경로(8100)를 생성할 수 있다. For example, the controller of the first vehicle 141 may generate the local route 8100 based on the first attribute data. More specifically, the controller of the first vehicle 141 controls the vehicle along a global path, but generates a local path 8100 based on sensor data for an object existing within a viewing angle of a sensor disposed in the vehicle. can As a specific example, the controller of the first vehicle 141 controls the vehicle and the building 500 based on sensor data (eg, the first sub-point data set or the first attribute data) for the building 500 . A local path 8100 for preventing collisions may be created.

물론, 실시예에 따라 상기 제1 차량(141)의 컨트롤러는 센서 데이터에 포함되는 제1 포인트 데이터 셋, 복수의 서브 포인트 데이터 셋을 기초로 로컬 경로를 생성할 수도 있다. Of course, according to an embodiment, the controller of the first vehicle 141 may generate a local route based on a first point data set and a plurality of sub-point data sets included in the sensor data.

또한, 상기 제1 차량(141)의 컨트롤러는 센서 데이터 및 공유 데이터를 기초로 수정 경로(8110)를 생성할 수 있다(S5069). 보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 상기 센서 데이터에 포함되지 않는 객체와의 충돌을 피하기 위해, 상기 제1 차량(141)에 배치된 센서로부터 획득된 센서 데이터 및 상기 인프라 장치(700)로부터 수신한 공유 데이터를 기초로 수정 경로(8110)를 생성할 수 있다. Also, the controller of the first vehicle 141 may generate a correction path 8110 based on the sensor data and the shared data (S5069). More specifically, the controller of the first vehicle 141 may include sensor data and the infrastructure device ( A correction path 8110 may be generated based on the shared data received from 700 .

이때, 상기 공유 데이터의 컨텐츠는 상기 제1 포인트 데이터 셋에 포함되지 않은 객체에 대한 정보를 포함할 수 있다. 예를 들어, 상기 공유 데이터의 컨텐츠는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.In this case, the content of the shared data may include information about an object not included in the first point data set. For example, the content of the shared data is at least one of a second sub-point data set representing at least a part of the pedestrian 800 not included in the first point data set or second attribute data of the second sub-point data set. It may include one, but is not limited thereto.

또한, 상기 제1 차량(141)의 컨트롤러는 상기 수정 경로(8110)를 생성하기 전에, 상기 제2 속성 데이터를 기초로 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.Also, before generating the correction path 8110 , the controller of the first vehicle 141 may determine whether to generate the correction path 8110 based on the second attribute data.

일 예로, 상기 제1 차량(141)의 컨트롤러는 상기 로컬 경로(8100)가 상기 보행자(800)가 위치하는 소정 영역의 적어도 일부를 포함하는 경우, 상기 수정 경로(8110)를 생성할 수 있다. 다시 말해, 상기 로컬 경로(8100)와 상기 보행자(800)가 위치하는 소정 영역과 일정 부분 겹치는 경우, 상기 제1 차량(141)의 컨트롤러는 상기 수정 경로(8110)를 생성할 수 있다. 이때, 상기 소정 영역은 상기 제1 차량(141)의 컨트롤러에 의해 미리 설정될 수 있으나, 이에 한정되지 않고, 제1 차량(141)의 속도 또는 상기 보행자(800)까지의 거리 등을 기초로 설정될 수도 있다. 또한, 상기 수정 경로(8110)는 상기 보행자(800)가 위치하는 소정 영역과 겹쳐지지 않을 수 있다. 물론, 실시예에 따라, 상기 수정 경로(8110)는 상기 보행자(800)가 위치하는 소정 영역과 일정 부분 겹쳐질 수 있다.For example, when the local path 8100 includes at least a part of a predetermined area in which the pedestrian 800 is located, the controller of the first vehicle 141 may generate the modified path 8110 . In other words, when the local path 8100 partially overlaps with a predetermined area where the pedestrian 800 is located, the controller of the first vehicle 141 may generate the corrected path 8110 . In this case, the predetermined area may be preset by the controller of the first vehicle 141 , but is not limited thereto, and is set based on the speed of the first vehicle 141 or the distance to the pedestrian 800 , etc. it might be Also, the correction path 8110 may not overlap a predetermined area in which the pedestrian 800 is located. Of course, according to an embodiment, the correction path 8110 may partially overlap a predetermined area where the pedestrian 800 is located.

다른 예로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 이동 정보를 포함하는 제2 속성 데이터를 기초로, 상기 제1 차량(141)과 상기 보행자(800)의 충돌 확률을 계산할 수 있고, 계산된 확률에 따라 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.As another example, the controller of the first vehicle 141 performs the first vehicle 141 and the second attribute data including movement information of the pedestrian 800 not included in the first point data set. The collision probability of the pedestrian 800 may be calculated, and it may be determined whether to generate the correction path 8110 according to the calculated probability.

보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 차량의 로컬 경로(8100)를 기초로 예측되는 상기 제1 차량(141)의 위치 이동에 대한 확률 및 상기 제2 속성 데이터를 기초로 예측되는 상기 보행자(800)의 위치 이동에 대한 확률을 기초로 상기 차량의 경로를 수정할지 여부를 결정할 수 있다. More specifically, the controller of the first vehicle 141 based on the probability of the position movement of the first vehicle 141 predicted based on the local path 8100 of the first vehicle and the second attribute data. It is possible to determine whether to correct the path of the vehicle based on the predicted probability of the movement of the position of the pedestrian 800 .

구체적인 예로, 상기 제1 차량(141)의 컨트롤러는 상기 로컬 경로(8100) 및 상기 제2 속성 데이터를 기초로 상기 제1 차량(141)과 상기 보행자(800)의 이동에 따라 생성된 충돌 확률 맵을 기초로 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.As a specific example, the controller of the first vehicle 141 may generate a collision probability map generated according to the movement of the first vehicle 141 and the pedestrian 800 based on the local path 8100 and the second attribute data. It may be determined whether to generate the correction path 8110 based on .

도 83은 일 실시예에 따른 제1 차량의 컨트롤러가 생성한 충돌 확률 맵을 기초로 수정 경로를 생성하는 방법을 설명하기 위한 도면이다. 83 is a diagram for describing a method of generating a correction path based on a collision probability map generated by a controller of the first vehicle according to an exemplary embodiment.

도 83을 참조하면, 차량의 컨트롤러는 로컬 경로(8100)를 따라 주행중인 차량과 보행자의 시간에 따른 이동 확률을 표시한 충돌 확률 맵을 생성할 수 있다. 이때, 상기 차량이 상기 로컬 경로(8100)를 따라 주행하면서 상기 차량과 보행자 간의 충돌 확률이 높은 영역(8200)이 상기 충돌 확률 맵에 표시되는 경우, 상기 차량의 컨트롤러는 충돌을 피하기 위한 수정 경로(8110)의 생성을 결정할 수 있고, 상기 수정 경로(8110)를 생성할 수 있다. Referring to FIG. 83 , the vehicle controller may generate a collision probability map in which movement probabilities of a vehicle and a pedestrian traveling along a local path 8100 are displayed according to time. At this time, when the area 8200 with a high probability of collision between the vehicle and the pedestrian is displayed on the collision probability map while the vehicle is traveling along the local path 8100, the controller of the vehicle controls a correction path ( The generation of the 8110 may be determined, and the modification path 8110 may be generated.

또한, 이에 한정되지 않고, 차량의 컨트롤러는 차량에 배치된 센서로부터 획득된 센서 데이터에 블라인드 스팟이 존재하는지 여부에 따라 수정 경로를 생성할지 여부를 판단할 수 있다. In addition, the present invention is not limited thereto, and the controller of the vehicle may determine whether to generate the correction path according to whether a blind spot exists in sensor data obtained from a sensor disposed in the vehicle.

구체적으로, 로컬 경로를 따라 주행중인 차량의 컨트롤러는 전술한 목차 4.2.5. 에 기재된 방식에 따라 블라인드 스팟을 감지한 경우, 블라인드 스팟의 존재에 따라 발생할 수 있는 위험을 방지하기 위해, 수정 경로를 생성할 수 있다.Specifically, the controller of the vehicle driving along the local route is described in Table of Contents 4.2.5. When a blind spot is detected according to the method described in , a correction path may be generated in order to prevent a risk that may occur due to the existence of the blind spot.

예를 들어, 차량의 컨트롤러는 블라인드 스팟이 감지된 경우, 상기 차량의 속도를 감소시키거나 차선을 변경하는 등의 수정 경로를 생성할 수 있으나, 이에 한정되지 않는다.For example, when a blind spot is detected, the vehicle controller may generate a correction path such as reducing the speed of the vehicle or changing a lane, but is not limited thereto.

5.2.2.2.3. 수정 경로의 다양한 실시예5.2.2.2.3. Various embodiments of fertilization pathways

또한, 차량의 컨트롤러는 차량과 다른 객체의 충돌을 피하기 위한 최적의 수정 경로를 생성할 수 있다. In addition, the vehicle's controller can generate an optimal correction path to avoid collision of the vehicle with other objects.

도 84는 일 실시예에 따른 수정 경로의 다양한 실시예를 설명하기 위한 도면이다.84 is a view for explaining various embodiments of a modification path according to an embodiment.

도 84를 참조하면, 글로벌 경로 및 로컬 경로를 따라 주행중인 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)의 이동 속도, 이동 방향, 위치 등을 기초로 보행자(800)를 회피하기 위한 적어도 하나의 수정 경로를 생성할 수 있다.Referring to FIG. 84 , the controller of the second vehicle 142 traveling along the global route and the local route avoids the pedestrian 800 based on the movement speed, movement direction, and location of the second vehicle 142 . It is possible to create at least one modification path for

예를 들어, 상기 적어도 하나의 수정 경로는 상기 제2 차량(142)을 정지시키기 위한 제1 수정 경로(8111) 및 로컬 경로의 적어도 일부를 변경한 제2 수정 경로(8112)를 포함할 수 있으나, 이에 한정되지 않는다.For example, the at least one modification path may include a first modification path 8111 for stopping the second vehicle 142 and a second modification path 8112 for changing at least a part of the local path. , but is not limited thereto.

구체적으로, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)에 배치된 센서로부터 획득된 센서 데이터에 포함되지 않되, 다른 장치로부터 공유 받은 공유 데이터에 포함되는 보행자(800)에 대한 정보(예를 들어, 속성 데이터)를 수신할 수 있다. 이때, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)과 상기 보행자(800)의 충돌을 방지하기 위해, 상기 제2 차량(142)을 정지시키는 제1 수정 경로(8111)를 생성할 수 있다. 이때, 상기 제1 수정 경로(8111)는 상기 제2 차량(142)을 소정 시간 내에 정지시키거나, 소정 시간 동안 정지시키도록 생성될 수 있다.Specifically, the controller of the second vehicle 142 is not included in the sensor data obtained from the sensor disposed in the second vehicle 142, but is included in the shared data shared from other devices. Information (eg, attribute data) may be received. At this time, the controller of the second vehicle 142 controls the first correction path 8111 for stopping the second vehicle 142 in order to prevent a collision between the second vehicle 142 and the pedestrian 800 . can create In this case, the first correction path 8111 may be generated to stop the second vehicle 142 within a predetermined time or to stop for a predetermined time.

또한, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)과 상기 보행자(800)의 충돌을 방지하기 위해, 상기 제2 차량(142)의 로컬 경로를 적어도 일부분 변경하여 상기 제2 차량(142)이 상기 보행자(800)를 피해서 주행하는 제2 수정 경로(8112)를 생성할 수 있다.In addition, in order to prevent a collision between the second vehicle 142 and the pedestrian 800 , the controller of the second vehicle 142 may at least partially change the local route of the second vehicle 142 to change the second vehicle 142 to the second vehicle 142 . The vehicle 142 may generate a second modified path 8112 in which the vehicle 142 travels while avoiding the pedestrian 800 .

또한, 이에 한정되지 않고, 상기 제2 차량(142)의 컨트롤러는 기존 로컬 경로에 포함되는 상기 제2 차량(142)의 위치, 속도, 및 방향 중 적어도 일부를 변경한 수정 경로를 생성할 수 있다.In addition, the present invention is not limited thereto, and the controller of the second vehicle 142 may generate a modified route in which at least a portion of the position, speed, and direction of the second vehicle 142 included in the existing local route is changed. .

차량의 컨트롤러가 차량의 위치, 속도, 또는 방향 등을 포함하는 수정 경로를 생성한 경우, 상기 차량의 컨트롤러는 상기 수정 경로를 로컬 경로로 설정할 수 있고, 설정된 상기 로컬 경로를 기초로 상기 차량을 제어할 수 있다.When the controller of the vehicle generates a modified route including the location, speed, or direction of the vehicle, the controller of the vehicle may set the modified route as a local route, and control the vehicle based on the set local route can do.

또한, 상기 수정 경로는 글로벌 경로의 적어도 일부를 수정한 경로를 포함할 수 있다. 구체적으로, 차량의 컨트롤러는 상기 차량의 글로벌 경로 상에서 특정 이벤트가 발생한 정보를 수신한 경우, 상기 이벤트가 발생한 정보를 반영한 수정 경로를 생성하여 새로운 글로벌 경로로 설정할 수 있다. Also, the modified path may include a path obtained by modifying at least a part of the global path. Specifically, when receiving information on which a specific event occurs on the global route of the vehicle, the controller of the vehicle may create a modified route reflecting the information on the occurrence of the event and set it as a new global route.

일 예로, 차량의 컨트롤러는 차량의 현재 위치와 차량의 목적지의 위치를 기초로 생성된 제1 글로벌 경로를 따라 상기 차량을 제어할 수 있다. 이때, 상기 차량의 컨트롤러가 상기 제1 글로벌 경로와 관련된 특정 지점에서 발생한 트래픽 이벤트와 관련된 정보를 포함하는 공유 데이터를 다른 장치로부터 수신한 경우, 상기 차량이 상기 트래픽 이벤트가 발생한 영역을 피해서 주행할 수 있도록 수정 경로를 생성할 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 수정 경로를 제2 글로벌 경로로 설정하여 상기 차량을 상기 제2 글로벌 경로를 따라 제어할 수 있다. For example, the controller of the vehicle may control the vehicle along a first global route generated based on the current location of the vehicle and the location of the destination of the vehicle. In this case, when the controller of the vehicle receives shared data including information related to a traffic event occurring at a specific point related to the first global route from another device, the vehicle can drive while avoiding the area where the traffic event occurred. You can create a modification path so that In this case, the controller of the vehicle may control the vehicle along the second global path by setting the modified path as the second global path.

전술한 사항과 같이, 상기 수정 경로는 글로벌 경로 또는 로컬 경로의 적어도 일부를 수정한 경로를 의미할 수 있고, 이에 한정되지 않고, 차량을 급정지시키기 위한 경로를 의미할 수도 있다. 또한, 차량의 컨트롤러는 상기 수정 경로를 차량을 위한 새로운 글로벌 경로 또는 차량을 위한 새로운 로컬 경로로 설정할 수 있다.As described above, the modified path may refer to a path obtained by modifying at least a part of a global path or a local path, but is not limited thereto, and may refer to a path for suddenly stopping the vehicle. Also, the vehicle's controller may set the modified route to a new global route for the vehicle or a new local route for the vehicle.

5.2.3. 공유 데이터에 트래픽 이벤트와 관련된 정보가 포함된 경우5.2.3. If the shared data contains information related to traffic events

일 실시예에 따른 공유 데이터의 컨텐츠는 교통 사고 등 트래픽 이벤트 관련 정보를 포함할 수 있다. 이때, 상기 트래픽 이벤트 관련 정보는 적어도 하나의 객체가 트래픽 이벤트에 연관되었다는 사실을 나타내는 정보를 의미할 수 있으나, 이에 한정되지 않고, 상기 트래픽 이벤트에 대한 정보를 요청하는 메시지 등을 의미할 수도 있다.The content of the shared data according to an embodiment may include information related to a traffic event, such as a traffic accident. In this case, the traffic event related information may mean information indicating that at least one object is related to a traffic event, but is not limited thereto, and may mean a message requesting information on the traffic event.

이 경우, 상기 트래픽 이벤트 관련 정보를 수신한 장치는 상기 트래픽 이벤트 관련 정보에 포함되는 데이터(예를 들어, 이벤트 발생 영역)를 고정밀 지도 상에 디스플레이할 수 있다. 예를 들어, 트래픽 이벤트 관련 정보를 수신한 차량의 컨트롤러는 탑승자에게 트래픽 이벤트와 관련된 정보를 알리기 위해, 고정밀 지도 상에 트래픽 이벤트가 발생한 영역 등을 표시할 수 있으나, 이에 한정되지 않는다.In this case, the device receiving the traffic event-related information may display data (eg, an event generation area) included in the traffic event-related information on a high-precision map. For example, the controller of the vehicle receiving the traffic event related information may display an area where the traffic event occurred on the high-precision map in order to notify the occupant of the traffic event related information, but is not limited thereto.

또한, 상기 트래픽 이벤트 관련 정보를 수신한 장치는 상기 트래픽 이벤트 관련 정보를 이용하여 상기 이벤트와 관련되는 객체들의 속성 데이터(예를 들어, 클래스 정보)를 변경할 수 있다.Also, the device receiving the traffic event related information may change attribute data (eg, class information) of objects related to the event by using the traffic event related information.

구체적인 예로, 제1 차량의 컨트롤러가 제1 차량에 포함된 적어도 하나의 센서를 통해 획득한 센서 데이터에 포함되는 제2 차량의 클래스 정보를 '차량(Vehicle)'으로 판단할 수 있다. 이때, 상기 제2 차량이 트래픽 이벤트와 관련된 객체인 경우, 상기 제1 차량의 컨트롤러는 제2 장치로부터 상기 제2 차량이 트래픽 이벤트와 관련되었다는 정보를 수신할 수 있다. 이 경우, 상기 제1 차량의 컨트롤러는 상기 제2 차량의 클래스 정보를 '사고', '사고 차량', '사고 현장', 또는 '사고 지점' 등으로 변경할 수 있으나, 이에 한정되지 않는다. As a specific example, the controller of the first vehicle may determine class information of the second vehicle included in sensor data acquired through at least one sensor included in the first vehicle as 'Vehicle'. In this case, when the second vehicle is an object related to a traffic event, the controller of the first vehicle may receive information from the second device that the second vehicle is related to the traffic event. In this case, the controller of the first vehicle may change the class information of the second vehicle to 'accident', 'accident vehicle', 'accident site', or 'accident point', but is not limited thereto.

또한, 상기 제1 차량의 컨트롤러는 상기 제2 차량의 변경된 클래스 정보를 기초로, 상기 제1 차량을 제어할 수 있다. 예를 들어, 상기 제1 차량의 컨트롤러는 상기 트래픽 이벤트와 관련된 제2 차량과 관련된 영역을 포함하지 않는 로컬 경로를 생성할 수 있으나, 이에 한정되지 않는다.Also, the controller of the first vehicle may control the first vehicle based on the changed class information of the second vehicle. For example, the controller of the first vehicle may generate a local path that does not include a region related to the second vehicle related to the traffic event, but is not limited thereto.

6. 센서 데이터 및 공유 데이터를 활용한 다양한 어플리케이션6. Various applications using sensor data and shared data

전술한 실시예에 따른 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 다양한 어플리케이션(Application)에서 이용될 수 있다.The selective sharing method and processing method of sensor data and shared data according to the above-described embodiment may be used in various applications.

일 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 블랙박스(Dash-cam)에 이용될 수 있다. 이 경우, 라이다를 이용한 블랙박스를 포함하는 차량은 상기 라이다를 이용해 획득한 포인트 데이터 셋을 상기 블랙박스의 메모리 또는 상기 차량에 포함된 메모리에 저장할 수 있다. 다만, 전술한 바와 같이 메모리의 저장 용량 문제 및 라이다로부터 획득된 객체의 인텐시티 정보에 의한 프라이버시 침해 문제를 해결하기 위해, 차량의 컨트롤러는 상기 포인트 데이터 셋을 선별적으로 저장할 수 있다. 예를 들어, 상기 차량의 컨트롤러는 객체의 인텐시티 정보를 제외한 포인트 데이터 셋을 저장할 수 있으나, 이에 한정되지 않고, 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 일부 가공한 프라이버시 보호 데이터를 생성하여 저장할 수도 있다. As an example, a selective sharing method and processing method of sensor data and shared data may be used in a black box (Dash-cam). In this case, the vehicle including the black box using the lidar may store the point data set acquired using the lidar in the memory of the black box or the memory included in the vehicle. However, as described above, in order to solve the problem of the storage capacity of the memory and the invasion of privacy due to the intensity information of the object obtained from the lidar, the controller of the vehicle may selectively store the point data set. For example, the controller of the vehicle may store a point data set excluding the intensity information of the object, but is not limited thereto, and may generate and store privacy protection data obtained by partially processing a sub point data set representing at least a portion of an object. have.

또한, 차량이 교통 사고 등 트래픽 이벤트에 관련되는 경우, 상기 차량은 전술한 바와 같이 주변 장치로부터 상기 트래픽 이벤트와 관련된 객체의 클래스 정보에 따라 프라이버시 보호 데이터를 포함하는 공유 데이터를 수신하거나, 이동형 객체와 관련된 데이터만 선별적으로 수신할 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 공유 데이터를 기초로 상기 트래픽 이벤트를 재구성할 수 있다.In addition, when the vehicle is related to a traffic event such as a traffic accident, the vehicle receives shared data including privacy protection data from a peripheral device according to class information of an object related to the traffic event as described above, or a mobile object and Only relevant data can be selectively received. In this case, the controller of the vehicle may reconstruct the traffic event based on the shared data.

또한, 트래픽 이벤트가 발생한 영역의 주변에 위치한 차량은 전술한 바와 같이 서버로부터 상기 트래픽 이벤트와 관련된 센서 데이터의 요청을 수신할 수 있고, 해당 요청에 대한 응답으로, 상기 차량의 컨트롤러는 상기 트래픽 이벤트와 관련된 공유 데이터를 상기 서버에 전송할 수 있다. 이때, 상기 서버는 상기 트래픽 이벤트와 관련된 공유 데이터를 기초로 상기 트래픽 이벤트를 재구성할 수 있다. In addition, as described above, the vehicle located in the vicinity of the area where the traffic event occurred may receive a request for sensor data related to the traffic event from the server, and in response to the request, the controller of the vehicle may communicate with the traffic event. Relevant shared data may be transmitted to the server. In this case, the server may reconfigure the traffic event based on shared data related to the traffic event.

또한, 트래픽 이벤트와 관련된 공유 데이터를 수신한 장치는 전술한 바와 같이 센서 데이터 및 상기 공유 데이터의 좌표계를 하나의 좌표계로 정렬시킴으로써 복수의 데이터를 정합할 수 있다. 이때, 상기 장치는 상기 트래픽 이벤트 전후의 소정 시간 동안 획득된 센서 데이터 및 공유 데이터를 시간 순서로 나열함으로써 상기 트래픽 이벤트를 재구성할 수 있다. In addition, the device receiving the shared data related to the traffic event may match the plurality of data by aligning the sensor data and the coordinate systems of the shared data into one coordinate system as described above. In this case, the device may reconstruct the traffic event by listing the sensor data and shared data acquired for a predetermined time before and after the traffic event in chronological order.

다른 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 전술한 바와 같이, 차량에 배치된 센서로부터 정보를 획득할 수 없는 영역을 의미하는 블라인드 스팟을 감지하기 위해 이용될 수 있다. 보다 구체적으로, 차량의 컨트롤러는 차량에 배치된 센서의 시야각 내에 위치하되 다른 객체에 의해 가려져서 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 다른 장치로부터 상기 센서 데이터에 포함되지 않는 객체에 대한 정보를 포함하는 공유 데이터를 수신할 수 있다. As another example, the selective sharing method and processing method of sensor data and shared data may be used to detect a blind spot, which means an area in which information cannot be obtained from a sensor disposed in a vehicle, as described above. More specifically, the controller of the vehicle is located within the viewing angle of a sensor disposed in the vehicle but is obscured by another object to obtain information about an object not included in the sensor data, from another device to the object not included in the sensor data. It is possible to receive shared data including information about the

이 경우, 상기 차량에 공유 데이터를 전송하는 장치는 센서 데이터에 포함되는 객체의 클래스 정보를 기초로 공유 데이터의 컨텐츠를 선별적으로 생성할 수 있다. 또한, 상기 차량과 관련된 이벤트 발생 여부에 따라 공유 데이터의 컨텐츠를 선별적으로 생성할 수 있다. 또한, 상기 공유 데이터를 수신한 차량은 상기 블라인드 스팟 내에 위치하는 객체에 대한 데이터를 좌표계 정렬을 통해 상기 차량에 배치된 센서에 의해 획득한 센서 데이터와 정합할 수 있다. 이때, 상기 차량의 컨트롤러는 정합된 센서 데이터 및 공유 데이터를 기초로, 상기 차량을 제어할 수 있다.In this case, the device for transmitting the shared data to the vehicle may selectively generate the content of the shared data based on class information of the object included in the sensor data. In addition, content of shared data may be selectively generated according to whether an event related to the vehicle has occurred. In addition, the vehicle receiving the shared data may match the data on the object located in the blind spot with the sensor data obtained by the sensor disposed in the vehicle through coordinate system alignment. In this case, the controller of the vehicle may control the vehicle based on the matched sensor data and shared data.

또 다른 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 전술한 바와 같이, 차량의 주차 가능 공간을 감지하기 위해 이용될 수 있다. 구체적인 예로, 차량이 주차장에 진입한 경우, 주차장에 배치된 인프라 장치로부터 주차 가능 공간에 대한 정보를 수신할 수 있다. 이 경우, 차량의 컨트롤러는 자율 주차 시스템 및 상기 인프라 장치와의 통신 시스템을 이용하여 상기 차량을 상기 주차 가능 공간에 자율적으로 주차할 수 있다.As another example, the selective sharing method and processing method of sensor data and shared data may be used to detect an available parking space of a vehicle, as described above. As a specific example, when the vehicle enters the parking lot, information on the available parking space may be received from the infrastructure device disposed in the parking lot. In this case, the controller of the vehicle may autonomously park the vehicle in the available parking space using an autonomous parking system and a communication system with the infrastructure device.

대목차 6에서는 몇몇 어플리케이션에 전술한 대목차 1 내지 5의 기술적 사항이 적용될 수 있음을 예시적으로 나타낸 것으로, 전술한 대목차 1 내지 5의 기술적 사항 중 목차 6에서 기재된 기술적 사항 외에 다른 기술적 사항들 역시 상기 어플리케이션에 적용될 수 있음은 물론이다. 또한, 대목차 6에서 기재된 어플리케이션 외에 다른 어플리케이션(예를 들어, 교통 관제 시스템, 차량 외 다른 교통 수단(드론, 선박, 철도 등))에도 역시 전술한 대목차 1 내지 5의 기술적 사항이 적용될 수 있음은 물론이다.Table of Contents 6 exemplarily shows that the technical matters of Table of Contents 1 to 5 can be applied to some applications. Of course, it can also be applied to the application. In addition, in addition to the applications described in Table 6, the technical details of Tables 1 to 5 may also be applied to other applications (eg, traffic control system, transportation means other than vehicles (drones, ships, railroads, etc.)) is of course

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크, 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include a hard disk, a floppy disk, a magnetic medium such as a magnetic tape, an optical medium such as a CD-ROM, a DVD, and a magnetic medium such as a floppy disk. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 회로, 장치 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, circuit, apparatus, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

10 차량
1000 자율 주행 시스템
1100 컨트롤러
1200 통신 모듈
1300 센서
1400 인포테인먼트 시스템
2000 센서 데이터
3000 공유 데이터
6000 이벤트
8000 글로벌 경로
10 vehicles
1000 autonomous driving systems
1100 controller
1200 communication module
1300 sensor
1400 infotainment system
2000 sensor data
3000 shared data
6000 events
8000 global routes

Claims (23)

제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서,
상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-
상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계;
상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계; 및
상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계;를 포함하고,
상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우,
상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함하는
센서 데이터 공유 방법.
A method of sharing sensor data between a first device and a second device, the method comprising:
acquiring, by a controller included in the first device, a set of point data included in the sensor data from at least one sensor disposed in the first device; - the point data set comprises a first sub-set of point data representing at least a portion of a first object;
Generate, by the controller, first attribute data of the first sub-point data set, the first attribute data including class information of the first sub-point data set, based on the first sub-point data set to do;
generating, by the controller, shared data including at least a portion of the first sub-point data set and the first attribute data; and
including, by the controller, transmitting the shared data to the second device;
If the class of the first object included in the class information is a class that needs protection of personal information,
The content of the shared data includes privacy protection data in which at least a portion of the first sub-point data set is processed so that the personal information of the first object is not identified in the second device
How to share sensor data.
제1항에 있어서,
상기 개인 정보를 보호 받아야하는 클래스는,
사람과 관련된 클래스, 차량 또는 건물의 식별번호와 관련된 클래스, 또는 신분증과 관련된 클래스 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The class that should receive the above personal information protection,
A class that includes at least one of a class related to a person, a class related to an identification number of a vehicle or building, or a class related to identification
How to share sensor data.
제1항에 있어서,
상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The class information of the first sub-point set includes at least one of information on a type of the first object, information on a type of a part of the first object, or information on a situation of a region related to the first object containing
How to share sensor data.
제1항에 있어서,
상기 제1 서브 포인트 데이터 셋의 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The first attribute data of the first sub-point data set includes class information of the first object, center position information indicating a central position of the first sub-point set, and size information indicating size information of the first sub-point set. , movement information including at least one of a movement speed or a movement direction of the first sub-point data set, identification information for distinguishing the first sub-point data set from other sub-point data sets, and the shape of the first object At least one of the shape information displayed by processing
How to share sensor data.
제4항에 있어서,
상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 포함된 클래스의 종류와 관계없이 상기 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
5. The method of claim 4,
The content of the shared data includes at least one of information included in the first attribute data regardless of the type of class included in the class information of the first sub-point data set
How to share sensor data.
제4항에 있어서,
상기 형상 정보는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 기초하여 결정되되,
상기 형상 정보는 상기 제1 객체를 소정 개수 이하의 포인트 또는 적어도 하나의 선으로 나타낸 스켈레톤 정보 및 상기 제1 객체를 미리 결정된 형상으로 나타낸 템플릿 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
5. The method of claim 4,
The shape information is determined based on the class information of the first sub-point data set,
The shape information includes at least one of skeleton information representing the first object by a predetermined number of points or less or at least one line, and template information representing the first object in a predetermined shape
How to share sensor data.
제1항에 있어서,
상기 프라이버시 보호 데이터는 상기 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보를 더 포함함 - 에 포함된 정보 중 적어도 일부를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The privacy protection data includes at least a portion of information included in the first attribute data, wherein the first attribute data further includes shape information obtained by processing the shape of the first object.
How to share sensor data.
제1항에 있어서,
상기 제1 서브 포인트 데이터 셋은 복수의 포인트 데이터를 포함하고,
상기 프라이버시 보호 데이터는 상기 제1 서브 포인트 데이터 셋에 포함된 상기 복수의 포인트 데이터 중 상기 제1 객체의 프라이버시와 관련된 영역에 대한 적어도 하나의 포인트 데이터를 기초로 생성되는
센서 데이터 공유 방법.
According to claim 1,
The first sub-point data set includes a plurality of point data,
The privacy protection data is generated based on at least one point data for an area related to the privacy of the first object among the plurality of point data included in the first sub-point data set.
How to share sensor data.
제1항에 있어서,
상기 포인트 데이터 셋은 제2 객체의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호받아야 하는 클래스이고, 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우,
상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터를 포함하고,
상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 일부를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The point data set includes a second sub-point data set representing at least a portion of a second object,
The class of the first object included in the class information of the first sub-point data set is a class for which personal information should be protected, and the class of the second object included in the class information of the second sub-point data set includes personal information. If it is not a class that needs to be protected,
The content of the shared data includes privacy protection data in which at least a portion of the first sub-point data set is processed,
The content of the shared data includes at least a portion of the second sub-point data set and second attribute data of the second sub-point data set
How to share sensor data.
제1항에 있어서,
상기 포인트 데이터 셋은 제2 객체의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
외부 서버로부터 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 - 상기 제2 속성 데이터는 상기 제2 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 중 적어도 하나의 공유에 대한 인증을 획득한 경우,
상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스의 종류에 관계없이 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 속성 데이터 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
According to claim 1,
The point data set includes a second sub-point data set representing at least a part of a second object,
In sharing at least one of the second sub-point data set or the second attribute data of the second sub-point data set from an external server, the second attribute data includes class information of the second sub-point data set If you have obtained certification for
The content of the shared data includes at least one of the second sub-point data set and the second attribute data regardless of the class of the second object included in the class information of the second sub-point data set
How to share sensor data.
제1항에 있어서,
상기 포인트 데이터 셋은 다수의 포인트 데이터(point data)를 포함하고,
상기 다수의 포인트 데이터는, 상기 제1 장치에 배치된 적어도 하나의 상기 센서에 의해 측정된 객체까지의 거리 및 객체의 반사율 중 적어도 하나에 기초하여 생성되고,
상기 컨트롤러는 상기 제1 장치로부터 소정 거리 이하에 위치하는 상기 제1 객체에 대하여, 상기 제1 객체에 대한 다수의 포인트 데이터를 기초로 상기 제1 서브 포인트 데이터 셋을 생성하고,
상기 컨트롤러는 상기 제1 장치로부터 소정 거리보다 더 멀리 위치하는 제2 객체에 대하여, 상기 제2 객체에 대한 다수의 포인트 데이터를 기초로 제2 서브 포인트 데이터 셋을 생성하고,
상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 속성 데이터에 관계없이 상기 제2 서브 포인트 데이터 셋을 포함하는
센서 데이터 공유 방법.
According to claim 1,
The point data set includes a plurality of point data,
The plurality of point data is generated based on at least one of a reflectance of the object and a distance to the object measured by the at least one sensor disposed in the first device,
The controller generates the first sub-point data set based on a plurality of point data for the first object with respect to the first object located within a predetermined distance from the first device,
The controller generates a second sub-point data set based on a plurality of point data for the second object with respect to a second object located further than a predetermined distance from the first device,
The content of the shared data includes the second sub-point data set regardless of the attribute data of the second sub-point data set
How to share sensor data.
제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서,
상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함 -
상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계;
상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계; 를 포함하고,
상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정되는
센서 데이터 공유 방법.
A method of sharing sensor data between a first device and a second device, the method comprising:
acquiring, by a controller of the first device, a set of point data from at least one sensor disposed in the first device; - the point data set comprises a first sub-set of point data representing at least a portion of a first object;
generating, by the controller, first attribute data of the first sub-point data set included in the point data set, wherein the first attribute data includes class information of the first sub-point data set;
generating shared data to be shared with the second device by using at least one of the point data set, the first sub-point data set, and the first attribute data; including,
The first sub-point data set or the first attribute in the content of the shared data to be shared with the second device based on at least one of the mobility possibility of the class of the first object and the type of the class of the first object It is determined whether at least one of the data
How to share sensor data.
제12항에 있어서,
상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하고,
상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하는
센서 데이터 공유 방법.
13. The method of claim 12,
When the class of the first object included in the class information of the first sub-point data set is related to a fixed object, the content of shared data to be shared with the second device includes the first sub-point data set,
transmitting the shared data to the second device
How to share sensor data.
제13항에 있어서,
상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
14. The method of claim 13,
The content of the shared data includes at least one of information included in the first attribute data of the first sub-point data set
How to share sensor data.
제13항에 있어서,
상기 컨트롤러가 상기 고정형 객체가 소정 시간 후에 이동 가능한지 여부와 관련되는 부가 정보를 획득하는 경우,
상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함하는
센서 데이터 공유 방법.
14. The method of claim 13,
When the controller acquires additional information related to whether the fixed object is movable after a predetermined time,
The content of the shared data includes the additional information
How to share sensor data.
제12항에 있어서,
상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함되는 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않는
센서 데이터 공유 방법.
13. The method of claim 12,
When the class of the first object included in the class information of the first sub-point data set is related to a movable object, the content of the shared data does not include the first sub-point data set
How to share sensor data.
제16항에 있어서,
상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함되는 정보 중 적어도 하나를 포함하고,
상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하는
센서 데이터 공유 방법.
17. The method of claim 16,
The content of the shared data includes at least one of information included in the first attribute data of the first sub-point data set,
transmitting the shared data to the second device
How to share sensor data.
제12항에 있어서,
상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
13. The method of claim 12,
The class information of the first sub-point set includes at least one of information on a type of the first object, information on a type of a part of the first object, or information on a situation of a region related to the first object containing
How to share sensor data.
제18항에 있어서,
상기 포인트 데이터 셋은 제2 객체 - 상기 제2 객체는 상기 제1 객체로부터 소정 거리만큼 떨어진 영역 내에 위치함-의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
상기 제1 객체와 관련된 영역의 상황은 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋을 기초로 판단되고,
상기 제1 서브 포인트 데이터 셋의 클래스 정보 및 상기 제2 서브 포인트 데이터 셋의 클래스 정보가 상기 제1 객체와 관련된 영역의 상황에 대한 정보를 포함하는 경우,
상기 컨트롤러는 상기 객체와 관련된 영역의 상황의 종료 시점과 관련되는 부가 정보를 획득하고,
상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함하는
센서 데이터 공유 방법.
19. The method of claim 18,
The point data set includes a second sub-point data set representing at least a portion of a second object, wherein the second object is located in an area separated by a predetermined distance from the first object;
The state of the area related to the first object is determined based on the first sub-point data set and the second sub-point data set,
When the class information of the first sub-point data set and the class information of the second sub-point data set include information on the status of a region related to the first object,
The controller acquires additional information related to the end time of the situation of the area related to the object,
The content of the shared data includes the additional information
How to share sensor data.
제12항에 있어서,
상기 제1서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않고,
상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하는
센서 데이터 공유 방법.
13. The method of claim 12,
When the class of the first object included in the class information of the first sub-point data set is related to a fixed object, the content of the shared data does not include the first sub-point data set,
When the class of the first object included in the class information of the first sub-point data set is related to a mobile object, the content of the shared data includes the first sub-point data set
How to share sensor data.
제1항 또는 제12항에 있어서,
상기 적어도 하나의 센서는 라이다, 카메라, 레이더 및 초음파 센서 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
13. The method of claim 1 or 12,
The at least one sensor includes at least one of a lidar, a camera, a radar, and an ultrasonic sensor.
How to share sensor data.
제1항 또는 제12항에 있어서,
상기 제1 장치 및 상기 제2 장치 각각은 이동체, 서버, 모바일 디바이스, 또는 인프라 장치 중 적어도 하나를 포함하는
센서 데이터 공유 방법.
13. The method of claim 1 or 12,
Each of the first device and the second device includes at least one of a mobile body, a server, a mobile device, and an infrastructure device.
How to share sensor data.
제1항 내지 제20항 중 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.

A computer-readable recording medium in which a program for performing the method of any one of claims 1 to 20 is recorded.

KR1020200112084A 2020-06-26 2020-09-03 A method of sharing and using sensor data KR20220001405A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2020/016132 WO2021261680A1 (en) 2020-06-26 2020-11-17 Sensor data sharing and utilizing method
US17/118,413 US11878711B2 (en) 2020-06-26 2020-12-10 Method of sharing and using sensor data
US17/118,358 US11858493B2 (en) 2020-06-26 2020-12-10 Method of sharing and using sensor data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063044756P 2020-06-26 2020-06-26
US63/044,756 2020-06-26

Publications (1)

Publication Number Publication Date
KR20220001405A true KR20220001405A (en) 2022-01-05

Family

ID=79342610

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200112086A KR20220001406A (en) 2020-06-26 2020-09-03 A method of sharing and using sensor data
KR1020200112084A KR20220001405A (en) 2020-06-26 2020-09-03 A method of sharing and using sensor data
KR1020200112085A KR20220000779A (en) 2020-06-26 2020-09-03 A method of sharing and using sensor data

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200112086A KR20220001406A (en) 2020-06-26 2020-09-03 A method of sharing and using sensor data

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200112085A KR20220000779A (en) 2020-06-26 2020-09-03 A method of sharing and using sensor data

Country Status (1)

Country Link
KR (3) KR20220001406A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481084B1 (en) * 2022-03-28 2022-12-27 주식회사 라이드플럭스 Method, apparatus and computer program for generating surrounding environment information for automatic driving control of vehicle

Also Published As

Publication number Publication date
KR20220000779A (en) 2022-01-04
KR20220001406A (en) 2022-01-05

Similar Documents

Publication Publication Date Title
US11951975B1 (en) Handling sensor occlusions for autonomous vehicles
KR102309575B1 (en) Early boarding of passengers in autonomous vehicles
KR102274273B1 (en) Planning stopping locations for autonomous vehicles
US11858493B2 (en) Method of sharing and using sensor data
Ziebinski et al. A survey of ADAS technologies for the future perspective of sensor fusion
US10946868B2 (en) Methods and devices for autonomous vehicle operation
US10640111B1 (en) Speed planning for autonomous vehicles
US10836346B2 (en) Methods and systems for providing a protect occupants mode with an autonomous vehicle
US20170259753A1 (en) Sidepod stereo camera system for an autonomous vehicle
JP6692986B2 (en) Vehicle control system, vehicle control method, and vehicle control program
US11230290B2 (en) Vehicle control device, vehicle control method, and program
US20210114588A1 (en) Vehicle control device, vehicle control method, and storage medium
US11137758B2 (en) Vehicle use system
WO2018179958A1 (en) Vehicle control system, vehicle control method, and vehicle control program
KR20190126024A (en) Traffic Accident Handling Device and Traffic Accident Handling Method
JP2019119230A (en) Vehicle control system, vehicle control method, and program
JP2020107212A (en) Vehicle control system, vehicle control method, and program
JP2020144711A (en) Vehicle control system and vehicle control method
KR20220001405A (en) A method of sharing and using sensor data
JP2020166419A (en) Vehicle controller, vehicle control method, and program
US20220203985A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2020107163A (en) Notification device and vehicle control device
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
KR20220125682A (en) Automated valet parking system and control method of automated valet parking system
US20200307592A1 (en) Vehicle control device, vehicle control method, and storage medium