KR20220001405A - 센서 데이터 공유 및 활용 방법 - Google Patents

센서 데이터 공유 및 활용 방법 Download PDF

Info

Publication number
KR20220001405A
KR20220001405A KR1020200112084A KR20200112084A KR20220001405A KR 20220001405 A KR20220001405 A KR 20220001405A KR 1020200112084 A KR1020200112084 A KR 1020200112084A KR 20200112084 A KR20200112084 A KR 20200112084A KR 20220001405 A KR20220001405 A KR 20220001405A
Authority
KR
South Korea
Prior art keywords
data
sub
point data
information
data set
Prior art date
Application number
KR1020200112084A
Other languages
English (en)
Inventor
황성의
이용이
장준환
Original Assignee
주식회사 에스오에스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스오에스랩 filed Critical 주식회사 에스오에스랩
Priority to PCT/KR2020/016132 priority Critical patent/WO2021261680A1/ko
Priority to US17/118,413 priority patent/US11878711B2/en
Priority to US17/118,358 priority patent/US11858493B2/en
Publication of KR20220001405A publication Critical patent/KR20220001405A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

일 실시예에 따른 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함- 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계; 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계; 및 상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계;를 포함하고, 상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우, 상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.

Description

센서 데이터 공유 및 활용 방법 {A METHOD OF SHARING AND USING SENSOR DATA}
본 발명은 센서로부터 획득한 센서 데이터를 공유하고 활용하는 방법에 관한 것으로, 보다 상세하게는, 객체의 종류 또는 이벤트의 발생 여부에 따라 공유되는 공유 데이터의 컨텐츠를 결정하고, 통신 시스템을 통해 상기 공유 데이터를 수신한 장치는 상기 공유 데이터에 포함된 데이터의 좌표계를 정렬하여 차량의 경로 계산 등에 활용하는 것에 관한 것이다.
주변 객체에 대한 정보를 획득하는 센서는 자율 주행 시스템에서 필수적인 구성이다. 예를 들어, 자율 주행 시스템을 탑재한 차량은 라이다, 레이다, 카메라, 또는 초음파 센서 등 적어도 하나의 센서를 통해 획득한 센서 데이터를 기초로 차량 주변 환경에 대한 정보를 획득한다.
또한, 자율 주행 시스템에서 제한된 센서를 통해 획득한 정보의 질을 향상시키기 위해 다른 차량, 인프라 장치, 서버 등과 데이터를 공유하는 V2X 기반의 자율 주행 시스템에 대한 연구가 활발히 진행되고 있다.
일 실시예에 따른 해결하고자 하는 과제는 개인 정보(사생활) 보호를 위한 센서 데이터 공유 방법에 관한 것이다.
다른 일 실시예에 따른 해결하고자 하는 과제는 고정밀 지도 생성을 위한 효율적인 센서 데이터 공유 방법에 관한 것이다.
또 다른 일 실시예에 따른 해결하고자 하는 과제는 데이터 공유의 효율성을 높이기 위해 이벤트 발생에 따른 선별적 센서 데이터 공유 방법에 관한 것이다.
또 다른 일 실시예에 따른 해결하고자 하는 과제는 차량의 주행 시 발생할 수 있는 위험(예를 들어, 블라인드 스팟)에 대비한 센서 데이터 처리 및 차량 제어 방법에 관한 것이다.
일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계- 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계, 및 상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우, 상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함할 수 있다.
다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계- 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계, 상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계를 포함할 수 있고, 상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정될 수 있다.
또 다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계-상기 포인트 데이터 셋은 복수의 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계; - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함- 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함할 수 있다.
또 다른 일 실시예에 따른 제1 장치와 제2 장치 간의 센서 데이터 공유 방법은 상기 제1 장치에 포함된 컨트롤러에 의해, 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계- 상기 포인트 데이터 셋은 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계- 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함-, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계, 및 상기 제2 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함할 수 있다.
또 다른 일 실시예에 따른 서버의 동작에 따른 데이터 공유 방법은 제1 영역에서 제1 시간에 발생한 이벤트를 확인하는 단계, 센서 데이터를 요청하는 제1 메시지를 상기 제1 영역으로부터 제1 범위 내에 위치하는 제1 장치에 전송하는 단계- 상기 제1 메시지는 상기 이벤트의 시간 정보를 포함하되, 상기 제1 시간과 관련된 시간 구간 내에 획득된 상기 센서 데이터를 획득하기 위해, 상기 시간 정보는 상기 제1 시간과 관련됨-, 상기 이벤트를 알리는 제2 메시지를 상기 제1 범위 외측의 소정 영역을 나타내는 제2 범위 내에 위치하는 제2 장치에 전송하는 단계-상기 제2 메시지는 상기 이벤트의 위치 정보를 포함하되, 상기 이벤트가 상기 제2 장치에 의해 인식되게 하기 위해, 상기 위치 정보는 상기 제1 영역과 관련됨-, 및 상기 제1 메시지에 응답하여 상기 제1 시간을 포함하는 제1 시간 구간내에 획득된 포인트 데이터 셋의 적어도 일부를 수신하는 단계를 포함하고, 상기 포인트 데이터 셋은 상기 제1 장치에 배치된 적어도 하나의 센서로부터 획득될 수 있다.
또 다른 일 실시예에 따른 차량의 제어를 위한 공유 데이터 처리 방법은 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계 - 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-; 상기 컨트롤러에 의해, 상기 제1 객체의 위치에 대응하는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 획득하는 단계 - 상기 제1 속성 데이터는 제1 원점을 기준으로 하는 제1 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 속성 데이터를 기초로 제1 표준 속성 데이터를 생성하는 단계- 상기 제1 표준 속성 데이터는 제2 원점을 기준으로 하는 제2 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋에 의해 나타나지 않는 제2 객체의 위치에 대응하는 제2 표준 속성 데이터를 획득하는 단계 - 상기 제2 표준 속성 데이터는 상기 제2 좌표계에 의해 나타남-, 및 상기 컨트롤러에 의해, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 상기 차량을 제어하는 단계를 포함하고, 상기 제2 표준 속성 데이터는 제2 포인트 데이터 셋 - 상기 제2 포인트 데이터 셋은 상기 제1 장치에 포함된 제2 센서로부터 획득됨 - 에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터에 기초하여 생성될 수 있다.
또 다른 일 실시예에 따른 차량의 경로를 생성하는 방법은 상기 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 획득된 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계;- 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정하는 단계 - 상기 제1 속성 데이터는 상기 제1 객체에 대응함-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나에 기초하여 상기 차량의 로컬 경로 - 상기 차량의 로컬 경로는 상기 차량의 속도, 상기 차량의 방향, 상기 차량의 위치 중 적어도 하나를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 제1 장치에 배치된 제2 센서로부터 획득된 센서 데이터에 포함되는 제2 포인트 데이터 셋에 기초하여 결정된 제2 속성 데이터를 수신하는 단계 - 상기 제2 속성 데이터는 상기 제1 포인트 데이터 셋에 기초하여 확인되지 않는 제2 객체에 대응함 -, 및 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 상기 차량의 로컬 경로에서 상기 차량의 위치, 상기 차량의 속도, 또는 상기 차량의 방향 중 적어도 일부를 변경한 수정 경로를 생성하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면 프라이버시를 침해하지 않으면서 센서 데이터를 공유하는 방법이 제공될 수 있다.
본 발명의 다른 일 실시예에 따르면 고정밀 지도를 효율적으로 생성하면서 센서 데이터를 공유하는 방법이 제공될 수 있다.
본 발명의 또 다른 일 실시예에 따르면 데이터 공유의 효율성을 높이면서 센서 데이터를 공유하는 방법이 제공될 수 있다.
본 발명의 또 다른 일 실시예에 따르면 자율 주행 차량과 관련하여 발생할 수 있는 위험에 대비하면서 공유된 센서 데이터를 효율적으로 처리하는 방법이 제공될 수 있다.
도 1은 일 실시예에 따른 자율 주행 시스템의 구성 요소를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 적어도 하나의 센서를 보다 상세하게 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 인포테인먼트 시스템을 통한 디스플레이 방식을 나타내는 도면이다.
도 4는 일 실시예에 따른 자율 주행 시스템이 이상 주행 패턴을 보이는 이동체를 검출하는 상황을 나타내는 도면이다.
도 5는 일 실시예에 따른 자율 주행 시스템이 주행 중에 앞 차량의 사고를 인지한 상황을 나타내는 도면이다.
도 6은 일 실시예에 따른 자율 주행 시스템이 앞 차량의 갑작스러운 후진을인지하는 상황을 나타내는 도면이다.
도 7은 일 실시예에 따른 자율 주행 시스템이 차량의 바퀴의 움직임을 추적하는 상황을 나타내는 도면이다.
도 8은 일 실시예에 따른 자율 주행 시스템이 도로 상에 존재하는 블랙아이스를 감지하는 방법을 나타내는 도면이다.
도 9는 일 실시예에 따른 자율 주행 시스템이 탑재된 차량이 주행 중 불법 주차 차량을 감지한 상황을 나타내는 도면이다.
도 10은 일 실시예에 따른 자율 주행 시스템이 주차 가능 공간을 감지하는 상황을 나타내는 도면이다.
도 11은 일 실시예에 따른 자율 주행 시스템이 차량의 출차를 위한 맵을 생성하는 과정을 나타내는 도면이다.
도 12는 일 실시예에 따른 통신 시스템의 종류를 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 자율 주행 시스템을 탑재한 차량의 전방에 트래픽이벤트가 발생한 상황을 나타내는 도면이다.
도 14는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 주차장 내의 인프라 장치와의 통신을 통해 주차 가능 공간을 인지하는 상황을 나타내는 도면이다.
도 15는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 적어도 하나의 센서를 통해 차량 주변 환경에 대한 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 16은 도 15의 차량에 배치된 라이다 장치에 의해 획득된 센서 데이터를 3d 맵 상에 나타내는 도면이다.
도 17은 도 16의 3d 맵에 포함된 센서 데이터를 2차원 평면 상에 간략히 나타낸 도면이다.
도 18은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 포인트 데이터를 설명하기 위한 도면이다.
도 19는 도 16의 차량에 포함되는 라이다 장치로부터 획득된 포인트 데이터 셋을 설명하기 위한 도면이다.
도 20은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 서브 포인트 데이터 셋을 설명하기 위한 도면이다.
도 21은 일 실시예에 따른 자율 주행 시스템에 포함되는 라이다 장치로부터 획득된 서브 포인트 데이터로부터 생성된 속성 데이터를 설명하기 위한 도면이다.
도 22는 도 21의 속성 데이터의 다른 일 실시예를 나타내는 도면이다.
도 23은 일 실시예에 따른 속성 데이터에 포함되는 복수의 정보를 설명하기 위한 도면이다.
도 24는 일 실시예에 따른 속성 데이터에 포함되는 클래스 정보를 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 속성 데이터에 포함되는 중심 위치 정보를 설명하기위한 도면이다.
도 26은 일 실시예에 따른 속성 데이터에 포함되는 사이즈 정보를 설명하기 위한 도면이다.
도 27은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 템플릿 정보를 설명하기 위한 도면이다.
도 28은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 스켈레톤 정보를 설명하기 위한 도면이다.
도 29는 일 실시예에 따른 자율 주행 시스템이 센서로부터 획득된 서브 포인트 데이터 셋을 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 30은 일 실시예에 따른 자율 주행 시스템이 객체의 속성 데이터를 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 31은 일 실시예에 따른 자율 주행 시스템이 차량의 주행에 방해되는 장애물을 회피하기 위해 경로를 변경하는 상황을 나타내는 도면이다.
도 32는 일 실시예에 따른 복수의 장치간에 데이터가 공유되는 상황을 나타내는 도면이다.
도 33은 일 실시예에 따른 공유 데이터에 포함될 수 있는 공유 데이터의 컨텐츠의 종류를 도시한 도면이다.
도 34는 도 33의 공유 데이터의 컨텐츠를 상세하게 나타내는 도면이다.
도 35는 차량과 인프라 장치 간에 센서 데이터를 공유하는 상황을 나타내는도면이다.
도 36은 일 실시예에 따른 공유 데이터의 컨텐츠에 포인트 데이터 셋이 포함되는 상황을 설명하기 위한 도면이다.
도 37은 일 실시예에 따른 제1 차량이 공유 받은 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 38은 다른 일 실시예에 따른 제1 차량이 공유 받은 포인트 데이터 셋 및 제2포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 39는 일 실시예에 따른 공유 데이터의 컨텐츠에 속성 데이터가 포함되는 상황을 설명하기 위한 도면이다.
도 40은 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 나타내는 흐름도이다.
도 41은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 42는 도 41에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 43은 일 실시예에 따른 센서 데이터에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터 및 클래스 정보를 나타내는 도면이다.
도 44는 일 실시예에 따른 제1 차량이 전송하는 공유 데이터에 포함되는 공유 데이터의 컨텐츠를 나타내는 도면이다.
도 45는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 프라이버시 보호 데이터를 설명하기 위한 도면이다.
도 46은 일 실시예에 따른 데이터 공유 시스템에서 외부 서버의 데이터 공유 승인이 있는지에 따른 선별적 데이터 공유 방법을 나타내는 흐름도이다.
도 47은 다른 일 실시예에 따른 센서 데이터의 선별적 공유에 대한 구체적인 방법을 나타내는 흐름도이다.
도 48은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 49는 도 48에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 50은 일 실시예에 따른 공유 데이터의 컨텐츠를 설명하기 위한 도면이다.
도 51은 일 실시예에 따른 부가 정보를 포함하는 센서 데이터를 선별적으로 공유하는 방법에 대한 흐름도이다.
도 52는 일 실시예에 따른 제1 차량이 적어도 하나의 센서를 통해 부가 정보를 획득하는 상황을 나타내는 도면이다.
도 53는 도52에 따른 제1 차량이 획득한 센서 데이터를 2차원 평면 상에 간략히 나타내는 도면이다.
도 54는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋 및 부가 정보를 설명하기 위한 도면이다.
도 55는 일 실시예에 따른 이동형 객체와 관련된 센서 데이터를 공유하는 방법을 나타내는 흐름도이다.
도 56 일 실시예에 따른 공유 데이터를 선별적으로 저장하는 방법을 나타내는 도면이다.
도 57은 다른 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 설명하기 위한 흐름도이다.
도 58은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 59는 도58에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타내는 도면이다.
도 60은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 전송하는 제1 공유 데이터를 설명하기 위한 도면이다.
도 61은 일 실시예에 따른 이벤트 발생 시점에 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 62는 도 61에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타낸 도면이다.
도 63은 일 실시예에 따른 이벤트 발생 후에 제1 차량에서 전송하는 제2 공유 데이터를 설명하기 위한 도면이다.
도 64는 일 실시예에 따른 트래픽 이벤트 발생 상황을 설명하기 위한 도면이다.
도 65는 일 실시예에 따른 환경 이벤트 발생 상황을 설명하기 위한 도면이다.
도 66은 일 실시예에 따른 규제 이벤트 발생 상황을 설명하기 위한 도면이다.
도 67은 일 실시예에 따른 서버가 트래픽 이벤트와 관련된 데이터를 요청하거나 트래픽 이벤트의 발생을 알리는 방법을 나타내는 도면이다.
도 68은 일 실시예에 따른 서버 및 차량이 데이터 공유를 위해 통신을 수행하는 상황을 나타내는 도면이다.
도 69는 일 실시예에 따른 제1 범위에 포함되는 제1 서브 범위를 설명하기 위한 도면이다.
도 70은 일 실시예에 따른 제1 차량이 서버에 전송하는 공유 데이터에 포함되는 데이터를 설명하기 위한 도면이다.
도 71은 일 실시예에 따른 제1 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 72는 일 실시예에 따른 제2 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 73은 범위에 따른 센서 데이터의 선별적 공유 방법과 관련된 실시예를 설명하기 위한 도면이다.
도 74는 일 실시예에 따른 규제 이벤트와 관련하여 차량의 주행 중 블라인드 스팟에 따른 데이터의 선별적 공유 방법을 설명하기 위한 도면이다.
도 75는 일 실시예에 따른 공유 데이터에 포함되는 속성 데이터를 처리하는 방식을 설명하기 위한 흐름도이다.
도 76은 일 실시예에 따른 차량 및 인프라 장치가 데이터 공유를 위해 센서데이터를 획득하는 상황을 나타내는 도면이다.
도 77은 일 실시예에 따른 차량의 컨트롤러가 제1 속성 데이터 및 제1 표준속성 데이터를 각각 제1 지역 좌표계 및 전역 좌표계 상에 나타내는 방법을 설명하기 위한 도면이다.
도 78은 일 실시예에 따른 차량의 컨트롤러가 제2 지역 좌표계 상에 나타나는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 79는 일 실시예에 따른 글로벌 경로를 설명하기 위한 도면이다.
도 80은 일 실시예에 따른 로컬 경로 및 수정 경로를 설명하기 위한 도면이다.
도 81은 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법을 설명하기 위한 흐름도이다.
도 82는 일 실시예에 따른 제1 차량이 센서 데이터 및 공유 데이터를 기초로 생성된 경로를 따라 주행하는 상황을 나타내는 도면이다.
도 83은 일 실시예에 따른 제1 차량의 컨트롤러가 생성한 충돌 확률 맵을 기초로 수정 경로를 생성하는 방법을 설명하기 위한 도면이다.
도 84는 일 실시예에 따른 수정 경로의 다양한 실시예를 설명하기 위한 도면이다.
본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 판례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.
본 명세서에 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 본 발명의 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 발명이 도면에 의해 한정되는 것은 아니다.
본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.
일 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계 - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함- 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계, 및 상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우, 상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.
여기서, 상기 개인 정보를 보호 받아야하는 클래스는 사람과 관련된 클래스, 차량 또는 건물의 식별번호와 관련된 클래스, 또는 신분증과 관련된 클래스 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 서브 포인트 데이터 셋의 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 포함된 클래스의 종류와 관계없이 상기 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 형상 정보는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 기초하여 결정되되, 상기 형상 정보는 상기 제1 객체를 소정 개수 이하의 포인트로 나타낸 스켈레톤 정보 및 상기 제1 객체를 미리 결정된 형상으로 나타낸 템플릿 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 프라이버시 보호 데이터는 상기 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보를 더 포함함 - 에 포함된 정보 중 적어도 일부를 포함할 수 있다.
여기서, 상기 제1 서브 포인트 데이터 셋은 복수의 포인트 데이터를 포함하고, 상기 프라이버시 보호 데이터는 상기 제1 서브 포인트 데이터 셋에 포함된 상기 복수의 포인트 데이터 중 상기 제1 객체의 프라이버시와 관련된 영역에 대한 적어도 하나의 포인트 데이터를 기초로 생성될 수 있다.
여기서, 상기 포인트 데이터 셋은 제2 객체의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호받아야 하는 클래스이고, 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터를 포함하고, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 일부를 포함할 수 있다.
여기서, 상기 포인트 데이터 셋은 제2 객체의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 외부 서버로부터 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 - 상기 제2 속성 데이터는 상기 제2 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 중 적어도 하나의 공유에 대한 인증을 획득한 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스의 종류에 관계없이 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 속성 데이터 중 적어도 하나를 포함할 수 있다.
여기서, 상기 포인트 데이터 셋은 다수의 포인트 데이터(point data)를 포함하고, 상기 다수의 포인트 데이터는, 상기 제1 장치에 배치된 적어도 하나의 상기 센서에 의해 측정된 객체까지의 거리 및 객체의 반사율 중 적어도 하나에 기초하여 생성되고, 상기 컨트롤러는 상기 제1 장치로부터 소정 거리 이하에 위치하는 상기 제1 객체에 대하여, 상기 제1 객체에 대한 다수의 포인트 데이터를 기초로 상기 제1 서브 포인트 데이터 셋을 생성하고, 상기 컨트롤러는 상기 제1 장치로부터 소정 거리보다 더 멀리 위치하는 제2 객체에 대하여, 상기 제2 객체에 대한 다수의 포인트 데이터를 기초로 제2 서브 포인트 데이터 셋을 생성하고, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 속성 데이터에 관계없이 상기 제2 서브 포인트 데이터 셋을 포함할 수 있다.
다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-, 상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계, 상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계; 를 포함하고, 상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정되는 센서 데이터 공유 방법이 제공될 수 있다.
여기서, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1객체의 클래스가 고정형 객체와 관련된 경우, 상기 제2 장치에 전송되는 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하고, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함할 수 있다.
여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 컨트롤러가 상기 고정형 객체가 소정 시간 후에 이동 가능한지 여부와 관련되는 부가 정보를 획득하는 경우, 상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함할 수 있다.
여기서, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함되는 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않을 수 있다.
여기서, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함되는 정보 중 적어도 하나를 포함하고, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함할 수 있다.
여기서, 상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 포인트 데이터 셋은 제2 객체 - 상기 제2 객체는 상기 제1 객체로부터 소정 거리만큼 떨어진 영역 내에 위치함-의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고, 상기 제1 객체와 관련된 영역의 상황은 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋을 기초로 판단되고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보 및 상기 제2 서브 포인트 데이터 셋의 클래스 정보가 상기 제1 객체와 관련된 영역의 상황에 대한 정보를 포함하는 경우, 상기 컨트롤러는 상기 객체와 관련된 영역의 상황의 종료 시점과 관련되는 부가 정보를 획득하고, 상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함할 수 있다.
여기서, 상기 제1서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않고, 상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함할 수 있다.
여기서, 상기 적어도 하나의 센서는 라이다, 카메라, 레이더 및 초음파 센서 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 장치 및 상기 제2 장치 각각은 이동체, 서버, 모바일 디바이스, 또는 인프라 장치 중 적어도 하나를 포함할 수 있다.
여기서, 전술한 센서 데이터 공유 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.
또 다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계 -상기 포인트 데이터 셋은 복수의 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계 - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함-, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.
여기서, 상기 제2 공유 데이터를 상기 제2 장치에 제공하도록 구성될 수 있다.
여기서, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 상기 제2 공유 데이터의 공유를 요청하는 요청 정보를 수신한 경우, 상기 요청 정보의 수신에 응답하여, 상기 요청 정보를 전송한 장치에 상기 제2 공유 데이터를 제공하도록 구성될 수 있다.
여기서, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 제4 장치에 대하여 상기 제2 공유 데이터의 공유를 요청하는 요청 정보를 수신한 경우, 상기 요청 정보의 수신에 응답하여, 상기 제4 장치에 상기 제2 공유 데이터를 제공하도록 구성될 수 있다.
여기서, 상기 이벤트의 발생을 확인하는 단계는, 상기 제2 장치 또는 제3 장치 중 적어도 하나로부터 상기 이벤트가 발생한 사실을 나타내는 정보를 획득하는 단계를 포함할 수 있다.
여기서, 상기 이벤트의 발생을 확인하는 단계는, 상기 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 기초로 상기 이벤트의 발생을 확인하는 단계를 포함할 수 있다.
여기서, 상기 요청 정보는 상기 이벤트가 발생한 사실을 나타내는 정보를 포함하고, 상기 이벤트의 발생을 확인하는 단계는 상기 이벤트가 발생한 사실을 나타내는 정보를 기초로 상기 이벤트의 발생을 확인할 수 있다.
여기서, 상기 복수의 서브 포인트 데이터 셋 중 하나는 상기 이벤트와 관련되는 객체의 적어도 일부를 나타낼 수 있다.
여기서, 상기 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련된 트래픽 이벤트, 상기 제1 장치의 주변 환경과 관련된 환경 이벤트, 및 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련된 규제 이벤트 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 시점은 상기 이벤트를 확인한 시점 또는 상기 이벤트의 발생 시점 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 공유 데이터의 컨텐츠의 적어도 일부를 포함할 수 있다.
여기서, 상기 제2 공유 데이터는 상기 제1 시간 구간 동안에 획득된 복수의 포인트 데이터 셋을 기초로 생성되고, 상기 제2 공유 데이터가 일정 주기로 생성되는 경우, 상기 제2 공유 데이터가 생성될 때 마다 상기 제2 공유 데이터를 상기 제2 장치에 전송하거나, 상기 제2 공유 데이터가 상기 제1 시간 구간의 종료 이후에 생성되는 경우, 상기 제2 공유 데이터가 생성된 이후에 상기 제2 공유 데이터를 상기 제2 장치에 전송할 수 있다.
여기서, 상기 제1 시간 구간은 이벤트 발생 시점을 포함할 수 있다.
여기서, 상기 제1 시간 구간은 상기 이벤트가 종료되는 제2 시점을 더 포함할 수 있다.
또 다른 실시예에 따르면, 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서, 상기 제1 장치에 포함된 컨트롤러에 의해, 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋을 획득하는 단계- 상기 포인트 데이터 셋은 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 서브 포인트 데이터 셋을 기초로 상기 서브 포인트 데이터 셋의 속성 데이터를 결정하는 단계, 상기 컨트롤러에 의해, 상기 속성 데이터를 기초로 상기 제2 장치에 공유하기 위한 제1 공유 데이터를 생성하는 단계, 상기 컨트롤러에 의해, 상기 제1 공유 데이터를 상기 제2 장치에 전송하는 단계 - 상기 제1 공유 데이터의 컨텐츠는 상기 속성 데이터에 포함된 정보 중 적어도 하나를 포함함 -, 상기 컨트롤러에 의해, 제1 시점에 대한 이벤트의 발생을 확인하는 단계, 상기 컨트롤러에 의해, 상기 이벤트를 확인함에 따라, 상기 제1 공유 데이터와 다른 제2 공유 데이터를 생성하는 단계, 및 상기 제2 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하고, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 시점을 포함하는 제1 시간 구간 내에 획득된 상기 포인트 데이터 셋의 적어도 일부를 포함하는 센서 데이터 공유 방법이 제공될 수 있다.
또 다른 실시예에 따르면, 서버의 동작 방법으로서, 제1 영역에서 제1 시간에 발생한 이벤트를 확인하는 단계, 센서 데이터를 요청하는 제1 메시지를 상기 제1 영역으로부터 제1 범위 내에 위치하는 제1 장치에 전송하는 단계 - 상기 제1 메시지는 상기 이벤트의 시간 정보를 포함하되, 상기 제1 시간과 관련된 시간 구간 내에 획득된 상기 센서 데이터를 획득하기 위해, 상기 시간 정보는 상기 제1 시간과 관련됨-, 상기 이벤트를 알리는 제2 메시지를 상기 제1 범위 외측의 소정 영역을 나타내는 제2 범위 내에 위치하는 제2 장치에 전송하는 단계- 상기 제2 메시지는 상기 이벤트의 위치 정보를 포함하되, 상기 이벤트가 상기 제2 장치에 의해 인식되게 하기 위해, 상기 위치 정보는 상기 제1 영역과 관련됨- ,및 상기 제1 메시지에 응답하여 상기 제1 시간을 포함하는 제1 시간 구간내에 획득된 포인트 데이터 셋의 적어도 일부를 수신하는 단계를 포함하고, 상기 포인트 데이터 셋은 상기 제1 장치에 배치된 적어도 하나의 센서로부터 획득되는 데이터 공유 방법이 제공될 수 있다.
여기서, 상기 제1 장치가 제1 서브 범위 - 상기 제1 서브 범위는 상기 제1 범위 내에서 상기 이벤트와 관련된 정보를 획득 가능한 영역을 나타냄- 내에 위치하는 경우, 상기 제1 장치에 배치된 센서로부터 획득되는 포인트 데이터 셋은 상기 이벤트와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있다.
여기서, 상기 제1 영역은 상기 이벤트와 관련되는 모든 객체들을 포함하는 영역을 포함할 수 있다.
여기서, 상기 이벤트를 확인하는 단계는 상기 제1 시간에 상기 이벤트가 발생한 사실을 나타내는 제1 정보 및 상기 제1 영역에서 상기 이벤트가 발생한 사실을 나타내는 제2 정보를 획득하는 단계를 포함할 수 있다.
여기서, 상기 제2 장치는 차량에 포함되되, 상기 제2 범위 내에 위치하는 상기 차량의 경로가 상기 제1 영역과 관련되는 경우, 상기 차량에 상기 제2 메시지를 전송할 수 있다.
여기서, 상기 제1 장치 및 상기 제2 장치 각각은 서버, 이동체, 모바일 디바이스, 또는 인프라 중 적어도 하나를 포함할 수 있다.
여기서, 상기 적어도 하나의 센서는 라이다, 레이더, 카메라, 및 초음파 센서 중 적어도 하나를 포함할 수 있다.
여기서, 전술한 센서 데이터 공유 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.
또 다른 실시예에 따르면, 제1 장치로부터 획득한 센서 데이터를 처리하여 차량을 제어하는 방법으로서, 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계 - 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 객체의 위치에 대응하는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 획득하는 단계 - 상기 제1 속성 데이터는 제1 원점을 기준으로 하는 제1 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 속성 데이터를 기초로 제1 표준 속성 데이터를 생성하는 단계- 상기 제1 표준 속성 데이터는 제2 원점을 기준으로 하는 제2 좌표계에 의해 나타남-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋에 의해 나타나지 않는 제2 객체의 위치에 대응하는 제2 표준 속성 데이터를 획득하는 단계 - 상기 제2 표준 속성 데이터는 상기 제2 좌표계에 의해 나타남-, 및 상기 컨트롤러에 의해, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 상기 차량을 제어하는 단계를 포함하고, 상기 제2 표준 속성 데이터는 제2 포인트 데이터 셋 - 상기 제2 포인트 데이터 셋은 상기 제1 장치에 포함된 제2 센서로부터 획득됨 - 에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터에 기초하여 생성되는 차량 제어 방법이 제공될 수 있다.
여기서, 상기 제1 표준 속성 데이터를 획득하는 단계는 상기 제1 속성 데이터가 나타나는 상기 제1 좌표계를 상기 제2 좌표계로 설정하는 단계를 포함할 수 있다.
여기서, 상기 제2 표준 속성 데이터를 획득하는 단계는 상기 제1 장치로부터, 제3 원점을 기준으로 하는 제3 좌표계에 의해 나타나는 상기 제2 속성 데이터를 수신하는 단계, 및 상기 제3 좌표계를 상기 제2 좌표계로 정렬시킴에 따라, 상기 제2 속성 데이터에 기초하여 상기 제2 표준 속성 데이터를 생성하는 단계를 포함할 수 있다.
여기서, 상기 제1 표준 속성 데이터를 획득하는 단계는 상기 제1 속성 데이터가 나타나는 상기 제1 좌표계를 상기 제2 좌표계로 정렬시키는 단계를 포함하고, 상기 제2 표준 속성 데이터를 생성하는 단계는 상기 제2 속성 데이터가 나타나는 상기 제3 좌표계를 상기 제2 좌표계로 정렬시키는 단계를 포함할 수 있다.
여기서, 상기 제3 원점은 상기 제1 장치에 포함된 상기 제2 센서의 광학 원점의 위치에 대응할 수 있다.
여기서, 상기 제1 원점은 상기 차량에 포함된 상기 제1 센서의 광학 원점의 위치에 대응하고, 상기 제2 원점은 상기 제1 원점 또는 미리 결정된 정적 위치 중 적어도 하나에 대응할 수 있다.
여기서, 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함하고, 상기 제2 속성 데이터는 상기 제2 객체의 클래스 정보, 상기 제2 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제2 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제2 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제2 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제2 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 속성 데이터는 상기 제1 좌표계 상에 나타나는 상기 제1 서브 포인트 데이터 셋의 제1 중심 위치 정보를 포함하고, 상기 제1 표준 속성 데이터에 포함되되 상기 제1 중심 위치 정보에 기초하여 생성되는 제1 표준 중심 위치 정보는 상기 제2 좌표계 상에 나타나고, 상기 제2 속성 데이터는 제3 좌표계 상에 나타나는 상기 제2 서브 포인트 데이터 셋의 제2 중심 위치 정보를 포함하고, 상기 제2 표준 속성 데이터에 포함되되 상기 제2 중심 위치 정보에 기초하여 생성되는 상기 제2 표준 중심 위치 정보는 상기 제2 좌표계 상에 나타날 수 있다.
여기서, 상기 차량을 제어하는 단계는, 상기 차량을 상기 차량의 위치 및 목적지의 위치를 기초로 미리 설정된 글로벌 경로를 따라 주행하도록 제어하되, 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터에 기초하여 로컬 경로를 생성하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 제1 장치로부터 획득한 센서 데이터를 처리하여 차량의 경로를 생성하는 방법에 있어서, 상기 차량에 포함된 컨트롤러에 의해, 상기 차량에 포함된 제1 센서로부터 획득된 센서 데이터에 포함되는 제1 포인트 데이터 셋을 획득하는 단계- 상기 제1 포인트 데이터 셋은 제1 객체의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함함-, 상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정하는 단계 - 상기 제1 속성 데이터는 상기 제1 객체에 대응함-, 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나에 기초하여 상기 차량의 로컬 경로 - 상기 차량의 로컬 경로는 상기 차량의 속도, 상기 차량의 방향, 상기 차량의 위치 중 적어도 하나를 포함함 - 를 생성하는 단계, 상기 컨트롤러에 의해, 제1 장치에 배치된 제2 센서로부터 획득된 센서 데이터에 포함되는 제2 포인트 데이터 셋에 기초하여 결정된 제2 속성 데이터를 수신하는 단계 - 상기 제2 속성 데이터는 상기 제1 포인트 데이터 셋에 기초하여 확인되지 않는 제2 객체에 대응함 -, 및 상기 컨트롤러에 의해, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 상기 차량의 로컬 경로에서 상기 차량의 위치, 상기 차량의 속도, 또는 상기 차량의 방향 중 적어도 일부를 변경한 수정 경로를 생성하는 단계를 포함하는 차량 경로 생성 방법이 제공될 수 있다.
여기서, 상기 로컬 경로는 상기 제2 객체가 위치하는 소정 영역과 적어도 일부분 겹쳐지고, 상기 수정 경로는 상기 제2 객체가 위치하는 소정 영역과 겹쳐지지 않을 수 있다.
여기서, 상기 차량을 상기 차량의 위치 및 목적지의 위치를 기초로 미리 설정된 글로벌 경로를 따라 주행하도록 제어하되, 상기 로컬 경로를 생성하는 단계는 상기 제1 센서의 시야각에 대응하는 영역의 적어도 일부를 포함하는 로컬 경로를 생성하는 단계, 및 상기 차량이 상기 로컬 경로를 따라 주행하도록 제어하는 단계를 포함할 수 있다.
여기서, 상기 수정 경로를 생성하는 단계는, 상기 차량의 로컬 경로를 기초로 예측되는 상기 차량의 위치 이동에 대한 확률 및 상기 제2 속성 데이터를 기초로 예측되는 상기 제2 객체의 위치 이동에 대한 확률을 기초로 상기 차량의 경로를 수정할지 여부를 결정하는 단계를 포함할 수 있다.
여기서, 상기 제1 장치에 배치된 상기 제2 센서로부터 획득된 상기 제2 포인트 데이터 셋에 기초하여 결정된 제3 속성 데이터를 수신하는 단계- 상기 제3 속성 데이터는 제3 객체와 대응됨 -, 상기 제3 속성 데이터와 상기 제1 속성 데이터를 비교하여 상기 제3 객체와 상기 제1 객체가 동일한 객체인지 여부를 결정하는 단계, 및 상기 제1 객체와 상기 제3 객체가 상이한 객체라고 판단된 경우, 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는 상기 로컬 경로 중 적어도 하나 , 상기 제2 속성 데이터, 및 상기 제3 속성 데이터를 기초로 차량의 위치, 차량의 속도, 또는 차량의 방향 중 적어도 일부를 변경하여 상기 제3 객체를 반영하기 위한 수정 경로를 생성하는 단계를 더 포함하는 차량 경로 생성 방법이 제공될 수 있다.
여기서, 상기 제1 장치에 배치된 상기 제2 센서로부터 획득된 상기 제2 포인트 데이터 셋에 기초하여 결정된 제3 속성 데이터를 수신하는 단계- 상기 제3 속성 데이터는 제3 객체와 대응됨 -, 및 상기 제3 속성 데이터와 상기 제1 속성 데이터를 비교하여 상기 제3 객체와 상기 제1 객체가 동일한 객체인지 여부를 결정하는 단계를 더 포함하고, 상기 제1 객체와 상기 제3 객체가 동일한 객체라고 판단된 경우, 상기 제3 객체를 반영하기 위한 수정 경로를 생성하지 않는 차량 경로 생성 방법이 제공될 수 있다.
여기서, 상기 수정 경로는 제1 수정 경로 및 제2 수정 경로 중 적어도 하나를 포함하되, 상기 제1 수정 경로는 상기 차량의 상기 로컬 경로 중 적어도 일부분이 변경되는 경로를 포함하고, 상기 제2 수정 경로는 상기 차량의 로컬 경로 내에서 상기 차량을 정지시키는 경로를 포함할 수 있다.
여기서, 상기 제1 장치는 이동체, 인프라, 모바일 디바이스, 또는 서버 중 적어도 하나를 포함할 수 있다.
여기서, 상기 제1 센서 및 상기 제2 센서 각각은 라이다, 카메라, 레이더, 초음파 센서 중 적어도 하나를 포함할 수 있다.
여기서, 전술한 차량 제어 방법 및 경로 생성 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체가 제공될 수 있다.
1. 자율 주행 시스템의 개요
1.1. 운전자 보조 시스템(ADAS)
운전자 보조 시스템(Advanced Driver Assistance systems)은 운전자의 운전에 도움을 주는 시스템으로 운전자의 피로를 감소시키고 운전자의 안전 운전에 도움이 될 수 있는 시스템을 의미할 수 있다.
운전자 보조 시스템은 다양한 장치 및 시스템을 포함할 수 있다.
예를 들어, 상기 운전자 보조 시스템은 차량 자동 항법 장치, 적응형 순향 제어 장치, 차선 유지 보조 시스템, 차로 이탈 방지 보조 시스템, 사각지대 경고 장치, 지능형 속도 적응 시스템, 지능형 전조등 제어 시스템, 보행자 보호 시스템, 자동 주차 시스템, 교통 표지판 인지 시스템, 운전자 졸음 방지 시스템, 차량 통신 시스템, 경사로 주행 제어 시스템, 전기차 주행 경고 시스템, 로우빔 보조 시스템, 하이빔 보조 시스템, 전방 충돌 경고 시스템, SCC(Smart Cruise control), NSCC (Navigation-based Smart Cruise control), 고속도로 주행 보조 시스템, RVM (Rear View monitor with e-Mirror) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 운전자 보조 시스템이 탑재된 장치는 통신을 통하여 다른 장치와 데이터를 공유할 수 있다. 이에 대해서는 하기에서 상세하게 설명한다.
1.2. 자율 주행 차량 시스템(AD)
또한, 자율 주행 차량 시스템(AD, Autonomous driving, Autonomous car, driverless car, self-driving car, robotic car)은 인간의 개입 없이 차량이 자동으로 주행할 수 있도록 상기 차량에 탑재될 수 있다.
또한, 상기 자율 주행 차량 시스템은 통신을 통하여 다른 장치와 데이터를 공유할 수 있다. 이에 대해서는 하기에서 상세하게 설명한다.
이하에서는, 설명의 편의를 위하여 전술한 운전자 보조 시스템 및 자율 주행 차량 시스템을 자율 주행 시스템(1000)으로 표현한다.
1.3. 자율 주행 시스템(AD/ADAS)의 구성요소
상기 자율 주행 시스템(1000)은 차량(100)의 내부에 탑재될 수 있다. 또한 상기 자율 주행 시스템(1000)은 차량(100) 외에도 항공기, 선박, 무인 비행체 등의 내부에 탑재될 수 있으나, 이에 한정되지 않는다.
도 1은 일 실시예에 따른 자율 주행 시스템의 구성 요소를 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 다양한 구성을 포함할 수 있다.
예를 들어, 상기 자율 주행 시스템(1000)은 적어도 하나의 컨트롤러(controller, 1100), 적어도 하나의 통신 모듈(1200), 적어도 하나의 센서(sensor, 1300), 적어도 하나의 인포테인먼트 시스템(Infotainment system, 1400)등을 포함할 수 있으나, 이에 한정되지 않는다.
이하에서는 상기 자율 주행 시스템(1000)의 구성요소들의 다양한 실시예들에 대하여 상세하게 설명한다.
1.3.1. 컨트롤러(controller)
다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 컨트롤러(1100)를 포함할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 컨트롤러(1100)가 포함된 장치의 구성 요소들을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300) 또는 적어도 하나의 통신 모듈(1200)등을 제어할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300) 또는 상기 적어도 하나의 통신 모듈(1200)로부터 데이터를 획득할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 차량에 위치하는 라이다 장치로부터 데이터를 획득할 수 있으나, 이에 한정되지 않으며 다양한 센서들 및 통신 모듈로부터 데이터를 획득할 수 있다.
또한, 상기 컨트롤러(1100)는 차량을 제어하기 위해 이용될 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 속도, 방향, 또는 경로 등을 제어할 수 있으나, 이에 한정되지 않으며 다양한 차량의 동작을 제어할 수 있다.
또한, 상기 컨트롤러(1100)는 실시예에 따라, ECU, 프로세서 등으로 표현될 수 있으나, 이에 한정되지 않는다.
또한, 본 명세서에서 상기 컨트롤러(1100)는 상기 자율 주행 시스템이 배치된 장치의 컨트롤러를 의미할 수도 있고, 적어도 하나의 센서에 배치된 컨트롤러를 의미할 수도 있다. 또한, 이에 한정되지 않고, 상기 자율 주행 시스템(1000)에 배치된 적어도 하나의 컨트롤러를 통칭할 수도 있다.
1.3.2. 통신 모듈
다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 통신 모듈(1200)을 포함할 수 있다.
이때, 적어도 하나의 통신 모듈(1200)은 다른 장치와 적어도 하나의 데이터를 공유하기 위해 이용될 수 있다. 일 예로, 상기 컨트롤러(1100)는 상기 적어도 하나의 통신 모듈(1200)을 통하여 데이터를 외부에 전송하거나, 또는 외부로부터 데이터를 수신할 수 있다.
또한, 상기 적어도 하나의 통신 모듈(1200)은 적어도 하나의 V2X(Vehicle to everything)시스템을 구현하기 위해 이용될 수 있다. 보다 구체적으로, 상기 통신 모듈(1200)은, V2V(Vehicle to Vehicle), V2I(Vehicle to Infra), V2N(Vehicle to Network), V2P(Vehicle to Pedestrian), V2C(Vehicle to Cloud) 등 적어도 하나의 V2X시스템을 구현하기 위해 이용될 수 있으나, 이에 한정되지 않는다.
또한, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 통신 모듈(1200)을 통해 상기 적어도 하나의 센서(1300)로부터 획득된 데이터 및 이에 대한 속성 데이터를 공유할 수 있으나, 이에 한정되지 않는다.
또한, 상기 적어도 하나의 통신 모듈(1200)은 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 통신 모듈은 GPS, GNSS, AM, FM, 4G, 및 5G 안테나 중 적어도 하나의 안테나를 포함할 수 있으나, 이에 한정되지 않는다.
1.3.3. 센서
다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 포함할 수 있다.
또한, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 차량 주변의 정보를 획득하기 위해 이용될 수 있다.
예를 들어, 상기 적어도 하나의 센서는 차량 주변의 대상체에 대한 거리 정보를 획득하기 위해 이용될 수 있으나, 이에 한정되지 않으며 차량 주변 객체의 다양한 정보를 획득하기 위해 이용될 수 있다.
도 2는 일 실시예에 따른 적어도 하나의 센서를 보다 상세하게 설명하기 위한 도면이다.
도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이더 장치(1330), 적어도 하나의 초음파 센서(1340), 적어도 하나의 GPS 센서(1350), 적어도 하나의 관성 측정 장치(1360) 등을 포함할 수 있다. 물론, 센서의 종류는 전술한 사항에 한정되지 않으며, 적어도 하나의 센서(1300)는 전술한 센서들(1310, 1320, 1330, 1340, 1350, 1360) 모두를 포함할 수도 있고, 또는 일부 센서만을 포함할 수도 있다.
다시 도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310)를 포함할 수 있다.
이때, 상기 라이다 장치(1310)는 레이저를 이용하여 객체와의 거리를 측정하는 장치로 정의될 수 있다.
보다 구체적으로, 상기 적어도 하나의 라이다 장치(1310)는 레이저를 출력할 수 있고, 출력된 레이저가 객체에서 반사된 경우, 반사된 레이저를 수신하여 객체와 상기 라이다 장치(1310) 사이의 거리를 측정할 수 있다. 여기서, 상기 라이다 장치(1310)는 삼각측량 방식, TOF(Time of Flight) 방식 등 다양한 방식을 이용하여 객체와의 거리를 측정할 수 있다.
또한, 상기 라이다 장치(1310)는 레이저 출력부를 포함할 수 있다.
이때, 상기 레이저 출력부는 레이저를 출사할 수 있다. 또한, 상기 레이저 출력부는 하나 이상의 레이저 출력 소자를 포함할 수 있다. 또한, 레이저 출력부는 레이저 다이오드(Laser Diode:LD), Solid-state laser, High power laser, Light entitling diode(LED), Vertical Cavity Surface Emitting Laser(VCSEL), External cavity diode laser(ECDL) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 라이다 장치(1310)는 수광부를 포함할 수 있다.
이때, 수광부는 레이저를 감지할 수 있다. 예를 들어, 수광부는 스캔 영역 내에 위치하는 대상체에서 반사된 레이저를 감지할 수 있다. 또한, 수광부는 레이저를 수신할 수 있으며, 수신된 레이저를 기초로 전기 신호를 생성할 수 있다. 예를 들어, 센서부는 PN 포토 다이오드, 포토트랜지스터, PIN 포토 다이오드, APD(Avalanche Photodiode), SPAD(Single-photon avalanche diode), SiPM(Silicon PhotoMultipliers), Comparator, CMOS(Complementary metal-oxide-semiconductor) 또는 CCD(Charge Coupled Device) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 라이다 장치(1310)는 광학계를 포함할 수 있다.
이때, 광학계는 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계는 레이저 출력부에서 출사된 레이저가 스캔 영역을 향하도록 레이저의 비행 경로를 변경할 수 있다.
또한, 광학계는 레이저를 반사함으로써 레이저의 비행 경로를 변경할 수 있다. 이때, 상기 광학계는 제1 방향으로 스캔하는 제1 스캐너 및 제2 방향으로 스캔하는 제2 스캐너를 포함할 수 있다. 또한, 상기 스캔부는 레이저 출력부 및 수광부를 동시에 회전시켜서 스캔하는 회전형 옵틱을 포함할 수 있다.
예를 들어, 광학계는 미러(mirror), 공진 스캐너(Resonance scanner), 멤스 미러(MEMS mirror), VCM(Voice Coil Motor), 다면 미러(Polygonal mirror), 회전 미러(Rotating mirror) 또는 갈바노 미러(Galvano mirror) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 광학계는 레이저를 굴절시킴으로써 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계(200)는 렌즈(lens), 프리즘(prism), 마이크로렌즈(Micro lens) 또는 액체 렌즈(Microfluidie lens) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 광학계는 레이저의 위상을 변화시킴으로써 레이저의 비행 경로를 변경할 수 있다. 예를 들어, 광학계(200)는OPA(Optical Phased Array), 메타 렌즈(Meta lens) 또는 메타 표면(Metasurface) 등을 포함할 수 있으나, 이에 한정되지 않는다
또한, 상기 적어도 하나의 라이다 장치(1310)는 차량 주변에 대한 시야각을 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 라이다 장치(1310)는 복수의 라이다(1311 내지 1314)를 포함할 수 있다. 상기 복수의 라이다(1311 내지 1314)는 차량의 전방, 후방, 측면, 지붕 등 다양한 위치에 하나씩 또는 복수 개씩 배치될 수도 있다.
구체적으로, 제1 라이다(1311)가 차량의 전방에 배치될 경우, 상기 제1 라이다(1311)는 차량의 전방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제1 라이다(1311)는 차량의 헤드램프, 차량의 앞 범퍼, 차량의 그릴 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 제2 라이다(1312)가 차량의 측방에 배치될 경우, 상기 제2 라이다(1312)는 차량의 측방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제2 라이다(1312)는 차량의 사이드 미러, 차량의 사이드 가니쉬(Garnish) 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 제3 라이다(1313)가 차량의 후방에 배치될 경우, 상기 제3 라이다(1313)는 차량의 후방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제3 라이다(1313)는 차량의 뒷 범퍼, 브레이크등 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 제4 라이다(1314)가 차량의 지붕에 배치될 경우, 상기 제4 라이다(1314)는 차량의 전방, 후방 및 측방에 위치한 객체에 대한 거리 정보를 감지할 수 있으며, 상기 제4 라이다(1314)는 차량의 선루프, 차량의 지붕 등에 배치될 수 있으나, 이에 한정되지 않는다.
다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 카메라 장치(1320)를 포함할 수 있다.
이때, 상기 적어도 하나의 카메라 장치(1320)는 상기 자율 주행 시스템(1000)을 탑재한 차량 주변에 위치하는 객체에 대한 형상 및/또는 색상 정보를 획득할 수 있다.
또한, 상기 적어도 하나의 카메라 장치(1320)는 차량 주변 및 차량 내부에 대한 형상 및/또는 색상 정보를 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 카메라 장치(1320)는 복수의 카메라(1321 내지 1323)를 포함할 수 있다. 상기 복수의 카메라(1321 내지 1323)는 차량의 전방, 측방, 후방, 내부 등 다양한 위치에 하나씩 또는 복수 개씩 배치될 수도 있다.
구체적으로, 제1 카메라(1321)가 차량의 전방에 배치될 경우, 상기 제1 카메라(1321)는 차량의 전방 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제1 카메라(1321)는 차량의 블랙박스, 헤드라이트, 그릴 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 제2 카메라(1322)가 차량의 후방에 배치될 경우, 상기 제2 카메라(1322)는 차량의 후방 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제2 카메라(1322)는 차량의 뒷 범퍼, 브레이크등 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 제3 카메라(1323)가 차량의 내부에 배치될 경우, 상기 제3 카메라(1323)는 차량의 내부 환경에 대한 형상 및/또는 색상 정보를 감지할 수 있으며, 상기 제3 카메라(1323)는 차량의 블랙박스, 차량의 룸 미러 등에 배치될 수 있으나, 이에 한정되지 않는다.
또한, 상기 카메라 장치(1320)는 스테레오 카메라를 포함할 수 있다. 여기서, 상기 스테레오 카메라는 복수개의 카메라를 이용하여 객체의 형상 뿐만 아니라 객체와의 거리도 판단할 수 있는 카메라를 의미할 수 있다.
또한, 상기 카메라 장치(1320)는 tof 카메라를 포함할 수 있다. 여기서, tof 카메라는 tof 방식을 통하여 객체와의 거리를 판단할 수 있는 카메라를 의미할 수 있다.
다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 레이다 장치(1330)를 포함할 수 있다.
이때, 상기 적어도 하나의 레이다 장치(1330)는 전자기파를 이용하여 객체와의 거리 및 객체의 위치를 탐지하기 위한 장치이다.
또한, 상기 적어도 하나의 레이다 장치(1330)는 차량으로부터 장거리에 위치한 객체, 중거리에 위치한 객체, 및 단거리에 위치한 객체에 대한 정확한 거리 정보를 획득하기 위해 다양한 유형의 레이다 장치를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 레이다 장치(1330)는 장거리에 위치한 객체에 대한 거리 정보를 획득하기 위한 제1 레이다(1331), 및 중거리 또는 단거리에 위치한 객체에 대한 거리 정보를 획득하기 위한 제2 레이다(1332) 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한 상기 적어도 하나의 레이다 장치(1330)는 차량 주변의 시야각을 확보하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 적어도 하나의 레이다 장치(1330)는 차량의 전방, 후방, 또는 측방 등에 배치될 수 있으나, 이에 한정되지 않는다.
다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 초음파 센서(1340)를 포함할 수 있다.
이때, 상기 적어도 하나의 초음파 센서(1340)는 차량 주변에 객체가 존재하는 지 여부를 검출하기 위한 장치이다.
또한, 상기 적어도 하나의 초음파 센서(1340)는 차량 주변에 객체가 존재하는 지 여부를 검출하기 위해 차량의 다양한 위치에 배치될 수 있다. 예를 들어, 상기 적어도 하나의 초음파 센서(1340)는 차량의 전방, 후방, 또는 측방 등에 배치될 수 있으나, 이에 한정되지 않는다.
다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 GPS 센서(1350)를 포함할 수 있다.
이때, 상기 적어도 하나의 GPS 센서(1350)는 차량의 글로벌 위치를 파악하기 위한 장치이다. 보다 구체적으로, 상기 적어도 하나의 GPS 센서(1350)는 글로벌 위치 정보 시스템(Global Positioning System)을 통해 상기 GPS 센서(1350)의 글로벌 위치 정보를 상기 컨트롤러(1100)에 전달할 수 있다.
다시 도 2를 참조하면, 일 실시예에 따른 상기 적어도 하나의 센서(1300)는 적어도 하나의 관성 측정 장치(IMU, 1360)를 포함할 수 있다.
이때, 상기 적어도 하나의 관성 측정 장치(1360)는 가속도계와 회전 속도계, 자력계의 조합을 사용하여 차량의 특정한 힘, 각도 비율, 및 차량을 둘러싼 자기장을 측정하고 보고하는 전자 장치이다. 보다 구체적으로, 상기 적어도 하나의 관성 측정 장치(1360)는 적어도 하나의 가속도계를 사용하여 선형 가속도를 감지하고, 적어도 하나 이상의 자이로스코프를 사용하여 회전 속도를 감지함으로써 작동할 수 있다.
1.3.4. 인포테인먼트 시스템(Infortainment system)
다시 도 1을 참조하면, 일 실시예에 따른 상기 자율 주행 시스템(1000)은 적어도 하나의 인포테인먼트 시스템(1400)을 포함할 수 있다.
이때, 일 실시예에 따른 상기 적어도 하나의 인포테인먼트 시스템(1400)은 탑승자에게 적어도 하나의 정보를 디스플레이 할 수 있다.
도 3은 일 실시예에 따른 인포테인먼트 시스템을 통한 디스플레이 방식을 나타내는 도면이다.
도 3을 참조하면, 일 실시예에 따른 상기 인포테인먼트 시스템(1400)은 고정밀 지도(1420), 메시지창(1430) 및 상기 고정밀 지도(1420) 및 상기 메시지창(1430)을 탑승자에게 보여주기 위한 스크린(1410), 센서로부터 획득한 객체에 대한 정보를 나타내기 위한 정보란(1440) 등을 포함할 수 있으나, 이에 한정되지 않는다.
다시 도 3을 참조하면, 일 실시예에 따른 상기 인포테인먼트 시스템(1400)은 자차량의 위치 정보 및 주변 객체의 위치 정보를 나타내는 고정밀 지도(1420)를 포함할 수 있다.
이때, 상기 고정밀 지도(1420)는 상기 컨트롤러(1100)에 의해 다운로드된 지도일 수 있다. 보다 구체적으로, 상기 고정밀 지도(1420)는 외부 서버에 의해 생성되어 저장될 수 있으며, 상기 컨트롤러(1100)는 상기 고정밀 지도(1420)를 다운로드 하여 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다.
또한, 상기 고정밀 지도(1420)는 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터에 기초해 생성될 수 있다. 구체적으로, 상기 적어도 하나의 센서(1300)에 포함된 상기 라이다 장치(1310)는 차량 외부의 객체에 대한 거리 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 거리 정보를 기초로 상기 차량 외부의 객체의 위치 정보를 포함하는 고정밀 지도(1420)를 생성할 수 있고, 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다.
또한, 상기 컨트롤러(1100)는 다운로드된 지도를 기반으로 상기 센서 데이터를 이용하여 상기 고정밀 지도(1420)를 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터를 이용하여 객체의 위치 정보를 생성하고, 상기 다운로드된 지도에 상기 객체의 위치 정보를 표시함으로써 상기 고정밀 지도(1420)를 구현할 수 있으며, 상기 인포테인먼트 시스템(1400)을 통해 탑승자에게 디스플레이 할 수 있다.
다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 외부로부터 전송된 메시지를 탑승자에게 디스플레이 하기 위한 메시지창(1430)을 포함할 수 있다.
예를 들어, 상기 메시지창(1430)은 외부로부터 수신된 메시지, 탑승자에게 전달할 정보, 탑승자의 입력을 수신하기 위한 인터페이스, 데이터 전송과 관련된 외부 서버의 승인 여부를 나타내는 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
보다 구체적으로, 상기 컨트롤러(1100)는 외부 서버로부터 센서 데이터에 대한 요청 메시지를 수신한 경우, 상기 메시지창(1430)을 통해 상기 요청 메시지를 디스플레이 할 수 있다. 이때, 탑승자는 상기 요청 메시지에 대한 응답으로 상기 센서 데이터를 전송하기 위한 입력을 수행할 수 있다.
또한, 상기 컨트롤러(1100)는 외부 서버로부터 트래픽 이벤트가 발생한 사실을 나타내는 알림 메시지를 수신한 경우, 상기 메시지창(1430)을 통해 상기 알림 메시지를 디스플레이 할 수 있다.
또한, 상기 메시지창(1430)은 상기 고정밀 지도(1420)와 별도의 화면에 디스플레이될 수 있다.
또한, 상기 메시지창(1430)은 상기 고정밀 지도(1420)와 같은 화면에 디스플레이될 수 있다. 보다 구체적으로, 상기 메시지창(1430)은 상기 고정밀 지도(1420)에 겹치지 않게 디스플레이될 수 있으나, 이에 한정되지 않는다.
다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 상기 고정밀 지도(1420) 및 상기 메시지창(1430)을 보여주기 위한 스크린(1410)을 포함할 수 있다.
또한, 상기 스크린(1410)은 터치 센서, 입력 버튼 등을 포함할 수 있으나, 이에 한정되지 않는다.
이때, 상기 스크린(1410)은 탑승자로부터 터치 입력을 수신한 경우, 상기 컨트롤러(1100)에 상기 탑승자의 터치 입력의 내용을 전송할 수 있다. 예를 들어, 상기 컨트롤러(1100)가 외부 서버로부터 센서 데이터에 대한 요청 메시지를 상기 메시지창(1430)을 통해 상기 탑승자에 전달한 경우, 상기 탑승자는 상기 스크린(1410)을 터치함으로써 상기 요청 메시지에 대한 응답을 입력할 수 있다.
또한, 상기 컨트롤러(1100)가 외부 서버로부터 트래픽 이벤트에 대한 알림 메시지를 상기 메시지창(1430)을 통해 디스플레이한 경우, 상기 탑승자는 상기 스크린(1410)을 터치함으로써 상기 알림 메시지에 대한 확인 여부를 입력할 수 있다.
다시 도 3을 참조하면, 일 실시예에 따른 인포테인먼트 시스템(1400)은 차량의 전면 유리에 상기 적어도 하나의 센서(1300)로부터 획득된 정보를 표시하는 정보란(1440)을 포함할 수 있다. 이때, 상기 정보란(1440)을 표시하기 위해, 상기 전면 유리는 전자 스크린을 포함할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득한 정보를 탑승자에게 전달하기 위해, 상기 차량의 전면 유리에 상기 인포테인먼트 시스템(1400)을 통해 상기 정보란(1440)을 표시할 수 있다.
또한, 상기 정보란(1440)은 상기 적어도 하나의 센서(1300)에 포함된 라이다 장치가 객체를 스캔함으로서 획득된 클래스 정보, 속도, 이동 방향 등을 표시할 수 있으나, 이에 한정되지 않고, 다양한 센서에 의해 획득된 복수의 정보를 더 표시할 수 있다.
또한, 상기 정보란(1440)은 상기 스크린(1410) 또는 상기 전면 유리 상에서 AR 방식 또는 VR 방식으로 디스플레이될 수도 있다.
1.4. 자율 주행 시스템
1.4.1. 센서를 이용한 자율 주행 시스템
1.4.1.1. 개괄
자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 이용하여 획득된 센서 데이터를 바탕으로 운전자의 개입 없이 또는 운전자의 개입을 최소화하여 차량을 주행할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 차량 내에 배치되는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이다 장치(1330), 및 적어도 하나의 초음파 센서(1340) 중 적어도 하나를 이용하여 획득된 데이터를 바탕으로 자율적으로 차량을 주행할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 센서 데이터를 기초로 SLAM 기반의 자율 주행(Simultaneous Locallization and Mapping) 및 고정밀 지도 기반 자율 주행을 수행할 수 있으나, 이에 한정되지 않는다.
구체적으로, 상기 SLAM 기반의 자율 주행을 수행하는 차량은 상기 적어도 하나의 센서(1300)를 통해 주변 환경을 인식하여 그 공간의 지도를 작성하고, 이와 동시에 자신의 위치를 정확히 파악함으로써 자율적으로 주행할 수 있다.
또한, 상기 고정밀 지도 기반 자율 주행을 수행하는 차량은 상기 컨트롤러(1100)로부터 획득된 고정밀 지도를 기초로 차량 주변의 객체를 인지함으로써 자율적으로 주행할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)를 통해 보행자 감지, 충돌 회피, 교통 정보 인식, 주차 보조, 서라운드 뷰, 근접 충돌 위험 감지, 등을 수행할 수 있으나, 이에 한정되지 않는다.
이하에서는 상기 적어도 하나의 센서를 이용한 자율 주행 시스템의 구체적인 실시예들을 기술한다.
1.4.1.2. 안전을 위한 자율 주행 시스템.
상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자 및 보행자의 안전을 위한 시스템을 포함할 수 있다. 또한, 안전을 위한 시스템은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 동작할 수 있다.
상기 안전을 위한 자율주행 시스템에 기재되는 사항은 자율주행 차량에서 제어되는 다양한 실시예에 대해 기술한 것으로, 상기 안전을 위한 자율주행 시스템에 기재되는 사항은 후술할 대목차 2 내지 대목차 5에 기재된 기술사항으로 구현될 수 있다.
상기 자율 주행 시스템(1000)은 주변 이동체의 주행 패턴을 검출하여 상기 이동체의 이상 주행 패턴을 검출할 수 있다.
도 4는 일 실시예에 따른 자율 주행 시스템이 이상 주행 패턴을 보이는 이동체를 검출하는 상황을 나타내는 도면이다.
도 4를 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 제1 차량(101)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 주변 객체의 주행 패턴을 검출할 수 있다.
보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 상기 제1 차량(101)의 주변에 위치하는 제2 차량(102)의 주행 패턴을 검출할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴을 검출하기 위해 상기 제2 차량(102)의 움직임을 추적할 수 있다. 보다 구체적으로, 상기 제2 차량(102)의 속도 및 방향이 불규칙적으로 변하는 경우, 상기 컨트롤러(1100)는 상기 제 차량(102)의 움직임을 추적하기 위해 상기 적어도 하나의 센서(1300)를 제어할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 상기 제2 차량(102)의 주행 패턴이 비정상적인지 여부를 판단할 수 있다. 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량의(102) 속도 및 방향 등을 포함하는 이동 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이동 정보를 기초로 상기 제2 차량(102)의 속도 및 방향의 변화가 비정상적이라고 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴을 검출하기 위해 주행과 관련된 임계치를 설정할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 상기 제2 차량(102)의 움직임을 수치화 하여 상기 임계치와 비교할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 움직임이 상기 임계치를 초과하면 상기 제2 차량(102)이 이상 주행 패턴을 가지는 것으로 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제2 차량(102)의 이상 주행 패턴이 검출된 경우, 상기 제2 차량(102)과의 충돌을 피하기 위해 상기 제1 차량(101)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(101)의 속도를 감소시키거나, 상기 제1 차량(101)의 속도를 증가시키거나, 또는 상기 제1 차량(101)의 경로를 변경할 수 있으나, 이에 한정되지 않는다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 통해 획득된 거리 정보를 활용해 이상 주행 패턴을 가지는 이동체를 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 존재하는 객체의 거리 정보를 기초로 상기 객체의 위치 및 속도에 관한 정보를 생성할 수 있다.
구체적으로, 상기 자율 주행 시스템(1000)은 상기 라이다 장치(1310)로부터 획득한 데이터를 이용하여 주변 객체에 대한 벡터 맵을 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)에 의해 획득된 상기 제2 차량(102)과 거리 정보를 기초로 상기 제2 차량(102)의 속도 등을 포함하는 상기 벡터 맵을 생성할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 벡터 맵을 이용하여 상기 제2 차량(102)이 이상 주행 패턴을 가지는지 여부를 판단할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 벡터 맵을 기초로 상기 제1 차량을 제어할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 주변에 긴급한 사고가 발생한 경우를 대비하여 차량이 이동 가능한 공간을 계산할 수 있다.
도 5는 일 실시예에 따른 자율 주행 시스템이 주행 중에 앞 차량의 사고를 인지한 상황을 나타내는 도면이다.
도 5를 참조하면, 자율 주행 시스템(1000)을 탑재한 제1 차량(103)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 상기 제1 차량(103)이 이동 가능한 공간을 검출할 수 있다.
구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 적어도 하나의 센서(1300) 또는 외부로부터 획득된 센서 데이터를 기초로 상기 제1 차량(103)이 이동 가능한 공간(200)을 미리 계산할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터가 나타내는 공간 중에서 객체가 검출되지 않는 일정 부피를 갖는 공간들을 계산할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 계산된 공간들 중 상기 제1 차량(103)이 주행 가능한 공간을 선택하여 저장할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 대각선 방향에 상기 이동 가능한 공간(200)이 있는 경우, 상기 이동 가능한 공간(200)에 관련된 정보를 저장할 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 주행 경로로 설정되지 않은 공간 중에 상기 제1 차량(103)이 주변 객체와의 충돌 위험 없이 이동 가능한 공간(200)에 관련된 정보를 저장할 수 있다.
또한, 상기 제1 차량(103) 전방에서 긴급 사고가 발생한 경우, 상기 컨트롤러(1100)는 미리 저장된 공간 정보를 활용해 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시킬 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 주변에서 사고가 발생한 사실을 인지한 경우, 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산할 수 있다.
구체적으로, 상기 컨트롤러(1100)가 상기 센서 데이터를 기초로 제2 차량(104) 및 제3 차량(105) 간의 사고 사실을 인지한 경우, 상기 컨트롤러(1100)는 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 센서 데이터 중에서 상기 제2 차량(104)및 상기 제3 차량(105)에 각각 대응되는 데이터 셋의 상대적 위치를 통해 상기 사고 사실을 인지할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러(1100)는 상기 제1 차량(103)이 이동 가능한 공간(200)을 계산한 경우, 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시키기 위해 상기 제1 차량(103)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(103)의 조향을 제어하여 상기 제1 차량(103)을 상기 이동 가능한 공간(200)으로 이동시킬 수 있으나, 이에 한정되지 않는다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 활용해 빈 공간 데이터를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 객체의 거리 정보를 기초로, 상기 객체의 위치 및 속도와 관련된 정보를 생성할 수 있다.
구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)에 의해 획득된 상기 제1 차량(103)의 주변 객체에 대한 위치 정보를 활용해 3d 맵을 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 3d 맵 상에서 객체에 대한 데이터가 존재하지 않는 공간을 이동 가능한 공간(200)에 관한 데이터로 저장할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 제1 차량(103) 주변에 긴급 사고 발생 시 저장된 공간 데이터를 이용해 상기 제1 차량(103)를 상기 이동 가능한 공간(200)으로 이동시킬 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 제1 차량(106)의 전방에 위치한 제2 차량(107)이 갑자기 후진하는 것을 인지한 경우, 상기 제2 차량(107)과의 충돌을 피하기 위해 상기 제1 차량(106)을 제어할 수 있다.
도 6은 일 실시예에 따른 자율 주행 시스템이 앞 차량의 갑작스러운 후진을인지하는 상황을 나타내는 도면이다.
도 6을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(106)은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량(107)의 움직임을 검출할 수 있다.
예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 기초로 상기 제1 차량(106)의 전방에 위치하는 제2 차량(107)의 이동 방향을 검출할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 상기 제2 차량(107)의 이동 방향 및 이동 속도를 포함하는 이동 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이동 정보를 기초로 상기 제2 차량(107)이 후진한다고 판단한 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)에 경고하기 위한 알람을 상기 제2 차량(107)에 전송할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제2 차량(107)에 경고하기 위한 경적을 울릴 수 있다.
또한, 상기 컨트롤러(1100)가 상기 제1 차량(106)의 후방에 상기 제1 차량(106)이 이동 가능한 공간이 있다고 판단한 경우, 상기 이동 가능한 공간으로 상기 제1 차량(106)을 이동시킬 수 있다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 활용해 상기 제2 차량(107)의 후진 여부를 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 상기 제2 차량(107)의 위치 정보를 기초로, 상기 제2 차량(107)의 이동 방향 및 이동 속도를 나타내는 이동 정보를 생성할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 상기 제2 차량(107)의 상기 이동 정보를 기초로, 상기 제2 차량(107)의 후진 여부를 판단할 수 있다. 예를 들어, 상기 제2 차량(107)의 이동 방향이 상기 제1 차량(106)을 향하는 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)이 후진한다고 판단할 수 있다. 또한, 정지 상태인 상기 제1 차량(106)과 상기 제2 차량(107) 간의 거리가 가까워지는 경우, 상기 컨트롤러(1100)는 상기 제2 차량(107)이 후진한다고 판단할 수 있다.
또한, 상기 자율 주행 시스템은(1000) 제1 차량(108)의 주변에 위치하는 제2 차량(109)의 방향 변화를 감지할 수 있다.
도 7은 일 실시예에 따른 자율 주행 시스템이 차량의 바퀴의 움직임을 추적하는 상황을 나타내는 도면이다.
도 7을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(108)은 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)를 통해 상기 제2 차량(109)의 방향 변화를 감지할 수 있다.
예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 이용하여 상기 제1 차량(108)의 주변에 위치한 상기 제2 차량의 바퀴(109a)의 움직임을 감지하여 상기 제2 차량(109)의 방향 변화를 감지할 수 있다.
이때, 상기 컨트롤러(1100)는 상기 센서 데이터에 포함된 객체가 상기 제2 차량의 바퀴(109a)로 판단되는 경우, 상기 제2 차량의 바퀴(109a)를 추적할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 제2 차량의 바퀴(109a)에 대한 센서 데이터를 지속적으로 획득하기 위해 상기 적어도 하나의 센서(1300)의 스캔 패턴을 제어할 수 있다.
또한, 상기 제2 차량의 바퀴(109a)의 방향이 상기 제1 차량(108)의 전방을 향하는 경우, 상기 컨트롤러(1100)는 상기 제1 차량(108)이 상기 제2 차량(109)과 충돌하는 것을 방지하기 위해 상기 제1 차량(108)을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 제1 차량(108)의 속도를 감소시키거나, 상기 제1 차량(108)의 경로를 변경시킬 수 있으나, 이에 한정되지 않는다.
또한, 상기 제2 차량의 바퀴(109a)의 방향이 갑자기 변하는 경우, 상기 컨트롤러(1100)는 상기 제2 차량의 바퀴(109a)의 현재 방향과 무관하게 상기 제1 차량(108)의 속도를 감소시키거나 상기 제1 차량(108)의 경로를 변경할 수 있다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 데이터를 이용해 상기 제2 차량의 바퀴(109a) 방향 전환을 감지할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)의 시야각 내에 위치하는 상기 제2 차량의 바퀴(109a)의 시간에 따른 위치 정보를 이용하여 상기 제2 차량의 바퀴(109a)의 움직임을 검출할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 이용해 상기 제2 차량의 바퀴(109a)에 대한 데이터 또는 상기 제2 차량의 바퀴(109a)에 대한 데이터를 통해 예측된 상기 제2 차량(109)의 예상 움직임 정보를 포함하는 3d 맵을 생성할 수 있다. 이때, 상기 3d 맵은 시간에 따라 변하는 상기 제2 차량의 바퀴(109a)의 위치 정보를 포함할 수 있다. 또한, 상기 컨트롤러(1100) 상기 3d 맵을 이용하여 상기 제2 차량의 바퀴(109a)의 방향 변화를 감지하여 상기 제1 차량(108)을 제어할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 제1 차량(110)이 주행 중인 도로의 위험 요소(예를 들어 도로의 균열 또는 도로 상에 존재하는 블랙 아이스)를 검출할 수 있다.
도 8은 일 실시예에 따른 자율 주행 시스템이 도로 상에 존재하는 블랙아이스를 감지하는 방법을 나타내는 도면이다.
도 8을 참조하면, 상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량(110)은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)를 통해 상기 제1 차량(110)이 주행중인 도로의 노면 상태를 검출할 수 있다.
예를 들어, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 바탕으로 상기 제1 차량(110)이 주행 중인 도로의 균열을 감지할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 바탕으로 상기 도로 상에 존재하는 블랙아이스를 감지할 수 있으나, 이에 한정되지 않는다.
또한, 상기 적어도 하나의 센서(1300)에 포함되는 상기 라이다 장치(1310)는 객체의 반사율과 관련되는 인텐시티 정보를 포함하는 센서 데이터를 획득할 수 있다. 보다 구체적으로, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)의 시야각 내에 포함되는 제1 영역(300) 인텐시티 정보를 포함할 수 있다. 이때, 상기 인텐시티 정보는 상기 객체의 반사율에 대응되는 수치인 인텐시티 값(311)을 포함할 수 있다. 또한, 상기 인텐시티 정보에 포함되는 상기 인텐시티 값에는 평균, 편차, 표준편차 등이 이용될 수 있으며, 적어도 하나의 데이터를 증폭시킬 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러(1100)는 인텐시티 정보에 포함되는 인텐시티 값의 공간 별 분포를 나타내는 인텐시티 분포도(310)를 기초로 상기 도로의 위험성을 판단할 수 있다. 이때, 상기 인텐시티 분포도(310)는 상기 제1 영역(300)의 각 포인트에 대한 인텐시티 값(311)을 포함할 수 있다.
또한, 상기 제1 영역(300)의 인텐시티 분포도(310)에서, 소정 경계(312)를 기준으로 상기 인텐시티 값(311)이 급격히 변하는 경우, 상기 컨트롤러(1100)는 상기 소정 경계(312)내의 영역을 위험 영역으로 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 도로의 각 영역별 인텐시티 값의 평균을 이용하여 인텐시티 임계치를 설정할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 주행 중인 도로상의 각 포인트의 인텐시티 값의 평균값을 계산하고, 상기 평균값을 기초로 인텐시티 임계치를 설정할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 인텐시티 임계치를 상기 제1 영역(300)의 각 포인트의 인텐시티 값들의 평균과 비교할 수 있다. 또한, 상기 비교의 결과 상기 제1 영역(300)의 인텐시티 값들의 평균이 상기 인텐시티 임계치 이상인 경우, 상기 컨트롤러(1100)는 상기 제1 영역(300)을 위험 영역으로 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 이용하여 도로의 위험을 감지하기 위해서 센서 작동 에너지를 조절할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 센서의 작동 에너지를 조절하여 이에 따른 패턴을 검출하여 도로의 위험을 감지할 수 있으나, 이에 한정되지 않는다.
또한, 상기 위험 영역은 상기 제1 차량(110)의 주행에 위험이 될 수 있는 영역을 포함할 수 있다. 예를 들어, 상기 위험 영역은 블랙 아이스가 분포하는 영역, 도로상에 균열이 생긴 영역 등일 수 있으나, 이에 한정되지 않는다.
또한, 상기 자율 주행 시스템(1000)은 센서 데이터를 통해 불법 주차 차량을검출할 수 있다.
보다 구체적으로, 도로 상에 차량이 정차 중 일 때, 상기 자율 주행 시스템(1000)은 정지된 차량과 관련된 공간이 주차 가능 영역인지 판단하여, 주차 가능 영역이 아닌데도 불구하고 차량이 미리 정해진 시간 이상 정차한 경우 상기 차량을 불법 주차 차량으로 판단할 수 있다.
이때, 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 통해 주차 라인을 검출할 수 있으며, 검출된 주차 라인을 기초로 주차 가능 여부를 판단할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 미리 저장된 지도를 이용하여 주차 가능 영역을 판단할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 도로의 폭을 상기 자율 주행 시스템(1000)이 탑재된 제1 차량의 폭과 비교하여 상기 제1 차량(111)이 상기 도로로 주행 가능한지 여부를 판단할 수 있다.
도 9는 일 실시예에 따른 자율 주행 시스템이 탑재된 차량이 주행 중 불법 주차 차량을 감지한 상황을 나타내는 도면이다.
도 9를 참조하면, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 제1 차량이(111) 도로 상에 불법 주차된 제2 차량(112)를 피해서 이동 가능한지 여부를 판단할 수 있다.
구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 상기 제1 차량(111)이 주행 가능한 공간을 계산할 수 있다. 예를 들어, 상기 제1 차량(111)이 주행 중인 도로 상에 상기 제2 차량(112)이 정차해 있는 경우, 상기 컨트롤러(1100)는 주행 가능한 도로의 폭(pa)과 상기 제1 차량의 폭(pb)을 비교할 수 있다. 이때, 상기 제1 차량의 폭(pb)은 상기 컨트롤러(1100)에 미리 저장되어 있을 수 있다.
또한, 상기 도로의 폭(pa)이 상기 제1 차량의 폭(pb)보다 소정 크기 이상 큰 경우, 상기 컨트롤러(1100)는 상기 제2 차량(112)을 피해 상기 주행 가능한 도로로 주행하도록 상기 제1 차량(111)을 제어할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 상기 제2 차량(112)과 중앙선 사이의 공간을 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 공간이 상기 제1 차량(111)이 통과할 수 있는 공간인지 여부를 판단하여 상기 제1 차량(111)을 제어할 수 있다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 거리 정보를 기초로 상기 제1 차량(111)이 주행 가능한 공간을 검출할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 제2 차량(112) 및 상기 중앙선의 거리 정보를 기초로, 상기 제2 차량(112) 및 상기 중앙선의 위치 정보를 생성할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)로부터 획득된 상기 센서 데이터를 기초로 3d 맵을 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 3d 맵을 기초로 상기 제1 차량(111)이 주행 가능한 공간을 판단할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 위험 반경 내에서 상기 자율 주행 시스템(1000)을 탑재한 차량에 다가오는 객체를 검출할 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)로부터 획득된 상기 센서 데이터를 기초로 주변에서 다가오는 이륜차의 속도 및 방향 등을 판단할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 이륜차의 속도 및 방향을 상기 인포테인먼트 시스템(1400)을 통해 탑승자를 위해 디스플레이할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 속도 및 방향을 기초로 상기 이륜차가 위험 반경 내에 위치한다고 판단한 경우, 상기 이륜차의 존재를 탑승자에게 알릴 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 문을 잠그는 동작, 상기 인포테인먼트 시스템(1400)을 통해 위험을 알리는 동작, 상기 차량의 사이드미러에 상기 이륜차의 존재를 표시하는 동작 등을 수행할 수 있으나, 이에 한정되지 않는다.
또한, 상기 자율 주행 시스템(1000)은 상기 이륜차의 존재를 명확히 판단하기 위해 근거리 라이다 장치를 더 포함할 수 있다. 이때, 상기 근거리 라이다 장치는 상기 차량에 근접한 객체의 거리 정보를 획득하여 상기 컨트롤러(1100)에 제공할 수 있다. 또한, 이에 한정되지 않고, 상기 자율 주행 시스템(1000)은 근거리 객체를 검출하기 위한 적어도 하나의 센서를 더 포함할 수 있다.
또한, 상기 자율 주행 시스템(1000)이 탑재된 제1 차량은 상기 센서 데이터를 통해 마주보는 차량의 갑작스러운 유턴 상황을 검출할 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)에 포함된 라이다 장치로부터 획득된 센서 데이터를 통해 마주보는 제2 차량의 속도 및 방향을 포함하는 벡터 맵을 형성할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 상기 벡터 맵을 이용하여 상기 제2 차량의 유턴 여부를 검출할 수 있다. 또한, 상기 제2 차량이 갑자기 유턴하는 경우, 상기 컨트롤러(1100)는 상기 제1 차량의 속도를 제어할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 제1 차량이 출발하기 전에 주변에 객체가 있는지 여부를 검출할 수 있다.
보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 상기 제1 차량을 이동시키기 전에 상기 제1 차량 주변의 객체 존재 여부를 판단하기 위해 적어도 하나의 센서(1300)를 제어할 수 있다. 예를 들어, 상기 제1 차량의 하부에 고양이가 존재하는 경우, 상기 적어도 하나의 센서(1300)는 상기 고양이의 존재를 검출하에 상기 컨트롤러(1100)에 전송할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 고양이가 이동하기 전까지 상기 제1 차량을 정지시킬 수 있다.
또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 주변의 보행자를 트래킹하여 위험 상황을 대비할 수 있다. 여기서, 보행자는 남자, 여자, 어린이, 노인 등 다양한 사람이 포함될 수 있으며, 일 실시예에서, 상기 자율주행시스템(1000)은 상기 보행자의 종류를 식별할 수도 있다.
구체적으로, 상기 자율 주행 시스템(1000)에 포함된 컨트롤러(1100)는 적어도 하나의 센서(1300)를 통해 상기 차량으로부터 소정 거리 내에 있는 보행자의 움직임을 검출할 수 있다. 또한, 상기 보행자가 상기 적어도 하나의 센서의 시야각에서 사라지는 경우, 상기 컨트롤러(1100)는 이미 획득한 상기 보행자의 위치 정보를 활용하여 상기 보행자의 이동 방향을 예측하는 트래킹 데이터를 생성할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 트래킹 데이터를 기초로, 상기 보행자가 도로 상에 갑자기 들어오는 상황을 대비한 제어 방법을 미리 저장할 수 있다. 예를 들어, 상기 제어 방법은 상기 차량을 정지시키거나, 상기 차량의 경로를 변경시키는 것을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 자율 주행 시스템(1000)은 어린이 보호 구역 등 법률적인 규제와 관련되는 영역을 판단하여 차량을 제어할 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 통해 어린이 보호 구역을 나타내는 표지판 등을 스캔하여 어린이 보호 구역 여부를 판단할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 미리 저장된 어린이 보호 구역 관련 정보를 이용하여 어린이 보호 구역을 판단할 수 있다. 이때, 상기 자율 주행 시스템(1000)이 탑재된 차량이 어린이 보호 구역에 진입한 경우, 컨트롤러(1100)는 차량이 미리 정해진 속도 이하로 주행하도록 차량을 제어할 수 있다.
1.4.1.3. 편의를 위한 자율 주행 시스템.
상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자의 편의를 위한 시스템을 포함할 수 있다. 또한 상기 편의를 위한 시스템은 상기 자율 주행 시스템(1000)에 포함된 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 동작할 수 있다.
상기 편의를 위한 자율주행 시스템에 기재되는 사항은 자율주행 차량에서 제어되는 다양한 실시예에 대해 기술한 것으로, 상기 편의를 위한 자율주행 시스템에 기재되는 사항은 후술할 대목차 2 내지 대목차 6에 기재된 기술사항으로 구현될 수 있다.
상기 자율 주행 시스템(1000)은 탑승자의 주차를 보조하기 위해 주차 가능 공간을 검출할 수 있다.
도 10은 일 실시예에 따른 자율 주행 시스템이 주차 가능 공간을 감지하는 상황을 나타내는 도면이다.
도 10을 참조하면, 상기 자율 주행 시스템(1000)이 탑재된 제1 차량(113)은 상기 적어도 하나의 센서(1300)를 통해 주차 가능 공간을 검출할 수 있다.
또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 기초로 주차선(10)을 검출할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)에 포함된 상기 라이다 장치(1310)를 통해 객체의 반사율에 관련된 인텐시티 정보를 획득할 수 있다. 이때, 상기 컨트롤러(1100)는 상기 인텐시티 정보를 기초로 상기 객체가 주차선(10)이라고 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 검출된 주차선(10) 내의 공간에 장애물이 존재하는 지 여부를 검출할 수 있다. 이때, 상기 주차선(400) 내의 공간에 장애물이 존재하지 않는 경우, 상기 컨트롤러(1100)는 상기 공간을 주차 가능 공간으로 판단할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 센서 데이터를 기초로 주차된 제2 차량(114)을 검출함으로써 주차 가능 공간을 검출할 수 있다. 보다 구체적으로, 상기 센서 데이터에 주차된 제2 차량의 표면에 대응하는 데이터(20)가 포함된 경우, 상기 컨트롤러(1100)는 상기 제2 차량(114)이 존재하는 위치의 주차 가능 여부를 판단하지 않을 수 있다.
또한, 상기 컨트롤러(1100)는 주차된 차량을 기초로 주차 가능 공간을 검출할 수 있다. 보다 구체적으로, 상기 컨트롤러(11100)는 상기 센서 데이터를 기초로 상기 주차된 차량 사이의 공간이 일정 면적 이상이면 주차 가능 공간으로 인지할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 주차선(10)이 검출되지 않는 경우에도 상기 주차된 차량 사이의 공간이 일정 면적 이상이면 주차 가능 공간으로 인지할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 전술한 방법에 한정되지 않고, 상기 주차선(10) 및 상기 주차된 차량에 기초하여 주차 가능 공간을 검출할 수 있다.
또한, 상기 자율 주행 시스템(1000)은 제1 차량(115)의 주차 및 출차 시 맵을 생성할 수 있다.
도 11은 일 실시예에 따른 자율 주행 시스템이 차량의 출차를 위한 맵을 생성하는 과정을 나타내는 도면이다.
도 11을 참조하면, 상기 자율 주행 시스템(1000)은 상기 제1 차량(115)에 배치된 적어도 하나의 센서(1300)를 통해 획득된 센서 데이터를 기초로 상기 제1 차량(115)의 주차 및 출차 시 맵을 형성할 수 있다.
이때, 상기 자율 주행 시스템(1000)은 제1 운행 동안 주변에 대한 센서 데이터를 획득하고, 상기 제1 운행 동안 획득된 상기 센서 데이터를 기초로 제2 운행에 대한 경로를 생성할 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 상기 제1 운행 동안 획득된 상기 센서 데이터를 기초로 상기 제1 차량(115)의 주변에 대한 맵을 생성할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 맵을 기초로 상기 제2 운행에 대한 경로를 생성할 수 있다.
또한, 상기 적어도 하나의 센서(1300)가 상기 라이다 장치(1310)인 경우, 상기 컨트롤러(1100)는 상기 라이다 장치(1310)를 통해 획득된 데이터를 기초로 3d맵을 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 제1 차량(115)의 상기 제1 운행 동안 상기 라이다 장치(1310)로부터 획득된 주변에 대한 위치 정보를 기초로 상기 3d 맵을 생성할 수 있다. 또한, 상기 컨트롤러(1100)는 상기 3d맵을 기초로 상기 제2 운행에 대한 경로를 생성할 수 있다.
또한 상기 자율 주행 시스템(1000)은 자율 주차를 위한 시스템을 포함할 수 있다. 상기 자율 주차를 위한 시스템은 상기 센서 데이터를 활용할 수 있다. 또한, 상기 자율 주차를 위한 시스템은 탑승자의 입력에 의해 작동할 수 있다. 또한, 상기 자율 주차 시스템은 상기 자율 주행 시스템은 주차 상황을 인지하면 작동할 수 있다.
일 실시예에서, 상기 자율 주행 시스템(1000)은 차량이 특정 공간에 위치한 경우에 자율 주차를 위한 시스템을 구현할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 차량이 특정 공간에 위치하고 탑승자가 차량에서 하차한 경우, 주차를 수행하는 상황임을 인식하고, 이에 따라, 자율 주차를 위한 시스템을 구현할 수 있다.
1.4.2. 센서 및 통신을 이용한 자율 주행 시스템
1.4.2.1. 개괄
상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터 및 다른 장치로부터 수신한 공유 데이터를 이용하여 구현될 수 있다. 상기 자율 주행 시스템(1000)은 상기 적어도 하나의 통신 모듈(1200)을 통해 다른 장치와 데이터를 공유하기 위해 통신할 수 있다. 또한, 상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 주행과 관련된 위험 요소를 미리 파악하기 위해 통신 시스템을 이용할 수 있다.
도 12는 일 실시예에 따른 통신 시스템의 종류를 설명하기 위한 도면이다.
도 12를 참조하면, 상기 자율 주행 시스템(1000)은 다양한 통신 시스템을 통해 구현될 수 있다. 예를 들어, 상기 통신 시스템은 V2V(Vehicle to Vehicle), V2I(Vehicle to Infra), V2N(Vehicle to Network), V2P(Vehicle to Pedestrian), V2C(Vehicle to Cloud), V2D(Vehicle to Device) 등 적어도 하나의 V2X시스템을 구현할 수 있으나, 이에 한정되지 않는다.
또한, 상기 자율 주행 시스템(1000)은 다른 장치와의 통신을 위해 적어도 하나의 표준화된 통신 시스템을 이용할 수 있다. 예를 들어, 상기 자율 주행 시스템(1000)은 다른 장치와의 통신을 위해 C-V2X 및 DSRC(Dedicated Short Range Communication)등을 이용할 수 있으나, 이에 한정되지 않는다. 이때, 상기 C-V2X는 V2X 통신을 수행하기 위한 기술을 나타내는 3GPP 표준을 의미할 수 있다. 또한, 상기 DSRC는 차량과 대응하는 프로토콜 및 표준 세트를 위해 설계된 단방향 또는 양방향 단거리 무선 통신 채널을 의미할 수 있다.
1.4.2.1.1. V2V
상기 자율 주행 시스템(1000)을 탑재한 제1 차량은 적어도 하나의 통신 모듈(1200)을 이용해 다른 차량과 통신할 수 있다.
다시 도 12를 참조하면, 상기 제1 차량은 V2V 시스템을 통해 상기 다른 차량과 데이터 공유를 위한 통신을 수행할 수 있다.
또한, 상기 V2V 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 상기 다른 차량에 송수신하기 위해 구현될 수 있다.
또한, 상기 V2V 시스템은 상기 센서 데이터 외의 정보를 송수신하기 위해 구현될 수 있다. 예를 들어, 상기 V2V 시스템은 상기 제1 차량의 목적지, 상기 제1 차량 내의 승객의 수, 상기 제1 차량의 속도 등을 전송하기 위해 구현될 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 차량은 탑승자 및 보행자의 안전을 위해 상기 V2V시스템을 이용할 수 있다. 예를 들어, 상기 제1 차량은 상기 제1 차량의 경로 상에 존재하는 위험 물체에 대한 정보를 상기 V2V 시스템을 통해 다른 차량으로부터 수신할 수 있다.
1.4.2.1.2. V2I
상기 자율 주행 시스템(1000)을 탑재한 제1 차량은 적어도 하나의 통신 모듈(1200)을 통해 인프라 장치와 통신할 수 있다. 이때, 상기 인프라 장치는 산업 또는 교통 기반을 형성하는 기초적인 시설과 시스템을 의미할 수 있다. 예를 들어, 상기 인프라 장치는 신호등, 과속 카메라, 도로 표지판 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 인프라 장치는 적어도 하나의 센서를 포함할 수 있다. 보다 구체적으로, 상기 인프라 장치는 도로 상에서 차량 및 보행자에게 일어날 수 있는 위험 상황을 감지하기 위해 상기 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 센서는 라이다 장치, 카메라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.
다시 도 12를 참조하면, 상기 제1 차량은 V2I 시스템을 통해 상기 인프라 장치와 데이터 공유를 위한 통신을 수행할 수 있다. 여기서, 상기 인프라 장치는 외부 서버에 의해 제어될 수도 있고, 또는, 외부 서버의 제어없이 상기 데이터 공유를 위한 통신을 수행할 수도 있다.
또한, 상기 V2I 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 인프라 장치에 전송하기 위해 구현될 수 있다. 또한, 상기 V2I 시스템은 상기 인프라 장치에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 제1 차량에 전송하기 위해 구현될 수 있다.
또한, 상기 V2I 시스템은 상기 센서 데이터 외의 정보를 전송하기 위해 구현될 수 있다. 구체적으로, 상기 인프라 장치는 상기 인프라 장치가 배치된 공간에 대한 규제 정보를 상기 제1 차량에 전송할 수 있다. 예를 들어, 상기 인프라 장치는 상기 인프라 장치가 배치된 공간이 어린이 보호 구역이라는 정보를 상기 제1 차량에 전송할 수 있다.
또한, 상기 제1 차량은 특정 구역에 진입할 경우, 상기 인프라 장치로부터 센서 데이터를 수신할 수 있다. 예를 들어, 상기 제1 차량이 어린이 보호 구역에 진입하는 경우, 상기 제1 차량은 어린이 보호 구역에 설치된 인프라 장치로부터 획득된 센서 데이터를 상기 V2I 시스템을 통해 수신할 수 있으나, 이에 한정되지 않는다.
1.4.2.1.3. V2C
상기 자율 주행 시스템(1000)을 탑재한 상기 제1 차량은 통신 모듈(1200)을 통해 서버와 통신할 수 있다. 이때, 상기 서버는 도로 상황을 관제하기 위한 기관의 컴퓨터에 포함될 수 있다. 예를 들어, 상기 서버는 도로 관제 시스템의 클라우드를 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 서버는 소정 지역과 관련된 로컬 서버, 복수의 로컬 서버를 통제하기 위한 글로벌 서버 등을 포함할 수 있으나, 이에 한정되지 않는다.
다시 도 12를 참조하면, 상기 제1 차량은 V2C 시스템을 통해 상기 서버와 데이터 공유를 위한 통신을 수행할 수 있다.
또한, 상기 V2C 시스템은 상기 제1 차량에 포함된 적어도 하나의 센서로부터 획득된 센서 데이터를 상기 서버에 전송하기 위해 구현될 수 있다.
또한, 상기 V2C 시스템은 상기 센서 데이터 외의 정보를 전송하기 위해 구현될 수 있다.
또한, 상기 제1 차량은 상기 서버로부터 사고 사실에 대한 정보를 수신할 수 있다. 예를 들어, 상기 서버는 상기 제1 차량의 경로 상에 교통 사고가 발생한 사실을 나타내는 정보를 상기 V2C 시스템을 통해 상기 제1 차량에 전송할 수 있으나, 이에 한정되지 않는다.
하기에서는 센서 및 통신을 이용한 자율 주행 시스템의 상세한 실시예에 대해서 기술한다.
1.4.2.2. 안전을 위한 자율 주행 시스템 - 센서 및 통신 기반
상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)이 탑재된 차량의 탑승자 및 보행자의 안전을 위해 센서 데이터 및 통신을 통한 공유 데이터를 이용할 수 있다.
이때, 센서 데이터를 이용한 목차 1.4.1.2에 기재된 다양한 실시예는 센서 데이터 및 통신을 통한 공유 데이터를 이용한 자율 주행 시스템에도 적용될 수 있음은 물론이다.
자율 주행 시스템(1000)은 센서 및 통신을 통해 트래픽 이벤트 발생 여부를 감지할 수 있다.
도 13은 일 실시예에 따른 자율 주행 시스템을 탑재한 차량의 전방에 트래픽이벤트가 발생한 상황을 나타내는 도면이다.
도 13을 참조하면, 제1 차량(116)이 주행 중 발생한 트래픽 이벤트에 대한 센서 데이터를 획득한 경우, 상기 제1 차량(116)은 상기 센서 데이터를 서버(400) 또는 상기 트래픽 이벤트와 관련된 차량(117, 118)에 전송할 수 있다.
또한, 제2 차량(117)과 제3 차량(118)간에 충돌로 인한 트래픽 이벤트가 발생한 경우, 상기 트래픽 이벤트와 관련된 차량(117, 118)은 트래픽 이벤트가 발생한 사실을 나타내는 정보를 서버(400)에 전송할 수 있다. 이때, 상기 서버(400)는 상기 트래픽 이벤트가 발생한 영역 주변에 위치하는 제1 차량(116)에 상기 트래픽 이벤트가 발생한 사실을 나타내는 정보를 전송할 수 있다.
또한, 자율 주행 시스템(1000)은 통신을 통해 상기 자율 주행 시스템이 탑재된 차량의 전방에 정차해 있는 차량이 공유 차량임을 인지하고, 상기 공유 차량과의 통신을 통해 상기 공유 차량에 대한 정보를 획득할 수 있다.
예를 들어, 택시 내의 승객이 하차하는 시간 동안 상기 택시가 차량의 통행을 방해할 수 있으므로, 상기 택시는 상기 차량에 현재 상황과 관련된 정보를 전송할 수 있다. 예를 들어, 상기 택시는 상기 차량에 승객이 하차 중인 상황이라는 메시지를 전송할 수 있다. 이때, 상기 차량은 적어도 하나의 센서로부터 획득한 센서 데이터 및 상기 택시로부터 전송된 공유 데이터를 통해 상기 택시가 불법 주차 차량이 아니라고 판단할 수 있다.
또한, 통신의 주체가 택시로 한정되는 것은 아니며, 버스 등 다양한 종류의 공유 차량을 포함할 수 있다.
1.4.2.3. 편의를 위한 자율 주행 시스템 - 센서 및 통신 기반
상기 자율 주행 시스템(1000)은 상기 자율 주행 시스템(1000)을 탑재한 차량의 탑승자 및 보행자의 편의를 위해 센서 데이터 및 통신을 통한 공유 데이터를 이용할 수 있다.
이때, 센서 데이터를 이용한 목차 1.4.1.3에 기재된 다양한 실시예는 센서 데이터 및 통신을 통한 공유 데이터를 이용한 자율 주행 시스템에도 적용될 수 있음은 물론이다.
또한, 자율 주행 시스템은 센서 및 통신을 통해 주차장 내 주차 가능 공간에 대한 정보를 획득할 수 있다.
도 14는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 주차장 내의 인프라 장치와의 통신을 통해 주차 가능 공간을 인지하는 상황을 나타내는 도면이다.
도 14를 참조하면, 주차장 내에는 적어도 하나의 인프라 장치(700)가 배치될 수 있다. 상기 적어도 하나의 인프라 장치(700)는 주차장 내에 주차 가능 공간에 대한 정보를 획득하기 위해 적어도 하나의 센서를 포함할 수 있다. 또한, 상기 인프라 장치(700)는 센서를 통해 획득한 센서 데이터에 포함되는 주차 가능 공간에 대한 정보를 저장할 수 있다.
또한, 제1 차량(119)이 주차장에 진입한 경우, 인프라 장치(700)는 저장된 주차 가능 공간에 대한 정보를 상기 제1 차량(119)에 전송할 수 있다. 이때, 상기 제1 차량의 컨트롤러는 상기 주차 가능 공간에 대한 정보를 기초로 상기 제1 차량(119)을 상기 주차 가능 공간으로 주행할 수 있으며, 이 과정에서 상기 제1 차량(119)에 배치된 센서를 통한 센서 데이터를 이용해 주차 공간을 추가적으로 검출할 수도 있다. 또한, 상기 주차 가능 공간에 대한 정보에 따라 도착한 주차 가능 공간에 실제로 상기 제1 차량(119)이 주차할 수 있는지 여부를 판단하기 위해, 상기 자율 주행 시스템(1000)은 상기 제1 차량(119)에 배치된 적어도 하나의 센서를 이용해 상기 주차 가능 공간에 대한 센서 데이터를 획득하여 주차 가능 여부를 판단할 수 있다.
또한, 주차되어 있던 제2 차량(120)이 출차하는 경우, 상기 제2 차량(120)은 상기 제2 차량(120)이 주차되어 있던 공간에 대한 정보를 상기 인프라 장치(700)에 전송할 수 있다. 이 경우, 상기 인프라 장치(700)는 수신한 상기 제2 차량(120)이 주차되어 있던 공간에 대한 정보를 저장하여 주차 가능 공간을 인지할 수 있다.
이하에서는 센서 데이터 및 공유 데이터에 관해 설명하기로 한다.
2. 자율 주행 시스템에 이용되는 센서 데이터
2.1. 센서의 종류
자율 주행 시스템(1000)은 적어도 하나의 센서(1300)를 포함할 수 있다.
다시 도 2를 참조하면, 상기 적어도 하나의 센서(1300)는 다양한 종류의 센서를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 센서(1300)는 적어도 하나의 라이다 장치(1310), 적어도 하나의 카메라 장치(1320), 적어도 하나의 레이다 장치(1330), 적어도 하나의 초음파 센서(1340)등을 포함할 수 있으나, 이에 한정되지 않는다.
2.2. 센서 데이터
상기 자율 주행 시스템(1000)은 상기 적어도 하나의 센서(1300)를 통해 센서 데이터를 획득할 수 있다. 이때, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)로부터 획득 가능한 원시 데이터 또는 상기 원시 데이터가 가공된 데이터를 포함할 수 있다.
또한, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)에 의해 감지된 객체에 관련된 정보를 포함할 수 있다. 예를 들어, 상기 센서 데이터는 상기 객체의 위치 정보, 상기 객체의 거리 정보, 상기 객체의 형상 및/또는 색상 정보, 상기 객체의 특성 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 센서 데이터는 상기 적어도 하나의 센서(1300)로부터 획득된 단일 포인트에 대한 데이터, 혹은 복수의 포인트에 대한 데이터(즉, 데이터 셋) 또는 상기 단일 포인트에 대한 데이터 또는 상기 복수의 포인트에 대한 데이터를 가공한 가공 데이터를 포함할 수 있다.
구체적인 예로서, 상기 센서 데이터는 포인트 데이터 셋, 포인트 데이터, 서브 포인트 데이터 셋, 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않으며, 상세한 사항은 아래에서 설명한다.
도 15는 일 실시예에 따른 자율 주행 시스템을 탑재한 차량이 적어도 하나의 센서를 통해 차량 주변 환경에 대한 센서 데이터를 획득하는 상황을 나타내는 도면이다.
예를 들어, 상기 센서가 상기 라이다 장치인 경우, 상기 센서 데이터는 상기라이다 장치에 의해 스캔된 각각의 포인트들에 대한 포인트 데이터, 포인트 데이터 셋, 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋을 가공한 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.
이 때, 상기 차량은 상기 포인트 데이터, 포인트 데이터 셋, 서브 포인트 데이터 셋, 또는 속성 데이터 중 적어도 하나를 이용하여 차량 주변의 건물, 차량, 보행자 등을 검출할 수 있다.
설명의 편의를 위하여 도 15 내지 도 84에 대한 설명에서 상기 라이다 장치에 대한 센서 데이터를 중심으로 기술하였지만, 이에 한정되는 것은 아니며 상기 라이다 장치 외 다른 센서에 대한 센서 데이터가 상기 도 15 내지 도 84에 적용될 수 있음을 물론이다.
도 16은 도 15의 차량에 배치된 라이다 장치에 의해 획득된 센서 데이터를 3d 맵 상에 나타내는 도면이다.
도 15 및 도 16을 참조하면, 상기 자율 주행 시스템에 포함된 상기 컨트롤러는 상기 라이다 장치로부터 획득된 데이터를 기초로 3d 포인트 데이터 맵을 형성할 수 있다. 이때, 상기 3d 포인트 데이터 맵은 3d 포인트 클라우드를 의미할 수 있다. 또한, 상기 센서 데이터는 상기 3d 포인트 데이터 맵에 포함된 데이터를 포함할 수 있다. 또한, 상기 3d 포인트 데이터 맵의 원점(O)의 위치는 상기 라이다 장치의 광학 원점에 대응될 수 있으나, 이에 한정되지 않고, 상기 라이다 장치의 무게 중심 위치 또는 상기 라이다 장치가 배치된 차량의 무게 중심 위치에 대응될 수도 있다.
도 17은 도 16의 3d 맵에 포함된 센서 데이터를 2차원 평면 상에 간략히 나타낸 도면이다.
도 17을 참조하면, 상기 센서 데이터(2000)는 2차원 평면 상에 표현될 수 있다. 예를 들어, 상기 센서 데이터는 xz 평면 상에 표현될 수 있으나, 이에 한정되지 않는다.
또한, 본 명세서에서 상기 센서 데이터는 상기 2차원 평면 상에 표현되지만, 실제로는 3d 맵 상의 데이터를 간략히 표현하기 위한 것일 수 있다.
또한, 상기 센서 데이터(2000)는 데이터 시트(sheet) 형태로 표현될 수 있다. 상기 센서 데이터(2000)에 포함되는 복수의 정보는 상기 데이터 시트 상에 수치(value)로서 표현될 수 있다.
이하에서는 상기 센서 데이터에 포함되는 다양한 형태의 데이터의 의미와 상기 센서 데이터에 대한 상세한 설명을 기술한다.
2.2.1. 포인트 데이터
상기 센서 데이터(2000)는 포인트 데이터를 포함할 수 있다. 이때, 상기 포인트 데이터는 상기 적어도 하나의 센서(1300)가 객체를 감지함에 따라, 1차적으로 획득할 수 있는 데이터를 나타낼 수 있다. 또한, 상기 포인트 데이터는 상기 적어도 하나의 센서로부터 획득된 최초의 정보를 가공하지 않은 원시 데이터를 의미할 수 있다.
예를 들어, 상기 센서가 라이다 장치인 경우, 상기 포인트 데이터는 상기 라이다 장치로부터 획득된 포인트 클라우드에 포함되는 하나의 포인트에 대응될 수 있다.
도 18은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 포인트 데이터를 설명하기 위한 도면이다.
도 18을 참조하면, 상기 라이다 장치가 객체의 적어도 일부를 스캔함에 따라 상기 포인트 데이터(2001)가 획득될 수 있고, 상기 포인트 데이터(2001)는 위치 좌표(x,y,z)를 포함할 수 있다.또한, 실시예에 따라, 상기 포인트 데이터(2001)는 인텐시티 값(I)을 더 포함할 수 있다.
이때, 상기 위치 좌표(x,y,z)는 상기 라이다 장치에 의해 획득된 상기 객체의 적어도 일부까지의 거리 정보에 기초하여 생성될 수 있다. 보다 구체적으로, 상기 라이다 장치는 레이저 방출 시점과 반사된 레이저의 수신된 시점을 기초로 상기 객체의 적어도 일부까지의 거리를 계산할 수 있다. 또한, 상기 라이다 장치는 상기 거리를 기초로 상기 라이다 장치의 광학 원점을 기준으로 하는 직교 좌표계에 상기 객체의 적어도 일부에 대한 위치 좌표를 생성할 수 있다.
또한, 상기 인텐시티 값(I)은 상기 라이다 장치에 의해 획득된 상기 객체의 적어도 일부의 반사율에 기초하여 생성될 수 있다. 보다 구체적으로, 동일한 거리에 있는 객체라도 반사율에 따라 상기 라이다 장치에서 수신되는 신호의 크기(또는 강도)가 달라지므로, 상기 라이다 장치는 상기 수신되는 신호의 크기(또는 강도)를 기초로 상기 객체의 적어도 일부의 인텐시티 값을 생성할 수 있다.
또한, 상기 포인트 데이터(2001)의 개수는 상기 라이다 장치로부터 방출된 레이저가 객체로부터 산란되어 상기 라이다 장치에 수광되는 레이저의 개수에 대응될 수 있다.
보다 구체적으로, 상기 라이다 장치로부터 방출된 레이저가 상기 객체의 적어도 일부에 산란되어 상기 라이다 장치에 수신되는 경우, 상기 라이다 장치는 상기 레이저가 수신될 때마다, 수신되는 레이저에 대응하는 신호를 처리하여 상기 포인트 데이터(2001)를 생성할 수 있다.
또한, 이에 한정되지 않고 상기 센서가 카메라 장치인 경우, 상기 센서 데이터(2000)는 상기 포인트 데이터(2001)를 포함할 수 있다.
이때, 상기 포인트 데이터(2001)는 상기 카메라 장치로부터 획득된 하나의 픽셀에 대응할 수 있다. 보다 구체적으로, 상기 포인트 데이터(2001)는 상기 카메라 장치에 포함된 RGB센서를 통해 획득된 하나의 픽셀에 대응될 수 있다. 예를 들어, 카메라의 수광부에 복수의 픽셀이 존재하는 경우, 상기 포인트 데이터(2001)는 각 픽셀들 마다 생성되며, 상기 포인트 데이터(2001)는 각 픽셀들의 위치에 대응되는 객체의 위치정보 및 각 픽셀들의 픽셀값(예를 들어, RGB 센서의 경우 RGB 색상 값)을 포함할 수 있다.
또한, 상기 포인트 데이터(2001)는 상기 카메라 장치로부터 획득된 형상 및/또는 색상 정보를 포함할 수 있다.
또한, 이에 한정되지 않고 상기 센서가 레이다 장치인 경우, 상기 포인트 데이터(2001)는 상기 레이다 장치로부터 획득된 하나의 포인트에 대응할 수 있다. 보다 구체적으로, 상기 포인트 데이터(2001)는 상기 레이다 장치로부터 획득된 위치 좌표를 포함할 수 있다.
예를 들어, 레이다는 복수의 송신 안테나 각각에서 복수의 전파를 전송하고, 전송된 전파가 객체에 산란되어 되돌아올 경우, 복수의 수신 안테나에서 되돌아오는 복수의 전파를 수신할 수 있다. 이 때, 레이다는 수신된 복수의 전파 각각에 대하여 객체의 위치정보를 획득할 수 있고, 상기 포인트 데이터(2001)는 상기 복수의 전파 중 하나의 전파에 대한 객체의 위치정보를 나타낼 수 있다.
2.2.2. 포인트 데이터 셋
상기 센서 데이터는 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 다수의 상기 포인트 데이터(2001)를 포함할 수 있다. 또한, 상기 포인트 데이터 셋(2100)은 하나의 프레임에 포함될 수도 있고, 실시예에 따라 다수의 프레임에 포함될 수도 있다.
예를 들어, 상기 센서가 라이다 장치인 경우, 상기 센서 데이터는 포인트 데이터 셋(2100)을 포함할 수 있으며, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치로부터 획득된 1 프레임의 포인트 클라우드에 대응될 수 있다.
도 19는 도 16의 차량에 포함되는 라이다 장치로부터 획득된 포인트 데이터 셋을 설명하기 위한 도면이다.
도 19를 참조하면, 도 19에 도시된 포인트 데이터 셋(2100)은 상기 라이다 장치로부터 획득될 수 있다.
또한, 상기 포인트 데이터 셋(2100) 상기 라이다 장치가 상기 라이다 장치의 시야각을 1회 스캔함에 따라 생성되는 복수의 포인트 데이터를 의미할 수 있다. 예를 들어, 상기 라이다 장치의 수평 시야각이 180도인 경우, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치가 180도를 한번 스캔함에 따라 획득하는 모든 포인트 데이터를 의미할 수 있다.
또한, 상기 포인트 데이터 셋(2100)은 상기 라이다 장치의 시야각 내에 포함되는 객체의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 포함할 수 있다. 또한, 상기 포인트 데이터 셋(2100)에 포함되는 포인트 데이터(2001)의 위치 좌표(x,y,z) 및 인텐시티 값(I)은 데이터 시트 상에 표현될 수 있다.
또한, 상기 포인트 데이터 셋(2100)은 노이즈 데이터를 포함할 수 있다. 상기 노이즈 데이터는 상기 라이다 장치의 시야각 내에 위치하는 객체와 관련없이 외부 환경에 의해 생성될 수 있다. 예를 들어, 상기 노이즈 데이터는 라이다 간 간섭에 따른 노이즈, 햇빛 등 주변광에 의한 노이즈, 측정 가능 거리를 벗어난 객체에 의한 노이즈 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 포인트 데이터 셋(2100)은 배경 정보를 포함할 수 있다. 상기 배경 정보는 상기 포인트 데이터 셋(2100)에 포함된 복수의 포인트 데이터 중 객체와 관련되지 않은 적어도 하나의 포인트 데이터를 의미할 수 있다. 또한, 상기 배경 정보는 상기 라이다 장치를 포함하는 자율 주행 시스템에 미리 저장되어 있을 수 있다. 예를 들어, 상기 배경 정보는 건물과 같은 정적 객체(또는, 위치가 고정된 고정형 객체)에 대한 정보를 포함할 수 있고, 상기 배경 정보는 상기 라이다 장치를 포함하는 자율 주행 시스템에 맵의 형태로 미리 저장될 수 있다.
또한, 이에 한정되지 않고, 상기 센서가 카메라 장치인 경우에도, 상기 센서 데이터(2000)는 상기 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 상기 카메라 장치로부터 획득된 하나의 프레임에 대응할 수 있다. 또한, 상기 포인트 데이터 셋(2100)은 상기 카메라 장치로부터 획득된 상기 카메라 장치의 시야각 내의 모든 픽셀에 대응될 수 있다. 보다 구체적으로, 상기 카메라 장치는 주변을 촬상하여 상기 카메라 장치의 시야각 내에 포함되는 객체들의 형상 및/또는 색상 정보를 나타내는 한 프레임의 포인트 데이터 셋(2100)을 생성할 수 있다.
예를 들어, 카메라의 수광부에 복수의 픽셀이 존재하는 경우, 상기 포인트 데이터 셋(2100)은 상기 복수의 픽셀 각각에 생성된 복수의 상기 포인트 데이터(2001)를 포함할 수 있다.
또한, 이에 한정되지 않고, 상기 센서가 레이다 장치인 경우에도, 상기 센서 데이터(2000)는 상기 포인트 데이터 셋(2100)을 포함할 수 있다. 이때, 상기 포인트 데이터 셋(2100)은 상기 레이다 장치로부터 획득된 상기 레이다 장치의 시야각 내의 모든 객체의 위치 좌표를 포함할 수 있다.
예를 들어, 상기 포인트 데이터 셋(2100)은 레이다에 수신된 복수의 전파 각각에 대응하는 복수의 상기 포인트 데이터(2001)를 포함할 수 있다.
2.2.3. 서브 포인트 데이터 셋
다시 도 19를 참조하면, 상기 센서 데이터(2000)는 서브 포인트 데이터 셋(2110)을 포함할 수 있다. 이때, 상기 서브 포인트 데이터 셋(2110)은 동일한 객체를 나타내는 복수의 포인트 데이터(2001)를 의미할 수 있다. 예를 들어, 상기 포인트 데이터 셋(2100)이 차량을 나타내는 복수의 포인트 데이터를 포함하는 경우, 상기 복수의 포인트 데이터는 하나의 서브 포인트 데이터 셋(2110)을 구성할 수 있다.
또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함될 수 있다. 또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 적어도 하나의 객체 또는 하나의 객체의 적어도 일부를 나타낼 수 있다. 보다 구체적으로, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터 중 제1 객체를 나타내는 복수의 포인트 데이터를 의미할 수 있다.
또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터 중 동적 객체와 관련된 적어도 하나의 포인트 데이터의 군집화(clustering)를 통해 획득될 수 있다. 보다 구체적으로, 상기 배경 정보를 활용하여 상기 포인트 데이터 셋(2100)에 포함되는 정적 객체 및 동적 객체(또는 이동형 객체)를 검출한 후, 하나의 객체와 관련된 데이터를 일정 군집으로 묶음으로써 상기 서브 포인트 데이터 셋(2110)을 획득할 수 있다.
또한, 상기 서브 포인트 데이터 셋(2110)은 머신러닝을 이용하여 생성될 수 있다. 예를 들어, 컨트롤러(1100)는 다양한 객체에 대하여 학습된 머신 러닝을 기초로, 상기 센서 데이터(2000)에 포함된 복수의 데이터 중 적어도 일부가 동일한 객체를 나타낸다고 판단할 수 있다.
또한, 상기 서브 포인트 데이터 셋(2110)은 상기 포인트 데이터 셋(2100)을 분할(segmentation)함으로써 생성될 수 있다. 이때, 컨트롤러(1100)는 상기 포인트 데이터 셋(2100)을 소정의 세그먼트 단위로 분할할 수 있다. 또한, 상기 분할된 포인트 데이터 셋 중 적어도 하나의 세그먼트 단위는 상기 포인트 데이터 셋(2100)에 포함되는 제1 객체의 적어도 일부를 나타낼 수 있다. 또한, 상기 제1 객체를 나타내는 복수의 세그먼트 단위는 상기 서브 포인트 데이터 셋(2110)에 대응될 수 있다.
예를 들어, 상기 센서가 라이다 장치인 경우, 상기 서브 포인트 데이터 셋(2110)은 상기 라이다 장치로부터 획득된 포인트 데이터 셋(2100)에 포함되는 제1 객체와 관련된 복수의 포인트 데이터에 대응될 수 있다.
도 20은 일 실시예에 따른 자율 주행 시스템에 포함된 적어도 하나의 라이다 장치로부터 획득된 서브 포인트 데이터 셋을 설명하기 위한 도면이다.
도 20을 참조하면, 상기 포인트 데이터 셋(2100)은 복수의 서브 포인트 데이터 셋(2110, 2120, 2130, 2140, 2150)을 포함할 수 있다.
상기 복수의 서브 포인트 데이터 셋(2110, 2120, 2130, 2140, 2150)은 객체의 적어도 일부를 나타내는 복수의 포인트 데이터를 포함할 수 있다. 여기서, 컨트롤러(1100)는 상기 복수의 포인트 데이터(2001)의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 기초로, 상기 복수의 포인트 데이터(2001)가 동일한 객체의 적어도 일부를 나타낸다고 판단할 수 있다. 이에 따라, 상기 컨트롤러(1100)는 상기 복수의 포인트 데이터(2001)를 서브 포인트 데이터 셋으로 정의할 수 있고, 상기 서브 포인트 데이터 셋을 기초로 객체에 대한 속성 데이터를 생성할 수 있다.
예를 들어, 제1 서브 포인트 데이터 셋(2110)은 '사람'의 적어도 일부를 나타낼 수 있고, 제2 서브 포인트 데이터 셋(2120)은 '차량'의 적어도 일부를 나타낼 수 있고, 제3 서브 포인트 데이터 셋(2130)은 '중앙선'의 적어도 일부를 나타낼 수 있고, 제4 서브 포인트 데이터 셋(2140)은 '길가장자리 구역선'의 적어도 일부를 나타낼 수 있고, 제5 서브 포인트 데이터 셋(2150)은 '차로 경계선'의 적어도 일부를 나타낼 수 있고, 제6 서브 포인트 데이터 셋(2160)은 '건물'의 적어도 일부를 나타낼 수 있으나, 이에 한정되지 않는다.
이때, 제1 서브 포인트 데이터 셋(2110)은 동일한 '사람'의 적어도 일부를 나타낼 수 있다. 구체적으로, 상기 제1 서브 포인트 데이터 셋(2110)은 상기 제1 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터의 위치 좌표(x,y,z) 및 인텐시티 값(I)을 포함할 수 있다. 이때, 상기 복수의 포인트 데이터는 상기 '사람'의 적어도 일부를 나타내는 하나의 서브 포인트 데이터 셋(2110)을 구성할 수 있다.
2.2.4. 속성 데이터
상기 센서 데이터(2000)는 속성 데이터(2200)를 포함할 수 있다. 이때, 상기 속성 데이터(2200)는 적어도 하나의 서브 포인트 데이터 셋(2110)을 기초로 결정될 수 있다. 보다 구체적으로, 상기 속성 데이터(2200)는 상기 적어도 하나의 서브 포인트 데이터 셋(2110)이 나타내는 객체의 종류, 크기, 속도, 방향 등 상기 객체의 다양한 속성에 대한 정보를 포함할 수 있다. 또한, 상기 속성 데이터(2200)는 상기 적어도 하나의 서브 포인트 데이터 셋(2110)의 적어도 일부분을 가공한 데이터일 수 있다.
예를 들어, 상기 센서가 상기 라이다 장치인 경우, 상기 센서 데이터(2000)는 속성 데이터(도 21의 도면부호 2200 참조)를 포함할 수 있으며, 상기 속성 데이터는 상기 라이다 장치로부터 획득된 상기 포인트 데이터 셋(2100)에 포함되는 상기 서브 포인트 데이터 셋(2110)에 기초하여 생성될 수 있다.
또한, 상기 포인트 데이터 셋(2100)에 포함되는 상기 서브 포인트 데이터 셋(2110)으로부터 상기 속성 데이터(2200)를 생성하는 프로세스는 PCL library 알고리즘을 이용할 수 있다.
일 예로, 상기 PCL(Point Cloud Library)알고리즘을 이용한 상기 속성 데이터(2200) 생성과 관련된 제1 프로세스는 포인트 데이터 셋을 전처리 하는 단계, 배경 정보를 제거하는 단계, 특징점을 검출(feature/keypoin detection)하는 단계, 기술자(descriptor)를 정의하는 단계, 특징점을 매칭하는 단계, 및 객체의 속성을 추정하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.
이때, 상기 포인트 데이터 셋을 전처리 하는 단계는 포인트 데이터 셋을 PCL알고리즘에 적합한 형태로 가공하는 것을 의미할 수 있고, 상기 제1 프로세스에서 상기 포인트 데이터 셋(2100)에 포함되되 객체의 속성 데이터 추출과 관련되지 않은 포인트 데이터가 제거될 수 있다. 예를 들어, 상기 데이터를 전처리 하는 단계는 상기 포인트 데이터 셋(2100)에 포함되는 노이즈 데이터를 제거하는 단계 및 상기 포인트 데이터 셋(2100)에 포함되는 복수의 포인트 데이터를 리샘플링하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 배경 정보를 제거하는 단계를 통해, 상기 제1 프로세스에서 상기 포인트 데이터 셋(2100)에 포함된 상기 배경 정보가 제거되어 객체와 관련된 서브 포인트 데이터 셋(2110)이 추출될 수 있다.
또한, 상기 특징점을 검출하는 단계를 통해, 상기 제1 프로세스에서 상기 배경 정보를 제거하고 남은 객체와 관련된 상기 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터 중 상기 객체의 형상적인 특징을 잘 나타내는 특징점이 검출될 수 있다.
또한, 상기 기술자를 정의하는 단계를 통해, 상기 제1 프로세스에서 검출된 특징점들에 대해 해당 특징점 고유의 특성을 설명할 수 있는 기술자가 정의될 수 있다.
또한, 상기 특징점을 매칭하는 단계를 통해, 상기 제1 프로세스에서 상기 객체와 관련된 미리 저장된 템플릿 데이터에 포함된 특징점들의 기술자와 상기 서브 포인트 데이터 셋(2110)의 특징점들의 기술자를 비교해 대응되는 특징점이 선정될 수 있다.
또한, 상기 객체의 속성을 추정하는 단계를 통해, 상기 제1 프로세스에서 선정된 특징점들의 기하적인 관계를 이용해 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체가 검출되고, 상기 속성 데이터(2200)가 생성될 수 있다.
다른 예로, 상기 속성 데이터(2200) 생성과 관련된 제2 프로세스는 데이터를 전처리 하는 단계, 객체에 대한 데이터를 검출하는 단계, 객체에 대한 데이터를 군집화(clustering)하는 단계, 군집 데이터를 분류하는 단계, 및 객체를 추적하는 단계 등을 포함할 수 있으나, 이에 한정되지 않는다.
이때, 상기 객체에 대한 데이터를 검출하는 단계를 통해, 상기 제2 프로세스에서 미리 저장된 배경 데이터를 활용하여 상기 포인트 데이터 셋(2100)에 포함된 복수의 포인트 데이터 중 객체를 나타내는 복수의 포인트 데이터가 추출될 수 있다.
또한, 상기 객체에 대한 데이터를 군집화하는 단계를 통해, 상기 제2 프로세스에서, 상기 복수의 포인트 데이터 중 하나의 객체를 나타내는 적어도 하나의 포인트 데이터를 군집화하여 서브 포인트 데이터 셋(2110)이 추출될 수 있다.
또한, 상기 군집 데이터를 분류하는 과정을 통해, 상기 제2 프로세스에서 사전에 학습된 머신러닝 모델 또는 딥러닝 모델을 이용해 상기 서브 포인트 데이터 셋(2110)의 클래스 정보가 분류되거나 판단될 수 있다.
또한, 상기 객체를 추적하는 단계를 통해, 상기 제2 프로세스에서 상기 서브 포인트 데이터 셋(2110)을 기초로 상기 속성 데이터(2200)가 생성될 수 있다. 예를 들어, 상기 제2 프로세스를 수행하는 컨트롤러는 복수의 서브 포인트 데이터 셋(2110)의 중심 위치 좌표 및 볼륨 등으로 객체의 위치를 표시할 수 있다. 이에 따라, 연속되는 프레임에서 획득된 복수의 서브 포인트 데이터 셋들 간의 거리 및 형상의 유사도 정보를 바탕으로 대응 관계를 정의해 상기 객체를 추적함으로써 상기 객체의 이동 방향 및 속도 등을 추정할 수 있다.
도 21은 일 실시예에 따른 자율 주행 시스템에 포함되는 라이다 장치로부터 획득된 서브 포인트 데이터로부터 생성된 속성 데이터를 설명하기 위한 도면이다.
도 21을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)에 대해서 생성될 수 있다. 보다 구체적으로, 하나의 객체의 적어도 일부를 나타내는 상기 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)마다 상기 속성 데이터(2200)가 부여될 수 있다.
예를 들어, 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)에 포함되는 각각의 포인트 데이터(2001)에 대해 상기 서브 포인트 데이터 셋의 속성 데이터(2200)가 생성될 수 있다. 이때, 상기 속성 데이터(2200)는 상기 사람의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 상기 속성 데이터에 포함되는 복수의 정보에 대해서는 하기에서 상세하게 설명한다.
도 22는 도 21의 속성 데이터의 다른 일 실시예를 나타내는 도면이다.
도 22를 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터에 대해서 공통으로 생성될 수 있다. 즉, 하나의 객체의 적어도 일부를 나타내는 하나의 상기 서브 포인트 데이터 셋(2110)에 대해서 하나의 속성 데이터(2200)가 생성될 수 있다.
예를 들어, 상기 객체가 사람인 경우, 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋에 포함되는 복수의 포인트 데이터에 대해 하나의 속성 데이터가 생성될 수 있다.
도 23은 일 실시예에 따른 속성 데이터에 포함되는 복수의 정보를 설명하기 위한 도면이다.
도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 클래스 정보(2210), 중심 위치 정보(2220), 사이즈 정보(2230), 형상 정보(2240), 이동 정보(2250), 식별 정보(2260) 등을 포함할 수 있으나, 이에 한정되지 않는다.
상기 속성 데이터(2200)에 포함되는 복수의 정보에 관한 내용은 하기에서 상세히 설명한다.
상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 클래스를 나타내는 클래스 정보(2210)를 포함할 수 있다.
도 24는 일 실시예에 따른 속성 데이터에 포함되는 클래스 정보를 설명하기 위한 도면이다.
도 24를 참조하면, 상기 클래스 정보(2210)는 객체의 타입과 관련된 클래스, 객체의 일부분의 타입과 관련된 클래스, 객체가 포함된 영역의 상황과 관련된 클래스 등을 포함할 수 있으나, 이에 한정되지 않는다.
이때, 상기 클래스 정보(2210)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 타입과 관련될 수 있다.
이때, 객체의 타입과 관련된 클래스 정보는 상기 객체가 어떤 종류의 객체인지에 따라 결정될 수 있다. 예를 들어, 상기 객체가 사람인 경우, 상기 서브 포인트 데이터 셋의 상기 클래스 정보(2210)는 '사람(Human)'으로 결정될 수 있으나, 이에 한정되지 않고, 사람에 대한 하위 클래스로 결정될 수 있다. 구체적인 예로, 상기 객체가 남성인 경우, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)는 '남성'으로 결정될 수 있다. 또한, 상기 사람에 대한 하위 클래스는 '여성'. '아이', '노인', '보행자(Pedestrian)' 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 클래스 정보(2210)는 상기 객체의 일부분의 타입과 관련될 수 있다. 보다 구체적으로, 상기 객체의 일부분의 타입과 관련된 클래스는 상기 포인트 데이터 셋(2100)이 상기 객체의 일부분을 나타내는 서브 포인트 데이터 셋(2110)을 포함하는 경우, 상기 컨트롤러(1100)는 상기 서브 포인트 데이터 셋(2110)이 상기 객체의 일부분을 나타낸다고 결정할 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋(210)이 사람의 팔을 나타내는 경우, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)는 '사람(Human)'으로 결정될 수도 있으나,'사람의 팔'로 결정될 수도 있다.
또한, 상기 클래스 정보(2210)는 상기 객체가 포함된 영역의 상황과 관련될 수 있다. 이때, 객체가 포함된 영역의 상황과 관련된 클래스는 복수의 서브 포인트 데이터 셋을 기초로 결정될 수 있다. 보다 구체적으로, 컨트롤러(1100)는 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)을 기초로 상기 객체의 클래스 정보(2210)를 결정할 수 있으나, 상기 서브 포인트 데이터 셋(2210)과 다른 복수의 서브 포인트 데이터 셋을 함께 고려하여 상기 객체가 포함된 영역의 상황과 관련된 클래스 정보를 결정할 수 있다.
구체적인 예로, 라이다 장치가 공사 현장에서 포크레인 및 작업 중인 작업자의 적어도 일부를 나타내는 복수의 서브 포인트 데이터 셋을 획득한 경우, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋을 기초로 상기 포크레인 및 작업자의 클래스 정보를 '공사 현장'으로 결정할 수 있다.
또한, 상기 클래스 정보(2210)는 자율 주행 시스템(1000)에 미리 저장된 룩업 테이블을 기초로 결정될 수 있다.
보다 구체적으로, 상기 자율 주행 시스템(1000)은 객체와 상기 객체의 클래스 정보(2210)를 대응시키는 룩업 테이블을 미리 생성하여 저장할 수 있다. 이때, 컨트롤러(1100)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)를 상기 룩업 테이블을 기초로 결정할 수 있다.
이때, 상기 룩업 테이블은 상기 객체가 포함된 영역의 상황과 관련된 클래스를 결정하는데 이용될 수 있다. 예를 들어, 상기 룩업 테이블은 복수의 객체의 클래스 정보를 상기 복수의 객체가 포함되는 영역의 상황과 관련된 클래스에 대응시킬 수 있다. 구체적인 예로, 상기 복수의 객체의 클래스 정보가 '작업자', '포크레인', '공사 표지판' 중 적어도 일부를 포함하는 경우, 상기 룩업 테이블은 상기 복수의 클래스 정보를 상기 복수의 객체가 포함되는 영역의 상황과 관련된 클래스인 '공사 현장'에 대응시킬 수 있다. 이 경우, 컨트롤러는 상기 룩업 테이블을 이용하여 상기 복수의 객체의 클래스를 '공사 현장'으로 결정할 수 있다.
또한, 상기 클래스 정보(2210)는 머신러닝을 이용해 결정될 수 있다. 보다 구체적으로, 상기 자율 주행 시스템(1000)은 상기 서브 포인트 데이터 셋(2110)과 상기 서브 포인트 데이터 셋이 나타내는 객체를 반복적으로 대응시킴으로써 대응 관계를 미리 학습할 수 있고, 이에 기초하여 상기 객체의 상기 클래스 정보(2210)를 결정할 수 있다.
또한, 상기 클래스 정보(2210)는 적어도 하나의 클래스를 포함할 수 있다. 일 예로, 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보(2210)를 하나의 클래스(예를 들어, '사람(Human)')으로 결정할 수 있다. 또한, 다른 일 예로 상기 클래스 정보(2210)에 하나의 클래스가 아닌 복수의 클래스(예를 들어, '사람(Human) 및 '공사 현장(Construction Area)')가 포함될 수 있다.
또한, 상기 클래스 정보(2210)는 적어도 하나의 클래스를 포함하는 클래스 군을 포함할 수 있다. 여기서, 상기 클래스 군은 유사하거나 공통적인 특징을 가지는 클래스들의 집단을 의미할 수 있다. 이때, 상기 클래스 군은 컨트롤러 혹은 사용자에 의해 미리 설정되어 저장될 수 있으나, 이에 한정되지 않는다.
일 예로, '사람', '차량의 번호판', 또는 '신분증' 등의 클래스들은 개인 정보와 관련된다는 공통적인 특징이 있으므로, 상기 사람', '차량의 번호판', 또는 '신분증' 등의 클래스들은 개인정보와 관련된 클래스 군을 구성할 수 있다. 다른 예로, '사람', '차량' 등의 클래스들은 이동형 객체와 관련된다는 공통적인 특징이 있으므로, 상기 '사람', '차량' 등의 클래스들은 이동형 객체와 관련된 클래스 군을 구성할 수 있다.
또한 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 중심 위치 정보(2220)를 포함할 수 있다.
도 25는 일 실시예에 따른 속성 데이터에 포함되는 중심 위치 정보를 설명하기위한 도면이다.
도 25를 참조하면, 상기 중심 위치 정보(2220)는 상기 포인트 데이터 셋(2100)에 포함된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 중심 위치 정보(2200)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 상기 포인트 데이터 각각의 위치 좌표(x,y,z)의 중심 위치 좌표(x0,y0,z0)를 의미할 수 있다. 이때, 상기 중심 위치 좌표(x0,y0,z0)는 상기 복수의 포인트 데이터의 위치 좌표(x,y,z)에 대한 평균값을 나타내는 좌표일 수 있으나, 상기 중심 위치 좌표(x0,y0,z0)를 계산하는 방법은 이에 한정되지 않고 다양한 방법이 이용될 수 있다.
또한, 상기 중심 위치 정보(2220)는 적어도 하나의 기준 위치를 원점으로 하는 좌표계 상에 표현될 수 있다. 예를 들어, 상기 기준 위치는 포인트 데이터를 획득한 라이다 장치의 위치, 상기 라이다 장치가 배치된 장치의 위치 등을 포함할 수 있고, 상기 중심 위치 정보(2200)는 상기 기준 위치를 원점으로 하는 좌표계 상에 표현될 수 있으나, 이에 한정되지 않는다. 상기 좌표계 및 기준이 되는 원점에 대한 상세한 내용은 하기에서 설명한다.
또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 사이즈 정보(2230)를 포함할 수 있다.
도 26은 일 실시예에 따른 속성 데이터에 포함되는 사이즈 정보를 설명하기 위한 도면이다.
도 26을 참조하면, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 크기에 대응될 수 있다.
이때, 상기 사이즈 정보(2230)는 상기 포인트 데이터 셋(2100)에 포함된 객체의 적어도 일부를 나타내는 상기 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)이 상기 포인트 데이터 셋(2100) 상에서 차지하는 부피에 기초하여 계산될 수 있다. 보다 구체적으로, 컨트롤러(1100)는 상기 서브 포인트 데이터 셋(2110)이 상기 3d 포인트 데이터 셋(2100)상에서 차지하는 공간을 추출할 수 있으며, 추출된 공간의 부피를 계산함으로써 상기 객체의 사이즈 정보(2230)을 계산할 수 있다.
또한, 상기 사이즈 정보(2230)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터의 위치 정보에 기초하여 계산될 수 있다. 보다 구체적으로, 복수의 포인트 데이터들이 객체의 표면을 나타내기 때문에, 상기 객체의 표면을 나타내는 포인트 데이터의 위치 정보를 이용하여 객체의 부피를 계산함으로써, 상기 사이즈 정보(2230)가 획득될 수 있다.
또한, 상기 사이즈 정보(2230)는 상기 중심 위치 정보(2220) 및 상기 서브 포인트 데이터 셋(2110)을 기초로 계산될 수 있다. 예를 들어, 상기 사이즈 정보(2230)는 상기 중심 위치 정보(2220)에 포함되는 중심 위치 좌표(x0,y0,z0) 를 중심으로 하고 상기 서브 포인트 데이터 셋(2110)의 너비, 폭, 높이에 각각 대응되는 가로, 세로, 높이를 가지는 직육면체 형상의 부피를 계산함으로써 생성될 수 있다. 물론, 실시예에 따라 직육면체 뿐만 아니라, 정육면체, 다면체, 구형, 타원구형 등 다양한 형상의 부피를 계산하여 상기 사이즈 정보(2230)이 계산될 수 있다.
또한, 도23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 형상 정보(2240)를 포함할 수 있다.
이때, 상기 형상 정보(2240)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 형상을 나타낼 수 있다. 여기서, 객체의 형상은 객체의 실제 형상을 포함할 수도 있고, 상기 객체의 형상을 가공하여 표현한 가공 형상을 포함할 수도 있다. 여기서, 상기 가공 형상은 객체의 실제 형상을 유사하게 표현한 유사 형상 및 객체의 실제 형상과 다르지만, 객체의 존재를 나타내기 위한 임의적인 형상을 포함할 수 있다.
예를 들어, 상기 형상 정보(2240)는 상기 임의적인 형상을 나타내는 것으로서, 상기 객체를 미리 결정된 형상으로 나타낸 템플릿 정보(2241)를 포함할 수 있고, 상기 유사 형상을 나타내는 것으로서, 상기 객체를 소정 개수 이하의 포인트로 나타낸 스켈레톤 정보(2242)를 포함할 수 있으나, 이에 한정되지 않는다.
도 27은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 템플릿 정보를 설명하기 위한 도면이다.
도 27을 참조하면, 상기 템플릿 정보(2241)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체를 미리 결정된 형상으로 나타낼 수 있다. 보다 구체적으로, 상기 템플릿 정보(2241)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)에 기초하여, 상기 클래스 정보(2210)에 대응되는 미리 결정된 형상을 나타낼 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋의 클래스 정보(2210)가 사람과 관련된 경우, 상기 템플릿 정보(2241)는 사람의 형상을 가진 미리 결정된 형상에 대응될 수 있으나, 이에 한정되지 않는다.
또한, 상기 템플릿 정보(2241)는 자율 주행 시스템(1000)에 미리 저장되어 있을 수 있다. 구체적으로, 상기 자율 주행 시스템(1000)은 객체의 클래스 정보(2210)에 대응되는 템플릿 정보(2241)를 미리 저장하거나 외부 서버로부터 획득할 수 있다.
도 28은 일 실시예에 따른 속성 데이터에 포함되는 형상 정보 중 스켈레톤 정보를 설명하기 위한 도면이다.
도 28을 참조하면, 상기 스켈레톤 정보(2242)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체를 소정 개수 이하의 포인트를 이용하여 나타낼 수 있다. 보다 구체적으로, 상기 스켈레톤 정보(2242)는 상기 서브 포인트 데이터 셋의 클래스 정보(2210)에 기초하여, 상기 객체의 형상을 표현할 수 있는 최소 개수의 포인트를 이용하여 상기 객체의 형상을 나타낼 수 있다. 예를 들어, 상기 서브 포인트 데이터 셋의 클래스 정보가 사람과 관련된 경우, 상기 스켈레톤 정보는 상기 사람의 관절 부위에 대응되는 복수의 포인트에 대응될 수 있으나, 이에 한정되지 않는다.
또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 이동 정보(2250)를 포함할 수 있다. 이때, 상기 이동 정보(2250)는 상기 서브 포인트 데이터 셋(2110)이 나타내는 객체의 이동 방향, 속도, 트래킹 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 이동 정보(2250)는 연속되는 프레임에서 동일한 객체의 위치에 대한 대응 관계를 정의함으로써 생성될 수 있다. 여기서, 연속되는 프레임에서 동일한 객체의 위치에 대한 대응 관계를 정의한다는 것은, 연속되는 프레임들 각각에서 동일한 객체를 특정하고, 특정된 객체 각각의 위치 정보를 획득하고, 획득된 위치 정보들을 상기 특정된 객체의 시간에 따른 위치로 연관시키는 것을 의미할 수 있다.
예를 들어, 상기 이동 정보(2250)는 소정의 알고리즘을 통해 컨트롤러(1100)에서 생성될 수 있다. 상기 알고리즘은 적어도 하나의 센서의 제1 프레임에 대응되는 제1 포인트 데이터 셋을 획득하는 단계, 상기 제1 프레임에 연속되는 제2 프레임에 대응되는 제2 포인트 데이터 셋을 획득하는 단계, 상기 제1 포인트 데이터 셋에 포함되는 제1 객체를 나타내는 제1 서브 포인트 데이터 셋을 추출하는 단계, 상기 제2 포인트 데이터 셋에 포함되는 상기 제1 객체를 나타내는 제2 서브 포인트 데이터 셋을 추출하는 단계, 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 거리 또는 형상의 유사도를 기초로 각각의 서브 포인트 데이터 셋 사이의 대응 관계를 정의하는 단계, 상기 각각의 서브 포인트 데이터 셋의 위치 정보를 기초로 상기 제1 객체의 이동 방향 및 속도 등을 생성하는 단계를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 생성된 상기 제1 객체의 이동 방향 및 속도를 연속되는 복수의 프레임에 대해 누적함으로써, 상기 컨트롤러(1100)는 상기 제1 객체의 트래킹 정보를 생성할 수 있다.
또한, 도 23을 참조하면, 상기 속성 데이터(2200)는 상기 서브 포인트 데이터 셋의 식별 정보(2260)를 포함할 수 있다. 이때, 상기 식별 정보(2260)는 서브 포인트 데이터 셋(2110)을 다른 서브 포인트 데이터 셋과 구별하기 위해 생성될 수 있다.
또한, 상기 식별 정보(2260)는 상기 서브 포인트 데이터 셋(2110)에 포함되는 복수의 포인트 데이터가 동일한 객체를 나타내는 것을 표현하기 위해 생성될 수 있다. 보다 구체적으로, 상기 식별 정보(2260)는 상기 서브 포인트 데이터 셋(2110)에 대한 공통적인 ID를 포함할 수 있다. 또한, 상기 ID는 상기 서브 포인트 데이터 셋(2110)에 포함된 복수의 포인트 데이터 각각에 생성될 수 있다. 이때, 상기 ID는 적어도 하나의 일련 번호로 표현될 수 있으나, 이에 한정되지 않는다.
이하에서는 자율 주행 시스템(1000)이 상기 센서 데이터(2000)를 이용하여 차량을 제어하는 방법에 대해 설명한다.
2.3. 센서 데이터를 이용한 차량 제어
상기 자율 주행 시스템(1000)이 탑재된 차량에 포함된 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 센서 데이터를 이용하여 상기 차량을 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 센서 데이터를 고정밀 지도(또는 HD(High Definition)맵)에 매칭하거나, 상기 차량의 방향 및 속도를 제어하거나, 또는 상기 차량의 경로를 제어할 수 있으나, 이에 한정되지 않는다. 여기서, 상기 고정밀 지도는 차량의 주행을 위해 정적 객체 또는 동적 객체가 높은 정밀도(예를 들어, 센티미터 단위 수준의 정밀도)로 표시된 지도를 의미하는 것으로, 2D 또는 3D로 표현될 수 있다.
이하에서는 상기 센서 데이터를 이용한 차량 제어의 구체적인 실시예에 대해서 기술한다.
2.3.1. 센서 데이터와 고정밀 지도의 매칭
상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 매칭함으로써 고정밀 지도를 갱신할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 적어도 하나의 객체에 대한 위치 정보를 외부로부터 다운로드된 고정밀 지도(1420) 상에 매칭시킬 수 있다. 여기서, 상기 고정밀 지도(1420)의 생성 방법은 목차 1.3.5. 에 상세히 설명하였으므로 생략하기로 한다.
도 29는 일 실시예에 따른 자율 주행 시스템이 센서로부터 획득된 서브 포인트 데이터 셋을 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 29를 참조하면, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서(1300)로부터 획득된 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)에 매칭시켜 디스플레이할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋(2110, 2120)에 포함된 위치 정보를 상기 고정밀 지도(1420) 상에서 상기 복수의 서브 포인트 데이터 셋(2110, 2120)의 주변 환경의 위치 정보와 비교하여 상기 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)에 매칭시켜 디스플레이 할 수 있다.
예를 들어, 상기 컨트롤러(1100)는 사람의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2110) 및 차량의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2120)을 상기 고정밀 지도(1420) 상에 매칭시킬 수 있다.
도 30은 일 실시예에 따른 자율 주행 시스템이 객체의 속성 데이터를 고정밀 지도에 매칭시키는 것을 나타내는 도면이다.
도 30을 참조하면, 상기 컨트롤러(1100)는 상기 복수의 서브 포인트 데이터 셋(2110, 2120)을 기초로 생성된 복수의 속성 데이터(2201, 2202)를 상기 고정밀 지도(1420) 상에 매칭시켜 디스플레이 할 수 있다.
보다 구체적으로, 상기 컨트롤러(1100)는 적어도 하나의 센서(1300)로부터 획득한 복수의 서브 포인트 데이터 셋(2110, 2120)을 상기 고정밀 지도(1420)상에 매칭시키지 않고, 상기 복수의 속성 데이터(2201, 2202)를 생성할 수 있다. 이때, 상기 컨트롤러(1100)는 생성된 상기 복수의 속성 데이터(2201,2202)를 상기 고정밀 지도(1420)상에 매칭시켜 디스플레이 할 수 있다.
예를 들어, 상기 컨트롤러(1100)는 사람의 적어도 일부를 나타내는 상기 제1 서브 포인트 데이터 셋(2110)을 기초로 제1 속성 데이터(2201)를 생성할 수 있고, 차량의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2120)을 기초로 제2 속성 데이터(2202)를 생성할 수 있다. 여기서, 상기 제1 속성 데이터(2201)은 상기 사람의 형상 정보를 포함하고, 상기 제2 속성 데이터(2202)는 상기 차량의 형상 정보를 포함하므로, 상기 컨트롤러(1100)는 상기 복수의 형상 정보를 상기 고정밀 지도(1420)상에 매칭시켜 디스플레이 할 수 있다.
또한, 상기 복수의 속성 데이터(2201, 2202)가 상기 형상 정보로 한정되는 것은 아니며, 중심 위치 정보, 사이즈 정보 등 속성 데이터에 포함되는 다양한 정보를 의미할 수 있다.
또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2110, 2120) 또는 상기 복수의 속성 데이터(2201, 2202)가 매칭된 상기 고정밀 지도(1420)을 이용하여 차량을 제어할 수 있다. 예를 들어, 상기 고정밀 지도(1420)를 기초로 차량의 경로 상에 장애물이 존재하는지 여부를 판단할 수 있고, 이를 통해 상기 차량의 속도, 방향, 또는 경로 등을 제어할 수 있다.
2.3.2. 차량의 방향 및 속도의 제어
또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 이용해 상기 자율 주행 시스템(1000)이 탑재된 차량의 방향 및 속도를 제어할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 적어도 하나의 센서를 통해 상기 차량의 경로 상에 장애물을 발견한 경우, 해당 장애물을 회피하기 위해 상기 차량의 방향 및 속도를 제어할 수 있다. 예를 들어, 상기 컨트롤러(1100)는 상기 차량의 경로상에 보행자가 감지되는 경우, 상기 보행자를 피하기 위해 상기 차량을 정지시키거나 조향 장치를 제어하여 차량의 방향을 바꿀 수 있다.
2.3.3. 차량의 경로 제어
또한, 상기 자율 주행 시스템(1000)에 포함된 상기 컨트롤러(1100)는 센서 데이터(2000)를 이용해 상기 차량의 경로를 제어할 수 있다.
도 31은 일 실시예에 따른 자율 주행 시스템이 차량의 주행에 방해되는 장애물을 회피하기 위해 경로를 변경하는 상황을 나타내는 도면이다.
도 31을 참조하면, 상기 컨트롤러(1100)는 상기 자율 주행 시스템(1000)이 탑재된 차량(121)의 주행 경로 상에 보행자의 움직임이 감지되는 경우, 보행자를 회피하기 위해 상기 차량(121)의 경로를 변경할 수 있다.
구체적으로, 상기 컨트롤러(1100)는 상기 차량(121)과 상기 보행자 간의 충돌을 피하기 위해 상기 차량(121)을 정지시킬 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러(1100)는 상기 보행자를 우회하여 주행하기 위해 상기 차량의 경로를 수정할 수 있다. 차량의 경로 설정(path planning)에 관련된 상세한 내용은 하기(목차 5.2.2.2.)에서 설명한다.
3. 데이터 공유 시스템
일 실시예에 따른 데이터 공유 시스템은 통신 모듈을 포함하는 제1 장치및 제2 장치를 포함할 수 있다. 또한, 상기 제1 장치는 상기 제2 장치와 데이터를 공유할 수 있다. 이때, 공유되는 데이터의 종류는 한정되지 않으며, 센서 데이터를 포함할 수 있다.
예를 들어, 자율 주행 시스템을 탑재한 차량은 차량의 주행 중 발생할 수 있는 위험을 회피하기 위해 상기 데이터 공유 시스템을 이용하여 다른 장치와 데이터를 공유할 수 있다.
3.1. 데이터 공유 주체
적어도 하나의 통신 모듈을 포함하는 장치는 데이터 공유 주체가 될 수있다. 구체적으로, 상기 데이터 공유 주체는 데이터를 전송하는 송신 주체가 될 수도 있고, 데이터를 수신하는 수신 주체가 될 수도 있다. 또한, 상기 데이터 공유 주체는 차량, 인프라 장치, 서버 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 데이터 공유 주체는 하나의 장치에 포함된 복수의 센서들이 될 수도 있고, 서로 다른 장치에 포함된 복수의 센서들이 될 수도 있다.
도 32는 일 실시예에 따른 복수의 장치간에 데이터가 공유되는 상황을 나타내는 도면이다.
도 32를 참조하면, 복수의 장치(100, 400, 700)는 서로 간에 데이터를 공유할 수 있다. 이때, 상기 복수의 장치(100, 400, 700)는 통신을 위해 적어도 하나의 통신 모듈(1200)을 포함할 수 있다. 이때, 상기 복수의 장치는 차량(100), 인프라 장치(700), 서버(cloud, 400), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 차량(100)은 V2V 시스템을 통해 다른 차량과 데이터를 공유할 수 있다. 또한 차량(100)은 V2I 시스템을 통해 인프라 장치(700)와 데이터를 공유할 수 있다. 또한, 차량(100)은 V2C 시스템을 통해 서버(400)와 데이터를 공유할 수 있다.
이때, 차량(100)은 상기 차량(100)에 포함된 적어도 하나의 센서(1300)로부터 획득된 센서 데이터(2000)를 상기 다른 차량, 상기 인프라 장치(700), 또는 상기 서버(400)에 전송할 수 있다. 또한, 상기 차량(100)은 상기 다른 차량, 상기 인프라 장치(700), 상기 서버(400)로부터 센서 데이터를 수신할 수 있다.
3.2. 데이터 공유 시기
또한, 적어도 하나의 통신 모듈을 포함하는 복수의 장치 사이의 데이터 공유는 상황에 따라 다른 시기에 수행될 수 있다. 예를 들어, 상기 복수의 장치 사이의 데이터 공유 시기는 통신 개시 시점, 또는 특정 이벤트 발생 시점 등을 포함할 수 있으나, 이에 한정되지 않는다.
구체적인 예로, 제1 장치와 제2 장치 사이의 데이터 공유 시기는 상기 제1 장치 및 상기 제2 장치 사이의 통신 개시 시점에 대응될 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치 사이의 거리가 통신 가능 거리에 도달했을 경우, 상기 제1 장치 및 상기 제2 장치 사이의 통신이 개시될 수 있고, 상기 통신이 개시되는 시점부터 데이터를 공유할 수 있다.
또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 상기 제2 장치로부터 일정 범위 내에 위치하는 시점에 수행될 수 있다. 이때, 상기 일정 범위는 상기 통신 가능 거리와 상이할 수 있고, 외부 서버 또는 상기 제1 장치 및 상기 제2 장치의 컨트롤러에 의해 미리 설정될 수 있다.
또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치와 관련된 이벤트가 발생한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치와 관련하여 사고가 발생한 경우, 상기 사고 발생 시점에 상기 제2 장치는 상기 사고와 관련된 데이터를 상기 제1 장치에 전송할 수 있다.
또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 상기 제2 장치로부터 데이터 요청 메시지를 수신한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제2 장치는 상기 제1 장치에 데이터 요청 메시지를 전송할 수 있고, 상기 요청 메시지에 대한 응답으로 상기 제1 장치는 상기 제2 장치에 데이터를 전송할 수 있다.
또 다른 예로서, 상기 제1 장치 및 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 외부 서버로부터 데이터 전송에 대한 승인을 획득한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치는 개인 정보와 관련된 데이터를 전송하기 전에 외부 서버로부터 상기 개인 정보와 관련된 데이터의 전송에 대한 허가를 구할 수 있으며, 상기 외부 서버가 데이터 전송에 대해 승인을 한 경우, 상기 제1 장치는 상기 승인 시점에 데이터를 상기 제2 장치에 전송할 수 있다.
또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치가 특정 영역에 진입한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치가 어린이 보호 구역과 같은 특정 규제 영역에 진입했을 경우, 상기 제2 장치는 상기 제1 장치에 상기 특정 영역과 관련된 데이터를 전송할 수 있다.
또 다른 예로서, 상기 제1 장치와 상기 제2 장치 사이의 데이터 공유는 상기 제1 장치의 사용자가 데이터 공유와 관련된 인풋을 입력한 시점에 수행될 수 있다. 보다 구체적으로, 상기 제1 장치가 상기 제1 장치에 탑승한 사용자로부터 상기 제2 장치와의 데이터 공유를 위한 입력을 수신한 경우, 상기 제1 장치와 상기 제2 장치는 데이터를 송수신할 수 있다.
이하에서는 데이터 공유시에 송수신되는 공유 데이터에 대해서 상세히 설명한다.
3.3. 공유 데이터 (sharing data)
3.3.1. 공유 데이터의 정의
본 명세서에서 공유 데이터(3000)는 둘 이상의 장치 간에 데이터를 공유하는 경우, 공유되는 모든 데이터를 포함하는 개념으로 정의될 수 있다. 이때, 제1 장치는 제2 장치에 공유 데이터(3000)를 전송할 수 있다. 또한, 상기 제1 장치는 상기 제2 장치로부터 공유 데이터(3000)를 수신할 수 있다.
예를 들어, 상기 공유 데이터(3000)는 상기 제1 장치에 배치되는 센서를 통해 획득된 센서 데이터를 포함할 수 있으나, 이에 한정되지 않는다.
3.3.2. 공유 데이터의 컨텐츠
공유 데이터의 컨텐츠는(Contents of sharing data)는 상기 공유 데이터(3000)에 포함되는 데이터의 내용 또는 타입 등을 포함하는 개념으로 이해될 수 있다. 다시 말해, 상기 공유 데이터의 컨텐츠는 상기 공유 데이터(3000)를 구성하고, 상기 공유 데이터의 컨텐츠에 포함되는 데이터의 종류에 따라 상기 공유 데이터(3000)가 결정된다.
도 33은 일 실시예에 따른 공유 데이터에 포함될 수 있는 공유 데이터의 컨텐츠의 종류를 도시한 도면이다.
도 34는 도 33의 공유 데이터의 컨텐츠를 상세하게 나타내는 도면이다.
도 33 및 도34를 참조하면, 상기 공유 데이터(3000)는 다양한 종류의 데이터를 컨텐츠로서 포함할 수 있다.
예를 들어, 상기 공유 데이터의 컨텐츠는 적어도 하나의 센서로부터 획득된 센서 데이터(2000)를 포함할 수 있다. 다시 말해, 상기 제1 장치에 포함되는 컨트롤러는 상기 센서 데이터(2000)를 기초로 공유 데이터(3000)를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 포인트 데이터 셋(3100), 포인트 데이터(3101), 서브 포인트 데이터 셋(3110), 속성 데이터(3200), 또는 프라이버시 보호 데이터(3300) 등을 포함할 수 있으나, 이에 한정되지 않는다. 이때, 상기 프라이버시 보호 데이터(3300)에 대한 상세한 내용은 하기에서 설명한다.
또한, 상기 공유 데이터의 컨텐츠는 데이터 공유 주체에 관한 정보를 포함하는 기타 데이터(3400)를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 통신 모듈(1200)을 포함하는 차량은 상기 차량에 대한 정보를 포함하는 공유 데이터(3000)를 다른 장치와 공유할 수 있다. 예를 들어, 상기 공유 데이터의 컨텐츠는 센서 데이터(2000) 외에 상기 기타 데이터(3400)를 포함할 수 있으며, 상기 기타 데이터(3400)는 상기 차량의 목적지, 속도, 크기, 상기 차량 내 탑승자의 수 등을 포함할 수 있으나, 이에 한정되지 않는다.
3.4. 수신된 공유 데이터 처리
공유 데이터(3000)를 수신한 장치는 센서 데이터(2000) 및 상기 공유 데이터(3000)를 이용해 다양한 정보를 생성할 수 있다. 예를 들어, 공유 데이터(3000)를 수신한 장치는 센서 데이터(2000) 및 상기 공유 데이터(3000)를 이용해 상기 센서 데이터(2000) 및 상기 공유 데이터(3000)에 의해 나타나는 객체를 인식할 수 있다.
도 35는 차량과 인프라 장치 간에 센서 데이터를 공유하는 상황을 나타내는도면이다.
도 35를 참조하면, 제1 차량(122) 및 인프라 장치(700)는 상기 제1 차량(122) 및 상기 인프라 장치(700)에 포함된 적어도 하나의 센서(예를 들어 라이다 장치)를 통해 획득한 센서 데이터를 서로 공유할 수 있다.
3.4.1. 수신된 공유 데이터의 종류에 따른 처리 방법
다시 도 35를 참조하면, 상기 인프라 장치(700)는 적어도 하나의 센서를 통해 획득한 센서 데이터를 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다.
예를 들어, 상기 인프라 장치(700)는 포인트 데이터 셋을 포함하는 공유 데이터(3000)를 전송할 수도 있고, 또는 속성 데이터를 포함하는 공유 데이터(3000)를 전송할 수도 있다. 다만, 이에 한정되는 것은 아니고, 상기 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋 및 상기 속성 데이터를 모두 포함할 수도 있고, 모두 포함하지 않을 수도 있다. 이때, 상기 공유 데이터의 컨텐츠의 종류에 따라 상기 제1 차량(122)은 상기 공유 데이터(3000)를 다른 방식으로 처리할 수 있다.
이하에서는 상기 인프라 장치(700)가 포인트 데이터 셋을 전송한 경우와 속성 데이터를 전송한 경우 상기 제1 차량(122)이 공유 데이터(3000)를 처리하는 실시예에 대해서 설명한다.
3.4.1.1. 포인트 데이터 셋을 전송한 경우
도 36은 일 실시예에 따른 공유 데이터의 컨텐츠에 포인트 데이터 셋이 포함되는 상황을 설명하기 위한 도면이다.
도 36을 참조하면, 상기 인프라 장치(700)는 센서로부터 획득한 제1 포인트 데이터 셋(3100)을 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다. 이때, 상기 제1 포인트 데이터 셋(3100)은 제2 차량(123)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(3110) 및 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(3120)을 포함할 수 있다.
또한, 상기 제1 차량(122)은 적어도 하나의 센서를 통해 제2 포인트 데이터 셋(2100)을 획득할 수 있다. 이때, 상기 제2 포인트 데이터 셋(2100)은 상기 제2 차량(123)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2110)을 포함할 수 있다. 또한, 상기 제1 차량(122)의 센서의 시야각 내에 위치한 상기 보행자(800)는 상기 제2 차량(123)에 의해 가려지므로, 상기 제2 포인트 데이터 셋(2100)은 상기 보행자(800)의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다.
또한, 일 실시예에 따른 데이터 공유 시스템을 통해, 상기 제1 차량(122)은 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득할 수 있다. 예를 들어, 상기 제1 차량(122)이 적어도 하나의 센서를 통해 상기 보행자(800)에 대한 센서 데이터를 획득할 수 없는 경우, 상기 제1 차량(122)이 상기 보행자(800)를 인지하지 못함에 따라 상기 제1 차량(122)과 관련되는 예기치 않은 사고가 발생할 수 있다. 위와 같은 상황을 예방하기 위해, 상기 인프라 장치(700)는 상기 제1 차량(122)에서 획득할 수 없는 상기 보행자(800)에 관한 센서 데이터를 상기 제1 차량(122)에 공유할 수 있다.
도 37은 일 실시예에 따른 제1 차량이 공유 받은 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 37을 참조하면, 상기 제1 차량(122)의 컨트롤러는 제2 포인트 데이터 셋(2100) 및 공유 받은 제1 포인트 데이터 셋(3100)을 각각 이용하여 상기 제1 차량(122)의 센서의 시야각 내에 포함되는 적어도 하나의 객체를 인식할 수 있다.
구체적으로, 상기 제1 차량(122)에 포함된 컨트롤러(1100)는 상기 제2 포인트 데이터 셋(2100)에 포함된 제3 서브 포인트 데이터 셋(2110)을 기초로 제3 속성 데이터(2201)를 생성할 수 있다.
여기서, 상기 속성 데이터(2201)는 상기 제3 서브 포인트 데이터 셋(2110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러(1100)는 상기 인프라 장치(700)로부터 수신한 제1 포인트 데이터 셋(3100)에 포함된 상기 제 1 서브 포인트 데이터 셋(3110) 및 상기 제2 서브 포인트 데이터 셋(3120)을 기초로 제1 속성 데이터(3201) 및 제2 속성 데이터(3202)를 생성할 수 있다. 이때, 상기 제1 속성 데이터(3201)는 상기 제1 서브 포인트 데이터 셋(3110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 제2 속성 데이터(3202)는 상기 제2 서브 포인트 데이터 셋(3120)이 나타내는 상기 보행자(800)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 38은 다른 일 실시예에 따른 제1 차량이 공유 받은 포인트 데이터 셋 및 제2포인트 데이터 셋을 처리하는 방법을 설명하기 위한 도면이다.
도 38을 참조하면, 상기 제1 차량(122)의 컨트롤러는 제2 포인트 데이터 셋(2100) 및 공유 받은 제1 포인트 데이터 셋(3100)을 이용해 제3 포인트 데이터 셋(4100)을 생성하여 센서의 시야각 내에 포함되는 적어도 하나의 객체를 인식할 수 있다.
이때, 상기 제3 포인트 데이터 셋(4100)은 공유 받은 상기 제1 포인트 데이터 셋(3100)의 좌표계를 상기 제2 포인트 데이터 셋(2100)의 좌표계에 정렬함으로써 생성될 수 있다. 좌표계 정렬과 관련된 상세한 내용은 하기(목차 3.4.2.)에서 설명한다.
또한, 상기 제3 포인트 데이터 셋(4100)은 상기 제2 차량(123)를 나타내는 제4 서브 포인트 데이터 셋(4110) 및 상기 보행자(800)를 나타내는 제5 서브 포인트 데이터 셋(4120)을 포함할 수 있다.
또한, 상기 컨트롤러(1100)는 상기 제4 서브 포인트 데이터 셋(4110)을 기초로 제4 속성 데이터(4201)를 생성할 수 있고, 상기 제5 서브 포인트 데이터 셋(4120)을 기초로 제5 속성 데이터(4202)를 생성할 수 있다. 이때, 상기 제4 속성 데이터(4201)는 상기 제4 서브 포인트 데이터 셋(4110)이 나타내는 상기 제2 차량(123)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 제5 속성 데이터(4202)는 상기 제5 서브 포인트 데이터 셋(4120)이 나타내는 상기 보행자(800)의 클래스 정보, 중심 위치 정보, 사이즈 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
3.4.1.2. 속성 데이터를 수신한 경우
도 39는 일 실시예에 따른 공유 데이터의 컨텐츠에 속성 데이터가 포함되는 상황을 설명하기 위한 도면이다.
도 39를 참조하면, 상기 인프라 장치(700)는 센서로부터 획득한 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋을 기초로 생성된 복수의 속성 데이터(3200)를 포함하는 공유 데이터(3000)를 상기 제1 차량(122)에 전송할 수 있다.
상기 공유 데이터(3000)를 수신한 상기 제1 차량(122)의 컨트롤러(1100)는 상기 공유 데이터(3000)를 활용해 상기 제1 차량(122)를 제어할 수 있다.
상기 복수의 속성 데이터(3200)를 포함하는 공유 데이터(3000)를 수신한 상기 제1 차량(122)이 상기 공유 데이터(3000)를 처리하는 방법과 관련된 상세한 내용은 하기(대목차 5)에서 설명한다.
3.4.1.3. 이벤트 발생 관련 정보를 수신했을 때
다시 도 35를 참조하면, 통신 모듈을 포함하는 서버(400), 차량(122, 123), 인프라 장치(700)는 이벤트 발생 관련 정보를 포함하는 공유 데이터(3000)를 공유할 수 있다.
예를 들어, 상기 서버(400)는 상기 제1 차량(122)의 경로 상에 트래픽 이벤트가 발생한 사실을 포함하는 이벤트 관련 정보를 상기 제1 차량(122)에 전송할 수 있다.
상기 이벤트 발생 관련 정보를 포함하는 공유 데이터(3000)를 수신한 상기 제1 차량(122)이 상기 공유 데이터(3000)를 처리하는 방법과 관련된 상세한 내용은 하기(목차 4.2.)에서 설명한다.
3.4.2. 공유 데이터 정합을 위한 좌표계 정렬(coordinate alignment)
제1 장치가 제2 장치로부터 공유 데이터를 수신한 경우, 상기 제1 장치의 컨트롤러(1100)상기 제1 장치에 배치된 센서로부터 획득한 센서 데이터와 상기 공유 데이터를 정합(data registration)하기 위해 상기 센서 데이터의 좌표계와 상기 공유 데이터의 좌표계를 일치시킬 수 있다.
이때, 상기 좌표계는 직교 좌표계, 극 좌표계, 원통 좌표계, 호모지니어스 좌표계, 곡선 좌표계, 경사 좌표계, 또는 로그-극 좌표계 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 제1 라이다 장치를 포함하는 제1 장치는 상기 제1 라이다 장치를통해 제1 센서 데이터를 획득할 수 있다. 또한 제2 라이다 장치를 포함하는 제2 장치는 상기 제2 라이다 장치를 통해 제2 센서 데이터를 획득할 수 있다. 이때, 상기 제1 라이다 장치는 제1 라이다 광학 원점을 원점으로 하는 제1 지역 좌표계(local coordinate)를 포함할 수 있다. 또한, 상기 제2 라이다 장치는 제2 라이다 광학 원점을 원점으로 하는 제2 지역 좌표계를 포함할 수 있다.
여기서, 상기 제2 장치의 컨트롤러가 상기 제1 장치에 상기 제2 센서 데이터를 포함하는 공유 데이터를 전송하는 경우, 상기 제1 장치의 컨트롤러는 상기 제1 지역 좌표계를 전역 좌표계(global coordinate)로 설정할 수 있다. 또한 상기 컨트롤러는 상기 제2 지역 좌표계 상에 나타나는 상기 제2 센서 데이터를 공유 받은 후, 이를 정합하기 위해, 상기 제2 지역 좌표계를 상기 전역 좌표계에 맞도록 정렬시킬 수 있다. 또한, 실시예에 따라, 상기 컨트롤러는 상기 제2 지역 좌표계를 상기 제1 지역 좌표계를 기준으로 정렬하거나, 상기 제1 지역 좌표계를 상기 제2 지역 좌표계를 기준으로 정렬시킬 수 있다. 물론, 상기 제1 지역 좌표계와 상기 제2 지역 좌표계가 동일할 수도 있다.
또한, 상기 컨트롤러는 3차원 공간 상에서의 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시키기 위해, 이동(translation)에 대한 3차원 벡터와 회전(rotation)에 대한 3차원 벡터를 합해 총 6DOF의 변환 자유도를 가지는 4x4 변환 행렬(transformation matrix)을 계산할 수 있다. 또한, 상기 컨트롤러는 상기 변환 행렬을 이용하여 상기 제2 지역 좌표계에 나타나는 제2 센서 데이터를 상기 전역 좌표계에 나타낼 수 있다.
일 예로, 상기 제1 장치가 고정되어 있는 경우, 상기 제2 지역 좌표계와 상기 전역 좌표계의 정렬은 좌표계 사이의 변환 관계를 계산함으로써 수행될 수 있다. 즉, 상기 컨트롤러는 계산된 상기 변환 행렬을 이용하여 상기 제2 좌표계에 나타나는 센서 데이터를 상기 전역 좌표계로 변환해 통일된 좌표계에 나타낼 수 있다.
다른 예로, 상기 컨트롤러는 3차원 공간 상에서 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시키기 위해, 고유 형상을 가지는 제1 물체를 정렬의 기준으로 이용할 수 있다. 예를 들어, 상기 고유 형상은 상기 제1 물체 상에 3개의 평면이 만나는 형상을 포함할 수 있으나, 이에 한정되지 않는다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 지역 좌표계에 나타나는 제2 센서 데이터에 포함된 제1 물체와 상기 전역 좌표계에 나타나는 제1 센서 데이터에 포함된 상기 제1 물체의 고유 형상의 위치를 기준으로 상기 제2 지역 좌표계를 상기 전역 좌표계에 정렬시킬 수 있다.
구체적으로, 상기 컨트롤러는 상기 전역 좌표계에 나타나는 제1 물체와 상기 제2 지역 좌표계에 나타나는 제1 물체의 위치를 맞춰서 초기 위치를 생성할 수 있다. 이때, 상기 초기 위치는 서로 다른 센서 데이터에 포함된 상기 제1 물체의 고유 형상의 위치를 상기 전역 좌표계 상에 최초로 정렬시킴으로써 획득될 수 있다. 즉, 상기 초기 위치를 맞추는 과정은 좌표계의 초기 정렬로 이해될 수 있다. 또한, 상기 컨트롤러는 상기 전역 좌표계 상에서 나타나는 서로 다른 장치로부터 획득된 제1 물체의 위치 정보(예를 들어, 초기 위치)가 부정확한 경우, 최적화를 통해 상기 제1 물체의 위치 정보를 개선할 수 있다. 이때, 상기 컨트롤러는 상기 초기 위치의 최적화를 ICP(iterative closest point)알고리즘을 이용할 수 있으나, 이에 한정되지 않는다.
3.5. 공유 데이터를 이용한 차량 제어
공유 데이터를 수신한 차량에 포함되는 컨트롤러는 상기 공유 데이터 및 상기 차량의 센서로부터 획득한 센서 데이터를 이용하여 상기 차량을 제어할 수 있다. 이때, 목차 2.3.1. 내지 목차 2.3.3.에 기재된 센서 데이터를 이용한 차량 제어의 실시예는 공유 데이터를 이용해서 동일한 차량 제어를 실시할 수 있음은 물론이다.
구체적으로, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 상기 차량에 포함된 고정밀 지도에 매칭시켜 디스플레이할 수 있다.
또한, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 이용해 상기 차량의 방향 및 속도를 제어할 수 있다.
또한, 상기 컨트롤러는 다른 장치로부터 수신한 상기 공유 데이터를 이용해 상기 차량의 경로를 제어할 수 있다.
4. 센서 데이터의 선별적 공유
4.1. 속성 데이터에 따른 센서 데이터의 선별적 공유
일 실시예에 따른 데이터 공유 시스템은 제1 장치 및 제2 장치를 포함할 수 있다. 또한, 상기 제1 장치는 공유 데이터를 상기 제2 장치로 전송할 수 있다.
이때, 상기 제1 장치에서 전송하는 공유 데이터의 컨텐츠는 상기 제1 장치에서 획득된 센서 데이터에 포함되는 객체 인식 결과에 따라 상이할 수 있다. 여기서, 상기 객체 인식 결과는 상기 객체에 대한 클래스 정보를 의미할 수 있다.
예를 들어, 상기 클래스 정보에 포함된 객체의 클래스가 건물과 관련되는 경우, 상기 공유 데이터의 컨텐츠는 상기 건물을 나타내는 서브 포인트 데이터 셋을 포함할 수 있다. 또한, 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호 받아야할 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 객체를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다.
여기서, 개인 정보를 보호받아야 할 클래스는 사람, 차량 번호판, 신분증 등 개인 정보가 노출될 가능성이 있는 클래스를 의미하는 것으로, 개인 정보를 보호받아야 할 클래스는 컨트롤러에 의해 미리 정해질 수 있다.
즉, 상기 제1 장치의 컨트롤러는 센서 데이터에 포함되는 객체의 클래스 정보에 따라 선별적으로 공유 데이터를 생성할 수 있다.
4.1.1. 속성 데이터에 따른 센서 데이터의 선별적 공유의 필요성
일 실시예에 따른 데이터 공유 시스템에서, 복수의 장치 사이에 개인 정보와 관련된 데이터가 무작위로 공유되는 경우, 프라이버시가 부당하게 침해되는 상황이 발생할 수 있다. 예를 들어, 사람의 얼굴이 포함된 사진을 어떠한 가공 없이 다른 장치에 전송하는 경우, 사람의 얼굴과 관련된 형상 및 색상 정보가 공유됨에 따라 사람의 프라이버시가 침해될 수 있다.
또한, 상기 센서가 라이다 장치인 경우에도 프라이버시 침해 문제가 발생할 수 있다. 보다 구체적으로, 상기 라이다 장치로부터 획득되는 센서 데이터는 객체에 대한 인텐시티 정보를 포함할 수 있다. 여기서, 상기 인텐시티 정보는 객체의 반사율에 따라 상이한 인텐시티 값을 포함하기 때문에, 상기 라이다 장치와 연결된 컨트롤러는 상기 인텐시티 정보를 이용해 사람의 얼굴을 판별할 수 있다. 이에 따라, 복수의 장치 사이에 상기 라이다 장치로부터 획득된 센서 데이터를 가공 없이 공유하는 경우에도, 프라이버시 침해 문제가 발생할 수 있다. 이에 따라, 상기 센서 데이터를 공유하기 전에, 객체의 클래스에 따라 센서 데이터를 선별적으로 공유하는 방법이 필요할 수 있다.
다른 일 실시예에 따른 데이터 공유 시스템에서, 고정밀 지도를 생성하는 장치가 상기 고정밀 지도를 효율적으로 갱신하기 위해, 적어도 하나의 센서를 포함하는 장치는 센서 데이터를 선별적으로 공유할 수 있다. 일 실시예에서, 초기에 생성되는 고정밀 지도는 사람과 같은 이동형 객체에 대한 센서 데이터가 아닌 건물과 같은 고정형 객체에 대한 센서 데이터를 필요로 할 수 있다. 이에 따라, 상기 센서 데이터를 전송하는 장치는 센서 데이터 중 고정형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다.
또 다른 일 실시예에 따른 데이터 공유 시스템에서, 고정밀 지도에 고정형 객체에 대한 정보가 미리 저장될 수 있다. 이 경우, 상기 센서 데이터를 전송하는 장치는 센서 데이터 중 이동형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다. 이때, 상기 고정밀 지도를 생성하는 장치는 미리 저장된 고정형 객체에 대한 정보에 대하여 이동형 객체와 관련된 데이터를 추가적으로 획득함으로써, 고정형 객체 및 이동형 객체를 모두 포함하는 고정밀 지도를 생성할 수 있다.
4.1.2. 프라이버시 보호 데이터를 포함하는 공유 데이터의 선별적 공유 방법의 다양한 실시예들
전술한 프라이버시 침해 문제를 해결하기 위해 상기 공유 데이터는 프라이버시 보호 데이터를 포함할 수 있다. 여기서, 상기 프라이버시 보호 데이터는 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 개인 정보 식별과 관련되는 부분을 가공한 데이터일 수 있다. 상기 프라이버시 보호 데이터와 관련된 상세한 내용은 하기(목차 4.1.2.1.3.)에서 설명한다.
4.1.2.1. 일 실시예에 따른 선별적 공유 방법
일 실시예에 따른 데이터 공유 시스템은 통신을 위한 적어도 하나의 통신 모듈을 포함하는 제1 장치 및 제2 포함할 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 40은 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 나타내는 흐름도이다.
도 40을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋(2100)을 획득할 수 있다(S5001). 이때, 상기 포인트 데이터 셋(2100)은 라이다 장치를 통해 획득한 포인트 클라우드에 대응될 수 있다. 또한, 상기 제1 장치는 차량, 인프라 장치, 서버, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5002).
또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋이 나타내는 각각의 객체의 클래스 정보를 결정할 수 있다(S5003).
또한, 상기 컨트롤러는 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인지 여부에 따라 공유 데이터의 컨텐츠가 달라질 수 있다 (S5004).
또한, 상기 컨트롤러는 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인 경우, 프라이버시 보호 데이터를 포함하는 공유 데이터를 생성할 수 있고(S5005), 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우, 프라이버시 보호 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다(S5006).
또한, 상기 컨트롤러는 생성된 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5007).
상기 제1 장치가 상기 제1 차량(124) 경우, 도 40에 나열된 각각의 단계에 대한 상세한 내용은 아래에서 설명한다.
4.1.2.1.1. 센서 데이터의 획득
다시 도 40을 참조하면, 상기 제1 차량(124)의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5001). 이때, 상기 포인트 데이터 셋은 복수의 포인트 데이터를 포함할 수 있다. 또한 상기 포인트 데이터 셋은 객체의 적어도 일부를 나타내는 복수의 서브 포인트 데이터 셋을 포함할 수 있다. 또한, 상기 적어도 하나의 센서는 라이다 장치, 카메라 장치, 레이다 장치, 또는 초음파 센서 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 41은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 42는 도 41에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 41 및 도 42를 참조하면, 상기 제1 차량(124)의 컨트롤러는 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2111, 2112)을 포함하는 포인트 데이터 셋(2101)을 획득할 수 있다.
이때, 상기 제1 차량(124)의 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함된 복수의 서브 포인트 데이터 셋(2111, 2112)을 추출하고, 상기 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보를 포함하는 속성 데이터를 결정할 수 있다(S5002, S5003).
구체적으로, 상기 컨트롤러는 상기 포인트 데이터 셋(2101)에서 제3 차량(126)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2111) 및 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2112)을 추출할 수 있다.
또한, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2111) 및 상기 제2서브 포인트 데이터 셋(2112)을 목차 2.2.3.에 기재된 방식으로 획득할 수 있다.
도 43은 일 실시예에 따른 센서 데이터에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터 및 클래스 정보를 나타내는 도면이다.
도 43을 참조하면, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2111, 2112)을 기초로, 각각의 서브 포인트 데이터 셋에 대응하는 복수의 속성 데이터(2201, 2202)를 결정할 수 있다.
보다 구체적으로, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2111)을 기초로 제1 클래스 정보(2211)를 포함하는 제1 속성 데이터(2201)를 결정할 수 있다. 이때, 상기 제1 클래스 정보(2211)는 '차량(Vehicle)'으로 나타날 수 있으나, 이에 한정되지 않고 '승용차' 등 차량에 대한 하위 클래스로 결정될 수 있다.
또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2120)을 기초로 제2 클래스 정보(2212)를 포함하는 제2 속성 데이터(2202)를 결정할 수 있다. 이때, 상기 제2 클래스 정보(2212)는 '사람(Human)'으로 나타날 수 있으나, 이에 한정되지 않고 '보행자(Pedestrian)' 등 사람에 대한 하위 클래스로 결정될 수 있다.
또한, 상기 컨트롤러는 상기 복수의 클래스 정보(2211, 2212)를 포함하는 복수의 속성 데이터(2201, 2202)를 목차 2.2.4.에 기재된 방식으로 획득할 수 있다.
4.1.2.1.2. 공유 데이터의 선별적 생성 및 공유
또한, 상기 컨트롤러는 상기 센서 데이터(2000)를 제2 장치에 전송하기 위해, 공유 데이터(3000)를 생성할 수 있다.
이때, 프라이버시와 관련되는 데이터를 공유하지 않기 위해, 상기 공유 데이터의 컨텐츠를 결정하기 위한 기준이 필요할 수 있다. 예를 들어, 상기 공유 데이터(3000)는 상기 센서 데이터(2000)에 포함되는 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보에 따라 상이하게 생성될 수 있다. 여기서, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 복수의 속성 데이터(2201, 2202)를 기초로 상기 공유 데이터의 컨텐츠를 결정할 수 있다.
도 44는 일 실시예에 따른 제1 차량이 전송하는 공유 데이터에 포함되는 공유 데이터의 컨텐츠를 나타내는 도면이다.
도 44를 참조하면, 상기 제1 차량(124)의 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함되는 복수의 객체의 클래스 정보에 기초하여 공유 데이터의 컨텐츠를 결정할 수 있다.
또한, 상기 컨트롤러는 상기 속성 데이터가 개인 정보 식별과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 보다 구체적으로, 상기 컨트롤러는 클래스 정보에 포함되는 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인지 여부에 따라 공유 데이터의 컨텐츠를 결정할 수 있다.
일 예로, 상기 컨트롤러는 상기 클래스 정보가 사람과 관련되는지에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 이때, 상기 컨트롤러는 사람의 얼굴 부분을 나타내는 적어도 하나의 포인트 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다. 또한, 상기 컨트롤러는 상기 사람의 얼굴 부분을 나타내는 적어도 하나의 포인트 데이터를 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다.
다른 예로, 상기 컨트롤러는 상기 공유 데이터의 컨텐츠에 차량과 관련된 센서 데이터 중 차량 번호판과 관련된 데이터를 포함하지 않을 수 있다. 또한, 상기 컨트롤러는 상기 차량의 번호판 부분을 나타내는 적어도 하나의 포인트 데이터를 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다.
또한, 상기 컨트롤러는 객체의 클래스 정보가 개인 정보와 관련되는 클래스군에 포함되는 적어도 하나의 클래스에 매칭되는지 여부에 따라 공유 데이터의 컨텐츠를 결정할 수 있다. 이때, 상기 클래스군은 미리 설정된 기준을 만족하는 적어도 하나의 클래스를 포함하는 클래스의 집단일 수 있다. 예를 들어, 개인 정보와 관련되는 클래스군은 사람과 관련된 클래스, 번호판과 관련된 클래스, 또는 신분증과 관련된 클래스 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 상기 컨트롤러는 적어도 하나의 센서를 통해 획득한 객체의 클래스 정보를 '사람'으로 결정한 경우, 상기 객체에 대한 정보를 공유하기 위한 공유 데이터의 컨텐츠에 상기 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다. 또한, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋 중 사람의 얼굴과 관련된 부분을 가공한 데이터를 포함하는 공유 데이터를 생성할 수 있다.
또한, 상기 제1 차량(124)는 제2 장치에 공유 데이터 전송할 수 있다(S5007). 이때, 상기 제2 장치는 차량(125, 126), 서버(400), 인프라 장치(700), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 다시 도 44를 참조하면, 상기 제2 장치가 제2 차량(125)인 경우, 상기 제1 차량(124)은 상기 제2 차량(125)에 상기 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 프라이버시 보호 데이터(3300) 및 상기 제1 서브 포인트 데이터 셋(2111)등을 포함할 수 있으나, 이에 한정되지 않는다.
이때, 상기 공유 데이터의 컨텐츠는 상기 복수의 서브 포인트 데이터 셋(2111, 2112)의 클래스 정보에 기초하여 결정될 수 있다. 구체적으로, 상기 제3 차량(126)의 적어도 일부를 나타내는 상기 제1 서브 포인트 데이터 셋의 클래스 정보(2211)가 차량과 관련되므로, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋(2111)을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 차량의 번호판이 개인 정보 식별과 관련될 수 있으므로, 상기 차량의 번호판을 나타내는 적어도 하나의 포인트 데이터를 가공한 프라이버시 보호 데이터를 포함할 수도 있다.
또한, 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋의 클래스 정보는 개인 정보를 보호 받아야할 클래스인 사람과 관련되므로, 상기 공유 데이터의 컨텐츠는 상기 프라이버시 보호 데이터(3300)를 포함할 수 있다.
4.1.2.1.3. 프라이버시 보호 데이터
또한, 상기 컨트롤러는 상기 포인트 데이터 셋(2101)에 포함되는 적어도 하나의 서브 포인트 데이터 셋의 클래스 정보에 포함되는 클래스가 개인 정보를 보호받아야 할 클래스인 경우, 프라이버시 보호 데이터(3300)를 포함하는 공유 데이터(3000)를 생성할 수 있다(S5005).
이때, 상기 컨트롤러는 개인 정보 식별과 관련된 데이터를 공유하지 않기 위해 상기 프라이버시 보호 데이터(3300)를 생성할 수 있다. 다시 말해, 상기 프라이버시 보호 데이터(3300)는 프라이버시 보호 목적으로 생성될 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 개인 정보 식별과 관련된 데이터를 포함하지 않을 수 있다. 보다 구체적으로, 상기 서브 포인트 데이터 셋은 객체의 인텐시티 정보를 포함하므로, 상기 서브 포인트 데이터 셋은 개인 정보 식별과 관련된 데이터일 수 있다. 이에 따라, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋 중 개인 정보 식별과 관련된 부분을 포함하지 않을 수 있다. 또한, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다. 또한, 상기 프라이버시 보호 데이터(3300)는 상기 서브 포인트 데이터 셋 중 개인 정보 식별과 관련된 부분을 가공한 데이터를 포함할 수 있다.
도 45는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 프라이버시 보호 데이터를 설명하기 위한 도면이다.
도 45를 참조하면, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)을 기초로 생성된 제2 속성 데이터(2202)를 포함할 수 있다.
예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 중심 위치를 나타내는 중심 위치 정보(2221)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)에 포함된 복수의 포인트 데이터들의 중심 좌표를 나타내는 상기 중심 위치 정보(2221)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 크기를 나타내는 사이즈 정보(2231)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)이 나타내는 상기 보행자(800)의 볼륨값을 나타내는 상기 사이즈 정보(2231)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 보행자(800)의 형상을 가공하여 나타낸 형상 정보(2240)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)의 클래스 정보에 따라 상기 제2 서브 포인트 데이터 셋(2112)을 미리 결정된 템플릿 정보(2241)로 대체한 프라이버시 보호 데이터(3300)를 생성할 수 있다. 또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112)을 적어도 하나의 포인트로 나타낸 스켈레톤 정보(2242)를 포함하는 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 이에 한정되지 않고, 상기 프라이버시 보호 데이터(3300)는 상기 제2 속성 데이터에 포함된 복수의 정보 중 적어도 일부를 포함할 수 있다. 예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보, 식별 정보, 클래스 정보 중 적어도 일부를 포함할 수 있으나, 이에 한정되지 않는다.
다시 도 45를 참조하면, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)의 적어도 일부를 가공한 데이터(3310)를 포함할 수 있다.
예를 들어, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)에 포함된 복수의 포인트 데이터 중 적어도 일부를 모자이크처리한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 적어도 하나의 포인트 데이터를 모자이크 처리한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2120) 중 적어도 일부를 블러 처리한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 적어도 하나의 포인트 데이터를 블러 처리한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)중 적어도 일부에 노이즈 데이터를 추가한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 부분에 상기 노이즈 데이터를 추가한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112) 중 적어도 일부를 제거한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2112)에서 상기 보행자(800)의 얼굴과 관련된 복수의 포인트 데이터 중 적어도 일부를 제거한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이 버시 보호 데이터(3300)는 클래스가 개인 정보를 보호받아야 할 클래스인 객체를 나타내는 서브 포인트 데이터를 제거한 데이터를 포함할 수 있다. 예를 들어, 상기 컨트롤러는 상기 보행자(800)의 적어도 일부를 나타내느 상기 제2 서브 포인트 데이터 셋(2112)을 제거한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112) 중 적어도 일부의 인텐시티 정보를 삭제한 데이터를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112) 중 사람의 얼굴과 관련된 복수의 포인트 데이터의 인텐시티 값을 0으로 설정한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 센서가 카메라 장치인 경우, 상기 프라이버시 보호 데이터(3300)는 상기 카메라 장치의 픽셀 값을 임의로 설정한 데이터를 포함할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2112) 중 상기 보행자(800)의 얼굴 부분을 나타내는 부분의 픽셀 값을 임의의 값으로 조정한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
또한, 이에 한정되지 않고, 상기 프라이버시 보호 데이터(3300)는 상기 제2 서브 포인트 데이터 셋(2112)의 적어도 일부를 소정의 데이터 처리 기술을 이용하여 가공한 데이터를 포함할 수 있다. 전술한 소정의 데이터 처리 기술은 해당 분야의 통상의 기술자가 사용할 수 있는 것으로, 소정의 데이터 처리 기술에 대한 상세한 설명은 생략한다.
4.1.2.2. 다른 일 실시예에 따른 선별적 공유
다른 일 실시예에 따른 데이터 공유 시스템은 공유 데이터를 전송하기 전에 외부 기관에 배치된 서버의 승인이 필요할 수 있다. 예를 들어, 센서 데이터 자체의 공유 여부에 대하여 외부 기관의 승인이 필요할 수도 있고, 센서 데이터에 포함된 개인 정보 식별과 관련된 데이터의 공유 여부에 대하여 외부 기관의 승인이 필요할 수도 있다. 이때, 상기 외부 기관은 정부 기관, 데이터 관리 기관등을 포함할 수 있으나, 이에 한정되지 않고, 상기 외부 기관은 서버를 통해 통신을 수행할 수 있다.
도 46은 일 실시예에 따른 데이터 공유 시스템에서 외부 서버의 데이터 공유 승인이 있는지에 따른 선별적 데이터 공유 방법을 나타내는 흐름도이다.
도 46을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋(2100)을 획득할 수 있다(S5008).
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5009).
또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋이 나타내는 각각의 객체의 클래스 정보를 결정할 수 있다(S5010).
또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋을 다른 장치로 전송하는 것에 대해 외부 서버의 승인이 있는지 여부를 판단할 수 있다(S5011). 이때, 상기 외부 서버는 상기 복수의 서브 포인트 데이터 셋을 전송함으로써 발생할 수 있는 프라이버시 침해 문제에도 불구하고 상기 복수의 서브 포인트 데이터 셋을 공유할 필요가 있는지 판단할 수 있다. 예를 들어, 상기 복수의 서브 포인트 데이터 셋 중 적어도 하나가 범죄 상황과 연루된 범죄자의 적어도 일부를 나타내는 경우, 상기 외부 서버는 상기 범죄자의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 공유하는 것에 대한 승인을 수행할 수 있다.
또한, 상기 컨트롤러는 상기 외부 서버에 상기 공유 데이터의 전송에 대한 승인을 요청할 수 있다. 이 경우, 상기 컨트롤러는 개인 정보 식별과 관련되는 서브 포인트 데이터 셋을 상기 외부 서버에 전송하면서 상기 승인을 요청할 수 있다. 또한, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋의 속성 데이터(예를 들어, 클래스 정보)를 상기 외부 서버에 전송하면서 상기 승인을 요청할 수 있다. 또한, 상기 외부 서버는 승인 요청을 수신한 경우, 상기 공유 데이터의 전송을 승인할 지 여부를 판단할 수 있다.
또한, 상기 외부 서버는 상기 컨트롤러의 승인 요청이 없는 경우에도, 상기 컨트롤러가 상기 공유 데이터를 전송하는 것에 대해 승인할 지 여부를 판단할 수 있다.
또한, 상기 외부서버의 상기 공유 데이터의 전송에 대한 승인이 1회 있는 경우, 상기 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋이 나타내는 객체와 관련된 데이터 공유에 있어서는 더 이상 상기 외부 서버의 승인이 필요하지 않을 수 있다. 또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 공유 데이터를 전송할 때 마다 상기 외부 서버의 승인을 획득할 수 있다.
또한, 상기 컨트롤러는 상기 외부 서버의 승인이 있는 경우, 상기 복수의 서브 포인트 데이터 셋의 클래스 정보와 관계없이 상기 복수의 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5013). 예를 들어, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋에 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋이 포함되는 경우에도, 프라이버시 보호 데이터를 생성하지 않고 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다.
또한, 상기 컨트롤러는 상기 외부 서버의 승인이 없는 경우, 상기 컨트롤러는 상기 클래스 정보에 포함되는 객체의 클래스가 개인 정보를 보호받아야 할 클래스인지 여부를 판단할 수 있다(S5012).
또한, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련된 경우 프라이버시 보호 데이터를 포함하는 공유 데이터를 생성할 수 있다(S5013).
또한, 상기 컨트롤러는 상기 클래스 정보가 개인 정보 식별과 관련되지 않은 경우, 프라이버시 보호 데이터를 포함하지 않는 공유 데이터를 생성할 수 있다(S5014). 여기서, 공유 데이터의 컨텐츠는 서브 포인트 데이터 셋을 포함할 수 있다.
또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5015). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
4.1.2.3. 센서 배치 위치에 따른 프라이버시 보호 데이터 생성 여부
일 실시예에 따른 프라이버시 보호 데이터는 센서 데이터를 획득하는 적어도 하나의 센서의 배치 위치에 따라 생성 여부가 결정될 수 있다. 예를 들어, 상기 적어도 하나의 센서는 차량에 배치될 수 있으나, 이에 한정되지 않는다.
구체적인 예로, 일 실시예에 따른 자율 주행 시스템을 포함하는 차량에서, 상기 자율 주행 시스템(1000)에 포함된 적어도 하나의 센서(1300)는 차량 내부에 배치될 수 있다. 이 경우, 상기 적어도 하나의 센서(1300)는 차량 내부의 탑승자에 대한 위치 정보, 형상 및/또는 색상 정보 등을 포함하는 센서 데이터를 획득할 수 있다.
이때, 상기 자율 주행 시스템의 컨트롤러는 상기 센서 데이터에 포함되는 객체의 클래스 정보와 관련 없이 프라이버시 보호 데이터를 생성할 수 있다. 보다 구체적으로, 무인 자동차가 아닌 차량의 경우, 차량이 주행하기 위해서는 승객의 탑승이 필수적이므로, 상기 컨트롤러는 상기 센서 데이터를 기초로 항상 프라이버시 보호 데이터를 생성할 수 있다.
또한, 상기 컨트롤러는 상기 센서 데이터에 사람의 적어도 일부를 나타내는 서브 포인트 데이터 셋이 포함되었는지 여부에 따라 프라이버시 보호 데이터를 생성할 수 있다. 이때, 상기 컨트롤러는 전술한 바와 같이 상기 서브 포인트 데이터 셋의 클래스 정보를 판단함으로써 상기 센서 데이터에 클래스가 사람과 관련되는 서브 포인트 데이터 셋이 포함되는지 여부를 판단할 수 있다. 또한, 상기 컨트롤러는 차량 내부에 배치된 임의의 장치로부터 승객 탑승 여부에 대한 정보를 획득할 수 있다. 예를 들어, 상기 컨트롤러는 차량에 배치된 무게 감지 센서 등을 통해 차량 탑승 정보를 획득함으로써, 차량 내부에 승객이 탑승하였는지를 판단할 수 있다.
또한, 상기 차량의 컨트롤러(1100)는 상기 센서 데이터(2000)를 적어도 하나의 통신 모듈(1200)을 통해 다른 장치로 전송하기 위한 공유 데이터(3000)를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 프라이버시 보호 데이터(3300)를 포함할 수 있다. 보다 구체적으로, 상기 컨트롤러(1100)는 상기 센서 데이터에 포함된 객체의 클래스 정보와 관계없이, 개인 정보 보호를 위한 프라이버시 보호 데이터(3300)를 생성할 수 있다.
4.1.2.4. 거리 및 인텐시티 정보에 따른 프라이버시 보호 데이터 생성 여부
일 실시예에 따른 데이터 공유 시스템을 이용하는 자율 주행 시스템에 포함된 적어도 하나의 센서는 라이다 장치를 포함할 수 있다. 이때, 상기 라이다 장치는 시야각 내에 위치하는 객체에 대한 거리 정보 및 객체의 반사율에 따른 인텐시티 정보를 획득할 수 있다. 이 경우, 상기 자율 주행 시스템에 포함되는 컨트롤러는 상기 거리 정보 및 인텐시티 정보에 따라 프라이버시 보호 데이터를 생성할지 여부를 결정할 수 있다.
일 예로, 라이다 장치로부터 소정 거리 이상 떨어져 있는 객체의 경우, 상기 라이다 장치로부터 획득한 센서 데이터를 기초로 컨트롤러가 개인 정보를 식별할 수 없을 수 있다. 이 경우, 상기 컨트롤러는 상기 컨트롤러가 포함되는 제1 장치와 센서 데이터에 포함되는 제1 객체 사이의 거리가 소정 거리 이상일 경우, 상기 제1 객체의 클래스와 관계없이 프라이버시 보호 데이터를 생성하지 않을 수 있다. 상기 소정 거리는 상기 제1 객체의 반사율에 관계없이 상기 서브 포인트 데이터 셋을 통해 상기 제1 객체의 개인 정보가 식별되지 않는 거리를 의미할 수 있다. 또한, 상기 컨트롤러는 상기 소정 거리를 미리 설정하여 저장할 수도 있고, 센서 데이터를 기초로 설정할 수도 있다.
다른 예로, 객체의 반사율이 낮은 경우 상기 컨트롤러가 라이다 장치를 통해객체의 개인 정보를 식별할 수 없을 수 있다. 이 경우, 상기 컨트롤러는 제2 객체의 인텐시티 값이 임계값 이하인 경우, 상기 제2 객체의 클래스와 관계없이 프라이버시 보호 데이터를 생성하지 않을 수 있다. 이때, 상기 임계값은 상기 제2 객체의 거리 정보에 관계없이 상기 서브 포인트 데이터 셋을 통해 상기 제2 객체의 개인 정보가 식별되지 않는 인텐시티 값을 의미할 수 있다. 또한, 상기 컨트롤러는 상기 임계값을 미리 설정하여 저장할 수도 있고, 센서 데이터를 기초로 설정할 수도 있다.
또한, 상기 컨트롤러는 상기 제1 객체 또는 상기 제2 객체의 적어도 일부를나타내는 복수의 서브 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋의 속성 데이터 중 적어도 하나를 포함하는 공유 데이터를 생성할 수 있다.
4.1.2.5. 프라이버시 보호를 위한 센서 데이터의 선별적 저장
전술한 프라이버시 보호를 위한 센서 데이터의 선별적 공유에 대한 실시예들은 센서 데이터를 선별적으로 저장하는 경우에도 적용될 수 있다.
예를 들어, 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 할 클래스인 경우, 상기 서브 포인트 데이터 셋을 획득한 장치는 상기 서브 포인트 데이터 셋을 저장하지 않을 수 있다. 이때, 상기 장치는 상기 서브 포인트 데이터 셋의 적어도 일부를 가공한 프라이버시 보호 데이터를 생성하여 저장할 수 있다.
또한, 이에 한정되지 않고, 상기 장치는 상기 서브 포인트 데이터 셋의 클래스 정보와 관계없이 상기 서브 포인트 데이터 셋을 항상 저장할 수도 있다.
4.1.3. 고정밀 지도 생성을 위한 공유 데이터의 선별적 공유
4.1.3.1. 일 실시예에 따른 선별적 공유 방법
일 실시예에 따른 데이터 공유 시스템은 통신을 위한 적어도 하나의 통신 모듈을 포함하는 제1 장치 및 제2 장치를 포함할 수 있다. 이때, 상기 제1 장치 및 상기 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 47은 다른 일 실시예에 따른 센서 데이터의 선별적 공유에 대한 구체적인 방법을 나타내는 흐름도이다.
도 47을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5017).
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5018).
또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 서브 포인트 데이터 셋이 나타내는 객체의 이동 가능한지 여부를 판단할 수 있다(S5019)
또한, 상기 컨트롤러는 상기 객체가 이동 가능성이 없는 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5020).
또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5021).
이하에서는 각각의 단계에 대해 상세히 설명한다.
4.1.3.1.1. 센서 데이터의 획득
다시 도 47을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5017). 또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5018). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 48은 일 실시예에 따른 센서 데이터의 선별적 공유를 위해 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 49는 도 48에서 제1 차량이 라이다 장치를 통해 획득한 센서 데이터를 2차원 평면에 간략히 표현한 도면이다.
도 48 및 도 49를 참조하면, 상기 제1 차량(127)의 컨트롤러는 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)을 포함하는 포인트 데이터 셋(2102)을 획득할 수 있다.
예를 들어, 상기 컨트롤러는 상기 포인트 데이터 셋(2102)에서 보행자(800)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2113), 제3 차량(129)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2114), 및 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2115)을 추출할 수 있다.
또한, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)의 클래스 정보를 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2113)의 클래스 정보를 '사람(Human)'으로 결정할 수 있으나, 이에 한정되지 않고 사람에 대한 하위 클래스로 결정할 수 있다. 또한, 상기 컨트롤러는 상기 제2 서브 포인트 데이터 셋(2114)의 클래스 정보를 '차량(Vehicle)'으로 결정할 수 있으나, 이에 한정되지 않고 차량에 대한 하위 클래스로 결정할 수 있다. 또한, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '건물'로 결정할 수 있으나, 이에 한정되지 않고 건물에 대한 하위 클래스로 결정할 수 있다.
4.1.3.1.2. 공유 데이터 선별 기준
또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 서브 포인트 데이터 셋이 나타내는 객체의 이동 가능한지 여부를 판단할 수 있다(S5019).
구체적으로, 일 실시예에 따른 센서 데이터의 선별적 공유를 위해, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)이 나타내는 객체의 이동 가능성을 판단할 수 있다.
이때, 객체가 이동 가능한지 여부는 상기 객체의 클래스 정보를 기초로 결정될 수 있다.
보다 구체적으로, 도 49를 참조하면, 상기 컨트롤러는 보행자(800)의 적어도일부를 나타내는 상기 제1 서브 포인트 데이터 셋(2113) 및 제3 차량(129)의 적어도 일부를 나타내는 상기 제2 서브 포인트 데이터 셋(2114)의 클래스 정보를 기초로 상기 보행자(800) 및 상기 제3 차량(129)이 이동 가능한 객체라고 판단할 수 있다. 또한, 상기 컨트롤러는 건물(500)의 적어도 일부를 나타내는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 기초로 상기 건물(500)이 고정된 객체라고 판단할 수 있다.
일 예로, 상기 객체를 나타내는 서브 포인트 데이터 셋의 클래스 정보가 고정형 객체와 관련되는지 또는 이동형 객체와 관련되는지 여부를 기초로 상기 객체의 이동 가능성을 판단할 수 있다. 예를 들어, 상기 컨트롤러가 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '건물'로 결정한 경우, 상기 클래스 정보가 고정형 객체와 관련되므로, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)이 나타내는 건물(500)이 이동 가능성이 없다고 판단할 수 있다.
다른 예로, 상기 컨트롤러는 클래스 정보를 고정형 객체와 이동형 객체로 미리 분류할 수 있고, 상기 객체를 나타내는 서브 포인트 데이터 셋의 클래스 정보를 고정형 객체 또는 이동형 객체로 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보를 '고정형 객체'로 결정할 수 있고, 이 경우, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)이 나타내는 건물(500)이 이동 가능성이 없다고 판단할 수 있다.
또한, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보를 기초로 객체의 이동 가능성을 판단하지 않고, 상기 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류에 따라 공유 데이터의 컨텐츠를 결정할 수 있다.
구체적으로, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류에 대해 소정의 기준에 따라 상기 공유 데이터의 컨텐츠를 결정할 수 있다. 즉, 상기 객체의 클래스의 종류마다 상기 공유 데이터의 컨텐츠를 결정하기 위한 소정의 기준이 미리 정해질 수 있다.
일 예로, 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 '사람' 또는 '차량' 인 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않을 수 있고, 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 상기 '사람' 또는 '차량'을 제외한 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋을 포함할 수 있다.
다른 예로, 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 '건물' 등 고정형 객체인 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함할 수 있고, 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 객체의 클래스의 종류가 상기 '건물' 등 고정형 객체를 제외한 클래스인 경우, 상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋을 포함하지 않을 수 있다.
물론, 실시예에 따라, 클래스의 종류에 대한 상기 미리 결정된 기준은 다양하게 변할 수 있다. 예를 들어, 공유 데이터의 컨텐츠는 전술한 소정의 기준을 반대로 적용한 기준에 따라 결정될 수 있으나, 이에 한정되지 않는다.
또한, 사용자는 상기 소정의 기준을 실시예에 따른 데이터 공유 시스템을 설계하는 과정에서 설정할 수 있고, 사용 도중 변경할 수도 있다.
4.1.3.1.3. 공유 데이터 생성 및 전송
또한, 상기 컨트롤러는 상기 객체가 이동성이 없는 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5020).
구체적으로, 일 실시예에 따른 센서 데이터의 선별적 공유를 위해, 상기 컨트롤러는 상기 복수의 서브 포인트 데이터 셋(2113, 2114, 2115)이 나타내는 복수의 객체의 이동 가능성을 기초로 공유 데이터를 생성할 수 있다.
일 예로, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보가 고정형 객체와 관련된 경우, 상기 서브 포인트 데이터 셋 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 포함하는 상기 공유 데이터를 생성할 수 있다.
도 50은 일 실시예에 따른 공유 데이터의 컨텐츠를 설명하기 위한 도면이다.
도 50을 참조하면, 상기 공유 데이터(3000)의 컨텐츠는 클래스 정보가 고정형 객체와 관련되는 제3 서브 포인트 데이터 셋(2115)을 포함할 수 있다.
이때, 상기 제3 서브 포인트 데이터 셋(2115)은 고정형 객체인 건물(500)의 적어도 일부를 나타내므로, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋(2115)을 포함하는 공유 데이터(3000)를 생성할 수 있다.
또한, 이에 한정되지 않고, 상기 제3 서브 포인트 데이터 셋(2115)의 클래스 정보가 고정형 객체와 관련되는 경우, 상기 컨트롤러는 상기 제3 서브 포인트 데이터 셋의 제3 속성 데이터(2205)를 포함하는 공유 데이터(3000)를 생성할 수 있다.
이때, 상기 제3 속성 데이터(2205)는 상기 제3 서브 포인트 데이터 셋(2115)을 기초로 획득된 클래스 정보, 중심 위치 정보, 사이즈 정보, 형상 정보, 이동 정보, 또는 식별 정보 중 적어도 일부를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 이에 한정되지 않고, 상기 컨트롤러는 서브 포인트 데이터 셋의 클래스 정보가 이동형 객체와 관련된 경우에도 상기 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터를 생성할 수 있다. 보다 구체적으로, 상기 컨트롤러는 상기 서브 포인트 데이터 셋의 클래스 정보가 이동형 객체와 관련된 경우, 상기 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 공유 데이터를 생성할 수 있다.
예를 들어, 상기 공유 데이터의 컨텐츠는 클래스 정보가 이동형 객체와 관련되는 제1 및 제2 서브 포인트 데이터 셋(2113, 2114)의 제1 및 제2 속성 데이터(2203, 2204)를 더 포함할 수 있다.
이때, 상기 제1 및 제2 속성 데이터(2203, 2204)는 상기 제1 및 제2 서브 포인트 데이터 셋(2113, 2114)을 기초로 획득된 중심 위치 정보를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 차량(127)은 상기 공유 데이터를 제2 장치에 전송할 수 있다.
이때, 상기 제2 장치는 차량(128, 129), 인프라 장치(700), 서버(400), 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 상기 제2 장치가 서버(400)인 경우, 상기 제1 차량(127)은 상기 공유 데이터(3000)를 상기 서버(400)에 전송할 수 있다. 이때, 상기 서버(400)는 상기 공유 데이터를 기초로 고정밀 지도를 생성할 수 있다.
4.1.3.2. 부가 정보를 포함하는 공유 데이터
또한, 상기 공유 데이터의 컨텐츠는 고정형 객체의 정지 시간과 관련된 부가 정보를 포함할 수 있다.
구체적으로, 상기 센서 데이터에 포함되는 객체의 클래스 정보가 고정형 객체와 관련되되, 상기 센서 데이터에 상기 객체의 정지 시간과 관련된 부가 정보가 포함된 경우, 상기 컨트롤러는 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.
도 51은 일 실시예에 따른 부가 정보를 포함하는 센서 데이터를 선별적으로 공유하는 방법에 대한 흐름도이다.
도 51을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득하고, 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5022). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 상기 클래스 정보는 고정형 객체와 관련될 수도 있고, 이동형 객체와 관련될 수도 있다.
또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 복수의 서브 포인트 데이터 셋이 나타내는 복수의 객체의 이동 가능성을 판단할 수 있다(S5023). 예를 들어, 상기 컨트롤러는 객체가 고정형 객체와 관련된 경우, 상기 객체가 이동 가능성이 없다고 판단할 수 있다.
또한, 상기 컨트롤러는 이동 가능성이 없다고 판단한 객체에 대해, 이동 가능성과 관련된 부가 정보를 획득할 수 있다(S5024). 이때, 상기 부가 정보는 고정형 객체의 정지 시간을 포함할 수 있다.
또한, 상기 컨트롤러는 상기 부가 정보를 획득한 경우, 상기 서브 포인트 데이터 셋 및 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다(S5025)
또한, 상기 컨트롤러는 상기 부가 정보를 획득하지 못한 경우, 상기 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5026).
또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5027). 이때, 상기 제2 장치는 차량, 인프라 장치, 서버 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 52는 일 실시예에 따른 제1 차량이 적어도 하나의 센서를 통해 부가 정보를 획득하는 상황을 나타내는 도면이다.
도 53는 도52에 따른 제1 차량이 획득한 센서 데이터를 2차원 평면 상에 간략히 나타내는 도면이다.
도 52 및 도 53를 참조하면, 제1 차량(130) 적어도 하나의 센서를 통해 복수의 서브 포인트 데이터 셋(2116, 2117, 2118)를 포함하는 포인트 데이터 셋(2103)을 획득할 수 있다.
이때, 상기 복수의 서브 포인트 데이터 셋(2116, 2117, 2118)은 공사 표지판(900)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2116), 제3 차량(132)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2117), 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2118)을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 차량의 컨트롤러는 상기 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116)의 클래스 정보를 '표지판'으로 결정할 수 있고, 상기 제2 서브 포인트 데이터 셋(2117)의 클래스 정보를 '차량(Vehicle)'으로 결정할 수 있고, 상기 제3 서브 포인트 데이터 셋(2118)의 클래스 정보를 '건물'로 결정할 수 있다.
또한, 상기 컨트롤러는 복수의 객체의 클래스 정보가 고정형 객체와 관련되는지 여부를 판단하여, 상기 복수의 객체의 이동 가능성을 판단할 수 있다. 예를 들어, 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 제3 서브 포인트 데이터 셋(2118) 의 클래스 정보가 고정형 객체와 관련되므로, 상기 컨트롤러는 상기 공사 표지판(900) 및 상기 건물(500)의 이동 가능성이 없다고 판단할 수 있다.
또한, 상기 컨트롤러는 이동 가능성이 없는 객체를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다. 이때, 상기 이동 가능성이 없는 객체를 나타내는 서브 포인트 데이터 셋에 객체의 정지 시간과 관련되는 부가 정보가 포함된 경우, 상기 컨트롤러는 상기 부가 정보를 더 포함하는 공유 데이터를 생성할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116)에 상기 공사 표지판(900)의 상기 표지판의 정지 시간과 관련된 부가 정보(예를 들어, 공사 기간에 대한 정보)가 포함될 수 있다. 이때, 상기 부가 정보는 적어도 하나의 라이다 장치로부터 획득된 상기 공사 표지판(900)의 인텐시티 정보를 기초로 획득될 수 있다. 보다 구체적으로, 상기 컨트롤러는 라이다 장치로부터 획득된 상기 공사 표지판(900)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2116)에 포함된 인텐시티 값을 기초로, 상기 공사 표지판(900) 상에 표시된 공사 종료 시점을 나타내는 부가 정보를 인지할 수 있다. 또한, 상기 컨트롤러가 상기 부가 정보를 인지한 경우, 상기 컨트롤러는 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.
또한, 상기 부가 정보는 외부로부터 획득될 수 있다. 예를 들어, 상기 컨트롤러는 외부 서버로부터 상기 공사 표지판(900)의 정지 시간과 관련된 부가 정보를 획득할 수 있고, 상기 부가 정보를 포함하는 공유 데이터를 생성할 수 있다.
또한, 상기 컨트롤러는 공유 데이터를 제2 장치에 전송할 수 있다. 이때, 상기 제2 장치는 차량(131, 132), 서버(400), 인프라 장치(700) 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 54는 일 실시예에 따른 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋 및 부가 정보를 설명하기 위한 도면이다.
도 54를 참조하면, 상기 제1 차량(130)은 상기 서버(400)에 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 클래스 정보가 고정형 객체와 관련되는 상기 제1 서브 포인트 데이터 셋(2116) 및 상기 제3 서브 포인트 데이터 셋(2118)을 포함할 수 있다. 또한, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋(2110)이 나타내는 공사 표지판(900)의 정지 시간을 나타내는 부가 정보(2300)를 포함할 수 있다.
또한, 상기 제1 차량(130)의 컨트롤러가 상기 제1 서브 포인트 데이터 셋(2116)으로부터 부가 정보를 획득하지 못하더라도, 상기 컨트롤러가 상기 공사 표지판(900) 주변의 공사 현장과 관련된 센서 데이터를 획득한 경우, 상기 공사 현장의 정지 시점과 관련된 부가 정보를 획득할 수 있다. 보다 구체적으로, 상기 공사 현장에 포함되는 작업자 및 포크레인을 나타내는 복수의 서브 포인트 데이터 셋의 클래스 정보가 '공사 현장'으로 결정된 경우, 상기 컨트롤러는 상기 공사 현장의 공사 종료 시점을 포함하는 부가 정보를 획득할 수 있다. 이때, 상기 공사 종료 시점은 상기 공사 현장과 관련된 복수의 객체의 정지 시점을 의미할 수 있다. 이에 따라, 상기 컨트롤러는 상기 부가 정보를 포함하는 공유 데이터를 생성하여 제2 장치에 전송할 수 있다.
4.1.3.3. 다른 일 실시예에 따른 센서 데이터의 선별적 공유
고정밀 지도를 생성하는 장치에는 고정형 객체에 대한 정보가 미리 저장될 수 있다. 이 경우, 센서 데이터를 전송하는 장치는 센서 데이터 중 이동형 객체와 관련된 데이터만 선별하여 상기 고정밀 지도를 생성하는 장치에 전송할 수 있다.
도 55는 일 실시예에 따른 이동형 객체와 관련된 센서 데이터를 공유하는 방법을 나타내는 흐름도이다.
도 55를 참조하면, 제1 장치에 포함된 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5028). 이때, 상기 제1 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5029).
또한, 상기 컨트롤러는 상기 클래스 정보를 기초로 상기 복수의 서브 포인트 데이터 셋이 나타내는 복수의 객체의 이동 가능성을 판단할 수 있다(S5030).
또한, 상기 컨트롤러는 제1 객체의 클래스 정보가 이동형 객체와 관련되어, 상기 제1 객체가 이동 가능성이 있는 객체라고 판단한 경우, 상기 제1 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성할 수 있다(S5031). 이때, 상기 공유 데이터의 컨텐츠는 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있고, 클래스 정보가 고정형 객체와 관련되는 제2 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 더 포함할 수 있다.
또한, 상기 컨트롤러는 상기 공유 데이터를 제2 장치에 전송할 수 있다(S5032). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
4.1.3.4. 또 다른 일 실시예에 따른 센서 데이터의 선별적 공유
또한, 제1 장치로부터 공유 데이터를 수신하는 제2 장치의 컨트롤러는 상기 공유 데이터에 포함되는 서브 포인트 데이터 셋의 클래스 정보에 따라 상기 공유 데이터를 저장할지 여부를 결정할 수 있다.
도 56 일 실시예에 따른 공유 데이터를 선별적으로 저장하는 방법을 나타내는 도면이다.
도 56을 참조하면, 제1 장치는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5033).
또한 제1 장치에 포함된 컨트롤러는 적어도 하나의 통신 모듈을 통해 제2 장치에 상기 포인트 데이터 셋을 포함하는 공유 데이터를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 제2 장치가 좌표계 정렬을 용이하게 하기 위한 추가 정보를 더 포함할 수 있다. 예를 들어, 상기 추가 정보는 상기 제1 장치의 센서의 샘플링 속도와 관련된 정보, 해상도 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 공유 데이터를 수신한 제2 장치의 컨트롤러는, 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋의 클래스 정보를 결정할 수 있다(S5035).
또한, 상기 제2 장치의 컨트롤러는 상기 클래스 정보에 기초하여, 상기 공유 데이터에 포함된 데이터를 저장할지 여부를 결정할 수 있다(S5036).
일 예로, 상기 클래스 정보에 포함된 객체의 클래스가 개인 정보를 보호받아야 하는 클래스인 경우, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋의 적어도 일부를 가공한 프라이버시 보호 데이터를 생성하여 저장할 수 있다. 이 경우, 상기 제2 장치의 컨트롤러는 상기 개인 정보를 보호받아야 하는 클래스를 가지는 객체를 나타내는 서브 포인트 데이터 셋을 저장하지 않고 삭제할 수 있다.
다른 예로, 상기 제2 장치의 컨트롤러는 클래스 정보를 기초로 객체의 이동 가능성을 판단하여, 이동 가능성이 없는 객체를 나타내는 센서 데이터를 저장할 수 있다. 보다 구체적으로, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 클래스 정보가 고정형 객체와 관련되는 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터를 저장할 수 있다.
다른 예로, 상기 제2 장치의 컨트롤러는 클래스 정보를 기초로 객체의 이동 가능성을 판단하여, 이동 가능성이 있는 객체를 나타내는 센서 데이터를 저장할 수 있다. 보다 구체적으로, 상기 제2 장치의 컨트롤러는 상기 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋 중 클래스 정보가 이동형 객체와 관련되는 서브 포인트 데이터 셋, 또는 상기 서브 포인트 데이터 셋의 속성 데이터를 저장할 수 있다.
또한, 상기 제2 장치는 수신한 공유 데이터의 컨텐츠에 포함되는 서브 포인트 데이터 셋이 나타내는 객체에 대한 정보가 상기 제2 장치에 저장되어 있는지 여부에 따라 상기 공유 데이터에 포함된 데이터를 저장할지 여부를 결정할 수 있다.
또한, 상기 제2 장치는 상기 공유 데이터를 수신하여 고정밀 지도를 생성할 수 있다. 이때, 상기 제2 장치의 고정밀 지도 상에 고정형 객체와 관련된 정보가 저장되어 있는 경우, 상기 제2 장치는 상기 이동형 객체와 관련된 센서 데이터를 수신하여 상기 고정밀 지도를 갱신할 수 있다. 또한, 이에 한정되지 않고, 상기 고정밀 지도 상에 고정형 객체와 관련된 정보를 갱신하기 위해, 상기 제2 장치는 상기 고정형 객체와 관련된 센서 데이터를 수신하여 상기 고정밀 지도를 갱신할 수 있다. 이때, 상기 센서 데이터는 포인트 데이터 셋, 복수의 서브 포인트 데이터 셋, 상기 복수의 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제2 장치는 프라이버시 보호 데이터를 포함하는 공유 데이터를 수신하여 상기 프라이버시 보호 데이터를 상기 고정밀 지도 상에 매칭시킬 수 있다.
4.2. 이벤트 발생에 따른 센서 데이터의 선별적 공유
4.2.1. 이벤트 발생에 따른 선별적 공유의 필요성
일 실시예에 따른 데이터 공유 시스템은 데이터 공유 주체로서 제1 장치 및 제2 장치를 포함할 수 있다. 여기서, 상기 제1 장치는 상기 제2 장치 또는 서버로 공유 데이터를 전송할 수 있으나, 이에 한정되지 않는다.
이때, 제1 장치에서 획득한 모든 센서 데이터를 제2 장치 또는 서버와 공유하게 되면 데이터 공유의 효율성이 떨어지는 등 다양한 문제가 발생할 수 있다. 예를 들어, 상기 센서 데이터에 포함되는 포인트 데이터 셋을 어떠한 가공도 없이 공유하게 되면, 데이터 저장 용량 문제, 통신 서버의 과부하 문제 등이 발생할 수 있으나, 이에 한정되지 않는다.
상기와 같은 문제를 해결하기 위해, 상기 제1 장치의 컨트롤러는 이벤트 발생 여부에 따라 공유 데이터의 컨텐츠를 적어도 일부 다르게 생성할 수 있다.
예를 들어, 상기 컨트롤러는 상기 이벤트 발생 전에는 속성 데이터를 포함하는 제1 공유 데이터를 생성하여 전송할 수 있다. 이때, 상기 이벤트는 차량의 주행과 관련되는 트래픽 이벤트, 비와 눈과 같은 환경 이벤트, 어린이 보호 구역 진입과 같은 규제 이벤트를 포함할 수 있으나, 이에 한정되지 않는다. 상기 이벤트와 관련된 상세한 내용은 하기에서 설명한다.
또한, 상기 컨트롤러는 상기 이벤트 발생 후에는 보다 상기 이벤트와 관련된 정확한 정보를 전송하기 위해, 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋을 포함하는 제2 공유 데이터를 생성하여 전송할 수 있다. 이때, 상기 제2 공유 데이터는 이벤트 발생 전후 소정 시간 동안 획득된 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋을 포함할 수 있다.
4.2.2. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (1)
도 57은 다른 일 실시예에 따른 센서 데이터의 선별적 공유 방법을 설명하기 위한 흐름도이다.
도 57을 참조하면, 제1 장치의 컨트롤러는 적어도 하나의 센서를 통해 포인트 데이터 셋을 획득할 수 있다(S5037). 이때, 상기 제1 장치는 차량, 인프라 장치 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋의 속성 데이터를 결정할 수 있다(S5038). 이때, 상기 속성 데이터는 상기 서브 포인트 데이터 셋의 클래스 정보, 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보, 식별 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 상기 속성 데이터를 포함하는 제1 공유 데이터를 생성하여 제2 장치에 전송할 수 있다(S5039, S5040). 이때, 상기 제2 장치는 차량, 서버, 인프라 장치, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 이벤트 발생 사실을 확인할 수 있다(S5041). 이때, 상기 이벤트는 차량의 주행 및 사고와 관련되는 트래픽 이벤트를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 컨트롤러는 상기 이벤트 발생 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함하는 제2 공유 데이터를 생성하여 전송할 수 있다(S5042).
이하에서는 일 실시예에 따른 이벤트 발생을 확인하는 방법에 대해 구체적으로 설명한다.
4.2.2.1. 공유 데이터의 생성 및 이벤트 발생 확인 방법
도 58은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 59는 도58에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타내는 도면이다.
도 58 및 도 59를 참조하면, 제1 차량(133)은 제2 차량(134)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋(2119) 및 제3 차량(135)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋(2120)을 포함하는 포인트 데이터 셋(2104)을 포함할 수 있다.
또한, 상기 컨트롤러는 상기 포인트 데이터 셋에 포함되는 복수의 서브 포인트 데이터 셋(2119, 2120)의 복수의 속성 데이터를 결정할 수 있다. 이때, 상기 복수의 속성 데이터는 상기 복수의 서브 포인트 데이터 셋(2119, 2120)의 중심 위치 정보, 사이즈 정보, 클래스 정보, 형상 정보, 이동 정보, 또는 식별 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 장치는 제1 공유 데이터를 생성하여 제2 장치에 전송할 수 있다(S5039, S5040).
도 60은 일 실시예에 따른 이벤트 발생 전에 제1 차량에서 전송하는 제1 공유 데이터를 설명하기 위한 도면이다.
도 60을 참조하면, 상기 제1 차량의 컨트롤러는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터(2206) 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터(2207)를 포함하는 제1 공유 데이터(3000a)를 생성하여 상기 제2 차량(134)에 전송할 수 있다.
또한, 상기 컨트롤러는 이벤트 발생 사실을 확인할 수 있다. 예를 들어, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이의 트래픽 이벤트(6100)를 확인할 수 있다. 이때, 상기 트래픽 이벤트(6100)는 상기 제1 차량(133)과 관련된 사고 상황 또는 상기 제1 차량 주변의 다른 차량(134, 135)과 관련된 사고 상황 중 적어도 하나 관련될 수 있다.
도 61은 일 실시예에 따른 이벤트 발생 시점에 제1 차량이 센서 데이터를 획득하는 상황을 나타내는 도면이다.
도 62는 도 61에 따라 획득한 센서 데이터에 포함된 포인트 데이터 셋을 2차원 평면 상에 간략히 나타낸 도면이다.
도 61 및 도 62를 참조하면, 상기 제1 차량(133)의 컨트롤러는 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 차량(134,135)을 포함하는 제2 포인트 데이터 셋(2105)을 획득할 수 있다. 이때, 상기 포인트 데이터 셋(2105)은 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(135)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)을 포함할 수 있다.
일 예로, 상기 컨트롤러는 포인트 데이터 셋 또는 상기 서브 포인트 데이터 셋의 속성 데이터 중 적어도 일부를 기초로 상기 이벤트 발생을 확인할 수 있다(S5041). 보다 구체적으로, 상기 컨트롤러는 복수의 서브 포인트 데이터 셋에 포함되는 객체들의 위치 정보 또는 복수의 속성 데이터에 포함되는 복수의 정보 중 적어도 일부를 기초로 상기 이벤트 발생을 확인할 수 있다.
구체적인 예로, 제1 차량(133)의 컨트롤러는 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(135)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)에 포함되는 각각의 포인트 데이터가 적어도 일부분 겹쳐지고, 상기 컨트롤러를 통해 판단되는 거리 정보를 기초로 상기 제3 서브 포인트 데이터 셋(2121) 및 상기 제4 서브 포인트 데이터 셋(2122) 사이의 거리가 소정 거리 이하일 경우, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이에 트래픽 이벤트(6100)가 발생했다고 판단할 수 있다. 이때, 상기 제1 차량(133)이 획득한 포인트 데이터 셋에 포함된 복수의 서브 포인트 데이터 셋(2121, 2122) 중 적어도 하나는 이벤트와 관련된 차량(134, 135)의 적어도 일부를 나타낼 수 있다.
또한, 상기 포인트 데이터 셋을 기초로 생성된 3d 포인트 데이터 맵 상에서 상기 복수의 서브 포인트 데이터 셋 또는 복수의 속성 데이터가 일정 영역 겹쳐지는 경우, 상기 컨트롤러는 상기 제2 차량(134) 및 상기 제3 차량(135) 사이에 트래픽 이벤트(6100)가 발생했다고 판단할 수 있다.
또한, 이에 한정되지 않고, 상기 컨트롤러는 포인트 데이터 셋에 이벤트와 관련된 객체를 나타내는 서브 포인트 데이터 셋이 포함되지 않는 경우에도, 상기 이벤트 발생을 확인할 수 있다.
일 예로, 상기 컨트롤러는 상기 포인트 데이터 셋에 상기 이벤트 발생을 확인할 수 있게 하는 정보가 포함된 경우, 상기 이벤트 발생을 확인할 수 있게 하는 정보를 기초로 이벤트 발생을 확인할 수 있다. 구체적인 예로, 상기 포인트 데이터 셋에 사고 현장을 표시하는 객체를 나타내는 서브 포인트 데이터 셋이 포함되는 경우, 상기 컨트롤러는 상기 사고 현장을 표시하는 객체를 나타내는 서브 포인트 데이터 셋을 기초로 이벤트 발생을 확인할 수 있다.
또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 제2 장치 또는 제3 장치로부터 이벤트 발생 사실을 포함하는 정보를 획득함에 따라 상기 이벤트 발생을 확인할 수 있다. 이때, 상기 제3 장치는 차량(134, 135), 서버(400), 인프라 장치(700) 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 서버(400)가 상기 이벤트 발생을 확인한 경우, 상기 서버(400)는 상기 이벤트가 발생한 영역의 주변에 있는 장치에 이벤트 발생 사실을 포함하는 정보를 전송할 수 있다. 구체적인 예로, 상기 서버(400)는 상기 트래픽 이벤트(6100)가 발생한 사실을 확인한 경우, 상기 트래픽 이벤트(6100)가 발생한 영역의 주변에 위치한 상기 제1 차량(133)에 상기 트래픽 이벤트(6100)가 발생한 사실을 포함하는 정보를 전송할 수 있다. 이 경우, 상기 제1 차량(133)은 상기 트래픽 이벤트가 발생한 사실을 포함하는 정보를 수신한 시점에서 상기 트래픽 이벤트(6100) 발생 사실을 확인할 수 있다.
또한, 이에 한정되지 않고, 상기 컨트롤러는 상기 제2 장치 또는 상기 제3 장치 중 적어도 하나로부터 데이터 요청 정보를 획득함에 따라 상기 이벤트 발생을 확인할 수 있다. 이때, 상기 요청 정보는 상기 이벤트가 발생한 사실을 나타내는 정보를 포함할 수 있다.
예를 들어, 상기 서버(400)가 상기 제1 차량(133)에 상기 트래픽 이벤트(6100)와 관련된 데이터를 요청하는 요청 정보를 전송하는 경우, 상기 요청 정보는 상기 트래픽 이벤트(6100)가 발생한 사실을 나타내는 정보를 포함하므로, 상기 제1 차량(133)은 상기 요청 정보를 수신한 시점에서 상기 트래픽 이벤트(6100)가 발생한 사실을 확인할 수 있다.
또한, 상기 컨트롤러는 상기 제2 포인트 데이터 셋(3100)을 포함하는 제2 공유 데이터(3000b)를 생성할 수 있다(S5042).
도 63은 일 실시예에 따른 이벤트 발생 후에 제1 차량에서 전송하는 제2 공유 데이터를 설명하기 위한 도면이다.
도 63을 참조하면, 상기 제1 차량의 컨트롤러는 상기 제2 포인트 데이터 셋을 포함하는 제2 공유 데이터(3000b)를 생성하여 상기 제2 차량(134)에 전송할 수 있다. 이때, 상기 제2 포인트 데이터 셋은 상기 제2 차량(134)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋(2121) 및 상기 제3 차량(134)의 적어도 일부를 나타내는 제4 서브 포인트 데이터 셋(2122)을 포함할 수 있다.
이때, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 공유 데이터의 컨텐츠와 적어도 일부가 상이할 수 있다. 일 예로, 상기 공유 데이터(3000a, 3000b)를 수신하는 제2 장치는 상기 트래픽 이벤트(6100)와 관련된 보다 정확한 데이터가 필요하므로, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)의 발생을 확인한 후에 획득된 복수의 서브 포인트 데이터 셋(2121,2122)을 포함할 수 있다. 다른 예로, 상기 제2 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도는 상기 제1 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도와 상이할 수 있다. 예를 들어, 상기 제2 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도는 상기 제1 공유 데이터의 컨텐츠에 포함되는 센서 데이터를 획득하기 위한 센서의 해상도보다 클 수 있으나, 이에 한정되지 않는다.
또한, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100)가 발생한 시점 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 보다 구체적으로, 상기 복수의 포인트 데이터 셋은 상기 트래픽 이벤트(6100) 발생 후에 상기 제1 차량(133)의 센서로부터 획득된 포인트 데이터 셋 뿐만 아니라, 상기 트래픽 이벤트(6100) 발생 이전에 획득된 포인트 데이터 셋을 포함할 수 있다. 이는, 상기 트래픽 이벤트(6100) 발생 전후의 데이터를 통해 상기 트래픽 이벤트(6100)의 발생 원인 등과 관련된 정확한 정보를 얻기 위함 일 수 있다.
또한, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 이벤트와 관련 있는 속성 데이터를 더 포함할 수 있다.
물론, 일 실시예에 따른 센서 데이터의 선별적 공유 방법은 도 57에 기재된 단계에 한정되지 않는다. 예를 들어, 제1 장치는 이벤트 발생을 확인하기 전에는 공유 데이터를 생성하지 않을 수 있다. 이에 따라, 상기 이벤트 발생을 확인하기 전에는 상기 제1 장치는 제2 장치에 데이터를 공유하지 않을 수 있다.
4.2.2.2. 데이터 공유 주체
또한, 제1 장치는 상기 제2 공유 데이터를 전송할 수 있다(S5042).
이때, 상기 제2 공유 데이터의 수신 주체는 차량, 인프라 장치, 서버, 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 상기 제1 장치는 상기 제1 공유 데이터를 전송했던 제2 장치에 상기 제2 공유 데이터를 전송할 수 있다.
다시 도 61을 참조하면, 상기 제1 차량(133)의 컨트롤러는 상기 트래픽 이벤트(6100)와 관련된 제2 차량(134)에 상기 제2 공유 데이터를 전송할 수 있다.
또한, 이에 한정되지 않고, 상기 컨트롤러가 상기 서버(400)로부터 상기 트래픽 이벤트(600)와 관련된 데이터를 요청하는 요청 정보를 획득한 경우, 상기 컨트롤러는 상기 제2 공유 데이터(3000b)를 상기 서버(400)에 전송할 수 있다.
물론, 상기 요청 정보에 공유 데이터 수신 주체와 관련된 정보가 포함되어 있는 경우, 상기 컨트롤러는 상기 공유 데이터 수신 주체와 관련된 정보를 기초로 상기 제2 공유 데이터(3000b)를 전송할 수 있다. 예를 들어, 상기 서버(400)로부터 수신한 요청 정보에 상기 제3 차량(135)에 공유 데이터를 전송하라는 공유 데이터 수신 주체와 관련된 정보가 포함되어 있는 경우, 상기 컨트롤러는 상기 제3 차량(135)에 상기 제2 공유 데이터(3000b)를 전송할 수 있다.
4.2.2.3. 공유 데이터 생성 시기
제1 장치의 컨트롤러는 이벤트 발생을 확인한 경우, 상기 이벤트 발생 시점 이후로 일정 주기로 공유 데이터를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 이벤트 발생 시점 전에 획득된 적어도 하나의 포인트 데이터 셋을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 상기 이벤트 발생 시점 이후에 획득된 적어도 하나의 포인트 데이터 셋을 포함할 수 있다. 이 경우, 상기 컨트롤러는 상기 공유 데이터가 생성될 때 마다 상기 공유 데이터를 제2 장치에 전송할 수 있다.
또한, 상기 컨트롤러는 이벤트 발생 시점을 포함하는 제1 시간 구간의 종류 이후에 상기 공유 데이터를 생성할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 발생 시점 전후의 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 이 경우, 상기 컨트롤러는 상기 공유 데이터가 생성된 이후에 상기 공유 데이터를 제2 장치에 전송할 수 있다.
예를 들어, 다시 도 63을 참조하면, 상기 제1 차량(133)은 제2 공유 데이터(3000b)를 상기 제2 차량(134)에 전송할 수 있다. 이때, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)가 발생한 시점으로부터 일정 주기로 생성될 수 있다. 이 경우, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 발생 시점에 획득한 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋(2121, 2122)을 포함할 수 있다. 또한, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 발생 전에 획득한 복수의 포인트 데이터 셋을 포함할 수 있으며, 상기 트래픽 이벤트 발생 후에 획득한 복수의 포인트 데이터 셋을 포함할 수도 있다.
또한, 이에 한정되지 않고, 상기 제2 공유 데이터(3000b)는 상기 트래픽 이벤트(6100)가 발생한 시점을 전 후의 제1 시간 구간 종류 후에 생성될 수 있다. 이때, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트 전후의 소정 시간을 포함하는 제1 시간 구간 동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 또한, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 트래픽 이벤트가 발생한 시점에 획득된 포인트 데이터 셋 또는 복수의 서브 포인트 데이터 셋(2121, 2122)을 포함할 수 있다.
또한, 이에 한정되지 않고, 상기 공유 데이터는 센서 데이터 획득 시점에 동시에 생성될 수 있다. 물론, 상기 공유 데이터는 상기 센서 데이터 획득 시점과 무관하게 임의의 시점에 생성될 수도 있다.
4.2.2.4. 이벤트의 다양한 실시예들
상기 이벤트(6000)는 제1 장치의 내부 및 외부와 관련된 모든 상황적 조건들을 의미할 수 있다. 예를 들어, 상기 이벤트는 트래픽 이벤트, 환경 이벤트, 규제 이벤트, 블라인드 스팟의 발견, 사용자의 인풋 수신 등을 포함할 수 있으나, 이에 한정되지 않는다.
예를 들어, 상기 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련된 트래픽 이벤트, 상기 제1 장치의 주변 환경과 관련된 환경 이벤트, 및 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련된 규제 이벤트 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 다양한 종류의 이벤트와 관련하여 전술한 센서 데이터의 선별적 공유 방법에 대한 실시예들이 적용될 수 있음은 물론이다.
이때, 상기 트래픽 이벤트는 상기 제1 장치와 관련된 사고 상황 또는 상기 제1 장치 주변의 다른 장치와 관련된 사고 상황 중 적어도 하나 관련될 수 있다. 예를 들어, 상기 트래픽 이벤트는 차량 사고 발생, 차량과 보행자 사이의 사고 발생, 트래픽 잼 발생 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 64는 일 실시예에 따른 트래픽 이벤트 발생 상황을 설명하기 위한 도면이다.
도 64를 참조하면, 차량 사이의 연쇄 추돌 사고는 트래픽 이벤트(6100)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 트래픽 이벤트(6100) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 트래픽 이벤트(6100) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다.
또한, 상기 환경 이벤트는 상기 제1 장치의 주변 환경과 관련될 수 있다. 예를 들어, 상기 환경 이벤트는 악천후 발생, 도로 상황 악화, 갑작스러운 비 또는 눈이 오는 상황, 안개 또는 해무 발생 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 65는 일 실시예에 따른 환경 이벤트 발생 상황을 설명하기 위한 도면이다.
도 65를 참조하면, 주행 중인 차가 포함되는 영역에 갑자기 내리는 비는 환경 이벤트(6200)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 환경 이벤트(6200) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 환경 이벤트(6200) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 환경 이벤트(6200) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다.
예를 들어, 차량이 운행 중에 갑작스럽게 비가 오는 경우, 상기 차량에 배치된 적어도 하나의 센서는 상기 차량의 주변에 위치하는 복수의 객체에 대한 정확한 센서 데이터를 획득하기 어려울 수 있다. 이에 따라, 상기 차량 및 다른 장치는 보다 정확한 센서 데이터를 공유 하기 위해, 비가오는 경우에는 포인트 데이터 셋 또는 서브 포인트 데이터 셋 중 적어도 일부를 포함하는 공유 데이터를 생성하여 공유할 수 있다.
다른 예로, 상기 규제 이벤트는 상기 제1 장치 또는 상기 제1 장치 주변의 다른 장치에 대한 규제와 관련될 수 있다. 예를 들어, 상기 규제 이벤트는 어린이 보호 구역 진입, 과속 단속 영역 진입, 외부 서버의 데이터 공유에 대한 승인, 통신 가능 영역 진입 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 66은 일 실시예에 따른 규제 이벤트 발생 상황을 설명하기 위한 도면이다.
도 66을 참조하면, 주행 중인 차가 어린이 보호 구역에 진입한 상황은 규제 이벤트(6300)에 포함될 수 있다. 이때, 데이터 공유 주체 사이에 공유되는 공유 데이터의 컨텐츠는 상기 규제 이벤트(6300) 발생을 전 후로 달라질 수 있다. 예를 들어, 상기 규제 이벤트(6300) 발생 전에는 서브 포인트 데이터 셋의 속성 데이터를 포함하는 공유 데이터가 공유될 수 있으나, 상기 규제 이벤트(6300) 발생 후에는 포인트 데이터 셋 또는 서브 포인트 셋 중 적어도 하나를 포함하는 공유 데이터가 공유 될 수 있다.
예를 들어, 차량이 어린이 보호 구역에 진입하는 경우, 상기 차량은 갑작스럽게 도로상에 뛰어드는 보행자와의 충돌을 피하기 어려울 수 있다. 이에 따라, 상기 차량 및 다른 장치는 상기 차량 및 다른 장치로부터 획득된 센서 데이터에 포함되는 적어도 하나의 객체에 대한 정확한 정보를 공유하기 위해, 상기 적어도 하나의 객체를 나타내는 서브 포인트 데이터 셋 또는 포인트 데이터 셋을 포함하는 공유 데이터를 생성하여 공유할 수 있다.
또한, 상기 차량에 배치된 적어도 하나의 센서의 시야각 내에 위치하지 않거나, 상기 적어도 하나의 센서로부터 획득된 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 상기 차량이 어린이 보호 구역에 진입한 후에는, 상기 차량은 어린이 보호 구역 내에 위치한 적어도 하나의 인프라 장치로부터 센서 데이터를 수신할 수 있다.
또 다른 예로, 상기 이벤트는 센서 고장 이벤트를 포함할 수 있다. 구체적으로, 적어도 하나의 센서를 포함하는 자율 주행 차량이 주행 중에 센서가 고장난 경우, 센서가 고장난 시점을 전후로 상기 자율 주행 차량 및 다른 장치 간에 공유 되는 공유 데이터의 컨텐츠가 달라질 수 있다.
4.2.3. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (2)
도 67은 일 실시예에 따른 서버가 이벤트와 관련된 데이터를 요청하거나 이벤트의 발생을 알리는 방법을 나타내는 도면이다.
도 67을 참조하면, 상기 서버는 제1 시간에 제1 영역에서 발생한 이벤트를 확인할 수 있다(S5043).
상기 서버가 이벤트(트래픽 이벤트에서 이벤트로 변경)를 확인하는 방법과 관련된 구체적인 내용은 목차확인 방법은 목차 4.2.2.1.에 상세히 설명하였으므로 생략하기로 한다.
또한, 상기 제1 시간은 상기 이벤트 발생과 관련되는 대표적인 시간을 의미할 수 있다. 예를 들어, 상기 제1 시간은 상기 이벤트가 실제 발생한 시간을 의미할 수 있다. 또한, 이에 한정되지 않고, 상기 제1 시간은 상기 서버가 상기 이벤트를 확인한 시간을 의미할 수 있다.
또한, 상기 제1 영역은 상기 이벤트 발생과 관련되는 대표적인 영역을 의미할 수 있다. 예를 들어, 상기 제1 영역은 상기 이벤트에 관련되는 모든 객체를 포함하는 영역을 의미할 수 있다. 또한, 이에 한정되지 않고, 상기 이벤트가 차량 간의 접촉 사고인 경우, 상기 제1 영역은 상기 차량 간의 접촉이 발생한 시점에서 접촉이 발생한 지점을 의미할 수 있고, 상기 접촉이 발생한 지점을 포함하는 소정 영역을 의미할 수도 있다.
또한, 상기 서버는 상기 이벤트와 관련된 센서 데이터를 요청하는 제1 메시지를 제1 장치에 전송할 수 있다(S5044)
또한, 상기 서버는 상기 이벤트 발생 사실을 알리는 제2 메시지를 제2 장치에 전송할 수 있다(S5045).
또한, 상기 서버는 상기 제1 장치로부터 상기 이벤트와 관련된 센서 데이터를 수신할 수 있다(S5046).
전술한 서버의 동작 방법에 포함되는 단계 중 메시지 전송과 공유 데이터 수신에 대한 단계에 관련된 상세한 내용은 아래에서 설명한다.
4.2.3.1. 메시지 전송 범위
이벤트를 확인한 서버는 상기 이벤트가 발생한 제1 영역 주변에 위치하는 제1 장치에 데이터를 요청할 수 있다. 이때, 상기 서버는 상기 제1 장치에 센서 데이터를 요청할 수도 있으나, 센서 데이터 외에 다양한 데이터를 요청할 수도 있다.
도 68은 일 실시예에 따른 서버 및 차량이 데이터 공유를 위해 통신을 수행하는 상황을 나타내는 도면이다.
도 68을 참조하면, 제1 차량(136)은 상기 이벤트(6100)가 발생한 영역으로부터 제1 범위(7100)내에 위치하고, 상기 제1 차량(136)은 적어도 하나의 센서를 통해 트래픽 이벤트(6100)와 관련된 센서 데이터를 획득할 수 있다.
또한, 상기 제1 차량(136)이 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제1 범위(7100) 내에 위치하는 경우, 상기 트래픽 이벤트(6100)를 확인한 서버(400)는 상기 제1 차량(136)에 센서 데이터를 요청하는 제1 메시지를 전송할 수 있다.
이때, 상기 제1 범위(7100)는 상기 제1 영역을 기준으로 하는 소정의 형상의 내부에 포함되는 영역에 대응될 수 있다. 예를 들어, 상기 제1 범위는 불규칙한 형상의, 원형, 또는 다각형상 등의 내부에 포함되는 영역일 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 범위(7100)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위 내에 위치하는 제1 장치가 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되는 경우, 상기 제1 장치가 상기 제1 영역으로부터 상기 제1 범위내에 위치하도록 상기 제1 범위가 설정될 수 있다.
또한, 상기 제1 범위(7100)는 제1 서브 범위 및 제2 서브 범위를 포함할 수 있다.
도 69는 일 실시예에 따른 제1 범위에 포함되는 제1 서브 범위를 설명하기 위한 도면이다.
도 69를 참조하면, 상기 제1 범위(7100)는 상기 트래픽 이벤트(6100)가 발생한 영역을 기준으로 구형상의 내부를 포함할 수 있다.
또한, 제4 차량(139)은 상기 제1 범위(7100)에 포함되는 제1 서브 범위(7110) 내에 위치할 수 있다. 이때, 상기 제1 서브 범위(7110)는 상기 제1 범위(7100) 내에서 상기 트래픽 이벤트(6100)와 관련된 정보를 획득 가능한 영역에 대응될 수 있다. 보다 구체적으로, 상기 제4 차량(139)이 상기 제1 서브 범위(7110) 내에 위치하는 경우, 상기 제4 차량(139)은 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 데이터를 획득할 수 있다.
또한, 상기 제1 서브 범위(7110)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위(7100) 내에 위치하는 제4 차량(139)이 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되는 경우, 상기 제4 차량(139)이 상기 제1 영역으로부터 상기 제1 서브 범위(7110)내에 위치하도록 상기 제1 서브 범위(7110)가 설정될 수 있다. 이때, 상기 제4 차량(139)이 획득한 센서 데이터는 상기 트래픽 이벤트(6100)와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있다.
또한, 제3 차량(138)은 상기 제1 범위(7100)에 포함되는 제2 서브 범위(7120) 내에 위치할 수 있다. 이때, 상기 제2 서브 범위(7120)는 상기 제1 범위(7100) 내에서 상기 트래픽 이벤트(6100)와 관련된 정보를 획득할 수 없는 영역에 대응될 수 있다. 보다 구체적으로, 상기 제3 차량(138)이 상기 제2 서브 범위(7120) 내에 위치하는 경우, 상기 제3 차량(138)은 적어도 하나의 센서를 통해 상기 트래픽 이벤트(6100)와 관련된 데이터를 획득할 수 없다.
또한, 상기 제2 서브 범위(7120)는 센서 데이터를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제1 범위(7100) 내에 위치하는 제3 차량(138)이 획득한 센서 데이터에 상기 트래픽 이벤트와 관련된 객체가 포함되지 않거나, 상기 센서 데이터와 상기 트래픽 이벤트에 관련된 객체가 관련성이 낮을 경우, 상기 제3 차량(138)이 상기 제1 영역으로부터 상기 제2 서브 범위(7120)내에 위치하도록 상기 제2 서브 범위(7120)가 설정될 수 있다. 이때, 상기 제3 차량(138)이 획득한 센서 데이터는 상기 트래픽 이벤트(6100)와 관련된 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함하지 않을 수 있다.
또한, 상기 서버는 상기 트래픽 이벤트가 발생한 영역 주변에 위치하는 제2장치에 상기 트래픽 이벤트 발생 사실을 알릴 수 있다.
다시 도 68을 참조하면, 제2 차량(137)은 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제2 범위(7200) 내에 위치할 수 있다.
또한, 상기 제2 차량(137)이 상기 트래픽 이벤트(6100)가 발생한 제1 영역으로부터 제1 범위(7100) 외측의 소정 영역을 나타내는 제2 범위(7200) 내에 위치하는 경우, 상기 서버는 제2 차량(137)에 상기 트래픽 이벤트가 발생한 사실을 알리는 제2 메시지를 전송할 수 있다.
이때, 상기 제2 범위(7200)는 상기 제1 범위(7100) 외측 영역 중 상기 제1 영역을 기준으로 하는 소정의 형상의 내부에 포함되는 영역에 대응될 수 있다. 예를 들어, 상기 제2 범위는 상기 제1 범위(7100) 외측 영역 중 불규칙한 형상의, 원형, 또는 다각형상 등의 내부에 포함되는 영역일 수 있으나, 이에 한정되지 않는다.
다시 도 68을 참조하면, 상기 제2 차량(137)의 경로는 상기 트래픽 이벤트(6100)가 발생한 제1 영역과 관련될 수 있다. 보다 구체적으로, 상기 제1 영역으로부터 상기 제2 범위(7200) 내에 위치하는 상기 제2 차량(137)의 경로 상에 상기 트래픽 이벤트(6100)와 관련되는 제1 영역이 관련되는 경우, 상기 서버(400)는 상기 제2 차량(137)에 트래픽 이벤트 발생 사실을 알리는 제2 메시지를 전송할 수 있다.
또한, 상기 제2 범위(7200)는 상기 제2 차량(137)의 경로를 기초로 결정될 수 있다. 보다 구체적으로, 상기 제2 차량(137)의 경로가 상기 트래픽 이벤트(6100)가 발생한 제1 영역과 관련되는 경우, 상기 서버(400)는 상기 제2 차량(137)이 상기 제2 범위(7200) 내에 위치하도록 상기 제2 범위(7200)를 결정할 수 있다.
또한, 상기 제2 범위는 상기 제1 범위를 포함할 수 있다. 이 경우, 상기 서버는 상기 제1 범위 내에 위치하는 차량에 제1 메시지 및 제2 메시지를 전송할 수 있다.
4.2.3.2. 공유 데이터의 수신
또한, 상기 서버는 상기 제1 메시지에 대한 응답으로 상기 제1 장치로부터 센서 데이터를 수신할 수 있다. 이때, 상기 센서 데이터는 포인트 데이터 셋, 서브 포인트 데이터 셋, 서브 포인트 데이터 셋의 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 70은 일 실시예에 따른 제1 차량이 서버에 전송하는 공유 데이터에 포함되는 데이터를 설명하기 위한 도면이다.
도 70을 참조하면, 제1 범위 내에 포함되는 상기 제1 차량(136)은 상기 제1 메시지에 대한 응답으로, 상기 서버(400)에 공유 데이터(3000)를 전송할 수 있다. 이때, 상기 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100)가 발생한 제1 시점에서 획득된 제1 포인트 데이터 셋(2106)을 포함할 수 있다.
또한, 상기 공유 데이터의 컨텐츠는 상기 트래픽 이벤트(6100) 발생 전후에대한 정보를 공유하기 위해, 상기 트래픽 이벤트가 발생한 제1 시간을 포함하는 제1 시간 구간동안 획득된 복수의 포인트 데이터 셋을 포함할 수 있다. 이때, 상기 복수의 포인트 데이터 셋은 상기 제1 포인트 데이터 셋(2106)을 포함할 수 있다.
또한, 상기 공유 데이터의 생성 시기와 관련된 내용은 목차 4.2.2.3.에 상세히 설명하였으므로 생략하기로 한다.
또한, 상기 공유 데이터를 수신한 서버(400)는 상기 공유 데이터의 컨텐츠에 포함된 복수의 포인트 데이터 셋을 기초로, 상기 트래픽 이벤트를 재구성할 수 있다. 보다 구체적으로, 상기 서버(400)는 상기 제1 시간 구간동안 획득된 상기 트래픽 이벤트와 관련된 복수의 포인트 데이터 셋을 시간 순서대로 나열하여 상기 트래픽 이벤트를 재구성할 수 있다. 또한, 상기 서버(400)는 상기 제1 시간 구간동안 획득된 상기 트래픽 이벤트와 관련된 복수의 포인트 데이터 셋을 리샘플링하여 상기 트래픽 이벤트를 재구성할 수 있다.
상기 트래픽 이벤트를 재구성하는 방식은 해당 분야의 통상의 기술자가 사용할 수 있는 것으로, 트래픽 이벤트를 재구성하는 방식에 대한 상세한 설명은 생략한다.
또한, 재구성된 트래픽 이벤트는 적어도 하나의 차량에 전송되어 상기 적어도 하나의 차량의 인포테인먼트 시스템을 통해 탑승자에게 디스플레이될 수 있다. 또한, 이에 한정되지 않고, 상기 재구성된 트래픽 이벤트는 외부 기관에 전송될 수도 있다.
4.2.3.3. 메시지에 포함되는 정보
도 71은 일 실시예에 따른 제1 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 71을 참조하면, 차량의 적어도 하나의 인포테인먼트 시스템에 포함되는 메시지창(1430)에 서버로부터 수신한 제1 메시지(1431)가 디스플레이될 수 있다.
또한, 상기 제1 메시지(1431)는 상기 이벤트의 발생 시간과 관련되는 시간 정보를 포함할 수 있다. 이때, 상기 시간 정보는 상기 이벤트가 제1 시간에 발생한 사실을 나타내는 제1 정보를 포함할 수 있다. 또한, 상기 차량의 컨트롤러는 상기 제1 메시지(1431)를 수신한 시점, 상기 시간 정보를 획득한 시점, 또는 상기 제1 정보를 획득한 시점 중 적어도 하나에 상기 이벤트가 발생한 사실을 확인할 수 있다.
또한, 상기 제1 메시지(1431)는 상기 이벤트와 관련된 데이터에 대한 요청 정보를 포함할 수 있다.
또한, 상기 차량의 컨트롤러는 상기 차량에 탑승한 탑승자로부터 상기 제1 메시지(14310)에 응답하는 인풋을 수신할 수 있다. 이때, 상기 컨트롤러는 상기 탑승자로부터 상기 이벤트와 관련된 데이터의 전송을 수락하는 인풋을 수신할 수 있고, 상기 이벤트와 관련된 데이터의 전송을 거절하는 인풋을 수신할 수도 있다.
상기 컨트롤러가 상기 탑승자로부터 상기 이벤트와 관련된 데이터의 전송을 수락하는 인풋을 수신한 경우, 상기 컨트롤러는 상기 이벤트와 관련되는 객체의 적어도 일부를 나타내는 적어도 하나의 서브 포인트 데이터 셋을 포함하는 공유 데이터를 생성하여 상기 서버 또는 상기 이벤트에 관련되는 객체에 전송할 수 있다.
도 72는 일 실시예에 따른 제2 메시지에 포함되는 정보를 설명하기 위한 도면이다.
도 72를 참조하면, 차량의 적어도 하나의 인포테인먼트 시스템에 포함되는 메시지창(1430)에 서버로부터 수신한 제2 메시지(1432)가 디스플레이될 수 있다.
또한, 상기 제2 메시지(1432)는 상기 이벤트의 발생 위치와 관련되는 위치 정보를 포함할 수 있다. 이때, 상기 위치 정보는 상기 이벤트가 제1 영역에서 발생한 사실을 나타내는 제2 정보를 포함할 수 있다. 또한, 상기 차량의 컨트롤러는 상기 제2 메시지(1432)를 수신한 시점, 상기 위치 정보를 획득한 시점, 상기 제2 정보를 획득한 시점 중 적어도 하나에 상기 이벤트가 발생한 사실을 확인할 수 있다.
또한, 상기 제2 메시지(1432)는 상기 제1 메시지에 포함된 정보들 중 적어도 일부를 포함할 수 있다. 예를 들어, 상기 제2 메시지(1432)는 상기 이벤트가 제1 시간에 발생한 사실을 나타내는 시간 정보를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 실시예에 따라, 이벤트 발생을 확인한 서버는 상기 이벤트와 관련된 장치 및 상기 장치의 주변에 위치하는 장치 간에 지속적인 데이터 공유를 요청하는 메시지를 전송할 수 있다. 예를 들어, 서버가 갑작스럽게 비가 오는 상황 등 환경 이벤트가 발생한 사실을 확인한 경우, 상기 서버는 상기 환경 이벤트와 관련되는 복수의 차량들 사이의 지속적인 데이터 공유를 요청하는 메시지를 전송할 수 있다.
또한, 실시예에 따라, 서버가 적어도 하나의 센서가 배치된 자율 주행 차량에 센서 고장 이벤트가 발생한 사실을 확인할 수 있다. 이 경우, 상기 서버는 센서 고장에 따라 발생할 수 있는 상기 자율 주행 차량에 대한 사고 위험을 방지하기 위해, 상기 자율 주행 차량의 주변에 위치한 장치에 상기 자율 주행 차량에 데이터를 공유할 것을 요청하는 메시지를 전송할 수 있다.
4.2.4. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (3)
도 73은 범위에 따른 센서 데이터의 선별적 공유 방법과 관련된 실시예를 설명하기 위한 도면이다.
도 73을 참조하면, 제2 장치 및 제3 장치는 적어도 하나의 센서를 이용해 포인트 데이터 셋을 획득할 수 있다(S5047).
또한, 트래픽 이벤트가 발생한 영역으로부터 통신 가능 범위에 포함되는 제3 범위 내에 위치하는 상기 제2 장치는 제1 장치에 포인트 데이터 셋을 포함하는 제1 공유 데이터를 전송할 수 있다(S5048).
이때, 상기 제3 범위는 상기 트래픽 이벤트와 관련된 데이터를 획득할 수 있는 범위를 의미할 수 있다. 또한, 상기 제3 범위는 전술한 목차 4.2.3.1.에 포함되는 제1 범위를 결정하는 방식과 동일한 방식으로 결정될 수 있다.
또한 제1 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋을 포함할 수 있지만, 이에 한정되지 않고, 상기 제1 공유 데이터의 컨텐츠는 상기 포인트 데이터 셋, 상기 포인트 데이터 셋에 포함되는 적어도 하나의 서브 포인트 데이터 셋, 또는 상기 적어도 하나의 서브 포인트 데이터 셋의 속성 데이터, 상기 제2 장치에 대한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 트래픽 이벤트가 발생한 영역으로부터 통신 가능 범위 내에 위치하되, 상기 제3 범위 밖에 위치하는 제3 장치는 제1 장치에 상기 제3 장치의 위치 정보를 포함하는 제2 공유 데이터를 전송할 수 있다(S5049).
이때, 상기 통신 가능 범위는 상기 트래픽 이벤트에 관련되는 객체와 데이터 공유를 위한 통신이 가능한 소정 영역을 의미할 수 있다. 예를 들어, 상기 통신 가능 범위는 상기 트래픽 이벤트에 관련되는 차량이 V2X 시스템을 통해 다른 장치와 통신할 수 있는 영역을 포함할 수 있다.
또한, 상기 제2 공유 데이터의 컨텐츠는 상기 제3 장치의 위치 정보를 포함할 수 있지만, 이에 한정되지 않고, 상기 제2 공유 데이터의 컨텐츠는 상기 제3 장치에 대한 기본 정보를 포함할 수 있다. 이때, 상기 제3 장치의 위치 정보는 상기 제3 장치의 GPS 정보를 포함할 수 있다. 또한, 제3 장치의 위치 정보는 상기 제3 장치의 주변에 위치하는 제4 장치에 포함되는 적어도 하나의 센서로부터 획득된 상기 제3 장치의 위치 좌표를 포함할 수 있다.
4.2.5. 일 실시예에 따른 센서 데이터의 선별적 공유 방법 (4)
도 74는 일 실시예에 따른 규제 이벤트와 관련하여 차량의 주행 중 블라인드 스팟에 따른 데이터의 선별적 공유 방법을 설명하기 위한 도면이다.
도 74를 참조하면, 제1 장치(예를 들어, 차량)은 어린이 보호 구역과 같은 특정 규제 영역에 진입할 수 있다(S5050). 여기서, 특정 규제 영역은 다른 영역에 비하여 제1 장치에 있어서 법적인 규제 또는 관습적인 규제가 적용되는 영역을 의미할 수 있다. 예를 들어, 어린이 보호 구역은 어린이를 차량으로부터 보호하기 위하여, 차량의 주행속도가 소정 속도 이하로 규제되고, 어린이를 포함한 보행자의 안전에 특별히 주의해야 하는 영역을 의미할 수 있다. 따라서, 어린이 보호구역 내에서, 제1 장치는 다른 구역보다 특히 주변 보행자의 위치 또는 움직임을 정확하게 확인해야 할 수 있다.
또한, 상기 제1 장치는 어린이 보호 구역 내에 배치된 제2 장치에 상기 제1 장치의 센서의 시야각 내에 객체를 인지할 수 없는 블라인드 스팟이 존재하는지 여부에 대한 판단을 요청할 수 있다.
또한, 어린이 보호 구역 내에 배치된 제2 장치(예를 들어, 인프라 장치)는 상기 제1 장치에 상기 제1 장치가 어린이 보호 구역에 진입하였음을 알릴 수 있다(S5051). 이때, 상기 제2 장치가 상기 제1 장치에 상기 제1 장치가 어린이 보호 구역에 진입하였음을 알리는 방법은 전술한 규제 이벤트가 발생한 사실을 알리는 알림 메시지를 전송하는 것을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 이에 한정되지 않고, 상기 제1 장치는 상기 제1 장치가 어린이 보호 구역에 진입한 사실을 상기 제2 장치에 알릴 수 있다.
또한, 상기 제2 장치는 상기 제1 장치가 어린이 보호 구역에 진입한 경우, 상기 제1 장치에 제1 공유 데이터를 전송할 수 있다(S5052). 이때, 상기 제1 공유 데이터의 컨텐츠는 상기 제2 장치에 배치된 적어도 하나의 센서로부터 획득된 센서 데이터, 상기 센서 데이터 외에 기타 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 상기 센서 데이터는 포인트 데이터 셋, 서브 포인트 데이터 셋, 상기 서브 포인트 데이터 셋의 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟을 감지할 수 있다(S5053). 이때, 상기 제2 장치가 상기 제1 장치와 관련된 블라인드 스팟을 감지하는 방법은 다양한 방법을 포함할 수 있다.
일 예로, 상기 제1 장치가 스스로 상기 제1 장치와 관련된 블라인드 스팟을 감지하여 상기 제2 장치에 블라인드 스팟 관련 정보를 전송할 수 있다. 구체적인 예로, 상기 제1 장치가 차량인 경우, 상기 차량은 외부로부터 수신한 고정밀 지도와 상기 차량에 배치된 적어도 하나의 센서로부터 획득한 센서 데이터를 비교하여 상기 센서 데이터에 포함되지 않은 객체가 상기 고정밀 지도 상에 포함되는 경우, 블라인드 스팟이 존재한다고 판단할 수 있다. 이 경우, 상기 차량은 상기 제2 장치에 블라인드 스팟의 존재와 관련된 정보를 전송할 수 있다.
또한, 이에 한정되지 않고, 상기 제1 장치는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 획득된 센서 데이터 상에서 지면과 관련된 데이터와 지면이 아닌 데이터의 비율을 기초로 블라인드 스팟을 감지할 수 있다. 보다 구체적으로, 상기 제1 장치가 획득한 센서 데이터 상에 포함된 객체에 의해 가려지는 지면이 아닌 데이터의 비율이 소정 비율 이상인 경우, 상기 제1 장치는 블라인드 스팟이 존재한다고 판단하여 상기 제2 장치에 상기 블라인드 스팟의 존재와 관련된 정보를 전송할 수 있다.
다른 예로, 상기 제1 장치가 어린이 보호 구역과 같은 특정 규제 영역에 진입하는 경우, 상기 제1 장치와 관련된 블라인드 스팟이 실제로 존재하는지 여부와 관계없이 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟이 존재한다고 판단할 수 있다. 구체적으로, 어린이 보호 구역과 같은 특정 규제 영역의 경우, 상기 제1 장치와 보행자 사이의 충돌 위험성이 높으므로, 상기 제2 장치는 상기 제1 장치가 어린이 보호 구역에 진입하는 시점에서 상기 제1 장치와 관련된 블라인드 스팟이 존재한다고 판단할 수 있다.
또한, 이에 한정되지 않고, 상기 제2 장치는 상기 제2 장치에 배치된 적어도 하나의 센서를 통해 획득한 센서 데이터를 기초로 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다. 다시 말해, 상기 제2 장치가 획득한 센서 데이터에 포함되는 상기 제1 장치를 포함한 복수의 객체의 위치 관계를 기초로, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다. 보다 구체적으로, 상기 제2 장치가 상기 제1 장치의 위치 정보를 기초로, 상기 제1 장치에서 상기 센서 데이터에 포함되는 특정 객체를 인지할 수 없다고 판단한 경우, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟의 존재를 판단할 수 있다.
또한, 상기 제2 장치는 상기 제1 장치와 관련된 블라인드 스팟이 감지된 경우, 제2 공유 데이터를 상기 제1 장치에 전송할 수 있다. 이때, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 장치의 블라인드 스팟 내에 위치한 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋을 포함할 수 있으나, 이에 한정되지 않고, 상기 서브 포인트 데이터 셋의 속성 데이터를 포함할 수도 있다. 또한, 상기 제2 공유 데이터의 컨텐츠는 상기 제1 장치의 블라인드 스팟 내에 위치한 객체에 대한 데이터 뿐만 아니라, 상기 제2 장치가 획득한 센서 데이터에 포함되는 모든 데이터를 포함할 수 있다.
5. 공유 데이터의 처리 및 활용
5.1. 개괄
일 실시예에 따른 데이터 공유 시스템에서, 제1 장치는 센서 데이터를 포함하는 공유 데이터를 제2 장치에 전송할 수 있다. 이때, 상기 제1 장치 및 제2 장치는 차량, 서버, 인프라 장치, 또는 모바일 디바이스 등을 포함할 수 있으나, 이에 한정되지 않는다. 이때, 공유 데이터를 수신한 제2 장치는 공유 데이터의 컨텐츠에 포함된 센서 데이터를 처리하여 제2 장치의 제어 또는 제2 장치가 포함된 장치의 제어 등에 활용할 수 있다. 예를 들어, 제2 장치가 라이다 장치이고, 제2 장치가 포함된 장치가 차량인 경우, 라이다 장치의 컨트롤러 또는 차량의 컨트롤러는 공유 데이터의 컨텐츠에 포함된 센서 데이터를 처리하여 라이다 장치를 제어하거나 또는 차량을 제어할 수 있다.
이하에서는, 설명의 편의를 위하여, 대목차 5에서 설명되는 사항들의 주체를 차량의 컨트롤로 표현하였지만, 이에 한정되는 것은 아니고, 제2 장치의 컨트롤러 또는 제2 장치가 포함된 장치의 컨트롤러 역서 대목차 5에서 설명되는 사항들의 주체가 될 수 있음은 물론이다.
또한, 공유 데이터의 컨텐츠는 포인트 데이터 셋, 서브 포인트 데이터 셋, 속성 데이터 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 공유 데이터의 컨텐츠는 센서 데이터 외에 기타 데이터 포함할 수 있다. 예를 들어, 공유 데이터의 컨텐츠는 트래픽 이벤트 관련 정보, 제1 장치의 위치 정보, 또는 제1 장치의 목적지 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 제2 장치의 컨트롤러는 수신한 공유 데이터의 컨텐츠의 타입에 따라 전술한 목차 3.4.1. 에서 기재된 방식과 같이 공유 데이터를 상이하게 처리할 수 있다.
또한, 제2 장치 컨트롤러는 공유 데이터의 컨텐츠에 포함된 제1 장치로부터획득된 센서 데이터를 제2 장치로부터 획득된 센서 데이터와 정합하기 위해 전술한 목차 3.4.2. 에 기재된 방식을 이용해 좌표계를 정렬시킬 수 있다.
또한, 제2 장치는 제2 장치에 포함된 적어도 하나의 센서의 시야각 내에서 센서 데이터를 획득할 수 없는 영역(예를 들어, 블라인드 스팟)에 배치된 객체에 대한 정보를 획득하기 위해, 제1 장치로부터 공유 데이터를 수신할 수 있다. 예를 들어, 주행 중인 차량이 어린이 보호 구역에 진입하는 경우, 상기 차량에 배치된 센서로부터 획득한 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 상기 어린이 보호 구역에 배치된 인프라 장치로부터 상기 인프라 장치의 센서로부터 획득된 센서 데이터를 포함하는 공유 데이터를 수신할 수 있다.
5.2. 센서 데이터 및 공유 데이터에 대한 처리 및 활용의 다양한 실시예
5.2.1. 공유 데이터에 포인트 데이터 셋이 포함되는 경우
일 실시예에 따른 데이터 공유 시스템에서, 제1 장치는 센서로부터 획득한 포인트 데이터 셋을 포함하는 공유 데이터를 제2 장치에 전송할 수 있다. 이 경우, 제2 장치는 공유 받은 포인트 데이터 셋을 전술한 목차 3.4.1.1.에 기재된 방법과 같은 방법으로 처리할 수 있다.
예를 들어, 다시 도 36 내지 도 38을 참조하면, 인프라 장치(700)는 제1 차량(122)에 제1 포인트 데이터 셋(3100)을 포함하는 공유 데이터(3000)를 전송할 수 있다. 설명의 편의를 위해, 도 36 내지 도 38의 설명에서 기재된 구성 요소들을 목차 5.2.1.의 설명에서 기재된 구성 요소들에 대응시키면, 도 36 내지 도 38의 설명의 인프라 장치(700)는 목차 5.2.1.의 설명의 제1 장치와 대응될 수 있고, 도 36 내지 도 38의 설명의 제1 차량(122)은 목차 5.2.1.의 설명의 제2 장치와 대응될 수 있다. 이때, 상기 제1 차량(122)의 컨트롤러는 상기 제1 차량(122)에 배치된 센서로부터 획득된 제2 포인트 데이터 셋(2100) 및 상기 인프라 장치(700)로부터 획득한 상기 공유 데이터에 포함된 제1 포인트 데이터 셋(3100)을 이용하여 복수의 포인트 데이터 셋에 포함되는 객체에 대한 정보를 획득할 수 있다.
5.2.2. 공유 데이터에 속성 데이터가 포함되는 경우
다시 도 39를 참조하면, 공유 데이터(3000)는 객체의 적어도 일부를 나타내는 서브 포인트 데이터 셋의 속성 데이터를 포함할 수 있다. 이때, 상기 속성 데이터는 상기 서브 포인트 셋의 중심 위치 정보, 사이즈 정보, 형상 정보, 이동 정보, 식별 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
5.2.2.1. 일 실시예에 따른 공유 데이터의 처리 및 좌표계 정렬
도 75는 일 실시예에 따른 공유 데이터에 포함되는 속성 데이터를 처리하는 방식을 설명하기 위한 흐름도이다.
도 75를 참조하면, 차량의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있다(S5055).
또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함된 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정할 수 있다(S5056).
또한, 상기 차량의 컨트롤러는 상기 제1 속성 데이터를 기초로, 제1 표준 속성 데이터를 생성할 수 있다(S5057).
또한, 제1 장치는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5058).
또한, 상기 제1 장치의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함된 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 결정할 수 있다(S5059).
또한, 상기 제1 장치의 컨트롤러는 상기 제2 속성 데이터를 포함하는 공유 데이터를 상기 차량에 전송할 수 있다(S5060).
또한, 상기 차량의 컨트롤러는 상기 제1 장치로부터 수신한 제2 속성 데이터를 이용하여 제2 표준 속성 데이터를 생성할 수 있다(S5061).
또한, 상기 차량의 컨트롤러는 상기 제1 표준 속성 데이터 및 상기 제2 표준 속성 데이터를 기초로 상기 차량을 제어할 수 있다(S5062).
도 75에 기재된 각 단계에 대한 상세한 내용은 이하에서 설명한다.
5.2.2.1.1. 포인트 데이터 셋 및 속성 데이터의 획득
도 76은 일 실시예에 따른 차량 및 인프라 장치가 데이터 공유를 위해 센서데이터를 획득하는 상황을 나타내는 도면이다.
도 76을 참조하면, 차량(140) 및 인프라 장치(700)는 적어도 하나의 센서를 통해 센서의 시야각 내에 위치하는 적어도 하나의 객체에 대한 정보를 포함하는 센서 데이터를 획득할 수 있다.
구체적으로, 차량(140)의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있고, 상기 제1 포인트 데이터 셋에 포함된 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋의 제1 속성 데이터를 결정할 수 있다 (S5055, S5056). 이 경우, 상기 제1 포인트 데이터 셋은 상기 건물(500)에 가려진 보행자(800)에 대한 정보를 포함하지 않을 수 있다.
또한, 상기 제1 속성 데이터(도 77의 도면 부호 2208 참조)는 제1 서브 포인트 데이터 셋의 중심 위치 정보, 사이즈 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 인프라 장치(700)의 배치 위치를 고려하면, 상기 인프라 장치(700)는적어도 하나의 센서를 이용하여 보행자(800) 및 건물(500)을 측정할 수 있다. 이때, 인프라 장치(700)는 상기 인프라 장치(700)에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함된 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 결정할 수 있다(S5058, S5059). 또한, 상기 제2 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 포함할 수 있다.
이때, 상기 제2 서브 포인트 데이터 셋이 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 적어도 일부를 나타내므로, 상기 차량(140)의 주행 중 발생할 수 있는 상기 보행자(800)와의 충돌 위험을 방지하기 위해, 상기 인프라 장치(700)는 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터를 상기 차량(140)에 전송할 수 있다.
5.2.2.1.2. 표준 속성 데이터의 생성
적어도 하나의 센서로부터 획득된 센서 데이터에 포함되는 포인트 데이터 셋 및 속성 데이터는 임의의 원점을 기준으로 하는 좌표계 상에 나타날 수 있다. 이때, 임의의 원점은 상기 포인트 데이터 셋 및 속성 데이터를 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 임의의 원점은 상기 센서 데이터를 획득한 라이다 장치의 광학 원점에 대응될 수 있으나, 이에 한정되지 않는다.
도 77은 일 실시예에 따른 차량의 컨트롤러가 제1 속성 데이터 및 제1 표준속성 데이터를 각각 제1 지역 좌표계 및 전역 좌표계 상에 나타내는 방법을 설명하기 위한 도면이다.
도 77을 참조하면, 제1 속성 데이터(2208)는 제1 원점(O₁)을 기준으로 하는 제1 지역 좌표계(9100) 상에 나타날 수 있다. 또한, 이에 한정되지 않고, 상기 제1 포인트 데이터 셋 및 상기 제1 서브 포인트 데이터 셋 또한 상기 제1 지역 좌표계(9100) 상에 나타날 수 있다.
구체적인 예로, 상기 제1 속성 데이터(2208)가 상기 제1 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 경우, 상기 중심 위치 정보에 포함되는 상기 제1 서브 포인트 데이터 셋의 중심 위치 좌표는 상기 제1 지역 좌표계(9100) 상에 나타날 수 있다.
이때, 상기 제1 원점(O₁)은 상기 제1 포인트 데이터 셋을 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 차량(140)이 라이다 장치를 통해 상기 제1 포인트 데이터 셋을 획득한 경우, 상기 제1 원점(O₁)은 상기 라이다 장치의 광학 원점에 대응될 수 있다.
또한, 상기 제1 원점(O₁)은 상기 차량(140)의 위치에 대응될 수 있다. 예를 들어, 상기 차량(140)의 컨트롤러는 상기 차량(140)의 GPS 위치 정보를 기초로 상기 제1 원점(O₁)을 설정할 수 있다.
또한, 상기 제1 원점(O₁)은 상기 차량(140)의 무게 중심의 위치, 상기 센서의 무게 중심의 위치 등에 대응될 수 있으나, 이에 한정되지 않는다.
또한, 다시 도 77을 참조하면, 상기 차량(140)의 컨트롤러는 상기 제1 속성 데이터(2208)를 기초로 제1 표준 속성 데이터(2501)를 생성할 수 있다(S5057).
여기서, 표준 속성 데이터는 다양한 속성 데이터의 위치를 단일 좌표계에 정합시키기 위한 데이터를 나타내는 것으로서, 제1 속성 데이터(2501)를 기초로 생성된 제1 표준 속성 데이터(2501)와 제2 속성 데이터(도 78의 도면부호 3202 참조)를 기초로 생성된 제2 표준 속성 데이터(도 78의 도면부호 3502 참조)의 원점은 서로 동일할 수 있다.
도 77의 예에서, 상기 제1 표준 속성 데이터(2501)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100) 상에 나타나는 상기 제1 속성 데이터(2208)를 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제1 표준 속성 데이터(2501)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제1 지역 좌표계(9100)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다.
또한, 이에 한정되지 않고, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100)를 전역 좌표계로 설정할 수 있다. 이 경우, 상기 제1 지역 좌표계(9100)의 원점이 전역 좌표계의 원점과 동일할 수 있다. 다시 말해, 상기 제1 지역 좌표계(9100)가 전역 좌표계로 설정된 경우, 상기 제2 원점(O₂)의 위치는 상기 제1 원점(O₁)의 위치와 일치할 수 있다.
보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제1 지역 좌표계(9100)의 원점 위치를 바꾸지 않고 상기 제1 지역 좌표계(9100)를 상기 제1 원점(O₁)을 기준으로 하는 전역 좌표계로 설정할 수 있다.
구체적인 예로, 상기 제1 속성 데이터(2208)가 상기 제1 서브 포인트 데이터 셋의 중심 위치 정보를 포함하는 경우, 상기 차량(140)의 컨트롤러는 상기 중심 위치 정보에 포함된 제1 서브 포인트 데이터 셋의 중심 위치 좌표를 상기 전역 좌표계(9200) 상에 나타날 수 있다.
또한, 상기 전역 좌표계(9200)는 미리 결정된 원점을 포함할 수 있다. 이때, 상기 미리 결정된 원점은 GPS 위치 정보를 기초로 하는 좌표계의 원점을 의미할 수 있다.
또한, 상기 제2 원점(O₂)은 상기 차량(140)에 포함된 라이다 장치의 광학 원점에 대응될 수 있다.
또한, 상기 제1 지역 좌표계(9100)가 전역 좌표계로 설정된 경우, 상기 제2 원점(O₂)의 위치는 상기 제1 원점(O₁)의 위치와 일치할 수 있다.
도 78은 일 실시예에 따른 차량의 컨트롤러가 제2 지역 좌표계 상에 나타나는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하는 방법을 설명하기 위한 도면이다.
도 78을 참조하면, 상기 인프라 장치의 컨트롤러는 제2 속성 데이터(3202) 및 제3 속성 데이터(3203)를 제3 원점(O₃)을 기준으로 하는 제2 지역 좌표계(9300) 상에 나타낼 수 있다.
여기서, 제2 지역 좌표계(9300)는 제1 지역 좌표계와 원점이 상이한 좌표계를 나타내는 것으로, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)의 좌표계의 타입이 동일(예를 들어, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)가 직교 좌표계인 경우)할 수도 있고, 제2 지역 좌표계(9300)와 제1 지역 좌표계(9100)의 좌표계의 타입이 상이(예를 들어, 제2 지역 좌표계(9300)가 극 좌표계이고, 제1 지역 좌표계(9100)가 직교 좌표계인 경우)할 수도 있다.
또한, 상기 제2 속성 데이터(3202)는 도 76의 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 기초로 결정되고, 상기 제3 속성 데이터(3203)는 도 76의 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 기초로 결정될 수 있다. 또한, 이에 한정되지 않고, 상기 제2 포인트 데이터 셋, 상기 제2 서브 포인트 데이터 셋, 및 상기 제3 서브 포인트 데이터 셋은 상기 제2 지역 좌표계(9300) 상에 나타날 수 있다.
이때, 상기 제3 원점(O₃)은 상기 제2 포인트 데이터 셋을 획득한 센서의 위치에 대응될 수 있다. 예를 들어, 상기 인프라 장치(700)이 라이다 장치를 통해 상기 제2 포인트 데이터 셋을 획득한 경우, 상기 제3 원점(O₃)은 상기 라이다 장치의 광학 원점에 대응될 수 있다.
또한, 상기 제3 원점(O₃)은 상기 인프라 장치(700)의 위치에 대응될 수 있다. 예를 들어, 상기 인프라 장치(700)의 컨트롤러는 상기 인프라 장치(700)의 GPS 위치 정보를 기초로 상기 제3 원점(O₃)을 설정할 수 있다.
또한, 상기 제3 원점(O₃)은 상기 인프라 장치(700)의 무게 중심의 위치, 상기 센서의 무게 중심의 위치 등에 대응될 수 있으나, 이에 한정되지 않는다.
또한, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 속성 데이터(3202)를 포함하는 공유 데이터를 상기 차량(140)에 전송할 수 있다(S5060).
이때, 상기 제2 속성 데이터(3202)는 상기 제2 포인트 데이터 셋에 포함되되, 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 기초로 결정될 수 있다.
또한, 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터(3203)를 더 포함할 수 있다. 이때, 상기 제3 속성 데이터(3203)는 상기 제1 포인트 데이터 셋 및 제2 포인트 데이터 셋에 포함되는 건물의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 기초로 결정될 수 있다.
물론, 실시예에 따라 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터(3203)를 포함하지 않을 수도 있다.
또한, 이에 한정되지 않고, 상기 공유 데이터의 컨텐츠는 상기 인프라 장치(700)에 대한 기본 정보 등을 더 포함할 수 있다.
또한, 다시 도 78을 참조하면, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 수신한 공유 데이터에 포함되는 상기 제2 속성 데이터(3202)를 기초로, 제2 표준 속성 데이터(3502)를 생성할 수 있다(S5061).
이때, 상기 제2 표준 속성 데이터(3502)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제2 지역 좌표계(9300) 상에 나타나는 상기 제2 속성 데이터(3202)를 상기 제1 표준 속성 데이터(2501)이 나타나는 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제2 표준 속성 데이터(3502)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제2 지역 좌표계(9300)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다.
예를 들어, 상기 제1 지역 좌표계(9100)가 전역 좌표계(9200)로 설정된 경우, 상기 차량의 컨트롤러는 수신한 상기 제2 속성 데이터(3202)를 상기 제1 지역 좌표계(1200)상에 정렬시킴으로써 상기 제2 표준 속성 데이터(3502)를 생성할 수 있다.
또한, 도 76에 기재된 일 실시예에 따른 공유 데이터의 처리 및 활용 방법에서, 차량의 컨트롤러는 공유 데이터의 컨텐츠에 포함되는 적어도 하나의 속성 데이터가 나타내는 객체가 제1 포인트 데이터 셋에 의해 나타나는 객체와 동일한지 여부를 판단할 수 있다.
예를 들어, 상기 인프라 장치(700)로부터 수신한 공유 데이터에 포함되는 제3 속성 데이터(3203)가 나타내는 객체가 상기 제1 속성 데이터가 나타내는 건물(500)과 동일할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 상기 제3 속성 데이터(3203)를 기초로 제3 표준 속성 데이터(3503)를 생성할 수 있다.
이때, 상기 제3 표준 속성 데이터(3503)는 제2 원점(O₂)을 기준으로 하는 전역 좌표계(9200) 상에 나타날 수 있다. 보다 구체적으로, 상기 차량(140)의 컨트롤러는 상기 제2 지역 좌표계(9300) 상에 나타나는 상기 제3 속성 데이터(3203)를 상기 제1 표준 속성 데이터(2501)이 나타나는 상기 전역 좌표계(9200) 상에 정렬시킴으로써 상기 제3 표준 속성 데이터(3503)를 생성할 수 있다. 이 경우, 상기 차량(140)의 컨트롤러는 전술한 목차 3.4.2.에 기재된 방식을 기초로 상기 제2 지역 좌표계(9300)를 상기 전역 좌표계(9200)로 정렬시킬 수 있다.
또한, 상기 차량(140)의 컨트롤러는 동일한 건물(500)에 대한 제3 속성 데이터(3203) 또는 제3 표준 속성 데이터(3503)를 획득함에 따라, 상기 건물(500)에 대해 더 높은 시간 해상도를 가지는 효과를 얻을 수 있다. 보다 구체적으로, 상기 차량(140)에 배치된 라이다 장치의 프레임 레이트(frame rate)에 따라 일정 시간 간격 사이에 획득할 수 없는 상기 건물(500)에 대한 정보를 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203) 또는 상기 제3 표준 속성 데이터(3503)를 획득함으로써 보강할 수 있다.
또한, 이에 한정되지 않고, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203)를 수신하지 않을 수 있다. 보다 구체적으로, 상기 차량(140)이 센서를 통해 획득한 제1 포인트 데이터 셋이 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함하므로, 상기 인프라 장치(700)로부터 동일한 객체를 나타내는 제3 서브 포인트 데이터 셋 및 상기 제3 서브 포인트 데이터 셋을 기초로 결정된 상기 제3 속성 데이터(3202)를 수신하지 않을 수 있다.
또한, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 수신한 상기 제3 속성 데이터(3203)를 저장하지 않을 수 있다.
또한, 상기 차량(140)의 컨트롤러는 상기 인프라 장치(700)로부터 상기 제3 속성 데이터(3203)를 수신한 경우, 상기 제1 표준 속성 데이터(2501)를 생성하지 않고, 상기 제3 표준 속성 데이터(3503)를 생성할 수 있다.
또한, 상기 차량(140)의 컨트롤러는 상기 제1 표준 속성 데이터(2501)와 상기 제3 표준 속성 데이터(3503)를 기초로 상기 차량(140)에 배치된 센서에 이상이 있는지 여부를 판단할 수 있다. 보다 구체적으로, 전술한 좌표계 정렬 방법을 통해 생성된 상기 제3 표준 속성 데이터(3503)에 포함되는 건물(500)의 위치 정보가 상기 제1 표준 속성 데이터(2501)에 포함되는 건물(500)의 위치 정보와 상이한 경우, 상기 차량(140)의 컨트롤러는 상기 차량(140)에 배치된 센서의 고정이 풀린 것으로 판단할 수 있다. 또한, 상기 센서의 고정이 풀린 것으로 판단된 경우, 상기 차량(140)의 컨트롤러는 탑승자에게 상기 센서의 고정이 풀린 것에 대한 알림을 전송할 수 있다. 이때, 상기 알림은 인포테인먼트 시스템을 통해 상기 탑승자에게 디스플레이되거나, 이에 한정되지 않고, 소리 등의 통상의 기술자에게 알려진 방식을 통해 상기 탑승자에게 전송될 수 있다.
또한, 일 실시예에 따른 센서 데이터 처리 방법은 도 75에 나타나는 단계에 한정되는 것은 아니고, 인프라 장치의 컨트롤러는 제2 속성 데이터를 기초로 제2 표준 속성 데이터를 생성하고, 상기 제2 표준 속성 데이터를 포함하는 공유 데이터를 차량에 전송할 수 있다.
또한, 이에 한정되지 않고, 차량의 컨트롤러가 상기 제2 속성 데이터를 포함하는 고정밀 지도를 수신한 경우, 상기 차량의 컨트롤러는 상기 제2 지역 좌표계를 전역 좌표계로 설정할 수 있다. 이 경우, 상기 차량에 배치된 센서로부터 획득한 센서 데이터를 상기 고정밀 지도에 매칭시키기 위해, 상기 차량의 컨트롤러는 상기 제1 속성 데이터가 나타나는 제1 지역 좌표계를 상기 전역 좌표계로 정렬시킬 수 있다.
5.2.2.1.3. 표준 속성 데이터를 이용한 차량 제어 - 경로 생성(path planning)
차량의 컨트롤러는 복수의 표준 속성 데이터를 기초로 상기 차량을 제어할 수 있다. 또한, 이에 한정되지 않고, 상기 차량의 컨트롤러는 포인트 데이터 셋, 서브 포인트 데이터 셋, 속성 데이터 중 적어도 하나를 기초로 상기 차량을 제어할 수 있다.
예를 들어, 상기 차량의 컨트롤러는 전술한 목차 2.3. 또는 목차 3.5.에 기재된 사항과 같이 센서 데이터 또는 공유 데이터를 이용하여 상기 차량을 제어할 수 있다. 구체적인 예로, 상기 차량의 컨트롤러는 복수의 표준 속성 데이터를 기초로 상기 복수의 표준 속성 데이터를 고정밀 지도 상에 매칭시키나, 상기 차량의 속도 및 방향을 제어하거나, 또는 상기 차량의 경로를 제어할 수 있다.
이때, 상기 차량의 경로는 글로벌 경로 및 로컬 경로 포함할 수 있다. 여기서, 상기 글로벌 경로는 상기 차량의 목적지까지 GPS 위치 정보를 기초로 생성된 경로를 의미할 수 있으나, 이에 한정되지 않는다. 또한, 상기 로컬 경로는 상기 차량에 배치된 센서로부터 획득한 센서 데이터 또는 공유 받은 공유 데이터를 기초로 생성된 경로를 의미할 수 있으나, 이에 한정되지 않는다. 일 예로, 하나의 글로벌 경로에 복수의 로컬 경로가 대응될 수 있고, 또한, 복수의 로컬 경로가 합쳐져 하나의 글로벌 경로가 생성될 수 있다. 물론 이에 한정되는 것은 아니고, 글로벌 경로와 로컬 경로가 독립적으로 구성될 수 있다.
또한, 상기 글로벌 경로 또는 로컬 경로는 상기 차량의 방향 및 상기 차량의 속도 등을 포함할 수 있다. 보다 구체적으로, 상기 글로벌 경로 또는 로컬 경로는 상기 차량의 위치, 상기 차량이 주행할 방향, 상기 차량의 주행 속도 등을 포함할 수 있으나, 이에 한정되지 않는다.
도 79는 일 실시예에 따른 글로벌 경로를 설명하기 위한 도면이다.
도 79를 참조하면, 차량의 컨트롤러는 글로벌 경로(8000)를 생성하여 고정밀 지도 상에 나타낼 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 차량을 상기 글로벌 경로(8000)를 따라 주행하도록 제어할 수 있다.
이때, 상기 차량의 컨트롤러는 상기 차량이 주행하기 전에 상기 차량의 위치와 상기 차량의 목적지를 기초로 상기 차량이 주행하기 위한 글로벌 경로(8000)를 생성할 수 있다.
또한, 상기 차량의 컨트롤러는 탑승자의 출발지와 목적지에 대한 인풋을 수신한 경우, 출발지와 목적지의 GPS 위치 정보를 기초로 글로벌 경로(8000)를 생성할 수 있다.
또한, 상기 차량의 컨트롤러는 상기 차량의 위치와 상기 차량의 목적지 사이의 교통 정보를 반영하여 글로벌 경로(8000)를 생성할 수 있다.
일 예로, 상기 차량의 컨트롤러는 상기 차량의 위치에서 상기 차량의 목적지로 상기 차량을 최단 시간으로 주행할 수 있는 경로를 글로벌 경로(8000)로 설정할 수 있다.
다른 예로, 상기 차량의 컨트롤러는 상기 차량이 차량의 현재 위치에서 최단 거리로 목적지로 주행할 수 있는 경로를 글로벌 경로(8000)로 설정할 수 있다.
또한, 상기 글로벌 경로(8000)는 차선 단위의 상세 경로를 포함하지 않을 수 있다. 보다 구체적으로, 상기 글로벌 경로(8000)는 상기 차량의 컨트롤러가 상기 차량을 차선 변경을 통해 옆차선으로 주행하게 하기 위한 상세 경로를 포함하지 않을 수 있다.
물론, 실시예에 따라 상기 글로벌 경로(8000)는 차선 단위의 상세 경로를 포함할 수도 있다.
도 80은 일 실시예에 따른 로컬 경로 및 수정 경로를 설명하기 위한 도면이다.
도 80을 참조하면, 차량의 컨트롤러는 차량이 주행하기 위한 로컬 경로(8100)를 생성하여 고정밀 지도(1420) 상에 디스플레이할 수 있다.
보다 구체적으로, 글로벌 경로를 주행 중인 차량에 배치된 적어도 하나의 센서의 시야각에 포함되는 적어도 하나의 객체에 대한 센서 데이터에 기초하여, 상기 차량의 컨트롤러는 상기 글로벌 경로 상의 적어도 일부분에 대한 로컬 경로(8100)를 생성할 수 있다.
또한, 이에 한정되지 않고, 상기 차량의 컨트롤러는 상기 센서 데이터 및 다른 장치로부터 획득한 공유 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다.
보다 구체적으로, 글로벌 경로를 주행 중인 차량에 배치된 센서의 시야각에 포함되는 적어도 하나의 객체에 대한 센서 데이터 및 다른 장치에 배치된 센서로부터 획득된 센서 데이터를 포함하는 공유 데이터를 기초로, 상기 차량의 컨트롤러는 로컬 경로(8100)를 생성할 수 있다.
예를 들어, 제1 지점에 위치하는 차량이 제2 지점을 목적지로 설정한 경우, 상기 차량의 컨트롤러는 상기 제1 지점에서 상기 제2 지점까지 차량이 주행하기 위한 글로벌 경로를 생성하고, 상기 차량이 상기 글로벌 경로를 따라 주행 중에 획득한 센서 데이터 및 공유 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다.
또한, 상기 로컬 경로(8100)는 차선 단위의 상세 경로를 포함할 수 있다. 보다 구체적으로, 상기 로컬 경로(8100)는 상기 차량의 컨트롤러가 상기 차량을 차선 변경을 통해 옆차선으로 주행하게 하기 위한 상세 경로를 포함할 수 있다.
또한, 상기 로컬 경로(8100)는 운전자의 가시 영역에서 이동 가능한 영역을 포함할 수 있다.
또한, 상기 로컬 경로(8100)는 상기 차량에 배치된 센서의 시야각 내에 포함되는 적어도 하나의 객체가 포함되는 영역을 포함할 수 있다.
또한, 상기 로컬 경로(8100)가 상기 차량이 주행 중에 획득한 센서 데이터 및 다른 장치로부터 수신한 공유 데이터를 기초로 생성된 경우, 상기 로컬 경로(8100)는 상기 차량에 배치된 센서의 시야각 내에 포함되는 적어도 하나의 객체가 포함하는 영역 및 상기 차량에 배치된 센서의 시야각 내에 포함되지 않는 적어도 하나의 객체가 포함되는 영역을 함께 포함할 수 있다.
또한, 상기 로컬 경로(8100)는 수정 경로(8110)를 포함할 수 있다.
구체적으로, 차량의 컨트롤러는 센서 데이터 및 공유 데이터를 기초로 차량의 글로벌 경로 또는 로컬 경로 상에 차량에 위협이 되는 장애물을 발견한 경우, 수정 경로(8110)를 생성할 수 있다. 이때, 상기 차량의 컨트롤러는 상기 수정 경로(8110)를 차량이 주행하기 위한 로컬 경로로 설정할 수 있다.
상기 수정 경로(8110)에 대한 자세한 내용은 하기(목차 5.2.2.2.2.)에서 설명한다.
5.2.2.2. 일 실시예에 따른 공유 데이터의 처리 및 경로 생성
일 실시예에 따른 공유 데이터를 수신한 차량은 상기 공유 데이터 및 상기 차량에 배치된 센서로부터 획득된 센서 데이터를 기초로 상기 차량이 주행하기 위한 경로를 생성할 수 있다.
도 81은 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법을 설명하기 위한 흐름도이다.
도 81을 참조하면, 차량의 컨트롤러는 상기 차량에 배치된 적어도 하나의 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있다(S5063).
또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함된 적어도 하나의 서브 포인트 데이터 셋을 기초로 제1 속성 데이터를 결정할 수 있다(S5064).
또한, 상기 차량의 컨트롤러는 상기 제1 포인트 데이터 셋, 적어도 하나의 서브 포인트 데이터 셋, 또는 상기 제1 속성 데이터 중 적어도 일부를 기초로 상기 차량이 주행하기 위한 로컬 경로를 생성할 수 있다(S5065).
또한, 제1 장치의 컨트롤러는 상기 제1 장치에 배치된 적어도 하나의 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5066).
또한, 상기 제1 장치의 컨트롤러는 상기 제2 포인트 데이터 셋에 포함되는 제2 서브 포인트 데이터 셋을 기초로 제2 속성 데이터를 결정할 수 있다(S5067).
또한, 상기 제1 장치의 컨트롤러는 상기 제2 속성 데이터를 포함하는 공유 데이터를 상기 차량에 전송할 수 있다(S5068).
또한, 상기 차량은 상기 제1 포인트 데이터 셋, 상기 제1 속성 데이터 또는상기 로컬 경로 중 적어도 하나 및 상기 제2 속성 데이터를 기초로, 수정 경로를 생성할 수 있다(S5069).
이하에서는 일 실시예에 따른 차량이 공유 데이터를 기초로 경로를 생성하거나 수정하는 방법의 각 단계에 대한 상세한 내용을 설명한다.
5.2.2.2.1. 센서 데이터 및 공유 데이터의 생성 및 공유
도 82는 일 실시예에 따른 제1 차량이 센서 데이터 및 공유 데이터를 기초로 생성된 경로를 따라 주행하는 상황을 나타내는 도면이다.
도 82를 참조하면, 제1 차량(141)의 컨트롤러는 상기 제1 차량(141)에 배치된 센서를 통해 제1 포인트 데이터 셋을 획득할 수 있고, 인프라 장치(700)의 컨트롤러는 상기 인프라 장치(700)에 배치된 센서를 통해 제2 포인트 데이터 셋을 획득할 수 있다(S5063, S5066)
이때, 상기 제1 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제1 서브 포인트 데이터 셋을 포함할 수 있고, 상기 제1 차량(141)의 컨트롤러는 상기 제1 서브 포인트 데이터 셋을 기초로 제1 속성 데이터를 결정할 수 있다(S5064). 이 경우, 상기 제1 포인트 데이터 셋은 상기 건물(500)에 가려져서 센서의 시야각에 포함되지 않는 보행자(800)에 대한 정보를 포함하지 않을 수 있다. 또한, 상기 제1 속성 데이터는 상기 건물(500)의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제2 포인트 데이터 셋은 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 서브 포인트 데이터 셋을 기초로 제2 속성 데이터를 결정할 수 있다(S5067). 이때, 상기 제2 속성 데이터는 상기 보행자(800)의 중심 위치 정보, 사이즈 정보, 이동 정보, 형상 정보 등을 포함할 수 있으나, 이에 한정되지 않는다.
또한, 이에 한정되지 않고, 상기 제2 포인트 데이터 셋은 건물(500)의 적어도 일부를 나타내는 제3 서브 포인트 데이터 셋을 포함할 수 있고, 상기 인프라 장치(700)의 컨트롤러는 상기 제3 서브 포인트 데이터 셋을 기초로 제3 속성 데이터를 결정할 수 있다.
또한, 상기 인프라 장치(700)의 컨트롤러는 상기 제2 속성 데이터를 기초로 공유 데이터를 생성하여 상기 제1 차량(141)에 전송할 수 있다(S5068). 보다 구체적으로, 상기 인프라 장치(700)는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)를 나타내는 제2 서브 포인트 데이터 셋을 기초로 생성된 제2 속성 데이터를 상기 제1 차량(141)에 전송할 수 있다. 이때, 상기 제2 속성 데이터는 상기 보행자(800)의 이동 방향 및 이동 속도에 따라 예측되는 상기 보행자(800)의 트래킹 정보를 포함할 수 있다. 이 경우, 상기 제1 차량(141)의 컨트롤러는 상기 트래킹 정보를 기초로, 상기 제1 차량(141)과 상기 보행자(800)의 충돌 확률을 계산할 수 있다.
또한, 상기 공유 데이터의 컨텐츠는 상기 제3 속성 데이터를 포함할 수 있으나, 실시예에 따라 포함하지 않을 수도 있다.
5.2.2.2.2 로컬 경로의 생성 및 수정
상기 제1 차량(141)의 컨트롤러는 상기 제1 차량(141)에 배치된 센서를 통해 획득한 센서 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다(S5065). 이때, 상기 제1 차량(141)은 상기 인프라 장치(700)로부터 상기 공유 데이터를 수신하기 전에 상기 로컬 경로(8100)를 생성할 수 있으나, 실시예에 따라 상기 공유 데이터를 수신한 후에 상기 로컬 경로(8100)를 생성할 수도 있다.
일 예로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 속성 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다. 보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 차량을 글로벌 경로를 따라 제어하되, 상기 차량에 배치된 센서의 시야각 내에 존재하는 객체에 대한 센서 데이터를 기초로 로컬 경로(8100)를 생성할 수 있다. 구체적인 예로, 상기 제1 차량(141)의 컨트롤러는 건물(500)에 대한 센서 데이터(예를 들어, 제1 서브 포인트 데이터 셋 또는 제1 속성 데이터)를 기초로 상기 차량과 상기 건물(500)의 충돌을 방지하기 위한 로컬 경로(8100)를 생성할 수 있다.
물론, 실시예에 따라 상기 제1 차량(141)의 컨트롤러는 센서 데이터에 포함되는 제1 포인트 데이터 셋, 복수의 서브 포인트 데이터 셋을 기초로 로컬 경로를 생성할 수도 있다.
또한, 상기 제1 차량(141)의 컨트롤러는 센서 데이터 및 공유 데이터를 기초로 수정 경로(8110)를 생성할 수 있다(S5069). 보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 상기 센서 데이터에 포함되지 않는 객체와의 충돌을 피하기 위해, 상기 제1 차량(141)에 배치된 센서로부터 획득된 센서 데이터 및 상기 인프라 장치(700)로부터 수신한 공유 데이터를 기초로 수정 경로(8110)를 생성할 수 있다.
이때, 상기 공유 데이터의 컨텐츠는 상기 제1 포인트 데이터 셋에 포함되지 않은 객체에 대한 정보를 포함할 수 있다. 예를 들어, 상기 공유 데이터의 컨텐츠는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 차량(141)의 컨트롤러는 상기 수정 경로(8110)를 생성하기 전에, 상기 제2 속성 데이터를 기초로 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.
일 예로, 상기 제1 차량(141)의 컨트롤러는 상기 로컬 경로(8100)가 상기 보행자(800)가 위치하는 소정 영역의 적어도 일부를 포함하는 경우, 상기 수정 경로(8110)를 생성할 수 있다. 다시 말해, 상기 로컬 경로(8100)와 상기 보행자(800)가 위치하는 소정 영역과 일정 부분 겹치는 경우, 상기 제1 차량(141)의 컨트롤러는 상기 수정 경로(8110)를 생성할 수 있다. 이때, 상기 소정 영역은 상기 제1 차량(141)의 컨트롤러에 의해 미리 설정될 수 있으나, 이에 한정되지 않고, 제1 차량(141)의 속도 또는 상기 보행자(800)까지의 거리 등을 기초로 설정될 수도 있다. 또한, 상기 수정 경로(8110)는 상기 보행자(800)가 위치하는 소정 영역과 겹쳐지지 않을 수 있다. 물론, 실시예에 따라, 상기 수정 경로(8110)는 상기 보행자(800)가 위치하는 소정 영역과 일정 부분 겹쳐질 수 있다.
다른 예로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 포인트 데이터 셋에 포함되지 않는 보행자(800)의 이동 정보를 포함하는 제2 속성 데이터를 기초로, 상기 제1 차량(141)과 상기 보행자(800)의 충돌 확률을 계산할 수 있고, 계산된 확률에 따라 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.
보다 구체적으로, 상기 제1 차량(141)의 컨트롤러는 상기 제1 차량의 로컬 경로(8100)를 기초로 예측되는 상기 제1 차량(141)의 위치 이동에 대한 확률 및 상기 제2 속성 데이터를 기초로 예측되는 상기 보행자(800)의 위치 이동에 대한 확률을 기초로 상기 차량의 경로를 수정할지 여부를 결정할 수 있다.
구체적인 예로, 상기 제1 차량(141)의 컨트롤러는 상기 로컬 경로(8100) 및 상기 제2 속성 데이터를 기초로 상기 제1 차량(141)과 상기 보행자(800)의 이동에 따라 생성된 충돌 확률 맵을 기초로 상기 수정 경로(8110)를 생성할지 여부를 판단할 수 있다.
도 83은 일 실시예에 따른 제1 차량의 컨트롤러가 생성한 충돌 확률 맵을 기초로 수정 경로를 생성하는 방법을 설명하기 위한 도면이다.
도 83을 참조하면, 차량의 컨트롤러는 로컬 경로(8100)를 따라 주행중인 차량과 보행자의 시간에 따른 이동 확률을 표시한 충돌 확률 맵을 생성할 수 있다. 이때, 상기 차량이 상기 로컬 경로(8100)를 따라 주행하면서 상기 차량과 보행자 간의 충돌 확률이 높은 영역(8200)이 상기 충돌 확률 맵에 표시되는 경우, 상기 차량의 컨트롤러는 충돌을 피하기 위한 수정 경로(8110)의 생성을 결정할 수 있고, 상기 수정 경로(8110)를 생성할 수 있다.
또한, 이에 한정되지 않고, 차량의 컨트롤러는 차량에 배치된 센서로부터 획득된 센서 데이터에 블라인드 스팟이 존재하는지 여부에 따라 수정 경로를 생성할지 여부를 판단할 수 있다.
구체적으로, 로컬 경로를 따라 주행중인 차량의 컨트롤러는 전술한 목차 4.2.5. 에 기재된 방식에 따라 블라인드 스팟을 감지한 경우, 블라인드 스팟의 존재에 따라 발생할 수 있는 위험을 방지하기 위해, 수정 경로를 생성할 수 있다.
예를 들어, 차량의 컨트롤러는 블라인드 스팟이 감지된 경우, 상기 차량의 속도를 감소시키거나 차선을 변경하는 등의 수정 경로를 생성할 수 있으나, 이에 한정되지 않는다.
5.2.2.2.3. 수정 경로의 다양한 실시예
또한, 차량의 컨트롤러는 차량과 다른 객체의 충돌을 피하기 위한 최적의 수정 경로를 생성할 수 있다.
도 84는 일 실시예에 따른 수정 경로의 다양한 실시예를 설명하기 위한 도면이다.
도 84를 참조하면, 글로벌 경로 및 로컬 경로를 따라 주행중인 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)의 이동 속도, 이동 방향, 위치 등을 기초로 보행자(800)를 회피하기 위한 적어도 하나의 수정 경로를 생성할 수 있다.
예를 들어, 상기 적어도 하나의 수정 경로는 상기 제2 차량(142)을 정지시키기 위한 제1 수정 경로(8111) 및 로컬 경로의 적어도 일부를 변경한 제2 수정 경로(8112)를 포함할 수 있으나, 이에 한정되지 않는다.
구체적으로, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)에 배치된 센서로부터 획득된 센서 데이터에 포함되지 않되, 다른 장치로부터 공유 받은 공유 데이터에 포함되는 보행자(800)에 대한 정보(예를 들어, 속성 데이터)를 수신할 수 있다. 이때, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)과 상기 보행자(800)의 충돌을 방지하기 위해, 상기 제2 차량(142)을 정지시키는 제1 수정 경로(8111)를 생성할 수 있다. 이때, 상기 제1 수정 경로(8111)는 상기 제2 차량(142)을 소정 시간 내에 정지시키거나, 소정 시간 동안 정지시키도록 생성될 수 있다.
또한, 상기 제2 차량(142)의 컨트롤러는 상기 제2 차량(142)과 상기 보행자(800)의 충돌을 방지하기 위해, 상기 제2 차량(142)의 로컬 경로를 적어도 일부분 변경하여 상기 제2 차량(142)이 상기 보행자(800)를 피해서 주행하는 제2 수정 경로(8112)를 생성할 수 있다.
또한, 이에 한정되지 않고, 상기 제2 차량(142)의 컨트롤러는 기존 로컬 경로에 포함되는 상기 제2 차량(142)의 위치, 속도, 및 방향 중 적어도 일부를 변경한 수정 경로를 생성할 수 있다.
차량의 컨트롤러가 차량의 위치, 속도, 또는 방향 등을 포함하는 수정 경로를 생성한 경우, 상기 차량의 컨트롤러는 상기 수정 경로를 로컬 경로로 설정할 수 있고, 설정된 상기 로컬 경로를 기초로 상기 차량을 제어할 수 있다.
또한, 상기 수정 경로는 글로벌 경로의 적어도 일부를 수정한 경로를 포함할 수 있다. 구체적으로, 차량의 컨트롤러는 상기 차량의 글로벌 경로 상에서 특정 이벤트가 발생한 정보를 수신한 경우, 상기 이벤트가 발생한 정보를 반영한 수정 경로를 생성하여 새로운 글로벌 경로로 설정할 수 있다.
일 예로, 차량의 컨트롤러는 차량의 현재 위치와 차량의 목적지의 위치를 기초로 생성된 제1 글로벌 경로를 따라 상기 차량을 제어할 수 있다. 이때, 상기 차량의 컨트롤러가 상기 제1 글로벌 경로와 관련된 특정 지점에서 발생한 트래픽 이벤트와 관련된 정보를 포함하는 공유 데이터를 다른 장치로부터 수신한 경우, 상기 차량이 상기 트래픽 이벤트가 발생한 영역을 피해서 주행할 수 있도록 수정 경로를 생성할 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 수정 경로를 제2 글로벌 경로로 설정하여 상기 차량을 상기 제2 글로벌 경로를 따라 제어할 수 있다.
전술한 사항과 같이, 상기 수정 경로는 글로벌 경로 또는 로컬 경로의 적어도 일부를 수정한 경로를 의미할 수 있고, 이에 한정되지 않고, 차량을 급정지시키기 위한 경로를 의미할 수도 있다. 또한, 차량의 컨트롤러는 상기 수정 경로를 차량을 위한 새로운 글로벌 경로 또는 차량을 위한 새로운 로컬 경로로 설정할 수 있다.
5.2.3. 공유 데이터에 트래픽 이벤트와 관련된 정보가 포함된 경우
일 실시예에 따른 공유 데이터의 컨텐츠는 교통 사고 등 트래픽 이벤트 관련 정보를 포함할 수 있다. 이때, 상기 트래픽 이벤트 관련 정보는 적어도 하나의 객체가 트래픽 이벤트에 연관되었다는 사실을 나타내는 정보를 의미할 수 있으나, 이에 한정되지 않고, 상기 트래픽 이벤트에 대한 정보를 요청하는 메시지 등을 의미할 수도 있다.
이 경우, 상기 트래픽 이벤트 관련 정보를 수신한 장치는 상기 트래픽 이벤트 관련 정보에 포함되는 데이터(예를 들어, 이벤트 발생 영역)를 고정밀 지도 상에 디스플레이할 수 있다. 예를 들어, 트래픽 이벤트 관련 정보를 수신한 차량의 컨트롤러는 탑승자에게 트래픽 이벤트와 관련된 정보를 알리기 위해, 고정밀 지도 상에 트래픽 이벤트가 발생한 영역 등을 표시할 수 있으나, 이에 한정되지 않는다.
또한, 상기 트래픽 이벤트 관련 정보를 수신한 장치는 상기 트래픽 이벤트 관련 정보를 이용하여 상기 이벤트와 관련되는 객체들의 속성 데이터(예를 들어, 클래스 정보)를 변경할 수 있다.
구체적인 예로, 제1 차량의 컨트롤러가 제1 차량에 포함된 적어도 하나의 센서를 통해 획득한 센서 데이터에 포함되는 제2 차량의 클래스 정보를 '차량(Vehicle)'으로 판단할 수 있다. 이때, 상기 제2 차량이 트래픽 이벤트와 관련된 객체인 경우, 상기 제1 차량의 컨트롤러는 제2 장치로부터 상기 제2 차량이 트래픽 이벤트와 관련되었다는 정보를 수신할 수 있다. 이 경우, 상기 제1 차량의 컨트롤러는 상기 제2 차량의 클래스 정보를 '사고', '사고 차량', '사고 현장', 또는 '사고 지점' 등으로 변경할 수 있으나, 이에 한정되지 않는다.
또한, 상기 제1 차량의 컨트롤러는 상기 제2 차량의 변경된 클래스 정보를 기초로, 상기 제1 차량을 제어할 수 있다. 예를 들어, 상기 제1 차량의 컨트롤러는 상기 트래픽 이벤트와 관련된 제2 차량과 관련된 영역을 포함하지 않는 로컬 경로를 생성할 수 있으나, 이에 한정되지 않는다.
6. 센서 데이터 및 공유 데이터를 활용한 다양한 어플리케이션
전술한 실시예에 따른 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 다양한 어플리케이션(Application)에서 이용될 수 있다.
일 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 블랙박스(Dash-cam)에 이용될 수 있다. 이 경우, 라이다를 이용한 블랙박스를 포함하는 차량은 상기 라이다를 이용해 획득한 포인트 데이터 셋을 상기 블랙박스의 메모리 또는 상기 차량에 포함된 메모리에 저장할 수 있다. 다만, 전술한 바와 같이 메모리의 저장 용량 문제 및 라이다로부터 획득된 객체의 인텐시티 정보에 의한 프라이버시 침해 문제를 해결하기 위해, 차량의 컨트롤러는 상기 포인트 데이터 셋을 선별적으로 저장할 수 있다. 예를 들어, 상기 차량의 컨트롤러는 객체의 인텐시티 정보를 제외한 포인트 데이터 셋을 저장할 수 있으나, 이에 한정되지 않고, 객체의 적어도 일부분을 나타내는 서브 포인트 데이터 셋을 일부 가공한 프라이버시 보호 데이터를 생성하여 저장할 수도 있다.
또한, 차량이 교통 사고 등 트래픽 이벤트에 관련되는 경우, 상기 차량은 전술한 바와 같이 주변 장치로부터 상기 트래픽 이벤트와 관련된 객체의 클래스 정보에 따라 프라이버시 보호 데이터를 포함하는 공유 데이터를 수신하거나, 이동형 객체와 관련된 데이터만 선별적으로 수신할 수 있다. 이 경우, 상기 차량의 컨트롤러는 상기 공유 데이터를 기초로 상기 트래픽 이벤트를 재구성할 수 있다.
또한, 트래픽 이벤트가 발생한 영역의 주변에 위치한 차량은 전술한 바와 같이 서버로부터 상기 트래픽 이벤트와 관련된 센서 데이터의 요청을 수신할 수 있고, 해당 요청에 대한 응답으로, 상기 차량의 컨트롤러는 상기 트래픽 이벤트와 관련된 공유 데이터를 상기 서버에 전송할 수 있다. 이때, 상기 서버는 상기 트래픽 이벤트와 관련된 공유 데이터를 기초로 상기 트래픽 이벤트를 재구성할 수 있다.
또한, 트래픽 이벤트와 관련된 공유 데이터를 수신한 장치는 전술한 바와 같이 센서 데이터 및 상기 공유 데이터의 좌표계를 하나의 좌표계로 정렬시킴으로써 복수의 데이터를 정합할 수 있다. 이때, 상기 장치는 상기 트래픽 이벤트 전후의 소정 시간 동안 획득된 센서 데이터 및 공유 데이터를 시간 순서로 나열함으로써 상기 트래픽 이벤트를 재구성할 수 있다.
다른 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 전술한 바와 같이, 차량에 배치된 센서로부터 정보를 획득할 수 없는 영역을 의미하는 블라인드 스팟을 감지하기 위해 이용될 수 있다. 보다 구체적으로, 차량의 컨트롤러는 차량에 배치된 센서의 시야각 내에 위치하되 다른 객체에 의해 가려져서 센서 데이터에 포함되지 않는 객체에 대한 정보를 획득하기 위해, 다른 장치로부터 상기 센서 데이터에 포함되지 않는 객체에 대한 정보를 포함하는 공유 데이터를 수신할 수 있다.
이 경우, 상기 차량에 공유 데이터를 전송하는 장치는 센서 데이터에 포함되는 객체의 클래스 정보를 기초로 공유 데이터의 컨텐츠를 선별적으로 생성할 수 있다. 또한, 상기 차량과 관련된 이벤트 발생 여부에 따라 공유 데이터의 컨텐츠를 선별적으로 생성할 수 있다. 또한, 상기 공유 데이터를 수신한 차량은 상기 블라인드 스팟 내에 위치하는 객체에 대한 데이터를 좌표계 정렬을 통해 상기 차량에 배치된 센서에 의해 획득한 센서 데이터와 정합할 수 있다. 이때, 상기 차량의 컨트롤러는 정합된 센서 데이터 및 공유 데이터를 기초로, 상기 차량을 제어할 수 있다.
또 다른 예로, 센서 데이터 및 공유 데이터의 선별적 공유 방법 및 처리 방법은 전술한 바와 같이, 차량의 주차 가능 공간을 감지하기 위해 이용될 수 있다. 구체적인 예로, 차량이 주차장에 진입한 경우, 주차장에 배치된 인프라 장치로부터 주차 가능 공간에 대한 정보를 수신할 수 있다. 이 경우, 차량의 컨트롤러는 자율 주차 시스템 및 상기 인프라 장치와의 통신 시스템을 이용하여 상기 차량을 상기 주차 가능 공간에 자율적으로 주차할 수 있다.
대목차 6에서는 몇몇 어플리케이션에 전술한 대목차 1 내지 5의 기술적 사항이 적용될 수 있음을 예시적으로 나타낸 것으로, 전술한 대목차 1 내지 5의 기술적 사항 중 목차 6에서 기재된 기술적 사항 외에 다른 기술적 사항들 역시 상기 어플리케이션에 적용될 수 있음은 물론이다. 또한, 대목차 6에서 기재된 어플리케이션 외에 다른 어플리케이션(예를 들어, 교통 관제 시스템, 차량 외 다른 교통 수단(드론, 선박, 철도 등))에도 역시 전술한 대목차 1 내지 5의 기술적 사항이 적용될 수 있음은 물론이다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크, 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 회로, 장치 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
10 차량
1000 자율 주행 시스템
1100 컨트롤러
1200 통신 모듈
1300 센서
1400 인포테인먼트 시스템
2000 센서 데이터
3000 공유 데이터
6000 이벤트
8000 글로벌 경로

Claims (23)

  1. 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서,
    상기 제1 장치에 포함된 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 상기 센서 데이터에 포함되는 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함-
    상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋을 기초로 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 를 생성하는 단계;
    상기 컨트롤러에 의해, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 일부를 포함하는 공유 데이터를 생성하는 단계; 및
    상기 컨트롤러에 의해, 상기 공유 데이터를 상기 제2 장치에 전송하는 단계;를 포함하고,
    상기 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호 받아야하는 클래스인 경우,
    상기 제2 장치에서 상기 제1 객체의 개인정보가 식별되지 않도록 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터(privacy protection data)를 포함하는
    센서 데이터 공유 방법.
  2. 제1항에 있어서,
    상기 개인 정보를 보호 받아야하는 클래스는,
    사람과 관련된 클래스, 차량 또는 건물의 식별번호와 관련된 클래스, 또는 신분증과 관련된 클래스 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  3. 제1항에 있어서,
    상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  4. 제1항에 있어서,
    상기 제1 서브 포인트 데이터 셋의 상기 제1 속성 데이터는 상기 제1 객체의 클래스 정보, 상기 제1 서브 포인트 셋의 중심 위치를 나타내는 중심 위치 정보, 상기 제1 서브 포인트 셋의 사이즈 정보를 나타내는 사이즈 정보, 상기 제1 서브 포인트 데이터 셋의 이동 속도 또는 이동 방향 중 적어도 하나를 포함하는 이동 정보, 상기 제1 서브 포인트 데이터 셋을 다른 서브 포인트 데이터 셋과 구별하기 위한 식별 정보, 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  5. 제4항에 있어서,
    상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 포함된 클래스의 종류와 관계없이 상기 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  6. 제4항에 있어서,
    상기 형상 정보는 상기 제1 서브 포인트 데이터 셋의 상기 클래스 정보에 기초하여 결정되되,
    상기 형상 정보는 상기 제1 객체를 소정 개수 이하의 포인트 또는 적어도 하나의 선으로 나타낸 스켈레톤 정보 및 상기 제1 객체를 미리 결정된 형상으로 나타낸 템플릿 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  7. 제1항에 있어서,
    상기 프라이버시 보호 데이터는 상기 제1 속성 데이터 - 상기 제1 속성 데이터는 상기 제1 객체의 형상을 가공하여 나타낸 형상 정보를 더 포함함 - 에 포함된 정보 중 적어도 일부를 포함하는
    센서 데이터 공유 방법.
  8. 제1항에 있어서,
    상기 제1 서브 포인트 데이터 셋은 복수의 포인트 데이터를 포함하고,
    상기 프라이버시 보호 데이터는 상기 제1 서브 포인트 데이터 셋에 포함된 상기 복수의 포인트 데이터 중 상기 제1 객체의 프라이버시와 관련된 영역에 대한 적어도 하나의 포인트 데이터를 기초로 생성되는
    센서 데이터 공유 방법.
  9. 제1항에 있어서,
    상기 포인트 데이터 셋은 제2 객체의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
    상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 제1 객체의 클래스가 개인 정보를 보호받아야 하는 클래스이고, 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스가 개인 정보를 보호받아야 하는 클래스가 아닌 경우,
    상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 적어도 일부분이 가공된 프라이버시 보호 데이터를 포함하고,
    상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 중 적어도 일부를 포함하는
    센서 데이터 공유 방법.
  10. 제1항에 있어서,
    상기 포인트 데이터 셋은 제2 객체의 적어도 일부를 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
    외부 서버로부터 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 서브 포인트 데이터 셋의 제2 속성 데이터 - 상기 제2 속성 데이터는 상기 제2 서브 포인트 데이터 셋의 클래스 정보를 포함함 - 중 적어도 하나의 공유에 대한 인증을 획득한 경우,
    상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 클래스 정보에 포함된 제2 객체의 클래스의 종류에 관계없이 상기 제2 서브 포인트 데이터 셋 또는 상기 제2 속성 데이터 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  11. 제1항에 있어서,
    상기 포인트 데이터 셋은 다수의 포인트 데이터(point data)를 포함하고,
    상기 다수의 포인트 데이터는, 상기 제1 장치에 배치된 적어도 하나의 상기 센서에 의해 측정된 객체까지의 거리 및 객체의 반사율 중 적어도 하나에 기초하여 생성되고,
    상기 컨트롤러는 상기 제1 장치로부터 소정 거리 이하에 위치하는 상기 제1 객체에 대하여, 상기 제1 객체에 대한 다수의 포인트 데이터를 기초로 상기 제1 서브 포인트 데이터 셋을 생성하고,
    상기 컨트롤러는 상기 제1 장치로부터 소정 거리보다 더 멀리 위치하는 제2 객체에 대하여, 상기 제2 객체에 대한 다수의 포인트 데이터를 기초로 제2 서브 포인트 데이터 셋을 생성하고,
    상기 공유 데이터의 컨텐츠는 상기 제2 서브 포인트 데이터 셋의 속성 데이터에 관계없이 상기 제2 서브 포인트 데이터 셋을 포함하는
    센서 데이터 공유 방법.
  12. 제1 장치와 제2 장치 간에 센서 데이터를 공유하는 방법에 있어서,
    상기 제1 장치의 컨트롤러에 의해, 상기 제1 장치에 배치된 적어도 하나의 센서로부터 포인트 데이터 셋(a set of point data)을 획득하는 단계; - 상기 포인트 데이터 셋은 제1 객체의 적어도 일부분을 나타내는 제1 서브 포인트 데이터 셋(sub-set of point data)을 포함함 -
    상기 컨트롤러에 의해, 상기 포인트 데이터 셋에 포함된 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터- 상기 제1 속성 데이터는 상기 제1 서브 포인트 데이터 셋의 클래스 정보를 포함함- 를 생성하는 단계;
    상기 포인트 데이터 셋, 상기 제1 서브 포인트 데이터 셋 및 상기 제1 속성 데이터 중 적어도 하나를 이용하여 상기 제2 장치에 공유하기 위한 공유 데이터를 생성하는 단계; 를 포함하고,
    상기 제1 객체의 클래스의 이동 가능성 및 상기 제1 객체의 클래스의 종류 중 적어도 하나를 기초로, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠에 상기 제1 서브 포인트 데이터 셋 또는 상기 제1 속성 데이터 중 적어도 하나가 포함되는지 여부가 결정되는
    센서 데이터 공유 방법.
  13. 제12항에 있어서,
    상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 제2 장치에 공유하기 위한 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하고,
    상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하는
    센서 데이터 공유 방법.
  14. 제13항에 있어서,
    상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함된 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  15. 제13항에 있어서,
    상기 컨트롤러가 상기 고정형 객체가 소정 시간 후에 이동 가능한지 여부와 관련되는 부가 정보를 획득하는 경우,
    상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함하는
    센서 데이터 공유 방법.
  16. 제12항에 있어서,
    상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함되는 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않는
    센서 데이터 공유 방법.
  17. 제16항에 있어서,
    상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋의 제1 속성 데이터에 포함되는 정보 중 적어도 하나를 포함하고,
    상기 공유 데이터를 상기 제2 장치에 전송하는 단계를 포함하는
    센서 데이터 공유 방법.
  18. 제12항에 있어서,
    상기 제1 서브 포인트 셋의 상기 클래스 정보는 상기 제1 객체의 타입에 대한 정보, 상기 제1 객체의 일부분의 타입에 대한 정보, 또는 상기 제1 객체와 관련된 영역의 상황에 대한 정보 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  19. 제18항에 있어서,
    상기 포인트 데이터 셋은 제2 객체 - 상기 제2 객체는 상기 제1 객체로부터 소정 거리만큼 떨어진 영역 내에 위치함-의 적어도 일부분을 나타내는 제2 서브 포인트 데이터 셋을 포함하고,
    상기 제1 객체와 관련된 영역의 상황은 상기 제1 서브 포인트 데이터 셋 및 상기 제2 서브 포인트 데이터 셋을 기초로 판단되고,
    상기 제1 서브 포인트 데이터 셋의 클래스 정보 및 상기 제2 서브 포인트 데이터 셋의 클래스 정보가 상기 제1 객체와 관련된 영역의 상황에 대한 정보를 포함하는 경우,
    상기 컨트롤러는 상기 객체와 관련된 영역의 상황의 종료 시점과 관련되는 부가 정보를 획득하고,
    상기 공유 데이터의 컨텐츠는 상기 부가 정보를 포함하는
    센서 데이터 공유 방법.
  20. 제12항에 있어서,
    상기 제1서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 고정형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하지 않고,
    상기 제1 서브 포인트 데이터 셋의 클래스 정보에 포함된 상기 제1 객체의 클래스가 이동형 객체와 관련된 경우, 상기 공유 데이터의 컨텐츠는 상기 제1 서브 포인트 데이터 셋을 포함하는
    센서 데이터 공유 방법.
  21. 제1항 또는 제12항에 있어서,
    상기 적어도 하나의 센서는 라이다, 카메라, 레이더 및 초음파 센서 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  22. 제1항 또는 제12항에 있어서,
    상기 제1 장치 및 상기 제2 장치 각각은 이동체, 서버, 모바일 디바이스, 또는 인프라 장치 중 적어도 하나를 포함하는
    센서 데이터 공유 방법.
  23. 제1항 내지 제20항 중 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.

KR1020200112084A 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법 KR20220001405A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2020/016132 WO2021261680A1 (ko) 2020-06-26 2020-11-17 센서 데이터 공유 및 활용 방법
US17/118,413 US11878711B2 (en) 2020-06-26 2020-12-10 Method of sharing and using sensor data
US17/118,358 US11858493B2 (en) 2020-06-26 2020-12-10 Method of sharing and using sensor data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063044756P 2020-06-26 2020-06-26
US63/044,756 2020-06-26

Publications (1)

Publication Number Publication Date
KR20220001405A true KR20220001405A (ko) 2022-01-05

Family

ID=79342610

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200112085A KR20220000779A (ko) 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법
KR1020200112086A KR20220001406A (ko) 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법
KR1020200112084A KR20220001405A (ko) 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200112085A KR20220000779A (ko) 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법
KR1020200112086A KR20220001406A (ko) 2020-06-26 2020-09-03 센서 데이터 공유 및 활용 방법

Country Status (1)

Country Link
KR (3) KR20220000779A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481084B1 (ko) * 2022-03-28 2022-12-27 주식회사 라이드플럭스 차량의 자율주행 제어를 위한 주변 환경 정보 생성방법, 장치 및 컴퓨터프로그램

Also Published As

Publication number Publication date
KR20220001406A (ko) 2022-01-05
KR20220000779A (ko) 2022-01-04

Similar Documents

Publication Publication Date Title
US11951975B1 (en) Handling sensor occlusions for autonomous vehicles
KR102309575B1 (ko) 자율 차량들에서의 승객들의 조기 탑승
KR102274273B1 (ko) 자율 차량을 위한 정지 위치 계획
US11858493B2 (en) Method of sharing and using sensor data
Ziebinski et al. A survey of ADAS technologies for the future perspective of sensor fusion
US10946868B2 (en) Methods and devices for autonomous vehicle operation
US10077007B2 (en) Sidepod stereo camera system for an autonomous vehicle
US10640111B1 (en) Speed planning for autonomous vehicles
US10836346B2 (en) Methods and systems for providing a protect occupants mode with an autonomous vehicle
JP6692986B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US11230290B2 (en) Vehicle control device, vehicle control method, and program
US20210114588A1 (en) Vehicle control device, vehicle control method, and storage medium
US11137758B2 (en) Vehicle use system
WO2018179958A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
KR20190126024A (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
JP2020107212A (ja) 車両制御システム、車両制御方法、及びプログラム
US20200159234A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2019119230A (ja) 車両制御システム、車両制御方法、およびプログラム
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
JP2020144711A (ja) 車両制御システムおよび車両制御方法
KR20220001405A (ko) 센서 데이터 공유 및 활용 방법
JP2020166419A (ja) 車両制御装置、車両制御方法、及びプログラム
JP2020107163A (ja) 報知装置及び車両制御装置
US20200307592A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2019049811A (ja) 車両制御装置、車両制御方法、およびプログラム