KR20220134029A - 자율 주행 내비게이션 동안의 객체 회피 방법 - Google Patents

자율 주행 내비게이션 동안의 객체 회피 방법 Download PDF

Info

Publication number
KR20220134029A
KR20220134029A KR1020227031758A KR20227031758A KR20220134029A KR 20220134029 A KR20220134029 A KR 20220134029A KR 1020227031758 A KR1020227031758 A KR 1020227031758A KR 20227031758 A KR20227031758 A KR 20227031758A KR 20220134029 A KR20220134029 A KR 20220134029A
Authority
KR
South Korea
Prior art keywords
time
autonomous vehicle
velocity
calculating
motion
Prior art date
Application number
KR1020227031758A
Other languages
English (en)
Other versions
KR102503388B1 (ko
Inventor
조엘 파자이암팔릴
크리스틴 문
Original Assignee
블루스페이스 에이아이, 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 블루스페이스 에이아이, 아이엔씨. filed Critical 블루스페이스 에이아이, 아이엔씨.
Publication of KR20220134029A publication Critical patent/KR20220134029A/ko
Application granted granted Critical
Publication of KR102503388B1 publication Critical patent/KR102503388B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/40Coefficient of friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • B60Y2300/095Predicting travel path or likelihood of collision
    • B60Y2300/0954Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

자율 주행 차량의 자율 주행 내비게이션을 위한 방법은 자율 주행 차량의 현재 속도를 기반으로 하여 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계; 정지 기간에 의해 현재 시간으로부터 임계 시간을 계산하는 단계; 현재 시간에 자율 주행 차량의 센서에 의해 캡처된, 자율 주행 차량에 근접한 필드의, 스캔 이미지에서 객체를 감지하는 단계; 스캔 이미지를 기반으로 하여, 객체의 현재 위치 및 모션을 도출하는 단계; 객체의 현재 위치 및 모션 및 공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트를 기반으로 하여 임계 시간까지 객체에 액세스할 수 있는 그라운드 영역을 나타내는 미래 상태 경계를 계산하는 단계; 및 임계 시간 이전에 미래 상태 경계로의 진입을 피하기 위해 내비게이션 액션을 선택하는 단계를 포함한다.

Description

자율 주행 내비게이션 동안의 객체 회피 방법
본 출원은 2020년 2월 21일에 출원된 미국 가출원 특허 제62/980,131호, 2020년 2월 21일에 출원된 미국 가출원 특허 제62/980,132호, 및 2020년 8월 11일에 출원된 미국 가출원 특허 제63/064,316호에 대한 우선권을 주장하며, 이들 각각은 본 참조로 그 전체가 통합된다.
본 발명은 일반적으로는 자율 주행 차량(autonomous vehicle) 분야에 관한 것이고, 보다 구체적으로는 자율 주행 차량 분야에서 자율 주행 내비게이션(autonomous navigation) 동안의 객체 회피(object avoidance)를 위한 새롭고 유용한 방법에 관한 것이다.
도 1은 방법의 순서도 표현이다.
도 2는 방법의 한 가지 변형에 대한 순서도 표현이다.
도 3a, 도 3b 및 도 3c는 방법의 한 가지 변형에 대한 순서도 표현이다.
도 4는 방법의 한 가지 변형에 대한 순서도 표현이다.
도 5는 방법의 한 가지 변형에 대한 순서도 표현이다.
도 6은 방법의 한 가지 변형에 대한 순서도 표현이다.
도 7은 방법의 한 가지 변형에 대한 순서도 표현이다.
본 발명의 실시예에 대한 다음의 설명은 본 발명을 이러한 실시예로 제한하기 위한 것이 아니라 당업자가 본 발명을 만들어 사용할 수 있도록 하기 위한 것이다. 본 명세서에 기술된 변형, 구성, 구현, 예시적인 구현 및 예시는 선택 사항이며 그들이 기술하는 변형, 구성, 구현, 예시적인 구현 및 예시에만 국한되는 것은 아니다. 본 명세서에 기술된 본 발명은 이러한 변형, 구성, 구현, 예시적인 구현 및 예시의 모든 순열을 포함할 수 있다.
1. 방법
도 1에 도시된 바와 같이, 자율 주행 내비게이션 동안의 객체 회피를 위한 방법(S100)은 자율 주행 차량에서 제1 시간에 블록(S110)에서 제1 시간에서의 자율 주행 차량 속도를 기반으로 하여 자율 주행 차량이 완전 정지(full stop)에 도달하는 정지 기간(stopping duration)을 추정하는 단계; 블록(S112)에서 정지 기간만큼 제1 시간으로부터 오프셋된 임계 시간(critical time)을 저장하는 단계; 블록(S120)에서 대략적으로 제1 시간에 캡처된 자율 주행 차량 주변 필드(field)의 제1 스캔 이미지에서 객체(object)를 감지하는 단계; 및 제1 스캔 이미지를 기반으로 하여, 블록(S122)에서 자율 주행 차량에서부터 객체까지의 제1 광선(ray)을 따라 객체의 제1 위치 및 제1 시선 속도(radial speed)를 도출하는 단계를 포함한다. 또한, 방법(S100)은 제1 시간에서의 객체의 제1 위치; 객체의 제1 시선 속도; 및 자율 주행 차량 운행을 위해 정의된 일반 객체(generic object)의 최대 가정 각 속도(maximum assumed angular velocity) 및 최대 가정 가속도(maximum assumed acceleration)를 기반으로 하여 블록(S130)에서 제1 시간부터 임계 시간까지 객체에 액세스할 수 있는 그라운드 영역(ground area)을 나타내는 제1 미래 상태 경계(future state boundary)를 계산하는 단계를 포함한다. 방법(S100)은 임계 거리(threshold distance)를 초과하는 미래 상태 경계의 둘레와 제1 시간에서의 자율 주행 차량 사이의 제1 거리에 응답하여, 블록(S142)에서 자율 주행 차량에서의 다음 경로 계획 고려 사항(path planning consideration)에서 객체를 뮤팅(muting)하는 단계; 및 제1 거리를 초과하는 임계 거리에 응답하여, 블록(S144)에서 객체의 미래 상태 경계를 제외한, 자율 주행 차량 주변의, 액세스 영역을 계산하는 단계 및 블록(S140)에서 제1 시간부터 임계 시간까지 액세스 영역에 남아 있도록 내비게이션 액션을 실행하는 단계를 더 포함한다.
방법(S100)의 한 가지 변형은 자율 주행 차량에서 제1 시간에, 블록(S110)에서 제1 시간에서의 자율 주행 차량 속도를 기반으로 하여, 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계; 블록(S112)에서 정지 기간만큼 제1 시간으로부터 오프셋된 임계 시간을 계산하는 단계; 블록(S120)에서 대략적으로 제1 시간에 자율 주행 차량의 센서에 의해 캡처된, 자율 주행 차량 인접 필드의, 제1 스캔 이미지에서 객체를 감지하는 단계; 제1 스캔 이미지를 기반으로 하여, 블록(S122)에서 제1 객체의 제1 위치 및 제1 모션을 도출하는 단계; 제1 시간에서의 제1 객체의 제1 위치, 제1 객체의 제1 모션, 및 공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트를 기반으로 하여 블록(S130)에서 제1 시간부터 제1 임계 시간까지 제1 객체에 액세스할 수 있는 제1 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계; 및 블록(S140)에서 제1 임계 시간 이전에 제1 미래 상태 경계로의 진입을 방지하기 위한 제1 내비게이션 액션을 선택하는 단계를 포함한다.
방법(S100)의 다른 변형은 블록(S102)에서 공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트에 액세스하는 단계; 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량 인접 필드에 있는 객체를 나타내는 스캔 이미지에 있는 포인트 그룹을 식별하는 단계로서, 포인트 그룹의 각 포인트는 자율 주행 차량을 기준으로 하는 객체 표면의 위치 및 자율 주행 차량을 기준으로 하는 객체 표면의 시선 속도를 포함하는 단계; 블록(S122)에서 포인트 그룹에 있는 포인트의 위치와 시선 속도 사이의 연관성(correlation)을 계산하는 단계; 연관성을 기반으로 하여, 블록(S122)에서 제1 시간에서의 객체의 가능한 접선 속도와 객체의 가능한 각 속도와 관련된 함수를 계산하는 단계; 블록(S122)에서 포인트 그룹에 있는 포인트의 시선 속도를 기반으로 하여 제1 시간에서의 객체의 시선 속도를 계산하는 단계; 함수에 의해 정의된 - 제1 시간에서의 - 객체의 가능한 접선 속도와 객체의 가능한 각 속도, 객체의 시선 속도, 및 미리 정의된 모션 제한 가정 세트를 기반으로 하여 블록(S130)에서 미래 시간에 객체에 액세스할 수 있는 그라운드 영역을 나타내는 미래 상태 경계를 계산하는 단계; 및 블록(S140)에서 미래 임계 시간 이전에 미래 상태 경계를 회피하기 위한 내비게이션 액션을 선택하는 단계를 포함한다.
방법(S100)의 또 다른 변형은 블록(S102)에서 공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트에 액세스하는 단계를 포함한다. 또한, 방법(S100)의 변형은 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량 인접 필드에 있는 제1 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 제1 포인트 그룹의 각 포인트는 센서에서부터 제1 객체 표면까지의 제1 범위 값(range value), 센서를 기준으로 하는 제1 객체 표면의 제1 방위각 위치(azimuthal position), 및 센서를 기준으로 하는 제1 객체 표면의 제1 시선 속도를 포함하는 단계; 블록(S122)에서 제1 포인트 그룹에 있는 포인트의 제1 방위각 위치와 제1 시선 속도 사이의 제1 연관성을 계산하는 단계; 제1 연관성을 기반으로 하여, 블록(S122)에서 제1 시간에서의 제1 객체의 가능한 접선 속도와 제1 객체의 가능한 각 속도와 관련된 제1 함수를 계산하는 단계; 및 블록(S122)에서 제1 포인트 그룹에 있는 포인트의 제1 시선 속도를 기반으로 하여 제1 시간에서의 제1 객체의 제1 시선 속도를 계산하는 단계를 포함한다. 방법(S100)의 이러한 변형은 블록(S110)에서 제1 시간에 자율 주행 차량의 제1 속도를 기반으로 하여, 자율 주행 차량이 완전 정지에 도달하는 제1 정지 기간을 추정하는 단계; 블록(S112)에서 정지 기간만큼 제1 시간으로부터 오프셋된 제1 임계 시간을 계산하는 단계; 제1 함수에 의해 정의된 - 제1 시간에서의 - 제1 객체의 가능한 접선 속도와 제1 객체의 가능한 각 속도, 제1 시선 속도, 및 미리 정의된 모션 제한 가정 세트를 기반으로 하여 블록(S130)에서 제1 임계 시간에 제1 객체에 액세스할 수 있는 제1 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계; 및 블록(S140)에서 제1 임계 시간 이전에 제1 미래 상태 경계로의 진입을 방지하기 위한 제1 내비게이션 액션을 선택하는 단계를 더 포함한다.
2. 어플리케이션
일반적으로, 방법(S100)은 그 환경 안에 있는 객체를 감지하고; 일반 객체의 사전 로딩된 최대 모션 가정(또는 일반 적대적 객체에 대한 사전 로딩된 적대적 모션 제한)을 기반으로 하여 객체에 최악의 속도 및 가속도 값을 할당하고; 그 현재 속도를 고려하여 현재 시간부터 자율 주행 차량이 제동을 걸어 완전 정지할 수 있는 시간까지 객체에 액세스할 수 있는 최대 그라운드 영역을 추정하고; 및 자율 주행 차량이 이러한 최대 그라운드 영역에서 충분히 멀리 떨어져 있는 경우에는 경로 계획 고려 사항에서 객체를 선택적으로 뮤팅하기 위해 또는 미래에 액세스할 수 있는 이러한 최대 그라운드 영역으로의 진입을 방지하기 위해 이러한 객체를 고려하고 속도 및/또는 조향 각도(steering angle) 조정을 실행하기 위해 자율 주행 차량(예를 들어, 자율 주행 버스, 자율 주행 승용차)에 의해 실행될 수 있다.
보다 구체적으로, 운행 전반에 걸쳐, 자율 주행 차량은 그 현재 속도를 고려하여 자율 주행 차량이 완전 정지에 도달할 수 있는 정지 기간 추정치를 유지할 수 있다. 자율 주행 차량이 그 필드에 있는 객체를 처음 감지하는 경우, 자율 주행 차량은 이러한 객체에 적대적 에이전트(adversarial agent)의 미리 정의된 최악의 속도 및 가속도 가정을 할당하고; 객체의 현재 위치를 고려하여 자율 주행 차량의 현재 정지 기간 동안 - 이러한 최악의 속도 및 가속도 가정 하에서 - 이러한 객체가 액세스할 수 있는 최대 그라운드 영역(이하 "미래 상태 경계")을 계산할 수 있다. 자율 주행 차량의 현재 위치가 객체의 이러한 미래 상태 경계에서 충분히 오프셋되어 있거나 이러한 미래 상태 경계 바깥쪽에 있는 경우, 자율 주행 차량은 객체의 최악의 적대적 액션 하에서도 이러한 객체와 충돌하기 전에 잘 완전 정지에 도달할 수 있는 능력을 예측하고; 따라서 현재 경로 계획 결정에서 객체를 무시하거나 뮤팅하고 대신 자율 주행 차량이 객체를 피하기 위해 내비게이션 액션을 실행하기 위해 객체의 미래 상태 경계에 가까워질 때까지 기다릴 수 있다. 반대로, 자율 주행 차량의 현재 위치가 객체의 이러한 미래 상태 경계 근처에 있는 경우, 자율 주행 차량은 (예를 들어, 자율 주행 차량에서부터 미래 상태 경계의 둘레까지 거리에 반비례하는 크기만큼) 그 속도를 줄일 수 있기 때문에 자율 주행 차량의 정지 기간을 감소시키고; (자율 주행 차량의 현재 정지 기간 동안 객체에 액세스할 수 있는 최대 그라운드 영역을 나타내는) 객체의 미래 상태 경계를 축소하고; 시간이 지남에 따라 자율 주행 차량이 객체의 이러한 미래 상태 경계 바깥쪽에 남아 있도록 할 수 있다. 따라서, 자율 주행 차량이 그 환경에서 객체를 처음 감지한 직후에 자율 주행 차량의 방향으로 객체가 적대적 액션을 시작하거나 계속하는 경우에도, 자율 주행 차량은 객체와 충돌하기 전에 자율 주행 차량이 완전 정지에 도달할 수 있도록 하기 위해 객체로부터 공간적 및 시간적 거리를 유지할 것으로 에상되는 내비게이션 액션(예를 들어, 속도 및/또는 조향 각도 조정)을 알리기 위해 방법(S100)의 블록을 실행할 수 있다.
또한, 자율 주행 차량은 후속 스캔 이미지에서 이러한 객체를 감지 및 추적하고; 이러한 스캔 이미지로부터 객체의 실제 속도(예를 들어, 복수의 연속 스캔 이미지 및 연속 시선 속도 측정에서의 객체 위치 변화를 기반으로 하는 객체의 절대 속도)를 도출하고; 객체의 속도에 대한 최악의 가정을 객체의 실제 속도로 대체할 수 있다. 자율 주행 차량은 이후 일반 객체에 대한 그 실제 속도 및 최악의 가속도 가정을 기반으로 하여 객체의 미래 상태 경계를 다시 계산하고; 이러한 수정된 미래 상태 경계를 기준으로 하는 자율 주행 차량 위치를 기반으로 하여 현재 경로 계획 고려 사항에서 객체를 선택적으로 뮤팅하기 위해 방법(S100)의 블록을 반복할 수 있다.
예를 들어, 자율 주행 차량은 고성능 승용차 또는 고성능 오토바이의 최악의 속도 및 가속도(예를 들어, 50 m/s의 최대 속도, 9 m/s2의 최대 가속도)를 저장하고; 이러한 객체의 실제 유형 또는 종류에 관계없이 모든 감지된 객체의 미래 상태 경계를 계산하기 위해 이러한 최악의 속도 및 가속도를 구현할 수 있다. 따라서, 자율 주행 차량은 객체의 유형을 식별하고 자율 주행 차량 주변 필드에 있는 이동 객체(mutable object)(예를 들어, 보행자, 차량)와 고정 객체(immutable object)(예를 들어, 도로 표지판, 전신주)를 구별하기 위한 객체 식별 및 다른 머신 러닝 기술에 대한 의존성을 줄이거나 제거할 수 있다. 보다 구체적으로, 예상되는 객체 유형에 따라 선택된 역학 모델을 기반으로 하여 객체의 미래 상태 경계를 예측하는 대신, 자율 주행 차량은 객체의 제한된 모션 데이터, 자율 주행 차량을 기준으로 하는 그 현재 위치, 및 일반 객체(예를 들어, 일반 고성능 승용차)에 대한 최대 속도 및 가속도를 기반으로 하여 객체의 미래 상태를 예측하여 경계를 나타내고, 자율 주행 차량이 시간이 지남에 따라 이러한 객체에 대한 추가 속도 데이터를 수집함에 따라 객체의 이러한 미래 상태 경계를 개선할 수 있다(예를 들어, 좁힐 수 있다).
따라서, 경로 계획 결정을 알리기 위해 방법(S100)의 블록을 실행함으로써, 자율 주행 차량은 그 환경에 있는 객체의 유형 또는 종류를 정확하게 식별할 필요성을 줄이거나 제거하고; 자율 주행 차량의 자율 주행 운행에서 이러한 가능한 오차의 원인을 줄이거나 제거하고; 예를 들어, 적대적 컴퓨터 비전 공격, 적대적 신경망 공격, 또는 사전 훈련 데이터가 제한적이거나 없는 상황에 맞서 자율 주행 차량의 자율 주행 운행의 견고성을 증가시킬 수 있다.
또한, 자율 주행 차량은 이동 객체 및 고정 객체 모두에 대해 동일한 감지, 추적 및 모선 계획 결정 경로를 구현할 수 있기 때문에, 자율 주행 차량 환경에서 객체의 종류를 식별(또는 객체를 이동 객체 또는 고정 객체로 분류)할 필요성을 줄이거나 제거할 수 있고, 자율 주행 차량에서 실행하는 많은 고유한 컴퓨터 비전, 머신 러닝, 및 경로 계획 파이프라인을 감소시킬 수 있다. 예를 들어, 자율 주행 차량은 자율 주행 차량의 환경에서 감지할 수 없지만 다른 감지된 객체에 의해 가려진 객체(예를 들어, 전신주 뒤에 서 있는 보행자; 트랙터 트레일러에 의해 자율 주행 차량 시야에서 차단된 차선을 점유하고 있는 승용차); 자율 주행 차량 시야에 처음 진입하는 객체; 및 자율 주행 차량 시야에 현존하는 객체를 예측하고 처리하기 위해 동일한 감지, 추적 및 모션 계획 결정 경로를 실행할 수 있다.
3. 자율 주행 차량
자율 주행 차량(autonomous vehicle)은 자율 주행 차량 주변 필드에 있는 객체를 나타내는 데이터를 수집하도록 구성된 일련의 센서; 자율 주행 차량에 의한 실행 경로를 정의하는 내비게이션 맵(navigation map) 및 차도(roadway)를 따라 고정 표면(immutable surface) 위치를 나타내는 위치 표시 맵(localization map)을 저장하는 로컬 메모리(local memory); 및 제어기(controller)를 포함할 수 있다. 제어기(controller)는 일련의 센서 및 위치 표시 맵에서 수집된 센서 데이터를 기반으로 하여 실제 공간에서의 자율 주행 차량 위치를 계산하고; 방법(S100)의 블록에 따라 이들 센서 데이터에서 감지된 객체의 미래 상태 경계(future state boundary)를 계산하고; 이들 미래 상태 경계, 자율 주행 차량의 실제 위치, 및 내비게이션 맵을 기반으로 하여 미래 내비게이션 액션(future navigational action)을 선택하고; 이들 내비게이션 결정에 따라 차량 내의 액추에이터(예를 들어, 가속기, 브레이크 및 조향 액추에이터)를 제어할 수 있다.
하나의 구현에서, 자율 주행 차량은 자율 주행 차량 지붕에 배치된 일련의 LIDAR 센서, 또는 자율 주행 차량의 앞 부분에 배치된 하나의 LIDAR 센서 및 자율 주행 차량의 뒷 부분에 배치된 제2 LIDAR 센서와 같이 자율 주행 차량에 배치된 일련의 360°LIDAR 센서를 포함한다. 각 LIDAR 센서는 LIDAR 센서의 회전 당 - LIDAR 센서 시야 내 외부 표면과 LIDAR 센서 사이의 거리를 나타내는 3D 포인트 클라우드 형태와 같은 - 하나의 3차원 거리 맵(또는 깊이 이미지)을 출력할 수 있다(즉, 스캔 주기 당 한 번 출력할 수 있다). 추가적으로 또는 대안적으로, 자율 주행 차량은 자율 주행 차량 근처 필드에 구조형 광(structured light)을 비추도록 구성된 일련의 적외선 이미터(infrared emitter); 일련의 적외선 감지기(예를 들어, 적외선 카메라); 및 적외선 감지기(들)에 의해 출력된 이미지를 필드의 깊이 맵(depth map)으로 변환하도록 구성된 프로세서를 포함할 수 있다.
추가적으로 또는 대안적으로, 자율 주행 차량은 자율 주행 차량의 앞 부분, 뒷 부분 및/또는 옆 부분으로부터 바깥쪽으로 향하는 컬러 카메라 세트를 포함할 수 있다. 예를 들어, 이러한 세트의 각 카메라는 20 Hz의 속도로 디지털 사진 이미지(또는 "프레임")의 비디오 자료(video feed)를 출력할 수 있다. 또한, 자율 주행 차량은 자율 주행 차량으로부터 바깥쪽으로 향하고 자율 주행 차량 근처 객체의 존재 및 속도를 감지하도록 구성된 RADAR 센서 세트를 포함할 수 있다. 따라서, 자유 주행 차량의 제어기는 LIDAR 센서(들), 컬러 카메라(들), 및 RADAR 센서(들) 등으로부터의 데이터 스트림을 스캔 주기 당 - 자율 주행 차량 주변 필드에 있는 도로, 인도, 차량, 보행자 등을 나타내는 포인트의 집합을 포함하는 3D 컬러 맵 또는 3D 포인트 클라우드 형태와 같은 - 하나의 스캔 이미지로 융합할 수 있다.
그러나, 자율 주행 차량은 다른 센서를 포함할 수 있고, 이들 센서를 통해 수집된 센서 데이터를 기반으로 하여 그 지형 공간 위치(geospatial position) 및 방향을 결정하고, 주변에 있는 객체를 인지하고, 내비게이션 액션을 선택하기 위해 다른 스캐닝, 신호 처리 및 자율 주행 내비게이션 기술 또는 모델을 구현할 수 있다.
3.1 객체 위치 + 모션 데이터
하나의 구현에서, 자율 주행 차량은 일련의 포인트을 포함하는 스캔 이미지를 출력하는 센서를 포함하고, 이러한 스캔 이미지의 각 포인트는 센서(또는 보다 일반적으로 자율 주행 차량)를 기준으로 하는 환경에서의 표면 위치를 나타내고, 센서(또는 보다 일반적으로 자율 주행 차량)에서부터 이러한 표면까지 연장되는 광선(ray)을 따라 이러한 표면의 속도를 지정한다.
일 예에서, 자율 주행 차량은 자율 주행 차량 주변 필드에서 - 센서(또는 보다 일반적으로 자율 주행 차량)에서부터 이러한 표면까지 연장되는 광선을 따라 - 표면의 상대 속도 및 거리를 감지하도록 구성된 3D 스캐닝 LIDAR 센서를 포함한다. 이러한 예에서, 3D 스캐닝 LIDAR 센서는 3D 스캐닝 LIDAR 센서에서(또는 자율 주행 차량의 기준 위치에서) 원점을 정의하는 - 극 좌표계의 구면 좌표에 필드에 있는 표면의 위치를 나타내고; 센서의 스캔 주기 당(예를 들어, 회전 당) 하나의 스캔 이미지에 이러한 극 좌표를 저장할 수 있다. 따라서, 이러한 예에서, 자율 주행 차량은 자율 주행 차량에 장착되고 센서를 기준으로 하는 필드 내 표면의 위치 및 속도를 나타내는 스캔 이미지를 생성하도록 구성된 4차원 광 감지 및 거리 측정 센서(four-dimensional light detection and ranging sensor)에 의해 캡처된 데이터를 포함하는 스캔 이미지에 액세스할 수 있다.
이러한 예에서, 자율 주행 차량은 각각 스캔 주기 당 하나의 스캔 이미지를 출력하도록 구성된 복수의 3D 스캐닝 LIDAR 센서를 포함할 수 있다. 이후, 자율 주행 차량은 이들 센서에 의해 출력된 동시 스캔 이미지(concurrent scan images)를 이러한 스캔 주기 동안 하나의 합성 스캔 이미지(composite scan image)로 융합할 수 있다.
대안적으로, 자율 주행 차량은 상이한 유형의 데이터를 캡처하는 일련의 센서를 포함할 수 있고, 이들 센서의 출력을 필드의 표면 위치에 있는 포인트를 포함하고 자율 주행 차량과 이들 표면 사이에서 연장되는 광선을 따라 이들 표면의 속도로 주석이 달린 스캔 이미지로 융합할 수 있다. 예를 들어, 자율 주행 차량은 LIDAR 시야를 정의하고, 스캔 주기 동안 일련의 포인트를 포함하는 3D 포인트 클라우드를 생성하도록 구성된 3D 스캐닝 LIDAR 센서를 포함할 수 있고, 각각의 포인트는 자율 주행 차량 주변 환경에 있는 표면 상 영역의 위치를 정의한다. 이러한 예에서, 자율 주행 차량은 LIDAR 시야와 교차하는 RADAR 시야를 정의하고 스캔 주기 동안 RADAR 시야에 있는 객체 또는 표면의 목록을 생성하는 고정 또는 스캐닝 RADAR 센서를 또한 포함할 수 있고, 이러한 목록에 있는 각각의 객체 또는 표면은 RADAR 센서를 기준으로 하는 속도로 주석이 달려 있다. 이후, 자율 주행 차량은 RADAR 센서에 의해 감지된 해당 객체 또는 표면의 속도로 3D 포인트 클라우드에 있는 포인트에 주석을 달기 위해 스캔 주기 동안 LIDAR 센서 및 RADAR 센서의 동시 출력을 병합한다.
그러나, 자율 주행 차량은 다른 유형 또는 구성의 센서를 포함할 수 있고, 스캔 주기 동안 자율 주행 차량 주변 필드에 있는 객체 또는 표면의 상대 위치(relative positions) 및 상대 속도(relative speeds)를 나타내는 스캔 이미지에 액세스하거나 스캔 이미지를 구성할 수 있다.
4. 사전 로딩 규칙/가정(Preloaded rules/Assumptions)
또한, 자율 주행 차량은 일반 객체에 대한 미리 정의된 최악의 모션 가정을 저장할 수 있다. 특히, 자율 주행 차량은 자율 주행 차량이 운행 중에 마주칠 수 있는 객체의 모션 변화 및 가장 공격적인(또는 "최악의") 모션에 대한 가정을 저장하고, 운행 내내 마주치는 모든 객체(예를 들어, 보행자, 승용차, 트럭, 트레일러, RV, 오토바이, 도로 표지판, 가로등 기둥, 교통 신호기, 전신주, 건물)의 미래 상태를 예측하기 위해 이들 최악의 모션 가정을 적용할 수 있다.
예를 들어, 자율 주행 차량은 일반 객체의 최대 가능 속도(예를 들어, 100 마일/시간, 55 m/s); 및 모든 방향에서의 일반 객체의 최대 가능 선형 가속도(예를 들어, 9 m/s2)를 저장할 수 있다. 또한, 자율 주행 차량은 모든 방향에서의 일반 객체의 최대 가능 각속도를 예를 들어 객체 속도의 역함수로서 저장할 수 있다. 예를 들어, 자율 주행 차량은 일반 객체의 선형 속도가 증가함에 따라 감소하는 - 그 중심을 중심으로 하는 - 일반 객체의 최대 가능 각 속도를 출력하는 최대 가능 각 속도 함수를 저장할 수 있다. 따라서, 이러한 예에서, 최대 가능 각 속도 함수는 일반 객체가 정지해 있을 때 일반 객체에 대한 최대 가능 각 속도를 예측할 수 있다. (예를 들어, 서 있는 보행자는 여전히 30 m/s로 달리는 스포츠 카보다 큰 최대 가능 각 속도를 나타낼 수 있다).
또한, 자율 주행 차량은 자율 주행 차량 주변에 있는 객체의 미래 상태 경계와 자율 주행 차량 사이의 시간적 또는 공간적 최소 마진(minimum temporal or spatial margin)과 같은 객체 회피 규칙(object avoidance rules)을 저장할 수 있다.
그러나, 자율 주행 차량은 일반 객체에 대한 다른 미리 정의된 최악의 모션 가정 및/또는 객체 회피 규칙을 저장하고 구현할 수 있다.
또한, 자율 주행 차량은 자율 주행 차량이 운행하는 위치 또는 자율 주행 차량과 제휴한 운행자 또는 이해 당사자에 의해 설정된 이러한 미리 정의된 최악의 모션 가정 및/또는 객체 회피 규칙을 검색할 수 있다. 예를 들어, 차량군 매니저(fleet manager) 또는 공무원이 자율 주행 차량 차량군에 이들 값을 할당하거나 지방 자치제, 도시, 지방, 구, 주, 지역, 또는 국가 내 모든 자율 주행 차량의 운행을 위해 이들 값을 지정할 수 있다.
5. 정지 거리(stopping distance) 및 정지 기간(stopping duration)
방법(S100)의 블록(S110) 및 블록(S112)은 자율 주행 차량에서 제1 시간에, 제1 시간에서의 자율 주행 차량 속도를 기반으로 하여, 자율 주행 차량이 완전 정지에 도달하기 위한 정지 기간을 추정하는 단계; 및 정지 기간만큼 제1 시간으로부터 오프셋된 임계 시간을 저장하는 단계를 나열한다. 일반적으로, 블록(S110) 및 블록(S112)에서, 자율 주행 차량은 자율 주행 차량의 현재 속도를 기반으로 하여 - 자율 주행 차량이 비상 정치 절차를 즉시 착수하는 경우 - 자율 주행 차량이 완전 정지에 도달할 수 있는 미래의 시간 및/또는 거리를 추정한다. 예를 들어, 자율 주행 차량은 차량 속도를 정지 기간 및/또는 정지 거리로 직접 변환하는 사전 로딩 함수를 구현할 수 있다.
다른 구현에서, 자율 주행 차량은 자율 주행 차량의 다양한 센서에 의해 수집된 데이터를 기반으로 하여 노면 상태(road surface quality)를 추정한다. 예를 들어, 자율 주행 차량은 컬러 이미지에서 웅덩이 또는 고인 물의 존재를 감지하기 위해 컴퓨터 비전 및 머신 러닝 기술을 구현하고; 그러한 웅덩이 또는 고인 물의 존재 및 분포를 기반으로 하여 노면의 습기(dampness)를 추정한다. 다른 예에서, 자율 주행 차량은 자율 주행 차량의 카메라에 의해 캡처된 컬러 이미지로부터 컬러 데이터 및 텍스처 정보를 추출하기 위해 컴퓨터 비전 및 머신 러닝 기술을 구현하고; 관리된 아스팔트, 파손된(예를 들어, 움푹 패인) 아스팔트, 매끄러운 콘크리트, 텍스처드 콘크리트(textured concrete), 자갈, 흙, 잔디, 또는 고인 물과 같은 자율 주행 차량 주변 노면의 유형을 해석한다. 이러한 구현에서, 자율 주행 차량은 이후 이러한 추정된 도로의 표면 유형 및 습기를 기반으로 하여 노면에 대한 마찰 계수를 계산하거나 검색할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 자율 주행 차량의 마지막 브레이크 서비스 이후 주행 거리(mileage) 및/또는 자율 주행 차량의 마지막 타이어 교체 이후의 주행 거리를 기반으로 하여 제동 효율 계수(braking efficiency coefficient)를 계산하기 위해 자율 주행 차량에 대한 제동 효율 모델(brake efficiency model)을 구현할 수 있다. 이후, 자율 주행 차량은 현재 차량 속도, 마찰 계수, 및 제동 효율 계수를 기반으로 하여 정지 거리 및/또는 정지 기간을 추정하기 위해 제동 모델을 구현할 수 있다.
그러나, 자율 주행 차량은 자율 주행 차량의 현재 정지 거리 및/또는 현재 정지 기간을 추정하기 위해 다른 방법 또는 기술을 구현할 수 있다.
또한, 자율 주행 차량은 예를 들어 정지 거리에 3 미터를 더함으로써; 정지 기간에 2초를 더함으로써, 또는 이들 값에 안전 마진(safety margin)(예를 들어, "1.2")을 곱해줌으로써 이들 정지 거리 및/또는 정지 기간 값에 안전 마진을 더할 수 있다.
이후, 자율 주행 차량은 현재 시간과 정지 기간을 합산함으로써 - 자율 주행 차량이 제동을 걸어 완전 정지할 수 있는 가장 빠른 시간을 나타내는 - 임계 시간을 계산할 수 있다.
6. 스캔 이미지, 객체 감지 및 객체 모션
방법(S100)의 블록(S120) 및 블록(S122)은 대략적으로 제1 시간에 캡처된 자율 주행 차량 주변 필드의 제1 스캔 이미지에서 객체를 감지하는 단계; 및 제1 스캔 이미지를 기반으로 하여, 자율 주행 차량에서부터 객체까지의 제1 광선을 따라 객체의 제1 위치 및 제1 시선 속도를 도출하는 단계를 나열한다. 일반적으로, 블록(S120) 및 블록(S122)에서, 자율 주행 차량은 전술한 바와 같이 LIDAR 센서에 의해 출력된 새로운 스캔 이미지에 액세스하고; 이러한 새로운 스캔 이미지에서 - 이전 스캔 이미지에서 감지되지 않은 - 객체를 감지하고; 이러한 새로운 스캔 이미지로부터 이러한 객체에 대한 제한된 일련의 확실성 높은 모션 특성(예를 들어, 자율 주행 차량을 기준으로 하는 시선 속도)을 추출할 수 있다.
하나의 구현에서, 현재 스캔 주기에 대한 스캔 이미지 수신(또는 생성) 후, 자율 주행 차량은 자율 주행 차량 주변 필드에 있는 개별 객체와 스캔 이미지에 있는 포인트 그룹을 연관짓기 위해 객체 감지 기술을 실행한다. 예를 들어, 자율 주행 차량은 자율 주행 차량으로부터 유사한 깊이에서 클러스터링되고 인접한 객체에 대해 일관성 있는 속도(예를 들어, 거리 변화율(range rate), 방위각 속도)로 표지된 포인트 그룹을 집계하고; 필드에 있는 하나의 객체와 이러한 포인트 그룹을 연관지을 수 있다.
이후, 자율 주행 차량은 이러한 스캔 이미지로부터 자율 주행 차량을 기준으로 하는 객체의 각 속도 및 자율 주행 차량에서부터 객체까지 연장되는 광선(이하 "시선 방향")을 따라 객체의 시선 속도(또는 "거리 변화율(range rate)")를 추출할 수 있다. 예를 들어, 자율 주행 차량은 현재 시간에 절대 기준 시스템에서 자율 주행 차량의 위치 및 속도를 기반으로 하여 이러한 객체를 정의하는 포인트의 시선 속도를 절대 기준 시스템에서의 절대 속도로 변환하고; 이러한 객체와 연관된 포인트 그룹에 포함된 가장 왼쪽 포인트(들)과 가장 오른쪽 포인트(들)의 절대 시선 속도 차이를 기반으로 하여 현재 스캔 주기 동안 절대 기준 시스템에서 그 중심을 중심으로 하는 객체의 각 속도(또는 "요(yaw)")를 계산할 수 있다. 이러한 예에서, 자율 주행 차량은 또한 이러한 객체를 정의하는 이러한 포인트 그룹의 중심 근처에 있는 포인트의 부분 집합에 저장된 시선 속도의 평균을 구하고; 자율 주행 차량의 중심에서부터 이러한 포인트 그룹의 중심까지의 광선을 따라 시선 방향에서 - 자율 주행 차량을 기준으로 하는 - 객체의 시선 속도로서 이러한 평균 시선 속도를 저장할 수 있다. (또한, 자율 주행 차량은 이러한 스캔 주기 동안 자율 주행 차량의 속도 및 각 속도를 기반으로 하여 시선 방향에서 객체의 절대 속도로 자율 주행 차량을 기준으로 하는 이러한 객체 시선 속도를 변환할 수 있다).
자율 주행 차량은 자율 주행 차량 주변 필드에 있는 다른 객체를 나타내는 - 이러한 스캔 이미지에 있는 - 다른 포인트 그룹에 대해 이러한 프로세스를 반복할 수 있다.
6.1 객체 추적
또한, 자율 주행 차량은 이전 스캔 이미지에서 감지된 유사한 포인트 그룹에 - 현재 스캔 이미지에 있는 특정 객체를 나타내는 - 포인트 그룹을 연결하기 위해 및 이들 두개의 스캔 이미지에 걸쳐 - 그들이 나타내는 객체 및 - 이들 포인트 그룹을 연결하기 위해 객체 추적 기술을 구현할 수 있다. 그러나, 자율 주행 차량이 현재 스캔 이미지에서 감지된 포인트 그룹을 이전 스캔 이미지(들)의 - 유사한 위치 및 속도에서의 - 포인트 그룹과 일치시키지 못하는 경우, 자율 주행 차량은 현재 스캔 이미지에 있는 이러한 포인트 그룹을 새로운 객체(즉, 현재 스캔 주기 동안 자율 주행 차량의 시야에 처음으로 진입하는 객체)로서 라벨링할 수 있다.
7. 바운딩된 미래 상태(Bounded Future State): 새로운 객체
방법(S100)의 블록(S130)은 제1 시간에서의 객체의 제1 위치; 객체의 제1 시선 속도; 및 자율 주행 차량의 운행을 위해 정의된 최대 가정 가속도, 최대 가정 각 속도 및 일반 객체의 최대 가정 가속도를 기반으로 하여 제1 시간에서부터 임계 시간까지 객체에 액세스할 수 있는 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계를 나열한다. 일반적으로, 블록(S130)에서, 자율 주행 차량은 현재 시간에서부터 임계 시간까지(즉, 후속 정지 기간 동안) 객체에 액세스할 수 있는 그라운드 영역의 범위를 계산하기 위해 및 객체의 미래 상태 경계로서 이러한 액세스할 수 있는 그라운드 영역을 저장하기 위해 객체에 의한 적대적 액션에 대한 최악의 가정 및 객체가 처음 감지된 현재 스캔 이미지로부터 도출된 객체의 제한된 모션 데이터를 병합할 수 있다.
보다 구체적으로, 자율 주행 차량이 스캔 이미지에서 객체를 처음 감지할 때, 자율 주행 차량은 이러한 스캔 이미지에서 이러한 객체와 연관된 포인트의 중심(centroid)에 가까운 자율 주행 차량을 기준으로 하는 객체의 중심(center) 위치를 추정하고; 스캔 이미지에서 이러한 객체와 연관된 이러한 포인트 그룹에 저장된 속도 값(speed values)을 기반으로 하여 자율 주행 차량을 기준으로 하는 객체의 요 레이트(yaw rate)를 도출하고; 전술한 바와 같이 시선 방향으로(즉, 자율 주행 차량에서부터 객체까지 연장되는 광선을 따라) 객체의 속도(speed)를 도출할 수 있다. 그러나, 자율 주행 차량이 객체를 처음 감지한 스캔 이미지는 자율 주행 차량이 시선 방향(이하, 방위 방향)에 수직인 객체의 속도(speed) 또는 객체의 절대 속도(absolute velocity)를 도출할 수 있는 충분한 데이터를 포함하지 않을 수 있다. 따라서, 자율 주행 차량은 최악의 시나리오에서 현재 시간에서부터 임계 시간까지 객체에 액세스할 수 있는 그라운드 영역을 나타내는 미래 상태 경계를 계산하기 위해 객체의 미래 가속도 및 객체의 현재 속도(speed)에 대한 최악의 가정을 구현할 수 있다.
하나의 구현에서, 컴퓨터 시스템은 일반 객체의 가정한 최대 가능 속도(assumed maximum possible speed) 및 시선 속도에서의 객체 속도(speed)를 기반으로 하여 객체 중심을 중심으로 하여 반경 방향으로 오프셋된 많은 방향(예를 들어, 3.6°만큼 반경 방향으로 오프셋된 100개의 방향) 각각에서 객체의 최대 가능 속도(maximum possible speed)를 계산한다. 이후, 이러한 세트의 제1 방향에 대해, 컴퓨터 시스템은 현재 시간에서부터 임계 시간까지 시간 경과에 따라 측정된 객체의 각 속도 및 이러한 제1 방향에서의 객체의 최대 가능 속도의 제1 적분을 계산한다. 또한, 이러한 제1 방향에 대해, 자율 주행 차량은 이러한 제1 방향에서의 최대 가능 가속도(maximum possible rate of acceleration)를 추정하기 위해 일반 객체에 대해 제1 방향에서의 최대 가능 가속도에 시선 방향에서의 각 속도 및 속도를 연결하는 가속 규칙 함수(acceleration rule function)를 구현하고; 현재 시간에서부터 임계 시간까지 시간 경과에 따라 제1 방향에서의 (일반 객체의 최대 가능 속도에 의해 제한된) 객체의 최대 가능 가속도의 제2(이중) 적분을 계산한다. 이후, 자율 주행 차량은 제1 방향에서 객체가 이동하는 최대 가능 거리를 계산하기 위해 제1 적분과 제2 적분을 합산하고, 이러한 이동하는 최대 가능 거리만큼 객체 중심으로부터 오프셋되고 제1 방향을 따라 객체 중심으로부터 연장되는 광선 상에 미래 상태 경계의 제1 정점(vertex)을 위치시킨다. 자율 주행 차량은 이들 방향 각각에서 미래 상태의 정점을 정의하기 위해 세트에 있는 각각의 다른 방향에 대해 이러한 프로세스를 반복하고; 이들 정점 각각을 통과하는 스플라인(spline)을 계산하고; 이러한 스플라인으로 둘러싸인 영역을 이러한 객체에 대한 미래 상태 경계로서 저장한다.
따라서, 자율 주행 차량은 객체가 보이는 이러한 제1 스캔 주기 동안 객체의 속도와 관련된 제한된 정보를 갖기 때문에, 자율 주행 차량은 현재 시간에서부터 임계 시간(즉, 자율 주행 차량이 제동을 걸어 완전히 정지할 수 있는 가장 빠른 시간)까지 객체에 액세스할 수 있는 최악의 그라운드 영역을 예측하기 위해 객체의 현재 속도 및 미래 가속도에 대한 최악의 가정을 구현할 수 있다. 이후, 자율 주행 차량은 객체의 이러한 미래 상태 경계 바깥쪽의 안전한 그라운드 영역을 정의하고, 자율 주행 차량과 객체 사이의 충돌은 자율 주행 차량이 완전히 정지한 후에만 발생할 수 있도록 (및 객체와의 충돌은 전적으로 자율 주행 차량이 아닌 객체의 책임이 될 수 있도록) 안전한 그라운드 영역 내에 남아 있도록 내비게이션 액션을 실행할 수 있다. 특히, 자율 주행 차량은 자율 주행 차량의 현재 위치가 미래 상태 경계 근처(예를 들어, 미래 상태 경계의 임계 거리 내)에 있는 경우, 객체의 미래 상태 경계를 피하기 위해 회피 기동(avoidance maneuver)을 착수할 수 있다. 그렇지 않은 경우, 자율 주행 차량은 자율 주행 차량이 적어도 다음 스캔 주기까지 그의 현재 궤적을 따라 그의 현재 속도에서 계속 운행하는 경우 - 객체에 의한 최악의 적대적 액션을 고려할 때도 - 자율 주행 차량이 객체와의 충돌을 피할 것이라는 매우 높은 신뢰도를 확인하고; 따라서, 현재 스캔 주기 동안의 경로 계획 결정에서 객체를 뮤팅(mute)할 수 있다.
예를 들어, 자율 주행 차량의 현재 위치가 객체의 미래 상태 경계와 매우 멀리 떨어져 있는 경우, 자율 주행 차량은 현재 스캔 주기 동안의 경로 계획 결정에서 객체를 뮤팅(mute)할 수 있다. 그러나, 자율 주행 차량의 현재 위치가 객체의 미래 상태 경계로부터의 임계 거리(예를 들어, 10 미터, 4초) 내에 있는 경우, 자율 주행 차량은 예를 들어, 객체의 미래 상태 경계의 둘레에 대한 자율 주행 차량의 근접성에 반비례하는 비율(rate)에서 및/또는 크기만큼 자율 주행 차량을 감속시킴으로써 및/또는 객체의 미래 상태 경계로부터 멀어지도록 자율 주행 차량의 궤적을 이동시키기 위해 자율 주행 차량의 조향 각도(steering angle)를 조정함으로써 현재 스캔 주기 동안의 경로 계획 결정에 객체를 포함할 수 있다.
8. 바운딩된 미래 상태: 현존 객체(Extant Object)
일반적으로, 자율 주행 차량은 자율 주행 차량이 스캔 이미지에서 이러한 객체를 처음 감지할 때 자율 주행 차량이 일반적으로 객체에 대해 그렇게 계산된 미래 상태 경계를 크게 벗어난 거리에 있도록 자율 주행 차량으로부터 비교적 먼 거리에서 비교적 높은 해상도로 이미지를 캡처할 수 있다. 따라서, 자율 주행 차량은 자율 주행 차량이 객체를 처음 감지하는 스캔 주기 동안 경로 계획 결정에서 객체를 일반적으로 뮤팅할 수 있다. 그러나, 자율 주행 차량은 또한 후속 스캔 이미지를 통해 이러한 객체를 추적하고, 이들 이미지로부터 이러한 객체의 추가적인 모션 특성을 도출하고, 그에 따라 객체에 대한 미래 상태 경계를 업데이트하고, 자율 주행 차량의 동시 위치(concurrent positions) 및 객체의 이러한 개선된 미래 상태 경계를 기반으로 하여 이후의 스캔 주기 동안 객체를 선택적으로 뮤팅하거나 고려할 수 있다.
하나의 구현에서, 자율 주행 차량은 전술한 바와 같이, 자율 주행 차량이 객체를 처음 감지하는 제1 스캔 주기 다음의 제2 스캔 주기 동안 제2 스캔 이미지를 캡처한다. 이후, 자율 주행 차량은 이러한 제2 스캔 이미지 및 제1 스캔 이미지와 제2 스캔 이미지의 차이로부터 객체의 추가적인 모션 특성(예를 들어, 방위 방향에서의 속도(speed), 각 속도, 및 절대 속도)을 도출하기 위해; 객체 속도(speed)에 대한 최악의 가정을 이러한 도출된 모션 데이터로 대체하기 위해; 및 그에 따라 객체에 대한 미래 상태 경계를 다시 계산하기 위해 전술한 방법 및 기술을 구현한다.
하나의 구현에서, 자율 주행 차량은 전술한 제1 스캔 주기 다음의 제2 스캔 주기 동안 캡처된 제2 스캔 이미지에 액세스하고; 제1 스캔 이미지에서 감지된 객체와 제2 스캔 주기에서의 포인트 그룹을 연관시키기 위해 객체 추적 기술을 구현하고; 제1 이미지 및 제2 이미지에 있는 객체의 중심을 추정하고; 제1 스캔 이미지로부터 제1 스캔 주기의 제1 시간에서의 객체의 제1 위치를 추출하고; 제2 스캔 이미지로부터 제2 스캔 주기의 제2 시간에서의 객체의 제2 위치를 추출하고; 제1 위치와 제2 위치 사이의 공간적 거리를 계산하고; 제1 스캔 주기와 제2 스캔 주기 사이의 시간 간격으로 공간적 거리를 나눔으로써 자율 주행 차량을 기준으로 하는 객체의 현재 속도를 추정한다.
(그러나, 제1 이미지 및 제2 이미지에서 포인트 그룹으로 나타내는 객체의 범위(scope)는 상이할 수 있고, 제1 스캔 주기와 제2 스캔 주기 사이의 시간 간격이 (예를 들어, 10 ms 정도로) 짧을 수 있기 때문에, 제1 스캔 주기에서부터 제2 스캔 주기까지의 객체 위치 변화는 심각한 오차(error)가 발생하기 쉽다. 보다 구체적으로, 이러한 도출된 객체 속도(velocity)의 불확실성(uncertainty)은 현재 스캔 이미지에서 추출된 객체의 시선 속도(radial speed)와 비교할 때 상대적으로 높을 수 있다. 따라서, 자율 주행 차량은 오차 마진(error margin), 예를 들어 "1.5"를 - 자율 주행 차량을 기준으로 하는 - 이러한 계산된 객체의 속도에 곱할 수 있다. 또한, 자율 주행 차량은 복수의 연속 스캔 주기에 걸쳐 이러한 객체를 추적하기 때문에, 자율 주행 차량은 이러한 계산에서 약간의 오차를 줄이기 위해 이러한 도출된 객체 속도의 조합(예를 들어, 가중 평균)을 계산할 수 있다).
이러한 구현에서, 자율 주행 차량은 또한 이러한 시간 간격 동안의 자율 주행 차량 속도를 기반으로 하여 (오차 마진만큼 조정된) 자율 주행 차량을 기준으로 하는 객체의 현재 속도를 객체의 절대 속도로 변환하고; 이러한 그룹에 있는 포인트에 포함된 속도 값(speed value)을 기반으로 하여 객체의 각 속도 및 시선 방향에서의 객체 속도(speed)를 계산하기 위해 전술한 방법 및 기술을 구현하고; 시선 방향에서의 객체 속도 및 객체의 절대 속도를 기반으로 하여 - 시선 방향에 수직인 - 방위 방향에서의 객체 속도를 도출할 수 있다.
따라서, 자율 주행 차량은 이전 스캔 이미지 및 제2 스캔 이미지에서 추출된 데이터를 기반으로 하여 이러한 제2 스캔 주기 동안 객체의 - 실제 절대 속도를 포함하는 것과 같은 - 보다 완전한 모션 프로파일을 도출할 수 있다.
자율 주행 차량은 이후 이러한 제2 스캔 주기 동안 자동차 차량의 속도를 기반으로 하여 자율 주행 차량의 임계 시간을 다시 계산하기 위해; 및 (일반 객체의 최악의 속도가 아닌) 객체의 실제(절대 또는 상대) 속도, 객체의 각 속도, 및 현재 시간에서부터 임계 시간까지 - 일반 객체의 최대 가능 속도에 의해 제한된 - 일반 객체의 최대 가능 가속도를 기반으로 하여 현재 시간에서부터 이러한 수정된 임계 시간까지 객체의 미래 상태 경계를 다시 계산하기 위해 전술한 방법 및 기술을 구현할 수 있다.
따라서, 객체의 실제 속도는 종종 일반 객체의 최대 가정 속도보다 (상당히) 낮을 수 있기 때문에, 이러한 제2 스캔 주기 동안 수집된 추가적인 모션 데이터를 기반으로 하여 그렇게 다시 계산된 - 객체의 이러한 수정된 미래 상태 경계는 객체를 처음 감지한 후 자율 주행 차량에 의해 계산된 객체의 초기 미래 상태 경계보다 상당히 작을 수 있다.
자율 주행 차량은 이후 객체의 이러한 수정된 미래 상태 경계의 둘레로부터의 객체 거리를 기반으로 하여 이러한 제2 스캔 주기 동안의 경로 계획 고려 사항에서 이러한 객체를 선택적으로 뮤팅하기 위해 전술한 방법 및 기술을 구현할 수 있다.
자율 주행 차량은 예를 들어, 자율 주행 차량이 이러한 객체를 통과할 때까지 또는 이러한 객체가 자율 주행 차량 시야 바깥쪽으로 이동할 때까지, 이러한 객체에 대한 미래 상태 경계를 개선하고 업데이트하기 위해 자율 주행 차량에 의해 캡처된 각각의 후속 스캔 이미지에 대해 프로세스를 반복할 수 있다.
9. 바운딩된 미래 상태: 가려진 객체(Obscured Object)
하나의 변형에서, 자율 주행 차량은 감지된 객체(예를 들어, 승용차, 트럭, 건물)에 의해 가려진 자율 주행 차량 주변 필드 영역에 있는 가상 객체를 정의하고; 이러한 가상 객체에 최악의 모션 특성을 할당하고 이러한 최악의 모션 특성을 기반으로 하여 이러한 가상 객체에 대한 가상의 미래 상태 경계를 정의하기 위해 전술한 것과 유사한 방법 및 기술을 구현하고; 시간 경과에 따른 가상 객체의 가능한 모션 특성의 축소 범위(contracting range) 및 그에 따라 다시 계산된 가상 객체의 가상 미래 상태 경계를 기반으로 하여 가상 객체의 최악의 모션 특성을 개선할 수 있다. 보다 구체적으로, 이러한 변형에서, 자율 주행 차량은 감지된 객체 뒤에 있는 감지되지 않은 객체의 존재를 예측하고, 감지되지 않은 객체의 가능한 미래 상태를 경계짓고 이러한 감지되지 않은 객체에 액세스할 수 없는 공간에 남아 있도록 거리 내비게이션 액션을 기반으로 하여 감지된 객체 뒤에 있는 감지되는 않은 객체의 가능성을 선택적으로 뮤팅하기 위해 전술한 것과 유사한 방법 및 기술을 구현할 수 있다.
하나의 구현에서, 자율 주행 차량은 제1 스캔 이미지에서 - 방위 거리에 걸쳐 있는 - 제1 객체를 처음 감지한다. 이후, 자율 주행 차량은 제1 스캔 이미지에서 추출된 모션 데이터를 기반으로 하여 제1 객체의 미래 상태 경계를 계산하고 후속 스캔 이미지에서 추출된 모션 데이터를 기반으로 하여 제1 객체의 이러한 미래 상태 경계를 수정하기 위해 전술한 방법 및 기술을 구현한다.
동시에, 자율 주행 차량은 제1 객체 바로 뒤(예를 들어, 제1 객체 2 m 뒤)에 있는 가상 객체를 정의하고; 가상 객체에 - 일반 객체의 최대 가능 속도까지 - 모든 방향에서의 최악의 속도 및 모든 방향에서의 최악의 가속도를 할당하고; 이들 최악의 모션 값에 따라 가상 객체에 대한 가상 미래 상태 경계를 계산한다. 예를 들어, 자율 주행 차량은 가상 객체가 현재 시간에 (현재 제1 객체에 의해 가려진 방향 이외의) 모든 방향으로 일반 객체의 최대 가능 속도로 이동하고 있다고 가정하고; 자율 주행 차량의 현재 정지 시간 동안 (현재 제1 객체에 의해 가려진 방향 이외의) 모든 방향에서의 이러한 최대 가능 속도에 대한 적분을 기반으로 하여 가상 객체에 대한 가상 미래 상태 경계를 계산할 수 있다. 자율 주행 차량은 이후 자율 주행 차량의 현재 위치가 이러한 가상 미래 상태 경계 바깥쪽에 있는지를 확인하기 위해 및 그에 따라 현재 스캔 주기 동안 경로 계획 고려 사항으로부터 이러한 가상 객체의 고려 사항을 선택적으로 뮤팅하기 위해 전술한 방법 및 기술을 구현할 수 있다.
다음 스캔 주기 동안, 자율 주행 차량은 마찬가지로 다음 스캔 이미지에 액세스하고; 이러한 다음 스캔 이미지에서 제1 객체를 감지하고 이전 스캔 이미지에서 감지된 제1 객체에 다음 스캔 이미지의 제1 객체를 연결하기 위해 객체 추적 기술을 구현할 수 있다. 이후, 자율 주행 차량이 다음 스캔 이미지에서 제1 객체 뒤에서 나타나는 새로운 객체를 감지하지 못하는 경우, 자율 주행 차량은 제1 객체를 기준으로 하는 - 가상 객체의 방위각 속도(azimuthal speed)가 이전 스캔 주기에서부터 다음 스캔 주기까지의 시간 간격 동안 자율 주행 차량 시야에 있는 제1 객체의 방위 길이(azimuthal length)를 통과하기에 불충분했음을 확인할 수 있다. 보다 구체적으로, 자율 주행 차량이 다음 스캔 이미지에서 제1 객체 뒤에서 나타나는 새로운 객체를 감지하지 못했기 때문에, 자율 주행 차량은 자율 주행 차량에 의해 정의된 방위각 방향을 따르고 제1 객체를 기준으로 하는 - 가상 객체의 속도가 이전 스캔 주기와 현재 스캔 주기 사이의 시간 간격으로 나눈 제1 객체의 폭(width)을 초과하지 않음을 예측할 수 있다. 따라서, 이러한 구현에서, 자율 주행 차량은 현재 스캔 이미지로부터 제1 객체의 방위 길이(또는 이전 스캔 이미지 및 현재 스캔 이미지로부터 추출된 제1 객체의 평균 길이)를 추출하고; 제1 스캔 이미지와 제2 스캔 이미지 사이에서의 제1 객체의 위치 변화를 기반으로 하여 - 자율 주행 차량을 기준으로 하는 - 제1 객체의 방위각 속도를 도출하고; 가상 객체가 무한하게 좁다고 가정하여, 제1 스캔 주기와 제2 스캔 주기 사이의 시간 간격 및 제1 객체의 방위 길이를 기반으로 하여 제1 스캔 주기와 제2 스캔 주기 사이에서 - 자율 주행 차량에 의해 정의된 방위각 방향을 따르고 제1 객체를 기준으로 하는 - 가상 객체의 최대 가능 방위각 속도를 계산할 수 있다. 이후, 자율 주행 차량은 제1 객체를 기준으로 하는 가상 객체의 방위각 속도와 자율 주행 차량을 기준으로 하는 제1 객체의 방위각 속도를 합산하여 자율 주행 차량을 기준으로 하는 가상 객체의 최대 가능 방위각 속도를 계산한 다음: 가상 객체에 대해 그렇게 추정된 최대 방위각 속도를 기반으로 하여 가상 객체에 대한 가상 미래 상태 경계를 계산하기 위해 (새로운 객체에 대해) 전술한 방법 및 기술을 구현할 수 있다.
자율 주행 차량은 자율 주행 차량이 제1 객체를 감지한 일련의 스캔 이미지에 대한 시간 간격 및 제1 객체의 길이를 기반으로 하여 - 자율 주행 차량을 기준으로 하는 방위 방향을 따르는 - 가상 객체의 최대 가능 방위각 속도를 수정하는 단계; 가상 객체의 최대 가능 방위각 속도를 기반으로 하여 다양한 방향에서 가상 객체의 최대 가능 속도 및 가속도를 다시 계산하는 단계; 및 가상 객체의 최대 가능 방위각 속도, 최대 가능 가속도 및 최대 가능 방위각 속도를 기반으로 하여 가상 객체의 가상 미래 상태 경계를 개선하는 단계를 추가로 포함하여 후속 스캔 주기에 대해 이러한 프로세스를 반복할 수 있다.
또한, 자율 주행 차량은 제1 객체 뒤에 있는 복수의 가상 객체를 정의하고, 제1 객체 바로 뒤에 있는 제1 가상 객체; 제1 객체 2 미터 뒤에 있는 제2 가상 객체; 제1 객체 10 미터 뒤에 있는 제3 가상 객체; 및 제1 객체 20 미터 뒤에 있는 제4 가상 객체 등과 같은 가상 객체 각각에 대한 가상 미래 상태 경계를 정의하기 위해 유사한 방법 및 기술을 구현할 수 있다.
예를 들어, 제1 스캔 이미지에서 전신주를 감지하자마자, 자율 주행 차량은 이들 가상 객체 각각에 대한 가상 미래 상태 경계를 계산하기 위해 전술한 방법 및 기술을 실행할 수 있다. 이러한 예에서, 자율 주행 차량이 (예를 들어, 1초 동안 캡처된) 복수의 연속 스캔 이미지를 통해 이러한 전신주를 추적하고 전신주 뒤에서 시야에 들어오는 새로운 객체를 감지하지 못하는 경우, 자율 주행 차량은 전신주 바로 뒤에서 방위각 방향으로 0.2 m/s보다 빠르게 걷고 있는 보행자(즉, 제1 가상 객체)의 부재; 대략적으로 전신주 2 m 뒤 영역에서 방위각 방향으로 0.2 m/s보다 빠르게 이동하고 있는 오토바이(즉, 제2 가상 객체)의 부재; 대략적으로 전신주 10 m 뒤 영역에서 방위각 방향으로 1 m/s보다 빠르게 이동하고 있는 승용차(즉, 제3 가상 객체)의 부재; 및 대략적으로 전신주 20 m 뒤 영역에서 방위각 방향으로 1 m/s보다 빠르게 이동하고 있는 트럭 차량(즉, 제4 가상 객체)의 부재를 나타내는 일련의 가상 미래 상태 경계를 정의할 수 있다.
또한, 이러한 변형에서, 자율 주행 차량으로부터의 특정 시선 거리(radial distance)에서 제1 객체 뒤에서 나타나는 제2 객체를 감지하자마자, 자율 주행 차량은 제2 객체에 이러한 특정 시선 거리 근처에 있는 가상 객체에 대해 도출된 모션 특성을 전달한 다음; 제2 객체의 미래 상태 경계를 계산하기 위해 가상 객체로부터 전달된 이들 모션 특성을 구현할 수 있다.
10. 다른 객체(Other Objects)
일반적으로, 자율 주행 차량은 현재 스캔 이미지에서 감지된 많은 개별 객체에 대한 미래 상태 경계를 계산하기 위해, 이들 감지된 객체 각각의 뒤에 있는 하나 이상의 가상 객체를 정의하기 위해, 이들 객체 각각에 대한 가상 미래 상태 경계를 정의하기 위해, 및 시간이 지남에 따라 미래 상태 경계를 개선하기 위해 전술한 프로세스의 여러 인스턴스를 동시에 실행할 수 있다.
11. 액세스 영역(Access Zone)
이후, 자율 주행 차량은 이들 감지된 객체 및 가상 객체의 미래 상태 경계에 대한 자율 주행 차량의 근접성을 기반으로 하여 이들 감지된 객체 및 가상 객체의 부분 집합을 기반으로 하는 다음 내비게이션 액션을 선택할 수 있다.
하나의 구현에서, 자율 주행 차량은 현재 스캔 주기 동안 계산된 감지된 객체 및 가상 객체에 대한 미래 상태 경계를 집계하고; 현재 스캔 주기 동안 자율 주행 차량을 기준으로 하는 이들 감지된 객체 및 가상 객체의 위치를 기반으로 하는 - 이들 미래 상태 경계를 이들 객체의 최악의 적대적인 모션 특성을 기반으로 하여 현재 시간에서부터 임계 시간까지 이들 감지된 객체 및 가상 객체에 액세스할 수 있는 모든 위치를 정의하는 하나의 합성 미래 상태 경계(composite future state boundary)로 어셈블리한다. (이러한 변형에서, 이러한 합성 미래 상태 경계의 복잡성을 감소시키기 위해, 자율 주행 차량은 미리 설정한 자율 주행 차량 현재 위치의 시간적 또는 공간적 최소 마진 내에 있는 둘레를 정의하는 미래 상태 경계의 부분 집합을 또한 선택할 수 있다. 이후, 자율 주행 차량은 이러한 미래 상태 경계의 부분 집합을 하나의 합성 미래 상태 경계로 어셈블리할 수 있다).
자율 주행 차량은 이후 이러한 합성 미래 상태 경계의 반대 편(converse)을 자율 주행 차량에 대한 액세스 영역으로 저장할 수 있다. 보다 구체적으로, 이러한 액세스 영역은 이들 객체 중 하나(또는 다수)가 현재 스캔 주기 동안 (예를 들어, 일반 객체의 최대 가능 속도까지 빠르게 가속하는) 적대적 액션을 착수하더라도, 자율 주행 차량이 제동을 걸어 감지된 객체와 충돌하기 전에 완전히 정지할 수 있다는 매우 높은 신뢰도를 유지하면서 적어도 현재 스캔 주기에서부터 다음 스캔 주기까지의 시간 간격 이내에 자율 주행 차량이 운행할 수 있는 그라운드 영역을 정의할 수 있다. 또한, 자율 주행 차량은 지리 참조(georeferenced) 도로 네트워크를 이러한 액세스 영역에 정렬시키고 이러한 도로 네트워크에 정의된 도로 영역 바깥쪽으로 확장되는 액세스 영역의 구역을 추가로 제거할 수 있다.
자율 주행 차량은 이후 자율 주행 차량에 의해 실행될 때, 예를 들어 자율 주행 차량이 액세스 영역 가장자리의 시간적 또는 공간적 마진 내에 있는 경우 액세스 영역의 가장자리에 접근하는 속도(rate)를 줄이기 위해 자율 주행 차량을 감속시킴으로써 및/또는 자율 주행 차량으로부터 더 연장되는 액세스 영역의 세그먼트쪽으로 자율 주행 차량이 다시 향하도록 하기 위해 자율 주행 차량의 조향 각도를 조정함으로써 액세스 영역 내에 자율 주행 차량을 유지하는 내비게이션 액션을 계산할 수 있다. (자율 주행 차량은 또한 할당된 경로 상에 또는 근처에 자율 주행 차량을 유지하는 쪽으로 이들 내비게이션 액션에 가중치를 줄 수 있다).
따라서, 자율 주행 차량은 자율 주행 차량이 제동을 걸어 이들 객체 중 어느 하나와 충돌하기 전에 완전히 정지할 수 있는 높은 신뢰도를 유지하면서 제한된 기간(예를 들어, 2개의 연속 스캔 주기 사이의 시간 간격) 이내 동안 자율 주행 차량이 운행할 수 있는 그라운드 영역을 계산하기 위해 새롭게 감지된 객체, 현존하는 감지된 객체, 및 가상의 객체에 대한 미래 상태 경계를 활용하고; 이후 이러한 액세스 영역 내에 자율 주행 차량을 유지하기 위한 내비게이션 액션을 정의하고 실행할 수 있다. 이후, 자율 주행 차량은 운행 동안 각각의 후속 스캔 주기에 대해 이러한 프로세스를 반복할 수 있다.
12. 객체 및 포인트 변경(Changing Object and Points)
또한, 자율 주행 차량은 객체의 유형을 예측하고 그에 따라 객체의 모션을 예측하기 위해 객체 분류 또는 식별에 의존하지 않을 수 있기 때문에, 자율 주행 차량은 이들 객체가 유사한 속도에서 유사한 궤적을 따라 이동하고 있는 경우와 같이, 필드에 있는 복수의 실제 객체에 걸쳐 있는 포인트 그룹을 정의할 수 있다. 그러나, 자율 주행 차량은 자율 주행 차량이 현재 스캔 주기에서 이들 객체를 구별하고; 이들 개별 객체 각각에 이전 그룹화된 객체로부터의 모션 특성을 전달하고; 이후 전술한 바와 같이 이들 객체 각각에 대한 미래 상태 경계를 계산할 수 있는, 이들 실제 객체가 더 이상 유사한 속도에서 및/또는 유사한 궤적을 따라 이동하지 않는, 때까지 이러한 "그룹화된 객체"에 대한 미래 상태 경계를 계산하고 개선하여 피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
마찬가지로, 자율 주행 차량은 단일 실제 객체를 나타내는 두 개의 포인트 클러스터를 구별하고, 예를 들어 자율 주행 차량이 이들 두 개의 클러스터 내 포인트의 시선 속도 (또는 거리 변화율(range rates))의 자기 일관성(self-consistency) 및 근접성(proximity)이 단일 객체를 나타낸다고 결정할 때까지 이들 두 개의 클러스터 모두에 대한 미래 상태 경계를 계산하고 개선하여 피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
추가적으로 또는 대안적으로, 자율 주행 차량은 자율 주행 차량 주변 필드에 있는 객체의 하위 영역을 나타내는 더 작은 포인트 클러스터 및 개별 포인트에 대한 미래 상태 경계를 계산하고 개선하여 피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
13. 모션 모호성 해소(Motion Disambiguation)
도 2에 도시된 방법(S100)의 하나의 변형은 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 제1 포인트 그룹의 각 포인트는 센서에서부터 객체 표면까지의 제1 범위 값, 센서를 기준으로 하는 객체 표면의 제1 방위각 위치, 및 센서를 기준으로 하는 객체 표면의 제1 시선 각도를 포함하는 단계; 블록(S122)에서 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 방위각 위치사이의 제1 연관성을 계산하는 단계; 및 제1 연관성을 기반으로 하여 블록(S122)에서 제1 시간에서의 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제1 함수를 계산하는 단계를 포함한다. 마찬가지로, 방법(S100)의 이러한 변형은 제2 스캔 주기 동안, 블록(S104)에서 제2 시간에 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계; 블록(S120)에서 필드에 있는 객체를 나타내는 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계; 블록(S122)에서 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 방위각 위치사이의 제2 연관성을 계산하는 단계; 및 제2 연관성을 기반으로 하여, 블록(S122)에서 제2 시간에서의 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제2 함수를 계산하는 단계를 포함한다. 방법(S100)의 이러한 변형은 블록(S124)에서 제1 함수와 제2 함수의 교집합(intersection)을 기반으로 하여 제2 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 제2 접선 속도 및 객체의 제2 각 속도를 추정하는 단계를 더 포함한다.
이러한 변형에서, 방법(S100)은 마찬가지로 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 제1 포인트 그룹의 각 포인트는 센서에서부터 객체 표면까지의 제1 범위 값, 자율 주행 차량을 기준으로 하는 객체 표면의 제1 위치, 및 자율 주행 차량을 기준으로 하는 객체 표면의 제1 시선 속도를 포함하는 단계; 블록(S122)에서 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 위치 사이의 제1 연관성을 계산하는 단계; 및 제1 연관성을 기반으로 하여, 블록(S122)에서 제1 시간에서의 객체의 가능한 선형 모션 및 객체의 가능한 각도 모션과 관련이 있는 제1 함수를 계산하는 단계를 포함할 수 있다. 또한, 방법(S100)의 이러한 변형은 제2 스캔 주기 동안, 블록(S104)에서 제2 시간에 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계; 블록(S120)에서 객체를 나타내는 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계; 블록(S122)에서 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 위치 사이의 제2 연관성을 계산하는 단계; 및 제2 연관성을 기반으로 하여, 블록(S122)에서 제2 시간에서의 객체의 가능한 선형 모션 및 객체의 가능한 각도 모션과 관련이 있는 제2 함수를 계산하는 단계를 포함할 수 있다. 방법(S100)의 이러한 변형은 블록(S126)에서 제1 함수와 제2 함수의 교집합을 기반으로 하여 제2 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 선형 모션 및 객체의 각도 모션을 추정하는 단계를 더 포함할 수 있다.
추가적으로 또는 대안적으로, 이러한 변형에서, 방법(S100)은 자율 주행 차량에서 일련의 스캔 주기의 각 스캔 주기 동안, 블록(S104)에서 스캔 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 스캔 이미지에 있는 포인트 그룹을 식별하는 단계로서, 포인트 그룹의 각 포인트는 자율 주행 차량을 기준으로 하는 객체 표면의 위치 및 자율 주행 차량을 기준으로 하는 객체 표면의 시선 속도를 포함하는 단계; 및 포인트 그룹에 있는 포인트의 시선 속도와 위치 사이의 연관성을 기반으로 하여, 블록(S122)에서 스캔 시간에서의 객체의 가능한 선형 모션 및 객체의 가능한 각도 모션과 관련이 있는 함수를 계산하는 단계를 포함할 수 있다. 또한, 방법(S100)의 이러한 변형은 블록(S126)에서 이전 함수와 현재 함수의 교집합을 기반으로 하여 현재 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 현재 선형 모션 및 객체의 현재 각도 모션을 추정하는 단계로서, 현재 함수는 현재 시간에 캡처된 데이터를 포함하는 제1 스캔 이미지에서 도출되고, 이전 함수는 현재 시간 이전에 캡처된 데이터를 포함하는 제2 스캔 이미지에서 도출되는 단계를 포함할 수 있다.
13.1 3 자유도(Three Degrees of Freedom)
일반적으로, 이러한 변형에서, 자율 주행 차량은 자율 주행 차량의 센서에 의해 출력된 스캔 이미지에서 객체를 나타내는 포인트 그룹의 특성을 기반으로 하여 그 필드에 있는 객체의 접선 속도와 각 속도 사이의 관계를 도출하고; 도출된 객체의 접선 속도와 각 속도 사이의 관계 및 측정된 객체의 시선 속도를 기반으로 하여 객체의 가능한 현재 모션을 추가로 제한하고; 객체의 가능한 현재 모션 및 그라운드 기반 객체의 모션 제한 가정을 기반으로 하여 객체에 대해 계산된 미래 상태 경계를 추가로 개선한다.
특히, 이러한 변형에서, 자율 주행 차량은 객체의 가능한 접선 속도 및 각 속도의 좁은 범위, 따라서 단일 스캔 주기 동안 객체의 가능한 전체 속도(total velocities)의 좁은 범위를 계산하기 위해 객체의 시선 거리, 시선 속도, 접선 속도, 및 각 속도와 제한된(예를 들어, 2 정도의) 거리, 각도, 및 거리 변화율(range rate) 측정 사이의 관계를 활용할 수 있다. 또한, 자율 주행 차량은 다음 스캔 주기 동안 센서에 의해 출력되는 스캔 이미지에서 객체를 추적하고; 이러한 다음 스캔 이미지를 기반으로 하여 전술한 프로세스를 반복하고; 접선 속도 값, 각 속도 값 및 전체 속도 값의 단일 세트(또는 이들의 매우 좁은 범위)로 객체의 모션 추정치를 좁히기 위해 현재 스캔 주기 및 이전 스캔 주기의 결과를 병합할 수 있다. 이후, 객체의 가능한 속도 범위 및 최대 가속도 가정 및 최대 속도를 기반으로 하여 객체의 미래 상태 경계를 계산하는 대신에, 자율 주행 차량은 두 개의 독립적인 측정으로 자율 주행 차량에 의해 도출된 객체의 단일 전체 속도 및 최대 가속도 가정을 기반으로 하여 객체의 더 좁은 미래 상태 경계를 계산할 수 있다. 보다 구체적으로, 자율 주행 차량은 근처 객체의 일련의 2차원 모션 가능성을 이러한 객체에 대한 일련의 1차원 모션 가능성으로 압축하기 위해 방법(S100)의 블록을 실행할 수 있다.
일반적으로, 그라운드 기반 객체(예를 들어, 차량, 보행자)의 모션은 수평면에서의 선형 속도 및 수평면에 수직인 축을 중심으로 하는 각 속도로서 표현될 수 있는, x축을 따르는 선형 모션, y축을 따르는 선형 모션, 및 수평면에 수직인 z축을 중심으로 하는 회전을 포함하여, 대략적으로 (그라운드 평면에 평행한) 수평면에서 발생할 수 있다. 따라서, 방법(S100)의 이러한 변형은 수평면에 있는 객체에 대한 포인트의 시선 속도 및 위치(예를 들어, 범위 및 각도)를 고려하여 수평면 내 객체의 접선 속도, 각 속도 및 전체 속도를 도출하기 위해 자율 주행 차량에 의해 실행될 수 있는 것으로 후술된다. 그러나, 자율 주행 차량은 3D 공간에서 객체의 선형 속도 및 각 속도(즉, 3개의 선형 속도 및 3개의 각 속도) 및 그에 따라 3D 공간에서의 객체의 절대 전체 속도 또는 상대 전체 속도를 도출하기 위해 유사한 방법 및 기술을 구현할 수 있다.
보다 구체적으로, 센서는 스캔 주기 동안 센서의 시야 내에 들어오는 필드에 있는 각 표면에 대한 범위(즉, 거리), 방위각, 및 필드에 있는 표면에서부터 센서까지의 광선을 따르는 속도(즉, 시선 속도 또는 "도플러")를 되돌리도록 구성될 수 있다. 스캔 이미지에서 객체를 나타내는 - 표면 그룹의 접선 속도(예를 들어, 수평면에서 및 시선 속도에 수직인 방향에서의 선형 모션) 및 각 속도(예를 들어, 자율 주행 차량의 요축(yaw axis)을 중심으로 하는 각도 모션)는 이러한 스캔 이미지에서 포인트의 범위, 방위각, 및 속도 데이터에 포함된다. 그러나, 객체의 특정 접선 속도 및 각 속도는 이러한 포인트 그룹에 포함된 범위, 방위각 및 시선 속도로부터 결정되지 않는다. 또한, 복수의 스캔 이미지에 걸쳐 객체를 추적하는 단계 및 복수의 스캔 이미지에 걸쳐 묘사된 객체의 위치 변화로부터 객체의 접선 속도를 도출하는 단계는 특히, 객체가 연속 스캔 주기 동안 크기가 변하는 것으로 나타나고 이것이 객체의 계산된 접선 속도로 잘못 표시되기 때문에 자율 주행 차량의 시야에 있는 객체의 관점이 하나의 스캔 주기에서 다음 스캔 주기까지 변하는 경우; 특히, 객체의 가시 영역에 대한 감지 가능 창(sensible window)의 속도가 객체의 계산된 접선 속도로 잘못 표시되기 때문에 센서로부터 가려진 객체의 영역이 연속 스캔 주기 동안 변하는 경우; 및 특히, 객체가 연속 스캔 주기 동안 자율 주행 차량을 기준으로 하여 이동하는 경우 두 개의 연속 스캔 이미지에 걸친 포인트가 객체의 동일 표면을 나타낼 가능성이 없는 한에 있어서 상당한 오차를 발생시킨다.
그러나, 자율 주행 차량은 제1 스캔 이미지에서 객체를 나타내는 포인트 그룹에 포함된 범위, 방위각, 및 시선 속도 데이터를 기반으로 하여 제1 스캔 주기 동안 객체의 접선 속도와 각 속도 사이의 제1 관계(또는 "연관성")를 도출하기 위해 방법(S100)의 블록을 실행할 수 있다. 이후, 자율 주행 차량은 제2 스캔 이미지에서 객체를 나타내는 포인트 그룹에 포함된 범위, 방위각, 및 시선 속도 데이터를 기반으로 하여 제2 스캔 주기 동안 객체의 접선 속도와 각 속도 사이의 제2 관계를 계산하기 위해 제2 스캔 주기 동안 이러한 프로세스를 반복하고; 제1 관계 및 제2 관계 모두와 일치하는 객체의 특정 접선 속도 및 특정 각 속도(또는 이들의 좁은 범위)를 도출할 수 있다.
13.2 제1 스캔 주기(First Scan Cycle)
도 2에 도시된 하나의 구현에서, 자율 주행 차량의 센서는 제1 시간(T0)에서 제1 스캔 주기를 실행하고, 자율 주행 차량 주변 필드 전체에 걸쳐 있는 일련의 포인트(constellation of points)(예를 들어, 작은 표면, 영역)의 시선 속도, 거리, 및 각도 위치(angular position)를 포함하는 제1 스캔 이미지를 되돌려준다. 자율 주행 차량은 이후 필드에 있는 개별 객체에 대응하는 포인트 그룹(또는 "클러스터")을 식별하기 위해 전술한 방법 및 기술을 구현하고; 이러한 그룹에 있는 포인트의 시선 속도의 중심 경향 척도(measure of central tendency)를 기반으로 하여 T0에서의 객체 시선 속도(Vrad,0)를 계산한다. 예를 들어, 자율 주행 차량은 이러한 그룹에 있는 포인트의 시선 속도에 대한 산술 평균으로서 이러한 중심 경향 척도를 계산할 수 있다. 마찬가지로, 자율 주행 차량은 그룹에 있는 포인트의 최대 방위각 위치와 최소 방위각 위치의 차이 - 즉, 포인트 그룹의 반경 길이를 기반으로 하는(예를 들어, 동일한) T0에서의 객체의 제1 반경(R0)을 계산할 수 있다.
자율 주행 차량은 이후 T0에서 이들 포인트의 범위 값(range values) 및 각도 위치(angular position)를 기반으로 하여 (예를 들어, 극 좌표계 내에서) 자율 주행 차량을 기준으로 하는 그룹 내 포인트의 위치를 계산하고; 이들 포인트의 각도 위치와 시선 속도 사이의 연관성을 계산한다. 일 예에서, 자율 주행 차량은 이러한 포인트 그룹의 평균 위치와 포인트 사이 각도의 코사인(cosine); 및 이러한 포인트 그룹의 평균 위치와 포인트 사이 각도의 사인(sine)으로 나눈 이들 시선 속도를 통해 최적(best-fit)(또는 "추세")선의 기울기로서 이러한 연관성을 계산한다.
자율 주행 차량은 이후 시간 T0에서의 객체의 각 속도(ω0)와 접선 속도(Vtan,0) 사이의 관계를 나타내는, 이러한 최적선의 제1 기울기(S0)를 계산한다. 특히, 이러한 기울기(S0)는 시간 T0에서의, 센서의 시야에 있는, 객체의 제1 반경(R0)을 곱한 ω0의 곱과 Vtan,0 간 차이를 나타낼 수 있다. 따라서, 자율 주행 차량은 시간 T0에서의 기울기(S0) 및 반경(R0)을 기반으로 하여 객체의 ω0 및 Vtan,0와 관련이 있는 제1 함수(예를 들어, 선형 함수)(F0)를 생성할 수 있다.
함수(F0)를 기반으로 하여, 자율 주행 차량은 이후 T0에서의 객체의 현재 시선 속도(Vrad,0)를 고려하여 T0에서의 객체의 가능한 Vtan,0 및 ω0 모션 조합을 나타내는 선(L0)을 계산할 수 있다.
유사한 구현에서, 자율 주행 차량은 센서와 객체 사이의 광선을 따라 시선 방향(즉, 시선 속도)으로의 선형 모션; 수평면 및 시선 방향에 직교하는 접선 방향으로의 선형 모션; 및 시선 방향 및 접선 방향에 직교하는 축을 중심으로 하는 요(yaw) 방향으로의 각도 모션을 포함하여, 3 자유도에서 객체의 모션을 해결한다. 이러한 구현에서, 자율 주행 차량은 수평면(즉, 대략적으로 노면과 평행한 2D 공간)에 - 객체를 나타내는 제1 포인트 그룹(first group of points)에 있는 - 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 투영하고; 제1 포인트 그룹에 있는 포인트(points in the first group of points)의 제1 방위각 위치의 범위를 기반으로 하여 제1 시간에서의 객체의 제1 반경을 계산하고; 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 제1 중심 경향 척도(예를 들어, 평균)를 기반으로 하여 제1 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 제1 시선 속도를 계산하고; 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선을 계산하고; 제1 시간에서의 객체의 제1 접선 속도와 객체의 제1 각 속도 사이의 관계를 나타내는, 제1 선형 추세선의 제1 기울기를 기반으로 하여 제1 연관성을 계산할 수 있다. 특히, 제1 기울기는 제1 시간에서의 객체의 제1 각 속도와 제1 시간에서의 객체의 제1 반경의 곱과 제1 시간에서의 객체의 제1 접선 속도 사이의 차이를 나타낼 수 있다. 이후, 자율 주행 차량은 제1 시간에서의 제1 기울기 및 제1 반경(예를 들어, S0 = Vtan,0 - R0ω0 관계를 충족하는 가능한 접선 속도 및 각 속도)을 기반으로 하여 제1 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 각 속도 및 제1 시간에서의 객체의 가능한 접선 속도와 관련이 있는 제1 선형 함수를 계산할 수 있다. 보다 구체적으로, 이러한 제1 함수는 대략적으로 노면과 평행한 수평면 내에 있는, 제1 시간에서의, 객체의 가능한 각 속도 및 객체의 가능한 접선 속도와 관련이 있을 수 있다.
따라서, 자율 주행 차량은 전술한 그라운드 기반 객체의 최대 속도 가정에 의해서만 이전에 제한되었던 - 객체의 가능한 Vtan,0와 ω0 모션 조합의 2D 표면을 시간 T0에서의 객체의 가능한 Vtan,0와 ω0 모션 조합의 1D 선으로 압축할 수 있다. 보다 구체적으로, 자율 주행 차량은 따라서 2D 공간에서 움직이고 있는 객체의 알려지지 않은 세 가지 특성(즉, Vrad,0, Vtan,0, ω0)을 - L0에서의 Vtan,0와 ω0의 모든 조합이 T0에서 측정된 객체의 시선 속도룰 해결하기 때문에, 선(L0)을 따르는 포인트가 T0에서의 객체의 실제 Vtan,0와 ω0를 나타내는 - 하나의 알려지지 않은 특성으로 줄일 수 있다.
13.3 바운딩(Bounding)
이러한 구현에서, 자율 주행 차량은 또한 Vrad,0와 함께, 전술한 최대 객체 속도 가정 이하의 최대 전체 속도를 생성하는 Vtan,0 값 및 ω0 값의 범위를 계산하고, 이러한 Vtan,0 값 및 ω0 값의 범위로 선(L0)을 바운딩할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 도 2에 도시된 바와 같이 전술한 그라운드 기반 객체의 최대 접선 및 각 속도 가정으로 선(L0)을 바운딩할 수 있다.
이후, 바운딩된 선(L0)으로 표시된 Vtan,0와 ω0 모션 조합의 범위 및 시간 T0에서의 객체의 Vrad,0를 고려하여, 자율 주행 차량은 T0에서 자율 주행 차량을 기준으로 하는 객체의 가능한 전체 속도의 범위를 계산할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 T0에서의 객체의 가능한 절대 속도 범위를 계산하기 위해 이러한 바운딩된 선(L0)으로 표시된 Vtan,0와 ω0 모션 조합의 범위 및 객체의 Vrad,0와 T0에서의 그 절대 속도를 병합할 수 있다.
13.4 제1 스캔 주기 이후의 미래 상태 경계(Future State Boundary After First Scan Cycle)
자율 주행 차량은 이후 객체의 이러한 가능한 상대 또는 절대 속도 및 최대 객체 가속도 가정을 기반으로 하여 객체의 미래 상태 경계를 계산하고; 전술한 바와 같이 그에 따라 그 궤적을 선택적으로 수정하기 위해 전술한 방법 및 기술을 구현할 수 있다.
예를 들어, 블록(S110) 및 블록(S112)에서, 자율 주행 차량은 대략적으로 제1 시간에, 자율 주행 차량에 배치된, 제2 센서에 의해 캡처된 필드의 제2 이미지에 액세스하고; 제2 이미지로부터 추출된 일련의 피처(feature)를 기반으로 하여 제1 시간에 자율 주행 차량에 의해 점유된 노면의 유형의 해석하고; 일련의 피처를 기반으로 하여 노면의 상태를 예측하고; 노면의 유형 및 노면의 상태를 기반으로 하여 노면에서 작용하는 자율 주행 차량의 타이어에 대한 마찰 계수를 추정하고; 제1 시간에서의 자율 주행 차량의 차량 속도, 마찰 계수, 및 자율 주행 차량을 위해 저장된 제동 모델을 기반으로 하여 제1 시간에서의 자율 주행 차량의 정지 기간을 추정하고; 및 정지 기간만큼 제1 시간으로부터 오프셋된 임계 시간을 계산하기 위해 전술한 방법 및 기술을 구현할 수 있다.
또한, 이러한 예에서, 자율 주행 차량은 블록(S102)에서, 예를 들어 일반 그라운드 기반 객체의 최대 선형 가속도; 일반 그라운드 기반 객체의 최대 선형 속도; 및/또는 일반 그라운드 기반 객체의 최대 각 속도를 포함하여 일련의 미리 정의된 모션 제한 가정에 액세스할 수 있다.
또한, 블록(S122)에서, 자율 주행 차량은 제1 포인트 그룹에 있는 포인트의 제1 방위각 위치및 제1 범위 값을 기반으로 하여 제1 시간에서의 객체의 제1 위치를 도출한 다음; a) 제1 함수에 의해 정의된, 제1 시간에서의, 객체의 가능한 각 속도 및 객체의 가능한 접선 속도; 제1 시선 속도, b) 제1 위치, 및 c) 일련의 미리 정의된 모션 제한 가정을 기반으로 하여 자율 주행 차량의 제1 미래 상태 경계를 계산할 수 있다. 보다 구체적으로, 자율 주행 차량은 정지 기간 동안 객체의 제1 위치에서부터 - 최대 각 속도로 이동하고 미리 정의된 모션 제한 가정에 의해 정의된 최대 선형 가속도에 따라 최대 선형 속도까지 가속하는 - 제1 시간에서의 객체의 가능한 접선 및 각 속도 쌍(또는 "제1 모션")과 시선 속도를 적분함으로써 제1 시간에서부터 임계 시간까지 객체에 액세스할 수 있는 제1 그라운드 영역을 계산할 수 있다. 자율 주행 차량은 이후 이러한 제1 그라운드 영역을 제1 시간 동안의 객체의 미래 상태 경계로서 저장할 수 있다.
13.5 제2 스캔 주기(Second Scan Cycle)
이후, 자율 주행 차량은 다음 스캔 주기 동안 센서에 의해 출력된 포인트의 다음 시선 속도, 거리, 및 각도 위치 세트를 기반으로 하여 전술한 프로세스를 반복할 수 있다.
특히, 제2 시간(T1)에서, 센서는 제2 스캔 주기를 실행하고, 자율 주행 차량 주변 필드 전체에 걸쳐 일련의 포인트의 시선 속도, 거리 및 각도 위치를 포함하는 제2 스캔 이미지를 되돌려준다. 이후, 자율 주행 차량은 필드에 있는 개별 객체에 대응하는 포인트 그룹을 식별하고; 제2 스캔 주기에서 객체를 나타내는 해당 포인트 그룹까지 제1 스캔 주기로부터 객체를 나타내는 포인트 그룹을 추적하기 위해 전술한 방법 및 기술을 구현한다.
이후, 자율 주행 차량은 이러한 그룹에 있는 포인트의 시선 속도의 중심 척도(central measure)를 계산하고; 이러한 중심 척도를 시간 T1에서의 객체의 시선 속도(Vrad,1)로서 저장하고; 시간 T1에서의 객체의 접선 속도(Vtan,1)와 각 속도(ω1) 사이의 관계를 나타내는, 이들 데이터에 대한 제2 기울기를 계산하기 위해 전술한 프로세스를 반복한다. 예를 들어, 이러한 기울기(S1)는 시간 T1에서의, 자율 주행 차량을 기준으로 하는, 객체 위치의 제1 반경(R1)을 곱한 T1에서의 객체의 ω1의 곱과Vtan,1 사이의 차이를 나타낼 수 있다. 따라서, 자율 주행 차량은 T1에서의 객체를 나타내는 포인트 그룹의 위치의 중심 경향 척도의 반경(R1)을 계산하고, 시간 T1에서의 기울기(S1) 및 반경(R1)을 기반으로 하여 객체의 Vtan,1 및 ω1과 관련이 있는 제2 함수(예를 들어, 선형 함수)(F1)를 생성할 수 있다.
함수(F1)를 기반으로 하여, 자율 주행 차량은 이후 시간 T1에서의 객체의 현재 시선 속도(Vrad,1)를 고려하여 시간 T1에서의 객체의 가능한 Vtan,1 과 ω1 모션 조합을 나타내는 선(L1)을 계산할 수 있다.
이어서, 자율 주행 차량은 도 2에 도시된 바와 같이 T1에서의 객체의 실제(또는 근접한 근사값인) Vtan,1 및 ω1을 나타내는 선(L0) 및 선(L1)(또는 함수(F0) 및 함수(F1))의 교집합을 계산할 수 있다. 따라서, T0에서의 제1 스캔 주기부터 T1에서의 후속 스캔 주기까지, 자율 주행 차량은 T1에서 - Vtan,1, ω1, 및 Vrad,1를 포함하여 - 객체의 3가지 알려지지 않은 모션 특성 모두를 해결할 수 있다.
이후, 선(L0)과 선(L1)의 교집합에서 표시된 Vtan,1, ω1, 및 Vrad,1를 고려하여, 자율 주행 차량은 T1에서의 자율 주행 차량을 기준으로 하는 객체의 전체 속도(Vtot,rel,1)를 계산할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 T1에서의 객체의 전체 절대 속도(Vtot,abs,1)를 계산하기 위해 객체의 Vrad,1, Vtan,1 및 ω1과 T1에서의 그 절대 속도를 병합할 수 있다.
따라서, 전술한 구현에서, 자율 주행 차량은 수평면(즉, 대략적으로 노면과 평행한 2D 공간)에 - 객체를 나타내는 제2 포인트 그룹에 있는 - 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 투영하고; 제2 포인트 그룹에 있는 포인트의 제2 방위각 위치범위를 기반으로 하여 제2 시간에서의 객체의 제2 반경을 계산하고; 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 제2 중심 경향 척도(예를 들어, 평균)를 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 제2 시선 속도를 계산하고; 제2 포인트 그룹에 있는 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 통해 제2 선형 추세선을 계산하고; 제2 시간에서의 객체의 제2 접선 속도와 객체의 제2 각 속도 사이의 관계를 나타내는, 제2 선형 추세선의 제2 기울기를 기반으로 하여 제2 연관성을 계산할 수 있다. 특히, 제2 기울기는 제2 시간에서의 객체의 제2 접선 속도와, 제2 시간에서의 객체의 제2 각 속도와 제2 시간에서의 객체의 제2 반경의 곱의 차이를 나타낼 수 있다. 자율 주행 차량은 이후 제2 시간에서의 제2 기울기 및 제2 반경을 기반으로 하여 제2 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 각 속도 및 제2 시간에서의 객체의 가능한 접선 속도(예를 들어, S1 = Vtan,1 - R1ω1 관계를 충족하는 가능한 접선 속도 및 각 속도)와 관련이 있는 제2 선형 함수를 계산할 수 있다. 보다 구체적으로, 이러한 제2 함수는 대략적으로 노면과 평행한 수평면 내에 있는 - 제2 시간에서의 - 객체의 가능한 각 속도 및 객체의 가능한 접선 속도와 관련이 있을 수 있다.
이후, 자율 주행 차량은 3 자유도 상태 공간에서 제1 함수와 제2 함수의 교집합을 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 특정 제2 접선 속도 및 객체의 특정 제2 각 속도(또는 후술하는 바와 같이, 객체의 가능한 접선 모션 및 각도 모션의 좁은 범위)를 추정할 수 있다. 또한, 자율 주행 차량은 제2 시간에서의 객체의 제2 접선 속도, 객체의 제2 각 속도, 객체의 제2 시선 속도, 및 객체의 절대 속도를 기반으로 하여 블록(S126)에서 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 전체 절대 속도를 계산하기 위해 전술한 방법 및 기술을 실행할 수 있다.
자율 주행 차량은 이후 이러한 객체의 가능한 상대 속도 또는 절대 속도 및 최대 객체 가속도 가정을 기반으로 하여 객체의 미래 상태 경계를 계산하고; 전술한 바와 같이, 그에 따라 그 궤적을 선택적으로 수정하기 위해 전술한 방법 및 기술을 구현할 수 있다.
13.6 누적 오차(Accumulated Error)
이러한 변형에서, 자율 주행 차량을 기준으로 하는 객체의 접선 속도(Vtan) 및 각 속도(ω)는 T0에서의 제1 스캔 주기와 T1에서의 제2 스캔 주기 사이에서 변경될 수 있고, 이는 시간 T1 만큼 선(L0)에서 (추가적인) 오차를 생성할 수 있다. 이러한 오차의 크기는 T0와 T1 사이의 시간 오프셋과 관련될 수 있고, 따라서 센서의 샘플링 속도의 함수일 수 있다.
따라서, 자율 주행 차량은 선(L0) 양쪽에 있는 오차 막대(예를 들어, L0,error,low 및 L0,error,high)를 계산하기 위해 - 예를 들어, 전술한 객체의 모션 제한 가정을 기반으로 하여 - T0에서부터 T1까지의 시간 오프셋에 걸쳐 객체의 접선 속도(Vtan) 및 각 속도(ω)의 최대 및 최소 변화를 적분할 수 있다. 자율 주행 차량은 이후 오차 막대 L0,error,low 와 L0,error,high 사이의 영역과 L1의 교집합을 계산함으로써 도 2에 도시된 바와 같이, T0에서부터 T1까지의 자율 주행 차량을 기준으로 하는 객체의 모션으로 인한 가능한 누적 오차를 설명하면서 T1에서의 객체의 가능한 Vtan,1 값 및 ω1 값의 범위를 좁힐 수 있다.
이후, 선(L0)의 오차 막대에 의해 바운딩된 선(L1)에 표시된 Vtan,1 및 ω1 모션 조합의 범위 및 Vrad,1을 고려하여, 자율 주행 차량은 T1에서의 자율 주행 차량을 기준으로 하는 객체의 가능한 전체 속도의 범위를 계산할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 T1에서의 객체의 가능한 절대 속도의 범위를 계산하기 위해 이러한 바운딩된 선(L1)에 표시된 Vtan,1 및 ω1 모션 조합의 범위 및 Vrad,1과 T1에서의 그 절대 속도를 병합할 수 있다.
예를 들어, 자율 주행 차량은 블록(S126)에서 제1 시간과 제2 시간의 시간 차이 동안의 전술한 미리 정의된 모션 제한 가정 세트의 적분 - 즉, 제1 시간에서부터 제2 시간까지 객체의 최악의 모션 변화를 기반으로 하여 제1 함수의 제1 오차를 특성화할 수 있다. 전술한 바와 같이, 자율 주행 차량은 제1 연관성을 기반으로 하여 제1 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제1 선을 계산하고; 제1 오차를 기반으로 하여 제1 선의 제1 폭을 계산하고; 제1 스캔 주기 동안 제1 함수에서 제1 선 및 제1 선의 제1 폭을 나타낼 수 있다. 따라서, 제1 함수는 제1 시간에서의 객체의 제1 접선 속도 및 제1 각 속도의 가능한 조합을 포함하는 2차원의 타원을 나타낼 수 있다.
제2 스캔 주기 동안, 자율 주행 차량은 마찬가지로 제2 연관성을 기반으로 하여 제2 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제2 선을 계산할 수 있다. 이후, 자율 주행 차량은 제2 선과 제1 폭의 제1 선의 교집합을 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 접선 속도의 제2 범위 및 객체의 각 속도의 제2 범위를 추정할 수 있다.
13.7 최적 오차(Best-fit Error)
도 5에 도시된 유사한 구현에서, 자율 주행 차량은 제1 스캔 이미지로부터 도출된 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선을 계산하고; 제1 선형 추세선의 제1 기울기를 기반으로 하여 제1 시간에서의 객체의 제1 접선 속도와 객체의 제1 각 속도 사이의 제1 연관성을 계산하고; 블록(S126)에서 제1 선형 추세선으로부터의 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 편차를 기반으로 하여 제1 선형 추세선의 제1 오차를 특성화하고; 제1 연관성을 기반으로 하여 제1 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제1 선을 계산하고; 제1 오차를 기반으로 하여 제1 선의 제1 폭을 계산하고; 제1 함수에서 제1 선 및 제1 선의 제1 폭을 나타낸다. 예를 들어, 자율 주행 차량은 그룹의 각 포인트에서 제1 선형 추세선까지의 최소 거리 제곱의 합의 제곱근에 비례하는 제1 오차 - 따라서 제1 선의 폭을 계산할 수 있다. 따라서, 제1 함수는 제1 시간에서의 객체의 제1 접선 속도와 제1 각 속도의 가능한 조합을 포함하는 2차원의 타원을 나타낼 수 있다.
마찬가지로, 자율 주행 차량은 제2 포인트 그룹에 있는 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 통해 제2 선형 추세선을 계산하고; 제2 선형 추세선의 제2 기울기를 기반으로 하여 제2 시간에서의 객체의 제2 접선 속도와 객체의 제2 각 속도 사이의 제2 연관성을 계산하고; 제2 선형 추세선으로부터의 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 편차를 기반으로 하여 제2 선형 추세선의 제2 오차를 특성화하고; 제2 연관성을 기반으로 하여 제2 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 가능한 접선 속도 및 객체의 가능한 각 속도와 관련이 있는 제2 선을 계산하고; 제1 오차를 기반으로 하여 제1 선의 제1 폭을 계산하고; 제2 함수에서 제2 선 및 제2 선의 제2 폭을 나타낸다. 따라서, 제2 함수는 제2 시간에서의 객체의 제2 접선 속도와 제2 각 속도의 가능한 조합을 포함하는 2차원의 타원을 나타낼 수 있다.
따라서, 자율 주행 차량은 제2 폭의 제2 선과 제1 폭의 제1 선의 교집합을 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 접선 속도의 제2 범위 및 객체의 각 속도의 제2 범위를 추정할 수 있다. 자율 주행 차량은 제2 시간에서의 객체의 특정 접선 속도 및 각 속도를 해결하지 못할 수 있지만, 자율 주행 차량은 객체를 묘사하는 단일 스캔 이미지로부터 도출된 객체의 가능한 접선 속도 및 각 속도의 범위보다 훨씬 좁은 - 제1 함수와 제2 함수의 교집합을 기반으로 하는 - 제2 시간에서의 객체의 가능한 접선 속도 및 각 속도의 범위를 계산할 수 있다.
13.8 제2 스캔 주기 이후의 미래 상태 경계(Future State Boundary After Second Scan Cycle)
자율 주행 차량은 이후 전술한 바와 같이 객체의 이러한 가능한 상대 속도 또는 절대 속도 및 미리 정의된 모션 제한 가정을 기반으로 하여 객체의 미래 상태 경계를 계산하고; 및 그에 따라 그 궤적을 선택적으로 수정하기 위해 전술한 방법 및 기술을 구현할 수 있다.
예를 들어, 블록(S112)에서 임계 시간을 계산한 후, 자율 주행 차량은 제2 시간에서부터 임계 시간까지 객체에 액세스할 수 있는 제2 그라운드 영역을 계산하기 위해 정지 기간 동안 객체의 제2 위치에서부터 - 미리 정의된 모션 제한 가정에 의해 규정된 최대 선형 가속도에 따라 최대 선형 속도까지 가속시키고 최대 각 속도에서 이동하는 - 제2 시간에서의 객체의 제2 모션을 적분하고; 이러한 그라운드 영역을 객체의 제1 미래 성태 경계보다 크기(예를 들어, 대략적으로 노면과 평행한 수평면의 영역)보다 (상당히) 작은 - 제2 시간에서의 객체에 대한 - 제2 미래 상태 경계로서 저장할 수 있다.
특히, 자율 주행 차량은 제1 함수로 표현되는 - 미리 정의된 모션 제한 가정에 의해서만 제한되는 - 객체의 가능한 접선 및 각 속도 조합의 넓은 범위를 제1 함수와 제2 함수의 교집합에서 객체의 가능한 접선 및 각 속도 조합의 하나 또는 작은 범위로 압축하기 때문에, 자율 주행 차량은 제1 스캔 주기부터 제2 스캔 주기까지 객체의 더 작은 미래 상태 경계를 또한 계산할 수 있고, 따라서 자율 주행 차량이 근처의 다른 객체와 충돌하기 전에 완전 정지에 도달할 수 있는 능력을 희생하지 않고 임계 시간까지 운행할 수 있는 더 큰 액세스 영역을 예측할 수 있다.
13.9 객체 모션 처리(Object Motion Handling)
이후, 전술한 바와 같이, 자율 주행 차량은 블록(S140)에서 임계 시간 이전에 제2 미래 상태 경계로의 진입을 피하기 위해 제2 내비게이션 액션을 선택할 수 있다.
예를 들어, 자율 주행 차량은 블록(S144)에서 객체의 제1 미래 상태 경계를 제외한, 자율 주행 차량 주변의, 액세스를 영역을 계산한 다음; 객체의 현재 미래 상태 경계 둘레의 임계 거리(예를 들어, 2 미터; 자율 주행 차량의 현재 속도에서 500 ms로 이동한 거리) 내에 속하는 제2 시간에서의 자율 주행 차량의 위치에 응답하여 액세스 영역을 향해 내비게이션 하기 위해(예를 들어, 자율 주행 차량의 궤적을 변경하기 위해) 제1 내비게이션 액션을 실행하기 위해 전술한 방법 및 기술을 구현할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 객체의 현재 미래 상태 경계 둘레의 임계값 이내에 속하는 제2 시간에서의 자율 주행 차량 위치에 응답하여 자율 주행 차량을 감속시키기 위해 제동 액션(braking action)을 자동적으로 실행할 수 있다. 반대로, 자율 주행 차량의 현재 위치가 객체의 제2 미래 상태 경계 바깥쪽에 속하는 경우, 자율 주행 차량은 그 현재 궤적(예를 들어, 속도(velocity); 속도(speed) 및 조향 각도(steering angle))를 유지할 수 있고, 그렇지 않은 경우에는 제2 스캔 주기 동안 경로 계획 고려 사항에서 객체를 뮤팅할 수 있다.
13.10 후속 스캔 주기(Subsequent Scan Cycles)
자율 주행 차량은 이후 제3 시간(T2)에서 센서에 의해 출력된 제3 스캔 이미지에서 추적된 - 동일한 객체와 관련된 - 포인트 그룹의 평균 시선 속도(Vrad,2), 기울기(S2) 및 반경(R2)을 기반으로 하여 제3 함수(F2)를 계산하고; 함수(F2)를 기반으로 하여 제3 선(L2)을 계산한 다음; (T0에서 T2까지의 시간 오프셋을 기반으로 하는 오차 막대를 갖는) 제1 선(L0), (T1에서 T2까지의 시간 오프셋을 기반으로 하는 오차 막대를 갖는) 제2 선(L1), 및 T2에서 객체의 가능한 Vtan,2 값 및 ω2 값을 나타내는 제3 선(L2)의 교집합을 계산하기 위해 전술한 방법 및 기술을 반복할 수 있다.
대안적으로, 이러한 제3 스캔 주기 동안, 자율 주행 차량은 선(L0)을 폐기하고; (T1에서 T2까지의 시간 오프셋을 기반으로 하는 오차 막대를 갖는) 제2 선(L1)과 T2에서의 객체의 가능한 Vtan,2 값 및 ω2 값을 나타내는 제3 선(L2)의 교집합을 계산할 수 있다.
전술한 바와 같이, 자율 주행 차량은 이후 이러한 다방향 교집합(예를 들어, 양방향, 삼방향 등의 교집합)을 기반으로 하여 T2에서의 객체의 가능한 Vtan,2 값 및 ω2 값의 범위를 계산하고; T2에서의 객체의 가능한 상대 속도 또는 절대 속도를 계산하고; 그에 따라 객체의 미래 상태 경계를 업데이트하고; 전술한 바와 같이 그에 따라 그 궤적을 선택적으로 수정할 수 있다.
13.11 객체별 포인트 그룹화 및 그룹 해제(Point Grouping & Ungrouping by Object)
전술한 바와 같이, 자율 주행 차량은 유사한 시선 속도, 및 예를 들어, 유사한 범위 값, 방위각 값, 고도 값을 포함하는 근접성에 의해 스캔 이미지에 있는 포인트를 그룹화할 수 있다. 제1 스캔 이미지에서 감지된 각각의 포인트 그룹에 대해, 자율 주행 차량은 포인트 그룹으로 표시된 객체의 선형 모션 및 각도 모션을 나타내는 함수를 계산할 수 있다. 이후, 자율 주행 차량은 후속 스캔 이미지에 대해 이러한 프로세스를 반복하고; 제2 스캔 이미지에 있는 포인트 그룹과 제1 스캔 이미지에 있는 포인트 그룹을 연결하기 위해 객체 추적 기술을 구현하고; 제1 스캔 이미지 및 제2 스캔 이미지로부터 도출된 이들 포인트 그룹에 대한 제1 함수 및 제2 함수 쌍의 교집합을 기반으로 하여 각 객체에 대한 모션 예측을 개선할 수 있다.
또한, 자율 주행 차량은 그들의 모션이 미리 정의된 속도 판별 임계값 내에 속하는 경우와 같이, 그들의 도출된 모션이 일치하는 경우(예를 들어, 그들의 시선 속도, 접선 속도 및 각 속도가 매우 유사하거나 동일한 경우), 제2 스캔 이미지에서 그렇게 감지된 2개의 객체를 하나의 "합성 객체" (또는 "강체")로 클러스터링할 수 있다. 이후, 자율 주행 차량은 이러한 합성 객체에 대한 하나의 미래 상태 경계를 계산하고 그에 따라 이러한 합성 객체를 기준으로 하여 선택적으로 내비게이션할 수 있다. 따라서, 자율 주행 차량은 일치하는 모션 내의 여러 포인트 그룹을 단일 객체로서 해석하고 처리함으로써 자율 주행 차량이 추적하고 있는 개별 객체의 수를 줄일 수 있기 때문에 운행하는 동안 자율 주행 차량에서의 계산 부하(computational load)를 줄일 수 있다.
마찬가지로, 자율 주행 차량은 제1 스캔 이미지에 있는 - 제1 시간에서 하나의 객체를 나타내는 것으로 예측된 - 제1 포인트 그룹이, 제2 스캔 이미지에 있는 - 제2 시간에서 2개의 상이한 객체를 나타내는 것으로 예측된 - 제2 포인트 그룹 및 제3 포인트 그룹으로 분리되는 것을 해석하고; 제2 객체 및 제3 객체에 대한 고유 함수를 생성하고; 제1 스캔 주기 및 제2 스캔 주기 동안 도출된 함수를 기반으로 하여 제2 객체 및 제3 객체의 모션을 추정할 수 있다.
하나의 예시적인 구현에서, 자율 주행 차량은 제1 시간에 캡처된 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하기 위해 및 제1 스캔 주기 동안 객체의 모션을 나타내는 제1 함수를 도출하기 위해 전술한 방법 및 기술을 구현한다. 제2 스캔 주기 동안, 자율 주행 차량은 제1 시간에 이어서 제2 시간에 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하고; 필드에 있는 객체를 나타내는 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하고; 필드에 있는, 제1 시간에서부터 제2 시간까지의 객체로부터 분리되는, 제2 객체를 나타내는 제2 스캔 이미지에 있는 제3 포인트 그룹을 식별하고; 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 방위각 위치사이의 제2 연광성을 계산하고; 제3 포인트 그룹에 있는 포인트의 제3 시선 속도와 제3 방위각 위치사이의 제3 연관성을 계산하고; 제2 연관성을 기반으로 하여, 제2 시간에서의 객체의 가능한 접선 속도 및 가능한 각 속도와 관련이 있는 제2 함수를 계산하고; 제3 연관성을 기반으로 하여, 제2 시간에서의 제2 객체의 가능한 접선 속도 및 제2 객체의 가능한 각 속도와 관련이 있는 제3 함수를 계산할 수 있다. 따라서, 자율 주행 차량은 전술한 바와 같이, 제1 함수와 제2 함수의 교집합을 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 제2 접선 속도 및 객체의 제2 각 속도를 추정할 수 있다. 그러나, 자율 주행 차량은 또한 제1 시간에서의 객체의 모션을 나타내는 제1 함수와 제2 시간에서의 제2 객체의 모션을 나타내는 제3 함수의 교집합을 기반으로 하여 제2 시간에서의 - 자율 주행 차량을 기준으로 하는 - 제2 객체의 제3 접선 속도 및 제2 객체의 제3 각 속도를 추정할 수 있다.
예를 들어, 자율 주행 차량은 제1 시간에 자율 주행 차량에 인접한 2개의 차선(lane)에서 동일한 방향 및 속도로 이동하고 있는 2개의 자동차를 나타내는 2개의 포인트 그룹을 감지하고; 이들 객체의 모션을 특성화하고; 제1 시간에 객체의 일치하는 모션을 반영하는 하나의 합성 그룹으로서 이들 두 개의 객체를 추적하고 응답하기 위해 전술한 프로세스를 구현할 수 있다. 이후, 자율 주행 차량은 제2 시간에, 이들 차량 중 한 차량이 제동을 걸어 다른 차량에 비해 감속하는 경우와 같이, 서로에 대해 이동하는 두 개의 객체를 감지하고; 합성 객체를 두 개의 객체로 분리한 다음; 속도 판별 임계값을 초과하는 상이한 모션을 보여주는 두 개의 객체를 독립적으로 추적하고 응답할 수 있다.
13.12 여러 센서로부터의 동시 데이터(Concurrent Data from Multiple Sensors)
하나의 변형에서, 자율 주행 차량은 스캔 주기 동안 - 상이한 관점에서 자율 주행 주변 필드에 있는 표면을 나타내는 - 동시 포인트 클라우드를 출력하는 복수의 오프셋 센서를 포함한다. 이러한 변형에서, 자율 주행 차량은 하나의 스캔 주기 동안 이들 센서에 의해 출력되는 동시 포인트 클라우드에서 단일 객체를 나타내는 객체의 공동 공간적(cospatial) 그룹에 대한 한 쌍의 함수 및 선을 계산하고; 이들 선의 교집합을 계산하고; 이러한 교집합을 기반으로 하여 객체의 접선 속도 및 각 속도를 추정하기 위해 전술한 방법 및 기술을 실행할 수 있다.
예를 들어, 자율 주행 차량은 제1 시간(T0)에 자율 주행 차량의 제1 센서에 의해 출력되는 제1 포인트 클라우드에서 - 개별 객체를 나타내는 - 제1 포인트 그룹을 식별하고; 이러한 제1 그룹에 있는 포인트의 시선 속도 평균을 계산하고; 이러한 평균을 제1 시간에서의 객체의 제1 시선 속도(Vrad,1,0)로서 저장하고; 제1 시간에서의 제1 포인트 그룹의 시선 속도(Vrad,1,0), 기울기(S1,0), 및 반경(R1,0)을 기반으로 하여 제1 함수(F1,0)를 계산하고; 및 함수(F1,0)를 기반으로 하여 제1 선(L1,0)을 계산할 수 있다. 마찬가지로, 자율 주행 차량은 제1 시간(T0)에 자율 주행 차량의 제2 센서에 의해 출력되는 제2 포인트 클라우드에서 - 이러한 동일한 객체를 나타내는 - 제2 포인트 그룹을 식별하고; 이러한 제2 그룹에 있는 포인트의 시선 속도 평균을 계산하고; 이러한 평균을 제1 시간에서의 객체의 제2 시선 속도(Vrad,2,0)로서 저장하고; 이러한 제1 시간에서의 제2 포인트 그룹의 시선 속도(Vrad,2,0), 기울기(S2,0), 및 반경(R2,0)을 기반으로 하여 제2 함수(F2,0)를 계산하고; 및 함수(F2,0)를 기반으로 하여 제2 선(L2,0)을 계산할 수 있다.
자율 주행 차량은 이후 시간(T0)에서의 객체의 실제 (또는 근접한 근사값인) Vtan,0 및 ω0를 나타내는, 제1 선(L1,0)과 제2 선(L2,0)의 교집합을 계산할 수 있다. 따라서, 자율 주행 차량은 단일 스캔 주기 동안 이들 두 개 센서에 의해 출력되는 데이터를 기반으로 하여 시간(T0)에서 - Vtan,0, ω0 및 Vrad,0를 포함하여 - 객체의 세 가지 알려지지 않은 특성 모두를 해결할 수 있다.
이후, 선(L1,0)과 선(L2,0)의 교집합에서 표현된 Vrad,0, Vtan,0 및 ω0를 고려하여, 자율 주행 차량은 T0에서의 자율 주행 차량을 기준으로 하는 객체의 전체 속도(Vtot,rel,0)를 계산할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 T0에서의 객체의 전체 절대 속도(Vtot,abs,0)를 계산하기 위해 객체의 Vrad,0, Vtan,0 및 ω0와 T0에서의 그 절대 속도를 병합할 수 있다.
이후, 자율 주행 차량은 전술한 바와 같이, 최대 객체 가속도 가정 및 객체의 이러한 가능한 상대 속도 또는 절대 속도를 기반으로 하여 객체의 미래 상태 경계를 계산하고 그에 따라 그 궤적을 선택적으로 수정하기 위해 전술한 방법 및 기술을 구현할 수 있다.
또한, 자율 주행 차량은 제1 스캔 주기 동안 자율 주행 차량에 있는 두 개의 센서에 의해 캡처된 두 개의 동시 스캔 이미지에 묘사된 객체를 감지하고; 두 개의 스캔 이미지로부터 이러한 객체의 모션을 설명하는 제1 함수 및 제2 함수를 도출하고; 이들 제1 함수 및 제2 함수를 제1 스캔 주기 동안 객체의 하나의 모션 추정치로 융합할 수 있다. 동시에, 자율 주행 차량은 (예를 들어, 이들 센서 중 하나의 시야로부터의 엄폐(obscuration)로 인해 또는 두 개 센서의 상이한 시야로 인해) 이들 두 개의 스캔 이미지 중 제1 스캔 이미지에만 묘사된 제2 객체를 감지하고; 제1 스캔 주기 동안 제1 스캔 이미지로부터 이러한 제2 객체의 모션을 설명하는 제3 함수를 도출할 수 있다. 이후, 다음 스캔 주기 동안, 자율 주행 차량은 제3 스캔 이미지에만 묘사된 제2 객체를 감지하고; 제3 스캔 이미지로부터 이러한 제2 객체의 모션을 설명하는 제4 함수를 도출하고; 이들 제3 함수 및 제4 함수를 전술한 바와 같이 제2 스캔 주기 동안 제2 객체의 하나의 모션 추정치로 융합할 수 있다.
따라서, 자율 주행 차량은 여러 스캔 주기에 걸쳐 캡처된 일련의 스캔 이미지 및 단일 스캔 주기 동안 캡처된 동시 스캔 이미지 모두를 기반으로 하여 일련의 객체의 모션을 특성화하기 위해 방법(S100)의 전술한 블록을 구현할 수 있다.
14. 6DOF
도 3a, 도 3b 및 도 3c에 도시된 방법(S100)에 대한 하나의 변형은 제1 시간에 캡처된 제1 스캔 이미지에서 객체를 나타내는 제1 포인트 그룹에 있는 포인트의 제1 시선 속도, 제1 방위각 위치, 및 제1 고도 위치(elevation position)를 통해 제1 최적 평면을 계산하는 단계; 제2 시간에 캡처된 제2 스캔 이미지에서 객체를 나타내는 제2 포인트 그룹에 있는 포인트의 제2 시선 속도, 제2 방위각 위치, 및 제2 고도 위치를 통해 제2 최적 평면을 계산하는 단계; 및 제3 시간에 캡처된 제3 스캔 이미지에서 객체를 나타내는 제3 포인트 그룹에 있는 포인트의 제3 시선 속도, 제3 방위각 위치, 및 제3 고도 위치를 통해 제3 최적 평면을 계산하는 단계를 포함한다.
특히, 제1 최적 평면은 제1 시간에서의 객체의 제1 접선 속도(예를 들어, 접선 방위각 속도와 접선 고도 속도의 합성 접선 속도), 객체의 제1 요 속도(yaw velocity), 및 객체의 제1 피치 속도(pitch velocity) 사이의 관계를 나타낸다. 따라서, 자율 주행 차량은 제1 시간에서의 가능한 접선 고도 속도와 피치 속도 사이의 제2 관계 및 가능한 접선 방위각 속도와 요 속도(yaw velocity) 사이의 제1 관계(예를 들어, 연관성)를 나타내는 - 제1 최적 평면을 기반으로 하는 - 제1 함수를 생성할 수 있다.
마찬가지로, 제2 최적 평면은 제2 시간에서의 객체의 제2 접선 속도, 객체의 제2 요 속도(yaw velocity), 및 객체의 제2 피치 속도 사이의 관계를 나타낸다. 따라서, 자율 주행 차량은 제2 시간에서의 가능한 접선 고도 속도와 피치 속도 사이의 제2 관계 및 가능한 접선 방위각 속도와 요 속도(yaw velocity) 사이의 제1 관계(예를 들어, 연관성)를 나타내는 - 제2 최적 평면을 기반으로 하는 - 제2 함수를 생성할 수 있다.
또한, 제3 최적 평면은 제1 시간에서의 객체의 제3 접선 속도, 객체의 제3 요 속도(yaw velocity), 및 객체의 제3 피치 속도 사이의 관계를 나타낸다. 따라서, 자율 주행 차량은 제3 시간에서의 가능한 접선 고도 속도와 피치 속도 사이의 제3 관계 및 가능한 접선 방위각 속도와 요 속도(yaw velocity) 사이의 제1 관계를 나타내는 - 제3 최적 평면을 기반으로 하는 - 제3 함수를 생성할 수 있다.
이러한 변형에서, 방법(S100)은 블록(S124)에서 제1 함수, 제2 함수 및 제3 함수의 교집합을 기반으로 하여 제3 시간에서의 객체의 제3 접선 속도(또는 개별 접선 방위각 속도 및 접선 고도 속도), 객체의 제3 요 속도(yaw velocity), 및 객체의 제3 피치 속도를 계산하는 단계를 더 포함한다.
14.1 3DOF v. 6DOF
일반적으로, 전술한 방법(S100)은 3 자유도(또는 "3DOF")에서 객체의 모션을 특성화하기 위해 자율 주행 차량에 의해 실행될 수 있다. 그러나, 이러한 변형에서, 자율 주행 차량은 6 자유도(또는 "6DOF")에서 객체의 모션을 특성화하기 위해 유사한 방법 및 기술을 구현할 수 있다.
특히, 전술한 바와 같이 3 자유도에서 객체의 모션을 특성화할 때, 자율 주행 차량은 수평면 내에서 시선 방향 및 접선 방향으로의 객체 선형 모션; 및 이러한 수평면에 수직인 요 축(yaw axis)을 중심으로 하는 회전 모션만 해석할 수 있다. 반대로, 전술한 6 자유도에서 객체의 모션을 특성화할 때, 자율 주행 차량은 시선 방향, (예를 들어, 센서의 스캔 방향과 평행한) 접선 방위각 방향, 및 (예를 들어, 시선 방향 및 접선 방위각 방향에 직교하는) 접선 고도 방향으로의 객체 선형 모션; 및 접선 고도 방향을 따라 요 축(yaw axis)을 중심으로 하는 및 접선 방위각 방향을 따라 피치 축을 중심으로 하는 회전 모션을 해석할 수 있다.
또한, 센서에서부터 객체까지 연장되는 광선을 중심으로 하는 객체의 회전(즉, "롤" 모션)은 단일 스캔 이미지 내에서 센서에 의해 관찰되지 않을 수 있다. 그러나, 객체의 롤 모션이 이러한 광선과 동축이 아닌 경우, 센서에 의해 캡처된 연속 스캔 이미지(또는 두 개의 오프셋 센서에 의해 캡처된 동시 스캔 이미지)에 있는 포인트에 저장된 시선 속도는 객체의 롤 속도와 관련된 정보를 포함할 수 있고, 자율 주행 차량은 따라서 자율 주행 차량을 기준으로 하는 객체의 롤 속도를 더욱 명확하게 하기 위해 여러 스캔 이미지에서 이미지를 나타내는 포인트 그룹을 융합할 수 있다.
또한, 보행자 및 도로 차량의 차체와 같은 많은(예를 들어, 대부분의) 그라운드 기반 이동 객체는 피치 속도가 최소이거나 0이고 접선 고도 속도가 0일 수 있다(예를 들어, 수평 노면 이외의 어떤 방향으로도 이동할 수 없다). 그에 따라, 객체의 접선 고도 속도 및 피치 속도는 0이거나 (또는 0에 가까울 수 있다). 따라서, 3차원 공간에서의 포인트 그룹을 통한 최적 평면은 2차원 공간에서의 최적 선(line)으로 붕괴되고, 방법(S100)의 이러한 변형에 따라 6 자유도에서 그러한 객체의 모션 도출은 전술한 바와 같이 3 자유도에서의 객체 모션 도출로 붕괴된다.
그러나, 노면 위 및 근처에 있는 일부 객체는 바퀴, 콘크리트 혼합기 및 거리 청소 차량과 같은 자율 주행 차량을 기준으로 하여 비-제로(non-zero) 접선 고도 속도 및 피치 속도를 나타낼 수 있다. 마찬가지로, 경사를 따라 이동하는 차량은 자율 주행 차량을 기준으로 하여 비-제로(non-zero) 접선 고도 속도 및 피치 속도를 나타낼 수 있다. 그러한 객체의 접선 고도 속도 및 피치 속도는 스캔 이미지에서 이러한 객체를 나타내는 포인트의 시선 속도 데이터에 포함되지만 단일 스캔 이미지에 포함된 시선 속도 데이터로부터 결정되지 않는다. 따라서, 자율 주행 차량은 객체의 가능한 접선 방위각 속도, 접선 고도 속도, 요(yaw) 속도, 및 피치 속도의 특정 또는 좁은 범위를 계산하기 위해 (즉, 자율 주행 차량 및 객체가 서로에 대해 이동할 때) 상이한 관점으로부터 객체를 묘사하는 여러 스캔 이미지로부터 도출된 객체의 접선 방위각 속도, 접선 고도 속도, 요(yaw) 속도, 및 피치 속도 사이의 관계를 융합할 수 있다.
14.2 예시(example)
예를 들어, 자율 주행 차량은 객체를 나타내는 제1 스캔 이미지에 있는 포인트 그룹을 분리하고, 이들 포인트를 이들 포인트에 포함된 속도(즉, 시선 속도) 범위 값, 방위각 값, 및 고도 값을 기반으로 히여 2차원 공간(즉, 시선 속도, 방위각 및 고도 공간)에 투영하기 위해 전술한 방법 및 기술을 구현할 수 있다. 이후, 자율 주행 차량은 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 제1 중심 경향 척도(예를 들어, 평균)를 기반으로 하여 제1 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 제1 시선 속도를 계산하고; 제1 포인트 그룹에 있는 포인트의 제1 방위각 위치및 고도 위치의 제1 중심 경향 척도(예를 들어, 평균)를 기반으로 하여 제1 시간에서의 - 자율 주행 차량을 기준으로 하는 - 객체의 제1 위치를 계산하고; 객체의 제1 위치에서부터 자율 주행 차량까지의 제1 시선 벡터(radial vector)를 계산할 수 있다.
또한, 자율 주행 차량은 제1 포인트 그룹에 있는 포인트의 제1 시선 속도(radial velocity) 대(versus) 제1 방위각 위치(azimuthal position)를 통해 제1 선형 방위각 추세선(azimuthal trend line)을 계산하고; 제1 시간에서의 객체의 제1 접선 방위각 속도(tangential azimuthal velocity)와 객체의 제1 요 속도(yaw velocity) 사이의 관계를 나타내는, 제1 선형 방위각 추세선의 제1 기울기를 기반으로 하여 제1 연관성을 계산할 수 있다. 특히, 제1 기울기는 제1 접선 방향(예를 들어, 접선 방위각 방향)에서의 객체 접선 속도와 제1 접선 방향에 대한 - 객체의 요 속도(예를 들어, 피치 속도)와 객체의 시선 벡터의 - 외적(cross product) 투영의 제1 차이(difference)를 나타낼 수 있다.
마찬가지로, 자율 주행 차량은 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 고도 위치를 통해 제1 선형 고도 추세선을 계산하고; 제1 시간에서의 객체의 제1 접선 고도 속도와 객체의 제1 피치 속도 사이의 관계를 나타내는, 제2 선형 추세선의 제2 기울기를 기반으로 하여 제2 연관성을 계산할 수 있다. 특히, 제2 기울기는 제2 접선 방향(예를 들어, 접선 고도 방향)에서의 객체 접선 속도와 제1 접선 방향에 대한 - 객체의 요 속도(yaw velocity)와 객체의 시선 벡터(radial vector)의 - 외적(cross product) 투영 사이의 제2 차이(difference)를 나타낼 수 있다.
따라서, 제1 선형 방위각 및 고도 추세선은 도 3a에 도시된 바와 같이, 3차원 시선 속도, 방위각, 및 고도 공간에 표시된 제1 그룹에 있는 포인트에 대한 제1 최적 평면(best-fit plane)을 나타낼 수 있다.
이후, 자율 주행 차량은 제1 시간에서의 제1 기울기, 제2 기울기 및 객체의 상대 위치를 나타내는 제1 시선 벡터를 기반으로 하여 제1 시간에서의 객체의 가능한 접선 방위각 속도, 접선 고도 속도, 요(yaw) 속도, 및 피치 속도와 관련이 있는 제1 함수를 계산할 수 있다. 보다 구체적으로, 이러한 제1 함수는 객체의 가능한 요 속도에 객체의 가능한 접선 방위각 속도를 연관시킬 수 있고, 제1 시간에서의 객체의 가능한 피치 속도에 객체의 가능한 접선 고도 속도를 연관시킬 수 있다.
대안적으로, 자율 주행 차량은 제1 선형 방위각 및 고도 추세선을 독립적으로 계산하기 보다는 제1 그룹에 있는 포인트에 대한 제1 최적 평면을 직접 계산하고; 및/또는 다른 방향에서의 접선 속도를 기반으로 하여 제1 함수를 도출할 수 있다. 예를 들어, 자율 주행 차량은 6 자유도에서의 객체 모션 상태 및 객체의 함수 관련 관찰(즉, 객체를 나타내는 포인트의 방위각 위치, 고도 위치, 범위 위치 및 시선 속도)을 도출하기 위해 도 7에 도시된 프로세스를 실행할 수 있다.
이후, 자율 주행 차량은 도 3a에 도시된 바와 같이, 객체의 접선 모션 및 각도 모션의 가능한 조합을 나타내는 일련의 함수를 생성하기 위해 후속 스캔 이미지에 대해 이러한 프로세스를 반복할 수 있다. 자율 주행 차량은 이후 객체의 가능한 시선 속도, 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 특정 또는 좁은 범위를 계산하기 위해 6 자유도 상태 공간에서 - 3개의 연속 스캔 이미지로부터 도출된 - 3개 함수의 교집합을 계산할 수 있다.
따라서, 자율 주행 차량은 도 3c에 도시된 바와 같이, 자율 주행 차량을 기준으로 하여 6개의 모든 자유도에서 객체의 전체 속도를 계산하기 위해 현재 스캔 이미지로부터 도출된 객체의 시선 속도와 객체의 이들 접선 방위각 속도, 접선 고도 속도, 요 속도, 및 피치 속도를 융합할 수 있다.
14.3 최적 오차(Best-fit Error)
이러한 변형에서, 자율 주행 차량은 최적 평면의 폭(또는 "두께")을 계산하기 위해 전술한 것과 유사한 방법 및 기술을 구현할 수 있다. 예를 들어, 자율 주행 차량은 그룹의 각 포인트에서부터 최적 평면까지의 (3차원에서의) 최소 거리 제곱의 합의 제곱근에 비례하는 스캔 이미지에 대한 각 최적 평면에 대한 오차를 계산할 수 있다. 자율 주행 차량은 이후 이러한 오차를 기반으로 하여 이러한 평면의 두께를 계산하거나, 달리 이러한 객체에 대해 계산된 해당 함수에서 이러한 오차를 나타낼 수 있다. 따라서, 이러한 함수는 스캔 주기 동안 객체의 접선 속도, 요 속도, 및 피치 속도의 가능한 조합을 포함하는 3차원 타원체(ellipsoid)를 나타낼 수 있다.
이러한 예에서, 자율 주행 차량은 이후 현재 시간에서의 객체의 가능한 시선 속도, 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 좁은 범위를 계산하기 위해 3개의 연속적인(복잡해진) 함수의 교집합을 계산할 수 있다. 이후, 자율 주행 차량은 객체의 측정된 시선 속도; 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 좁은 범위를 포함하여 - 6 자유도에서의 그 모션을 기반으로 하여 객체의 미래 상태 경계를 계산하고 선택적으로 반응하기 위해 전술한 방법 및 기술을 구현할 수 있다.
14.4 누적 오차(Accumulated Error)
추가적으로 또는 대안적으로, 3개의 연속 스캔 주기에 걸쳐 제1 함수, 제2 함수 및 제3 함수를 계산한 후, 자율 주행 차량은 제1 함수와 제2 함수의 교집합에서 표현되는 객체의 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 제1 세트를 계산하고; 이들 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도, 및 미리 정의된 모션 제한 가정과 일치하는 객체의 최악의 모션을 계산하고; 제1 스캔 주기에서부터 제3 스캔 주기까지의 시간에 걸쳐 객체의 이러한 최악의 모션을 적분하고; 이러한 값을 제1 최적 평면의 두께, 따라서 제1 함수로 표현된 오차로서 저장할 수 있다. 따라서, 제1 함수는 제1 스캔 주기 동안 객체의 접선 속도, 요 속도 및 피치 속도의 가능한 조합을 포함하는 3차원 타원체를 나타낼 수 있다.
마찬가지로, 자율 주행 차량은 제2 함수로 표현되는 객체의 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도 및 피치 속도의 제2 세트를 계산하고; 이들 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도 및 피치 속도, 및 미리 정의된 모션 제한 가정과 일치하는 객체의 최악의 모션을 계산하고; 제2 스캔 주기에서부터 제3 스캔 주기까지의 시간에 걸쳐 객체의 이러한 최악의 모션을 적분하고; 이러한 값을 제2 최적 평면의 두께, 따라서 제2 함수로 표현된 오차로서 저장할 수 있다. 따라서, 제2 함수는 제2 스캔 주기 동안 객체의 접선 속도, 요 속도 및 피치 속도의 가능한 조합을 포함하는 3차원 타원체를 나타낼 수 있다.
이러한 예에서, 자율 주행 차량은 이후 도 3c에 도시된 바와 같이, 제3 시간에서의 객체의 가능한 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 좁은 범위를 계산하기 위해 (두께, 최대 오차) 제1 함수, (복잡해진) 제2 함수, 및 제3 함수의 교집합을 계산할 수 있다. 자율 주행 차량은 이후 객체의 측정된 시선 속도; 접선 방위각 속도, 접선 고도 속도, 요 속도, 피치 속도 및 롤 속도의 좁은 범위를 포함하여 - 6 자유도에서의 그 모션을 기반으로 하여 객체의 미리 상태 경계를 계산하고 선택적으로 반응하기 위해 전술한 방법 및 기술을 구현할 수 있다.
14.5 복수 센서
전술한 바와 같이, 동시 스캔 이미지를 출력하는 복수의 오프셋 센서를 포함하는 자율 주행 차량의 변형에서, 자율 주행 차량은 이러한 객체를 묘사하는 복수의 동시 스캔 이미지로부터 6 자유도에서의 객체 모션을 나타내는 복수의 함수를 계산한 다음; 이들 함수의 교집합을 기반으로 하여 6 자유도에서의 객체 모션을 도출하기 위해 전술한 방법 및 기술을 실행할 수 있다.
예를 들어, 자율 주행 차량은 자율 주행 차량에 있는 3개의 센서에 의해 캡처된 3개의 동시 스캔 이미지에 묘사된 하나의 객체에 대해 3개의 함수를 생성하고 융합할 수 있다. 다른 예에서, 자율 주행 차량은 2개의 연속 스캔 주기에 걸쳐 자율 주행 차량에 있는 2개의 센서 각각에 의해 캡처된 2 쌍의 스캔 이미지에 묘사된 하나의 객체에 대한 2개 함수의 2개의 연속 쌍을 생성하고 융합할 수 있다.
따라서, 자율 주행 차량은 복수의 스캔 주기에 걸쳐 캡처된 일련의 스캔 이미지 및 단일 주기 동안 캡처된 동시 스캔 이미지 모두를 기반으로 하여 일련의 객체의 모션을 특성화하기 위해 방법(S100)의 전술한 블록을 구현할 수 있다.
14.6 복수 객체
또한, 자율 주행 차량은 자율 주행 차량에 의해 캡처된 복수의 동시 스캔 이미지 또는 연속 스캔 이미지로부터 6 자유도에서의 복수 객체의 모션을 도출하기 위해 동시에 방법의 이러한 변형의 복수 인스턴스를 실행할 수 있다.
14.7 객체 분할(Objects Segmentation)
이러한 변형의 일 예에서, 자율 주행 차량은 도로 차량(예를 들어, 승용차, 트럭)의 측면을 묘사하는 스캔 이미지를 캡처한다. 자율 주행 차량은 근접성을 기반으로 하여 스캔 이미지에서 이러한 도로 차량을 묘사하는 그룹 포인트에 대해 전술한 방법 및 기술을 구현한다. 그러나, 도로 차량이 움직이고 있는 경우(즉, 그 차량 바퀴 속도가 0이 아닌 경우), 도로 차량의 차체는 자율 주행 차량을 기준으로 하여 접선 고도 속도 및 피치 속도가 최소이거나 0일 수 있지만, 도로 차량의 바퀴는 0이 아닌 접선 고도 속도 및 피치 속도를 나타낼 수 있다. 따라서, 도로 차량 차체에 대응하는 - 이러한 그룹에 있는 - 포인트의 제1 부분 집합으로 설명되는 시선 속도는 도로 차량의 바퀴에 대응하는 - 이러한 그룹에 있는 - 포인트의 제2 부분 집합으로 설명되는 시선 속도와 일치하지 않을 수 있다.
따라서, 하나의 구현에서, 자율 주행 차량은 도 3b에 도시된 바와 같이, 포인트 그룹에 대한 시선 속도 추세 차이를 기반으로 하여 포인트의 제1 부분 집합과 제2 부분 집합을 구별하고 분리할 수 있다. 예를 들어, 자율 주행 차량은 포인트 그룹으로 표현되는 시선 속도, 방향 위치 및 고도 위치를 통해 초기 최적 평면을 계산하고; 그룹에 있는 포인트와 초기 최적 평면 사이의 오차(예를 들어, 거리)를 특성화하기 위해 전술한 방법 및 기술을 구현할 수 있다. 이러한 오차가 큰 경우(예를 들어, 미리 정의된 임계값을 초과하는 경우), 자율 주행 차량은 가장 큰 오차(예를 들어, 최적 평면으로부터 가장 큰 거리)를 특징으로 하는 그룹에 있는 포인트의 제1 클러스터를 감지하고; 제1 포인트 클러스터를 포함하는 제1 하위 그룹 및 남아 있는 포인트를 포함하는 제2 하위 그룹으로 포인트 그룹을 분리하고; 포인트의 제1 하위 그룹으로 표현되는 시선 속도, 방위각 위치및 고도 위치를 통해 제1 최적 평면을 계산하고; 제1 하위 그룹에 있는 포인트와 제1 최적 평면 사이의 제1 오차를 특성화하고; 포인트의 제2 하위 그룹으로 표현되는 시선 속도, 방위각 위치및 고도 위치를 통해 제2 최적 평면을 마찬가지로 계산하고; 제2 하위 그룹에 있는 포인트와 제2 최적 평면 사이의 제2 오차를 특성화할 수 있다. 자율 주행 차량은 포인트의 각 하위 그룹과 그 해당 최적 평면 사이의 오차가 최대 오차 미만(예를 들어, 미리 정의된 임계값 미만)이 될 때까지 제1 하위 그룹 및 제2 하위 그룹을 반복적으로 개선하기 위해 이러한 프로세스를 반복할 수 있다.
이러한 구현에서, 자율 주행 차량은 또한 초기 포인트 그룹을 최대 개수의 하위 그룹으로 예를 들어, 승용차의 차체 및 2개의 바퀴; 연결 버스(articulated bus)의 앞쪽 및 뒤쪽 차체 섹션 및 2개의 바퀴; 거리 청소 차량의 2개의 바퀴, 차체 및 청소기 요소; 또는 시멘트 트럭의 2개의 바퀴, 차체, 및 콘크리트 혼합기 요소를 총체적으로 나타낼 수 있는 최대 4개의 하위 그룹으로 분할할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 초기 포인트 그룹을, 각각 적어도 미리 정의된 최소 수량의 포인트(예를 들어 100개의 포인트)를 갖는 하위 그룹으로 분할할 수 있다.
보다 구체적으로, 초기 그룹에 있는 포인트의 시선 속도로 표현되는 - 자율 주행 차량을 기준으로 하는 하나의 도로 차량의 상이한 요소의 접선 고도 속도 및 피치 속도의 차이는, 이러한 최적 평면이 6 자유도에서 도로 차량의 이들 모든 요소의 일치하는 모션(congruent motion)을 설명하기 때문에, 전체 그룹에 대한 최적 평면과 이들 포인트 사이의 오차를 생성할 것이다. 따라서, 자율 주행 차량은 자율 주행 차량을 기준으로 하여 상이한 모션을 나타내는 하나의 도로 차량 상의 서로 전혀 다른 요소를 나타내는 포인트의 하위 그룹을 감지하여 분리하고; 스캔 주기의 시간에서 도로 차량의 이들 서로 전혀 다른 요소의 접선 방위각 속도, 접선 고도 속도, 요 속도 및 피치 속도와 관련이 있는 함수(예를 들어, 최적 평면) 세트를 계산하기 위해 전술한 프로세스를 실행할 수 있다.
이후, 자율 주행 차량은 도로 차량에 있는 서로 전혀 다른 요소를 나타내는 포인트의 하위 그룹을 분리하고; 도로 차량의 이들 요소의 접선 방위각 속도, 접선 고도 속도, 요 속도 및 피치 속도와 관련이 있는 추가적인 함수 세트를 도출한 다음; 전술한 바와 같이, 도로 차량의 각 요소에 대한 3개의 함수 세트의 교집합을 기반으로 하여 자율 주행 차량을 기준으로 하는 6 자유도에서의 도로 차량 각 요소의 모션을 도출하기 위해 - 하나의 센서에 의해 캡처된 연속 스캔 이미지 또는 복수 센서에 의해 캡처된 동시 이미지 세트와 같은 - 복수 스캔 이미지에 대해 이러한 프로세스를 반복할 수 있다. 또한, 자율 주행 차량은 전술한 바와 같이, 자율 주행 차량의 동시 모션 및 이들 상대 모션을 기반으로 하여 도로 차량 각 요소의 전체 절대 모션을 계산할 수 있다.
14.8 객체 연결(Linking Objects)
또한, 자율 주행 차량이 6 자유도에서 도로 차량의 복수 요소의 상대 모션 또는 절대 모션을 도출하면, 자율 주행 차량은 그들의 선형 모션이 일치하는 경우 예를 들어, 그들의 절대 또는 상대 전체 선형 속도가 전술한 미리 정의된 속도 판별 임계값 이내에 속하는 경우, 이들 서로 전혀 다른 요소를 하나의 합성 객체(예를 들어, 하나의 "강체")로 다시 그룹화하기 위해 전술한 것과 유사한 방법 및 기술을 구현할 수 있다.
예를 들어, 자율 주행 차량은 센서에 의해 캡처된 3개의 연속 스캔 이미지에 묘사된 제1 객체를 나타내는 3개의 포인트 하위 그룹으로부터 도출된 일련의(예를 들어 3개의) 함수의 교집합을 기반으로 하여 블록(S126)에서 현재 시간에서의 - 자율 주행 차량을 기준으로 하는 - 제1 객체의 제1 각도 모션 및 제1 객체의 제1 선형 모션을 추정할 수 있다. 동시에, 자율 주행 차량은 이들 3개의 연속 스캔 이미지에 묘사된 제2 객체를 나타내는 3개 포인트 하위 그룹으로부터 도출된 일련의(예를 들어, 3개의) 함수의 교집합을 기반으로 하여 블록(S126)에서 현재 시간에서의 - 자율 주행 차량을 기준으로 하는 - 제2 객체의 제2 각도 모션 및 제2 객체의 제2 선형 모션을 추정할 수 있다. 이후, 자율 주행 차량은 도 3b에 도시된 바와 같이, 제1 선형 모션과 제2 선형 모션의 차이가 전술한 미리 정의된 속도 판별 임계값 이내에 속하는 경우와 같이, 블록(S160)에서 제2 객체의 제2 선형 모션과 제1 객체의 제1 선형 모션 사이의 정렬에 응답하여 일반적인 강체에 대응하는 것으로서 제1 객체 및 제2 객체를 식별할 수 있다.
보다 구체적으로, 동일한 도로 차량의 상이한 요소에 대응하는 - 자율 주행 차량에 의해 복수 스캔 주기에 걸쳐 감지되고 추적된 - 2개의 객체는 자율 주행 차량을 기준으로 하여 유사하지 않은 피치 속도 및 요 속도를 나타낼 수 있지만 동일한 경로를 따라 함께 이동하고, 따라서 동일한(또는 매우 유사한) 선형 속도를 나타낼 것이다. 따라서, 자율 주행 차량은 완전한 도로 차량을 나타내는 하나의 합성 객체(또는 하나의 "강체")를 형성하기 위해 가까이 있고 동일한(또는 매우 유사한) 선형 속도 - 및 아마도 상이한 요 속도 및 피치 속도를 나타내는 객체를 그룹화한다.
14.9 객체 분류(Object Classification)
또한, 자율 주행 차량은 그 모션 특성을 기반으로 하여 개별 객체의 유형을 분류할 수 있다.
도 3b에 도시된 일 예에서, 자율 주행 차량은 이들 포인트에 포함된 방위각 위치, 고도 위치 및 범위 값을 기반으로 하여 3차원 공간으로 이러한 객체를 나타내는 (하위) 그룹에 있는 포인트를 투영하고; 객체의 절대 선형 속도 방향을 계산하고; 포인트 그룹을 통과하고 객체의 모션 방향과 평행한(즉, 포함하는) 수직 평면을 계산하고; 수직 평면 내 그룹에 있는 포인트의 시선 속도의 선형 속도 성분을 계산함으로써 객체를 바퀴로 식별할 수 있다. 이후, 자율 주행 차량은 이들 포인트의(즉, 바퀴 또는 타이어의 현재 상단을 나타내는 포인트의) 수직 평면 내 - 최대 선형 속도가 대략적으로 객체의 절대 선형 속도의 2배 (및 객체의 절대 선형 속도의 방향과 동일한 방향 및/또는 평행)인 경우, 및/또는 이들 포인트의(즉, 바퀴 또는 타이어의 현재 바닥을 나타내는 포인트의) 수직 평면 내 - 최소 선형 속도가 대략적으로 0인 경우, 블록(S162)에서 객체를 바퀴로 식별할 수 있다.
유사한 예에서, 자율 주행 차량은 객체의 절대 선형 속도의 방향을 계산하고; 객체의 절대 모션 방향과 평행한 그룹 내 포인트의 시선 속도에 대한 선형 속도 성분을 계산함으로써 객체를 바퀴로 식별할 수 있다. 자율 주행 차량은 이후 이들 포인트의(즉, 바퀴 또는 타이어의 현재 상단을 나타내는 포인트의) - 객체의 절대 모션 방향과 평행한 - 최대 선형 속도가 객체의 절대 선형 속도의 약 2배(및 객체의 절대 선형 속도의 방향과 평행 및/또는 동일한 방향)인 경우; 이들 포인트의(즉, 바퀴 또는 타이어의 현재 바닥을 나타내는 포인트의) - 객체의 절대 모션 방향과 평행한 - 최대 선형 속도가 거의 0인 경우; 및/또는 객체의 절대 모션 방향과 평행한 그룹에 있는 포인트의 선형 속도 구배가 그라운드 평면에 근접한 거의 0에서 객체 상단(예를 들어, 포인트 그룹의 수직 중심의 그라운드 평면 위 높이의 2배인 객체 상의 포인트)에서의 객체의 절대 선형 속도의 약 2배까지 증가하는 하는 경우, 블록(S162)에서 객체를 바퀴로 식별할 수 있다.
이후, 합성 객체 내의 - 객체를 바퀴로 식별하는 단계에 응답하여, 자율 주행 차량은 도 3b에 도시된 바와 같이, 이러한 합성 객체를 바퀴 달린 차량으로 분류할 수 있다. 보다 구체적으로, 자율 주행 차량은 - 예를 들어 합성 객체의 깊이 이미지(depth image)로부터 도출된 객체의 기하학적 특성 또는 컬러 이미지에서 감지된 합성 객체의 시각적 특성을 기반으로 하여 합성 객체를 분류하기 위해 인공 지능 및 컴퓨터 비전 기술을 구현하는 대신에 또는 추가로 - 합성 객체에 포함된 객체의 모션 특성 및/또는 상대 위치를 기반으로 하여 합성 객체를 바퀴 달린 차량으로 분류할 수 있다. 따라서, 복잡한 인공 지능 및 컴퓨터 비전 기술보다는 단순하고 미리 정의된 규범 규칙을 기반으로 하여 그 안에 포함된 객체의 모션을 기반으로 하여 합성 객체를 바퀴 달린 차량으로 분류함으로써, 자율 주행 차량은 더 적은 시간 및/또는 더 적은 계산 부하로 합성 객체를 정확하게 분류할 수 있다.
또한, 합성 객체를 바퀴 달린 차량으로 분류한 후, 자율 주행 차량은 도 3b에 도시된 바와 같이, 일반 객체(즉, 모든 가능한 객체 유형)보다는 바퀴달린 차량에 대한 미리 정의된 모션 제한 가정을 검색하고, 합성 객체에 이들 개선된 미리 정의된 모션 제한 가정을 할당하거나 라벨링할 수 있다. 예를 들어, 자율 주행 차량은 오토바이에 대한 것보다 적은 최대 선형 가속도; 및 차량의 그라운드 속도의 함수로 변하고 그라운드 속도에 비례하여 감소하는 최대 각 속도 및 오토바이 및 보행자에 대한 최대 각 속도보다 적은 최대 각 속도를 지정하는 바퀴 달린 차량에 대한 미리 정의된 모션 제한 가정을 검색할 수 있다.
또한, 이러한 변형에서, 자율 주행 차량은 바퀴로 식별된 - 합성 객체 내 - 객체가 객체의 전체 절대 선형 속도의 2배보다 (상당히) 큰 객체의 선형 모션 방향과 평행한 최대 선형 속도를 나타내는 경우, 그러한 특성은 바퀴 달린 차량이 "쌩 하고 떠나고" 있거나, "에너지를 소진'하고 있거나, 또는 견인력(traction)을 상실했음을 표시할 수 있기 때문에, 합성 객체의 적대적 모션을 감지할 수 있다. 따라서, 자율 주행 차량은 견인력(traction) 상실을 나타내는 바퀴 달린 차량에 대한 미리 정의된 모션 제한 가정을 검색하고 합성 객체에 이들 개선된 미리 정의된 모션 제한 가정을 할당하거나 라벨링할 수 있다. 예를 들어, 자율 주행 차량은 견인력이 있는 바퀴 달린 차량에 대한 것보다 큰 최대 각 속도 및 더 낮은 최대 선형 속도를 지정하는 견인력 손실을 나타내는 바퀴 달린 차량에 대해 미리 정의된 모션 제한 가정을 검색할 수 있다.
15. 객체 모션의 불확실성 방향(Direction of Uncertainty of Object Motion)
도 4에 도시된 방법(S100)의 하나의 변형은 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 제1 포인트 그룹에 있는 각 포인트는 자율 주행 차량을 기준으로 하는 객체 표면의 제1 위치 및 센서를 기준으로 하는 객체 표면의 제1 시선 속도를 포함하는 단계; 블록(S122)에서 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 제1 중심 경향 척도를 기반으로 하여 제1 시간에서의, 자율 주행 차량을 기준으로 하는, 객체의 제1 시선 속도를 계산하는 단계; 및 블록(S170)에서 객체의 제1 시선 속도에 수직인 제1 접선 방향을 따라 제1 시간에서의 객체 모션의 제1 불확실성 방향을 특성화하는 단계를 포함한다. 또한, 방법(S100)의 이러한 변형은 블록(S172)에서 제1 시간에서의 자율 주행 차량의 모션을 기반으로 하여 제1 시간 다음의 제2 시간에서의 객체 모션의 예측된 제2 불확실성 방향을 계산하는 단계; 및 제1 불확실성 방향과 상이한 제2 불확실성 방향에 응답하여, 블록(S142)에서 제2 시간에서의 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 객체를 뮤팅(mute)하는 단계를 포함한다.
15.1 미래 데이터 품질을 기반으로 하는 충돌 회피 액션 지연(Delaying Collision Avoidance Actions Based on Future Data Quality)
일반적으로, 전술한 변형에서, 자율 주행 차량은 객체의 특정 절대 또는 상대 전체 모션을 도출하기 위해 복수의 스캔 주기, 예를 들어 6 자유도에서 객체의 전체 모션을 도출하기 위한 3개의 스캔 주기 또는 3 자유도에서 객체의 전체 모션을 도출하기 위해 2개의 스캔 주기를 필요로 할 수 있다. 또한, 자율 주행 차량에 의해 계산된 이들 스캔 주기 동안 객체의 가능한 절대 또는 상대 모션의 범위는 자율 주행 차량을 기준으로 하는 객체의 시선 위치가 이들 스캔 주기 동안 비교적 일관되게 유지되는 경우 높을 수 있기 때문에 객체의 실제 모션에 대한 확실성이 떨어질 수 있고; 그 반대도 마찬가지다.
따라서, 이러한 변형에서, 자율 주행 차량은 현재 스캔 주기 동안 (예를 들어, 접선 방위각 방향 및/또는 접선 고도 방향에서) 객체 모션의 현재 불확실성 방향을 특성화하고; 미래(예를 들어, 다음) 스캔 주기 동안 (예를 들어, 자율 주행 차량 및 객체의 상대 모션, 및 일반 객체의 미리 정의된 모션 제한 가정을 기반으로 하여) 객체 모션의 미래 불확실성 방향을 예측하고; 객체 모션의 현재 불확실성 방향과 미래 불확실성 방향이 평행하지 않은 경우와 같이, 자율 주행 차량이 미래에 객체와 충돌하는 것을 피하기 위해 더 정확한 응답(예를 들어, 제동, 조향 또는 액션 없음)을 알릴 수 있는 미래에서의 객체 모션의 확실성을 개선할 지 여부를 예측하기 위해 객체 모션에 대한 현재 불확실성 방향과 예측된 미래 불확실성 방향을 비교할 수 있다. 따라서, 전술한 바와 같이 자율 주행 차량이 객체의 미래 상태 경계 바깥쪽에 현재 위치한다고 확인하는 경우, 자율 주행 차량은 미래에서의 객체 모션의 더 큰 확실성을 예측하기 때문에 현재 스캔 주기 동안 객체에 대한 응답을 지연하도록 선택할 수 있다.
보다 구체적으로, 객체가 자율 주행 차량의 센서 시야에 처음 들어올 때 자율 주행 차량은 객체의 불완전한 모션 정보를 가질 수 있지만, 자율 주행 차량은 객체 모션의 불확실성을 감소시킬 더 많은 또는 더 나은 미래에서의 정보에 대한 액세스를 예측하기 때문에 객체와의 충돌을 피하기 위한 액션(예를 들어, 제동, 방향 변화)을 지연하도록 선택할 수 있다. 따라서, 자율 주행 차량은 승차감을 개선하고, 타는 사람에게 물리적 및 정서적 불편함을 야기하고; 근처에 있는 인간 운전자 및 보행자에 대한 자율 주행 차량에 의한 액션의 불확실성을 증가시킬 수 있는 불필요한 제동 및 조향 액션을 피하기 위해 방법(S100)의 이러한 변형을 실행할 수 있다.
15.2 객체 모션의 불확실성(Uncertainty of Object Motion)
일반적으로, 현재 스캔 주기 동안 객체에 의해 처음 감지된 객체는 현재 스캔 주기 동안 자율 주행 차량에 의해 계산된 함수를 충족하고 미리 정의된 모션 제한 가정에 의해 규정된 최대 접선 속도 및 각 속도 가정 내에 속하는 접선 속도와 각 속도의 조합으로 이동하고 있을 수 있다. 예를 들어, 객체는 예를 들어 자율 주행 차량과 객체가 모두 교차로(intersection)에 접근하는 동안 자율 주행 차량을 피하기 위해 제동을 걸거나 자율 주행 차량 경로로 매우 빠르게 이동할 수 있다. 현재 스캔 이미지에서 이러한 객체를 나타내는 포인트에 포함된 시선 속도는 (예를 들어, 대략적으로 작은 각도로 인해) 단일 측정 방향에 가깝고, 따라서 객체의 특정 접선 속도 및 각 속도를 해결하기에는 충분하지 않은 정보를 포함할 수 있다.
그러나, 다음 스캔 주기 동안, 자율 주행 차량은 객체의 모션을 나타내는 더 많은 데이터에 액세스할 수 있고, 이로 인해 자율 주행 차량은 이후 객체에 대한 가능한 접선 및 각 속도 조합의 좁은(더 좁은) 범위를 계산하기 위해 이전 스캔 주기 동안의 객체의 모션 설명(예를 들어, 객체의 접선 속도 및 각 속도와 관련이 있는 제1 함수 및 제1 시선 속도)과 융합할 수 있다.
다음 스캔 주기 동안 캡처된 데이터를 사용한 그러한 객체 모션 개선은 현재 스캔 주기 동안의 객체의 접선 속도 및 각 속도와 관련이 있는 함수의 직교성에 비례할 수 있다. 특히, 이들 2개 함수가 낮은 직교성(즉, 높은 평행성)을 나타내는 경우), 이들 2개 함수의 교집합은 비교적 큰 영역일 수 있기 때문에 객체의 가능한 접선 속도 및 각 속도의 넓은 범위를 알릴 수 있고; 그 반대도 마찬가지다. 보다 구체적으로, 이들 2개 함수가 낮은 직교성을 나타내는 경우, 제1 함수와 제2 함수의 합집합(union)으로 나눈 제1 함수와 제2 함수의 교집합은 상대적으로 클 수 있고, 이는 객체 모션의 낮은 확실성에 해당할 수 있다.
15.3 불확실성 방향 도출(Uncertainty Direction Derivation)
하나의 구현에서, 자율 주행 차량은 제1 스캔 이미지에 액세스하고; 제1 스캔 이미지에서 - 제1 시간 동안 - 객체를 감지하고; 제1 스캔 주기 동안 객체의 접선 속도 및 각 속도와 관련이 있는 제1 함수, 및 제1 시선 속도를 계산하고; 객체의 제1 미래 상태 경계를 계산하기 위해 전술한 방법 및 기술을 구현한다.
이후, 자율 주행 차량이 미래 상태 경계에서 매우 멀리 떨어져 있는 경우, 자율 주행 차량은 경로 계획 고려 사항에서 객체를 뮤팅할 수 있다. 예를 들어, 자율 주행 차량은 현재 시간에서의 자율 주행 차량 위치가 임계 거리, 예를 들어 그 현재 속도를 고려하여 자율 주행 차량에 의해 5초의 임계 시간 내에서 이동한 거리 또는 50 미터의 임계 거리보다 크게 객체의 제1 미래 상태 경계 바깥쪽에 있는 경우, 현재 시간에서부터 적어도 다음 스캔 주기까지 객체 회피를 위한 제동 고려 사항에서 객체를 뮤팅할 수 있다.
반대로, 자율 주행 차량이 이러한 미래 상태 경계 안쪽에 있는 경우, 자율 주행 차량은 미래(예를 들어, 다음) 스캔 주기 동안 미래 상태 경계 바깥쪽으로 자율 주행 차량 위치를 이동시키기 위해 자동적으로 제동 액션을 실행함으로써 자율 주행 차량을 감속시킬 수 있다.
그러나, 자율 주행 차량이 객체의 미래 상태 경계 근처(예를 들어, 미래 상태 경계의 바깥쪽이지만 그 임계 거리 이내)에 있는 경우, 자율 주행 차량은 객체 모션의 불확실성 방향을 특성화하기 위해 방법(S100)의 이러한 변형의 블록을 실행할 수 있다. 자율 주행 차량의 궤적과 객체 모션의 불확실성 방향 사이의 각도가 임계 각도보다 큰 경우(예를 들어, 객체가 교차로(cross-street)를 횡단하고 자율 주행 차량과 동일한 교차로(intersection)에 접근하는 경우), 자율 주행 차량은 현재, 객체가 자율 주행 차량과 충돌하는 경로 상에 있는지 또는 자율 주행 차량을 향해 매우 빠르게 이동하고 있는지 여부를 식별하기에는 불충분한 정보에 액세스할 수 있다. 그러나, 자율 주행 차량의 현재 위치가 자율 주행 차량의 미래 상태 경계 바깥쪽에 있기 때문에, 자율 주행 차량은 자율 주행 차량이 적어도 하나 이상의 스캔 주기 동안 액션을 지연하더라도 및 객체가 미리 정의된 모션 제한 가정 내에서 최악의 접선 속도 및 각 속도로 이동하고 있더라도 자율 주행 차량이 제동을 걸어 완전히 정지할 수 있기 전에 객체가 자율 주행 차량과 충돌하지 않을 것이라는 것을 확인할 수 있다. 따라서, 자율 주행 차량은 자율 주행 차량이 객체에 대한 추가 모션 데이터를 이용할 수 있게 되는 (적어도) 다음 스캔 주기까지 객체를 피하기 위한 액션을 실행하는 단계를 보류할 수 있다.
또한, 자율 주행 차량이 객체의 미래 상태 경계에 매우 가까이(예를 들어, 10 미터 또는 1초 이내) 및/또는 객체에 매우 가까이(예를 들어, 2 미터 또는 200 ms 이내)에 있는 경우, 자율 주행 차량은 객체의 다음 불확실성 방향을 예측하기 위해 방법(S100)의 이러한 변형을 실행할 수 있다. 예를 들어, 자율 주행 차량은 현재 시간에 객체에 대한 공칭(nominal) 각 속도 가정(예를 들어, 0 라디안/초)을 선택하고; 제1 함수 및 공칭 각 속도를 기반으로 하여 객체의 제1 접선 속도를 계산할 수 있다. 대안적으로, 자율 주행 차량은 미리 정의된 모션 제한 가정 세트 및 제1 함수와 일치하고 (따라서 객체의 시선 길이(radial length) 및 현재 스캔 이미지에서 객체를 나타내는 포인트의 시선 속도를 기반으로 하는) 자율 주행 차량을 향한 객체의 최대 접선 속도를 계산하고; 이러한 최대 접선 속도를 객체의 예측된 제1 접선 속도로서 저장하고; 객체의 예측된 제1 접선 속도 및 제1 함수를 기반으로 하여 객체의 대응하는 예측된 제1 각 속도를 계산할 수 있다. 이후, 자율 주행 차량은 제1 시선 속도, 이러한 예측된 제1 접선 속도, 및 예측된 공칭 각 속도를 기반으로 하여 객체의 전체 상대 모션을 예측하고; 현재 스캔 주기에서부터 다음 스캔 주기까지의 시간(예를 들어, 센서의 샘플링 간격)에 걸쳐 객체의 전체 상대 모션을 적분하여 다음 스캔 주기 동안 자율 주행 차량을 기준으로 하는 객체의 다음 상대 위치를 계산한 다음; 수평 평면 내에 속하고 다음 스캔 주기 동안 자율 주행 차량을 기준으로 하는 객체의 시선 속도에 수직인 - 다음 스캔 주기 동안 - 객체 모션의 예측된 제2 불확실성 방향을 계산할 수 있다. (보다 구체적으로, 자율 주행 차량은 다음 스캔 주기 동안 예측된 접선 방위각 방향을 따라 이루어지는 객체 모션의 예측된 제2 불확실성 방향을 계산할 수 있다).
따라서, 자율 주행 차량은 현재 시간에서의 자율 주행 차량의 모션 및 현재 시간에서 객체의 제1 시선 속도, 예측된 제1 접선 속도 및 예측된 제1 각 속도를 기반으로 하여 다음 스캔 주기 동안 객체 모션의 예측된 제2 불확실성 방향을 계산할 수 있다.
15.4 확실성 개선 예측(Certainty Improvement Prediction)
이후, 예측된 제2 불확실성 방향이 현재 주기 동안의 제1 불확실성 방향과 상이한 경우, 자율 주행 차량은 다음 스캔 주기 동안 객체 모션의 불확실성 감소를 예측하고 자율 주행 차량의 모션 변화가 없음을 확인할 수 있다. 또한, 자율 주행 차량은 객체 모션의 제1 불확실성 방향과 예측된 제2 불확실성 방향 사이의 각도를 기반으로 하여 (또는 그에 비례하여) 다음 스캔 주기에서 객체 모션에 대한 확실성의 예측된 개선의 크기를 특성화할 수 있다.
그러나, 예측된 제2 불확실성 방향이 현재 스캔 주기 동안의 제1 불확실성 방향과 평행하거나 거의 평행한(예를 들어, 5° 이내인) 경우, 자율 주행 차량은 (필드에 있는 많은 또는 모든 객체에 대해 계산된 액세스 영역에 남아 있고 미리 정의된 매끄러운 자율 주행 내비게이션 요구 사항을 충족하면서) 조향 각도 변화, 제동 입력, 또는 가속도 입력과 같은, 현재 스캔 주기와 다음 스캔 주기 사이에서의 자율 주행 차량의 모션 변화를 고려하여 객체에 대한 예측된 제2 불확실성 방향을 다시 계산하기 위해 전술한 프로세스를 반복할 수 있다. 예를 들어, 자율 주행 차량은 다음 스캔 주기에서 객체에 대한 불확실성 방향 변화를 생성하고 - 따라서 객체 모션의 확실성을 개선할 수 있는 자율 주행 차량에 의한 내비게이션 액션을 모델링할 수 있다.
이후, 이들 내비게이션 액션 중 하나가 (제1 불확실성 방향과 예측된 제2 불확실성 방향 사이의 각도를 증가시키는) 예측된 불확실성 방향 변화를 생성하는 경우, 자율 주행 차량은 다음 스캔 주기 동안 객체를 기준으로 하는, 자율 주행 차량의 모션을 수정하기 위해 이러한 내비게이션 액션을 실행할 수 있다. 특히, 자율 주행 차량은 객체의 최악의 모션을 고려할 때도 자율 주행 차량이 객체와 충돌하기 전에 완전히 정지할 시간이 있음을 자율 주행 차량이 이미 확인했기 때문에 객체와의 충돌을 반드시 피하기보다는 객체의 실제 모션을 더 잘 알릴 수 있는 정보를 획득할 기회를 개선하기 위해 구체적으로 이러한 내비게이션 액션을 실행할 수 있다.
15.5 측면에 위치하는 객체(Flanking Object)
추가적으로 또는 대안적으로, 자율 주행 차량은, 예를 들어 자율 주행 차량의 현재 위치보다 앞서 임계 거리(예를 들어, 30 미터, 3초, 또는 자율 주행 차량의 정지 기간) 내에서, 제1 불확실성 방향이 자율 주행 차량의 현재 궤적과 교차하는 경우, 다음 스캔 주기 동안 객체 모션의 예측된 제2 불확실성 방향을 계산하기 위해 이러한 프로세스를 실행할 수 있다.
그러나, 다음 스캔 주기 동안 객체 모션의 예측된 제2 불확실성 방향이 이러한 임계 거리를 초과하여 자율 주행 차량의 현재 궤적과 교차하는 경우 또는 다음 스캔 주기 동안 객체 모션의 예측된 제2 불확실성 방향이 자율 주행 차량의 현재 궤적과 거의 평행한(예를 들어, 20°인) 경우, 자율 주행 차량은 자율 주행 차량을 향한 객체 모션에 대해 높은 확실성을 가질 수 있다.
예를 들어, 객체와 자율 주행 차량이 2개의 바로 옆에 인접하고 평행한 차선에서 서로 측면에 있는 경우, 자율 주행 차량에 의해 제1 스캔 이미지에서 도출된 객체의 제1 시선 속도는 객체의 실제 접선 속도가 제1 스캔 이미지에서 알려져 있지 않더라도 매우 높은 확실성으로 자율 주행 차량(즉, 최고 위험 방향)을 향한 객체의 모션을 나태낼 수 있다. 이러한 예에서, (객체의 접선 속도 방향에서) 객체 모션의 불확실성 방향은 객체 및 자율 주행 차량의 모션 방향과 거의 평행하기 때문에 자율 주행 차량을 향한 객체의 모션을 알려주지 않는다. 또한, 객체 모션의 불확실성 방향과 자율 주행 차량 궤적 사이의 각도는 거의 0°이다. 따라서, 자율 주행 차량은 객체의 미래 상태 경계를 기반으로 하여; 및 객체와의 충돌 위험에 (주로) 영향을 미치는 모션 성분을 알고 있기 때문에 객체 모션의 불확실성을 기반으로 하지 않고 객체와의 충돌을 피하기 위한 내비게이션 액션을 선택할 수 있다.
15.6 미래 스캔 주기(Future Scan Cycles)
또한, 자율 주행 차량은 복수의 미래 스캔 주기 동안, 예를 들어 자율 주행 차량 운행 후 2초 동안 또는 이후 10번의 스캔 주기 동안 객체 모션의 불확실성 방향 - 따라서 객체 모션에 대한 확실성 개선 - 을 예측하기 위해 전술한 프로세스를 실행할 수 있다. 따라서, 자율 주행 차량은 자율 주행 차량이 이들 복수의 후속 스캔 주기 동안 객체 모션의 불확실성 방향 변화 - 따라서 객체 모션에 대한 확실성 개선 - 을 예측하기 때문에 복수의 후속 스캔 주기 동안 객체 회피 고려 사항에서 객체를 뮤팅하도록 선택할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 복수의 후속 스캔 주기 동안 객체 모션의 불확실성 방향 변화 - 따라서 객체 모션에 대한 확실성 개선을 생성할 자유 주행 차량에 의한 내비게이션 액션을 예측(또는 "모델링")한 다음; 객체 모션에 대한 확실성을 개선하기 위해 이들 스캔 주기 동안 그러한 내비게이션 액션을 실행할 수 있다.
16. 객체 모션의 불확실성(Uncertainty of Object Motion)
도 5에 도시된 방법(S100)의 유사한 변형은 자율 주행 차량에서 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계; 및 블록(S126)에서 제1 포인트 그룹을 기반으로 하여 제1 시간에서의 객체의 제1 모션을 특성화하는 단계를 포함한다. 또한, 방법(S100)의 이러한 변형은 자율 주행 차량에서 제2 스캔 주기 동안, 블록(S104)에서 제1 시간에 이어서 제2 시간에 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계; 블록(S120)에서 객체를 나타내는 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계; 및 블록(S126)에서 제1 모션 및 제2 포인트 그룹을 기반으로 하여 제2 시간에서의 객체의 제2 모션을 특성화하는 단계를 포함한다. 방법(S100)의 이러한 변형은 블록(S180)에서 제2 시간에서의 객체의 제2 모션의 제2 불확실성을 특성화하는 단계; 블록(S182)에서 제2 시간에서의 자율 주행 차량의 모션 및 제2 시간에서의 객체의 제2 모션을 기반으로 하여 제2 시간에 이어서 제3 시간에서 객체의 제3 모션의 예측된 제3 불확실성을 계산하는 단계; 및 제2 불확실성 아래에 속하는 예측된 제3 불확실성에 응답하여, 블록(S142)에서 제2 시간에 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 객체를 뮤팅하는 단계를 더 포함한다.
마찬가지로, 방법(S100)의 이러한 변형은 자율 주행 차량에서 제1 스캔 주기 동안, 블록(S104)에서 제1 시간에 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계; 블록(S120)에서 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계; 및 블록(S126)에서 제1 포인트 그룹을 기반으로 하여 제1 시간에서의 객체의 제1 모션을 특성화하는 단계를 포함할 수 있다. 또한, 방법(S100)의 이러한 변형은 블록(S180)에서 제2 시간에서의 객체의 제1 모션의 제1 불확실성을 특성화하는 단계; 블록(S182)에서 제1 시간에서의 자율 주행 차량의 모션 및 제1 시간에서의 객체의 제1 모션을 기반으로 하여 제1 시간에 이어서 제2 시간에서의 객체의 제2 모션의 예측된 제2 불확실성을 계산하는 단계; 및 제1 불확실성 아래에 속하는 예측된 제2 불확실성에 응답하여, 블록(S142)에서 제2 시간에 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 객체를 뮤팅하는 단계를 포함할 수 있다.
16.1 객체 모션의 불확실성(Uncertainty of Object Motion)
일반적으로, 이러한 변형에서, 자율 주행 차량은 다음 스캔 주기 동안 객체 모션의 예측된 다음 불확실성 방향을 계산하고; (예를 들어, 객체 모션의 현재 및 예측된 다음 불확실성 방향의 직교성에 비례하는) 미래의 객체 모션의 확실성 개선의 크기를 예측하기 위해 객체 모션의 현재 및 예측된 다음 불확실성 방향을 비교한 다음; 자율 주행 차량이 미래의 객체 모션의 확실성에 대한 (의미있는, 상당한) 개선을 예측하는 경우 객체 모션의 낮은 확실성에 반응하여 현재 시간에서 객체를 피하기 위한 내비게이션 액션을 선택적으로 지연시킴으로써 전술한 바와 같이 자율 주행 차량의 모션 변화를 감소시키고 승객의 승차감을 개선하기 위해 전술한 것과 유사한 방법 및 기술을 구현할 수 있다.
16.2 불확실성 특성화: 3DOF(Uncertainty Characterization: 3DOF)
보다 구체적으로, 자율 주행 차량이 3 자유도에서 객체의 모션을 특성화하는 전술한 변형에서, 자율 주행 차량은 제1 스캔 이미지에서 이러한 객체를 나타내는 포인트의 시선 속도를 기반으로 하여 객체의 모션을 나타내는 제1 함수를 계산하고; 제1 스캔 주기 동안 캡처된 제1 스캔 이미지에서 객체를 처음 감지하자마자 객체의 제1 미래 상태 경계를 계산하고; 자율 주행 차량이 현재 객체의 제1 미래 상태 경계 바깥쪽에 위치하는지 확인하기 위해 전술한 방법 및 기술을 구현할 수 있다. 이후, 자율 주행 차량은 다음 스캔 주기 동안 객체의 모션을 나타내는 제2 함수를 예측하기 위해 전술한 방법 및 기술을 구현할 수 있다. 예를 들어, 자율 주행 차량은 제1 스캔 주기 동안의 객체 모션을 설명하는 제1 함수 및 제1 시선 속도; 일반 객체의 미리 정의된 모션 제한 가정; 및 제1 스캔 주기부터 다음 스캔 주기까지의 시간 차이 동안 적분된 것을 기반으로 하여 제2 스캔 주기 동안의 객체의 (절대 또는 상대) 모션을 예측할 수 있다. 이후, 자율 주행 차량은 다음 스캔 이미지에서 객체를 나타내는 포인트의 방위각 위치 및 시선 속도 구배를 예측하고; 이들 방위각 위치를 가로지르는 이러한 시선 속도 구배를 기반으로 하여 다음 스캔 주기 동안 객체의 가능한 접선 속도 및 각 속도를 나타내는 예측된 제2 함수를 계산하고; 제1 함수와 예측된 제2 함수의 합집합으로 나눈 교집합을 계산할 수 있다. 자율 주행 차량은 이후 제1 함수와 예측된 제2 함수의 합집합으로 나눈 이러한 교집합에 반비례하는 정보 이득(information gain) - 따라서 객체 모션의 확실성 개선 - 을 예측할 수 있다.
따라서, 자율 주행 차량이 3 자유도에서 객체의 모션을 특성화하는 전술한 변형에서, 자율 주행 차량은 블록(S180)에서 제1 함수와 제2 함수의 합집합에 대한 제1 함수와 제2 함수의 교집합의 비(ratio)에 비례하는 제2 시간에서의 객체 모션의 제2 불확실성을 특성화할 수 있다.
16.2 불확실성 특성화: 6DOF(Uncertainty Characterization: 6DOF)
자율 주행 차량이 6 자유도에서 객체의 모션을 특성화하는 전술한 변형에서, 자율 주행 차량은 다음 스캔 주기 동안 객체 모션의 불확실성을 특성화하기 위해 유사한 방법 및 기술을 구현할 수 있다.
예를 들어, 자율 주행 차량은 현재(즉, 제1) 스캔 주기 동안 객체의 가능한 접선 모션, 각도 모션 및 피치 모션을 나타내는 제1 함수를 계산하고; 제2 스캔 주기 동안 6 자유도에서 객체의 (절대 또는 상대) 모션을 예측하기 위해 전술한 방법 및 기술을 구현하고; 다음(즉, 제2) 스캔 이미지에서 객체를 나타내는 포인트의 제1 시선 속도 구배, 방위각 위치및 고도 위치를 예측하고; 이들 방위각 위치및 고도 위치를 가로지르는 이러한 제1 시선 속도 구배를 기반으로 하여 제2 스캔 주기 동안 객체의 가능한 접선 속도, 각 속도 및 피치 속도를 나타내는 예측된 제2 함수를 계산할 수 있다. 이후, 자율 주행 차량은 제1 함수(예를 들어, 3차원 타원체) 및 예측된 제2 함수(예를 들어, 3차원 타원체)의 합집합으로 나눈 교집합을 계산할 수 있다.
자율 주행 차량은 이후 제1 함수와 예측된 제2 함수의 합집합으로 나눈 이러한 교집합에 반비례하는 정보 이득 - 따라서 객체 모션의 확실성 개선 - 을 예측할 수 있다.
이후, 제2 스캔 주기 동안, 자율 주행 차량은 제2 스캔 주기 동안 객체의 가능한 접선 모션, 각도 모션 및 피치 모션을 나타내는 제2 함수를 계산하고, 제2 함수와 예측된 제2 함수의 차이를 특성화할 수 있다. 자율 주행 차량은 이후 제2 함수와 예측된 제2 함수의 차이에 따라 수정된(또는 "조정된") 및 제2 스캔 주기부터 다음(즉, 제3) 스캔 주기까지의 시간 차이에 걸쳐 적분된 제1 함수와 제2 함수의 교집합에서 표현된 모션을 기반으로 하여 제3 스캔 주기 동안 6 자유도에서 객체의 (절대 또는 상대) 모션을 예측하기 위해 전술한 방법 및 기술을 구현할 수 있다. 자율 주행 차량은 이후 제3 스캔 이미지에서 객체를 나타내는 포인트의 제2 시선 속도 구배, 방위각 위치, 및 고도 위치를 예측하고, 이들 방위각 위치및 고도 위치를 가로지르는 이러한 제2 시선 속도 구배를 기반으로 하여 다음(즉, 제3) 스캔 주기 동안 객체의 가능한 접선 속도, 각 속도 및 피치 속도를 나타내는 예측된 제3 함수를 계산할 수 있다. 이후, 자율 주행 차량은 제1 함수, 제2 함수 및 예측된 제3 함수의 합집합으로 나눈 교집합을 계산할 수 있다.
따라서, 자율 주행 차량은 제1 함수, 제2 함수 및 예측된 제3 함수의 합집합으로 나눈 교집합에 반비례하는 정보 이득 - 따라서 제3 스캔 주기 동안 객체 모션의 확실성 개선 - 을 예측할 수 있다.
16.3 객체 뮤팅(Object Muting)
이후, 전술한 바와 같이, 자율 주행 차량은 자율 주행 차량의 현재 위치가 임계 거리보다 크게 객체에 대해 계산된 현재의 미래 상태 경계 바깥쪽에 있는 경우; 및 예를 들어, 구체적으로 자율 주행 차량의 현재 궤적의 방향에서 객체 모션의 불확실성 개선을 예측하는 경우, 적어도 다음 스캔 주기까지 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항(또는 더 일반적으로 반응성 내비게이션 액션)에서 객체를 뮤팅할 수 있다.
16.4 불확실성을 줄이기 위한 액션(Action to Reduce Uncertainty )
대안적으로, 이러한 변형에서, 자율 주행 차량은 전술한 바와 같이 미래 스캔 주기 동안 객체 모션의 불확실성을 개선할 수 있는(즉, 줄일 수 있는) 객체에 대한 모션 데이터를 캡처하기 위해 그 궤적을 변경하는 내비게이션 액션을 선택할 수 있다.
16.5 미래 스캔 주기(Future Scan Cycles)
또한, 자율 주행 차량은 복수의 미래 스캔 주기 동안, 예를 들어 자율 주행 차량 운행 후 2초 동안 또는 이후 10번의 스캔 주기 동안 객체 모션의 불확실성을 예측하기 위해 전술한 프로세스를 실행할 수 있다. 따라서, 자율 주행 차량은 이들 복수의 후속 스캔 주기 동안 객체 모션의 불확실성에서의 불충분한 개선을 예측하기 때문에 자율 주행 차량은 복수의 후속 스캔 주기 동안 객체 회피 고려 사항에서 객체를 뮤팅하도록 선택할 수 있다. 추가적으로 또는 대안적으로, 자율 주행 차량은 복수의 후속 스캔 주기 동안 객체 모션의 불확실성 개선을 생성할 자율 주행 차량에 의한 내비게이션 액션을 예측(또는 "모델링")한 다음; 객체 모션에 대한 그 확실성을 개선하기 위해 이들 스캔 주기 동안 그러한 내비게이션 액션을 실행할 수 있다.
17. 불확실성 경계(Uncertainty Boundary)
도 6에 도시된 유사한 변형에서, 자율 주행 차량은 자율 주행 차량 주변 필드의 스캔 이미지(예를 들어, 3D 속도 주석이 달린 포인트 클라우드)에서 객체를 감지하기 위해; 이러한 스캔 이미지에서 이러한 객체에 대한 낮은 불확실성 모션 데이터(예를 들어, 자율 주행 차량을 기준으로 하는 시선 속도)를 추출하기 위해; 자율 주행 차량이 현재는 이용할 수 없지만 자율 주행 차량이 자율 주행 차량과 객체 사이의 미래 충돌을 생성할 수 있는 최악의 객체 모션을 확인할 수 있도록 하는 객체의 임계 모션 데이터를 식별하기 위해; 및 그러한 객체의 최악의 모션 및 자율 주행 차량의 현재 속도를 고려하여 자율 주행 차량이 이들 임계 모션 데이터에 액세스할 때를 예측하기 위해 방법(S100)의 블록을 실행한다. 자율 주행 차량은 이후 (예를 들어, 그러한 충돌이 자율 주행 차량의 책임이 아니라 전적으로 객체의 책임일 수 있도록) 자율 주행 차량이 여전히 이러한 객체와 충돌하기 전에 제동을 걸어 완전히 정지할 수 있는 미래 시간에 객체의 이들 임계 모션 데이터에 액세스할 것임을 예측하는 단계에 응답하여 이러한 객체에 대한 충동 회피 액션을 실행하는 단계(예를 들어, 감속하는 단계, 정지하는 단계)를 선택적으로 지연시킬 수 있다.
예를 들어, 자율 주행 차량이 자율 주행 차량 근처에서 객체를 감지할 때, 자율 주행 차량은 객체 모션의 불확실성을 감소시킴으로써 자율 주행 차량이 객체와의 충돌 가능성을 확인할 수 있도록 하는 추가적인 객체 모션 데이터를 자율 주행 차량이 캡처할 수 있도록 자율 주행 차량을 기준으로 하는 객체의 위치가 충분히 변경되는 임계 미래 시간을 추정하기 위해 방법(S100)의 블록을 실행할 수 있다. 자율 주행 차량은 이후 (예를 들어, 일반 객체의 최대 속도에 대한 미리 정의된 가정에 의해 제한된) 객체의 최악의 모션을 고려하더라도, 자율 주행 차량이 이러한 임계 미래 시간 이후까지 비상 정지를 지연시키면 자율 주행 차량이 아직 제동을 걸어 객체와 충돌하기 전에 완전히 정지할 수 있음을 확인할 수 있고; 그렇다면, 이후 자율 주행 차량은 객체에 대한 사전 충돌 회피 액션을 실행하는 단계를 지연시킬 수 있고, 이는 주변에 있는 다른 차량, 운전자 및 보행자에 대한 자율 주행 차량의 모션에 대한 예측 가능성 및 운행 동안 자율 주행 차량의 매끄러운 모션을 개선할 수 있다. 따라서, 자율 주행 차량은 객체에 대한 사전 충돌 회피 액션을 실행하는 단계를 지연시킬 수 있고, 이는 주변에 있는 다른 차량, 운전자 및 보행자에 대한 자율 주행 차량의 모션에 대한 예측 가능성 및 운행 동안 자율 주행 차량의 매끄러운 모션을 개선할 수 있다.
마찬가지로, 객체의 최악의 경우를 고려하여, 자율 주행 차량은 자율 주행 차량이 임계 미래 시간 이후까지 비상 정지를 지연시키면 자율 주행 차량이 객체와 충돌하기 전에 제동을 걸어 완전히 정지할 수 있는 이러한 임계 미래 시간에서의 자율 주행 차량의 최대 임계 속도를 계산할 수 있다. 자율 주행 차량은 이후 자율 주행 차량의 현재 속도가 최대 임계 속도 미만인 경우에는 임계 미래까지 그 최대 속도를 이러한 최대 임계 속도까지 제한할 수 있고; 또는 자율 주행 차량의 현재 속도가 이러한 최대 임계 속도보다 큰 경우에는 임계 미래 시간만큼 그 속도를 이러한 최대 임계 속도까지 줄이기 위해 자동적으로 제동을 걸거나 타력으로 주행할 수 있다.
예를 들어, 자율 주행 차량은 고성능 승용차 또는 고성능 오토바이의 최악의 속도 및 가속도(예를 들어, 50 m/s의 최대 속도, 9 m/s2의 최대 가속도)를 저장하고; 이들 최악의 속도 및 가속도를 기반으로 하여 자율 주행 차량이 측정할 수 없는 방향으로 가능한 객체 모션을 제한하고; 이러한 제한 내 속도를 고려하여 객체가 자율 주행 차량에 도달하여 충돌할 수 있는지 여부를 확인한 다음; 객체의 모션을 추가로 확인하고 추가적인 모션 데이터를 수집하기 위해 이러한 객체의 회피를 선택적으로 지연시키기 위해 방법(S100)의 후속 블록을 실행할 수 있다. 따라서, 자율 주행 차량은 객체의 유형을 식별하기 위한; 자율 주행 차량 주변 필드에 있는 이동 객체(예를 들어, 보행자, 차량)와 고정 객체(예를 들어, 도로 표지판, 전신주)를 구별하기 위한; 및 그들의 유형을 기반으로 하여 객체의 미래 모션을 예측하거나 역학 모델을 선택하기 위한 객체 식별 및 다른 머신 러닝 기술에 대한 의존도를 줄이거나 제거할 수 있다. 보다 구체적으로, 예측된 객체 유형에 따라 선택된 역학 모델을 기반으로 하여 객체의 미래 모션을 예측하는 대신에, 자율 주행 차량은 현재 스캔 주기 동안 수집된 제한된 모션 데이터, 자율 주행 차량을 기준으로 하는 객체의 현재 위치, 및 일반 객체(예를 들어, 일반 고성능 승용차)에 대한 최대 속도 및 가속도 가정을 기반으로 하여 객체의 현재 및 미래 모션을 예측하여 제한하고; 제한 내에서 이러한 객체의 모션으로 인해 객체가 자율 주행 차량과 충돌할 수 있는지 여부를 확인할 수 있다.
따라서, 경로 계획 결정을 알리기 위해 방법(S100)의 블록을 실행함으로써, 자율 주행 차량은 그 환경에서 객체의 유형 또는 종류를 정확하게 식별할 필요성을 줄이거나 제거하고; 자율 주행 차량의 자율 주행 운행에서 이러한 가능한 오차 원인을 줄이거나 제거하고; 예를 들어, 적대적인 컴퓨터 비전 공격, 적대적인 신경망 공격, 또는 사전 훈련 데이터가 제한되거나 전혀 없는 상황에 맞서 자율 주행 차량의 자율 주행 운행의 견고성을 증가시킬 수 있다.
또한, 자율 주행 차량은 이동 객체 및 고정 객체 모두에 대해 동일한 감지, 추적, 및 모션 계획 결정 경로를 구현함으로써, 자율 주행 차량 환경에서 객체의 종류를 식별할 필요성(또는 객체를 이동 객체 또는 고정 객체로 분류할 필요성)을 줄이거나 제거하고, 자율 주행 차량에서 실행하는 고유한 컴퓨터 비전, 머신 러닝, 및 경로 계획 파이프라인의 수량을 줄일 수 있다. 예를 들어, 자율 주행 차량은 자율 주행 차량 환경에서 감지할 수 없지만 다른 감지된 객체에 의해 가려져 있을 수 있는 객체(예를 들어, 전신주 뒤에 서 있는 보행자; 트랙터 트레일러에 의해 자율 주행 차량 시야에서 차단된 차선을 점유하고 있는 승용차); 자율 주행 차량 시야에 처음 진입하는 객체; 및 자율 주행 차량 시야에 존재하는 객체를 예측하고 처리하기 위해 동일한 감지, 추적, 및 모션 계획 결정 경로를 실행할 수 있다.
17.1 객체 모션 측정 한계 및 불확실성(Object Motion Measurement Limitations and Uncertainty)
일반적으로, 자율 주행 차량은 자율 주행 차량에서부터 객체까지 연장되는 시선 방향으로의 병진; 시선 방향과 수직인 수평 접선 방향으로의 병진; 객체의 요(yaw) 축을 중심으로 하는 회전과 같이, 3 자유도에서 - 그 필드에서 감지된 - 객체의 모션을 특성화할 수 있다. 그러나, 전술한 스캔 이미지에 있는 포인트는 필드에 있는 객체의 1D 모션 관찰(즉, 시선 축을 따르는 거리 변화율(range rate))을 포함할 수 있다. 전술한 바와 같이, 자율 주행 차량은 스캔 이미지에서 자율 주행 차량으로부터 유사한 거리에 표시된 포인트 클러스터를 분리하고; 이러한 스캔 이미지에 있는 포인트에 대한 1D 모션 관찰과 일치하는 2D 모션(예를 들어, 자율 주행 차량을 기준으로 하는 시선 속도 및 객체를 중심으로 하는 요(yaw) 속도)을 보간하고; 따라서 필드에 있는 하나의 객체와 이러한 포인트 클러스터를 연관지을 수 있다. 따라서, 자율 주행 차량은 스캔 이미지로부터 객체의 요 속도(yaw rate) 및 객체의 시선 속도(즉, 자율 주행 차량에서부터 객체까지 연장되는 광선을 따르는 객체의 속도)를 도출할 수 있다.
그러나, 스캔 이미지는 객체의 접선 속도와 관련된 정보(즉, 자율 주행 차량에서부터 객체까지 연장되는 광선에 수직인 모션)을 포함하지 않을 수 있다. 따라서, 현재 스캔 주기 동안 객체의 접선 속도의 불확실성은 자율 주행 차량의 센서에 의해 직접 측정되어 현재 스캔 이미지에 저장된 객체 시선 속도의 불확실성에 비해 상대적으로 높을 수 있다.
그러나, 자율 주행 차량이 객체를 기준으로 하여 움직이는 경우, 객체에 대한 자율 주행 차량의 관점은 이러한 나중 스캔 주기 동안 객체가 자율 주행 차량 시야에서 상이한 방위각 위치에 있도록 현재 스캔 주기에서 나중 스캔 주기로 변경될 수 있다. 따라서, 이러한 나중 스캔 주기 동안 자율 주행 차량에 의해 캡처된 나중 스캔 이미지로부터 도출된 객체의 시선 속도는 현재 스캔 주기 동안 캡처된 스캔 이미지에 표시된 객체의 시선 방향과는 상이한 - 절대 기준 시스템에서의 - 방향에서의 객체 속도에 대응할 수 있다.
따라서, 자율 주행 차량 및 객체가 후속 스캔 주기 동안 서로에 대해 계속 이동함에 따라, 자율 주행 차량은 다양한 접선 방향에서의 일련의 객체 시선 속도에 대한 액세스를 예상할 수 있고, 이들 접선 방향에서의 객체 시선 속도에 액세스하여 객체 모션의 불확실성을 줄이기 위해 충돌 회피 액션을 지연시키도록 선택적으로 선택할 수 있고, 객체 모션에 대한 더 높은 확실성 지식에 대한 미래 경로 계획 결정을 기반으로 하여 자율 주행 차량의 효율을 증가시키고 자율 주행 차량의 모션을 매끄럽게 할 수 있다.
17.2 속도 불확실성 경계(Velocity Uncertainty Boundary)
일반적으로, 자율 주행 차량은 현재 시간에서의 객체의 일련의 많은(또는 모든) 가능한 속도를 나타내는 속도 불확실성 경계에 - 미리 정의된 모션 제한 가정에 의해 규정된 - 일반 객체의 최대 속도 및 객체의 측정된 시선 속도를 융합하기 위해 전술한 방법 및 기술을 구현할 수 있다.
예를 들어, 자율 주행 차량은 자율 주행 차량 상에 중심이 되는 원점을 갖는 (극) 좌표계에, 각각 현재 스캔 주기 동안 좌표계에서 자율 주행 차량을 기준으로 하는 객체의 가능한 속도를 표시하는 벡터 세트를 초기화하고; 현재 측정된 객체의 시선 속도과 동일한 시선 방향으로 각 벡터의 성분 길이를 설정하고; 벡터 세트에 일반 객체의 음의 최대 속도에서부터 일반 객체의 양의 최대 속도까지 걸쳐 있는 전체 길이의 범위를 할당하고; 좌표계에 객체의 중심으로부터 연장되는 벡터 세트를 배치하고; 현재 스캔 주기 동안 객체에 대한 속도 불확실성 경계를 정의하기 위해 이들 벡터를 포함하는 타원 또는 타원체를 계산할 수 있다.
이러한 예에서, 자율 주행 차량은 마찬가지로 현재 스캔 주기에서 객체와 관련된 포인트의 시선 속도 범위에 걸쳐 있는 및/또는 스캔 주기를 생성한 센서의 오차 범위 시선 속도 측정에 걸쳐 있는 시선 방향으로 성분 길이를 갖는 벡터 범위를 계산할 수 있다. 자율 주행 차량은 이후 현재 스캔 주기 동안 객체에 대한 속도 불확실성 경계를 정의하기 위해 이들 벡터를 통해 타원 또는 타원체를 계산할 수 있다.
그러나, 자율 주행 차량은 모든 다른 방법으로 객체에 대한 속도 불확실성 경계를 계산할 수 있다.
17.3 충돌 속도, 충돌 기간, 및 임계 시간(Collision Velocity, Collision Duration, And Critical Time)
일반적으로, 자율 주행 차량은 자율 주행 차량이 그 현재 궤적을 계속 따르는 경우 객체의 속도 불확실성 경계에 포함된 - 객체의 특정 속도가 자율 주행 차량과의 충돌로 이어지는 미래 시간을 예측할 수 있다.
보다 구체적으로, 자율 주행 차량은 자율 주행 차량의 현재 속도, 그 계획된 경로 및/또는 자율 주행 차량 주변의 알려진 차선 네트워크를 기반으로 하여 자율 주행 차량의 향후 경로를 예측하고; 예를 들어 알려진 차선 네트워크에도 불구하고 또는 알려진 차선 네트워크에 비추어, 이러한 경로를 따라 이동하는 자율 주행 차량 및 이러한 특정 속도로 이동하는 객체가 이러한 특정 위치에 도달하는 충돌 시간을 추정하기 위해; 및 자율 주행 차량의 현재 정지 기간에 의해 충돌 시간 이전의 임계 시간을 계산하기 위해; 객체가 자율 주행 차량과 거의 동일한 시간에 자율 주행 차량의 향후 경로를 따르는 특정 위치에 도달할 수 있는 특정 속도에 대한 객체의 속도 불확실성 경계를 스캔할 수 있다.
17.4 임계 시간에서의 객체 모션 불확실성 예측(Object Motion Uncertainty Prediction At Critical Time)
일반적으로, 자율 주행 차량은 현재 시간과 임계 시간 사이에 자율 주행 차량에 액세스할 수 있는 객체 모션 데이터를 예측하고; 이들 추가적인 객체 모션 데이터가 어떻게 객체의 모션의 불확실성을 감소시킬 수 있는지 예측할 수 있다.
17.4.1 임계 시간에서의 제2 시선 방향(Second Radial Direction at Critical Time)
하나의 구현에서, 자율 주행 차량은 자율 주행 차량의 현재 경로 및 속도를 기반으로 하여 임계 시간에서의 자율 주행 차량 위치를 추정하고; 현재 스캔 주기 동안 그렇게 계산된 자율 주행 차량의 최악의 속도 및 객체의 현재 위치를 기반으로 하여 임계 시간에서의 객체 위치를 추정하고; 임계 시간에서의 자율 주행 차량 및 객체의 이러한 추정된 위치를 기반으로 하여 임계 시간에서의 자율 주행 차량에서부터 객체까지의 제2 시선 방향(또는 방위각)을 계산한다. 자율 주행 차량은 자율 주행 차량의 현재 경로 및 속도를 기반으로 하여, 객체의 현재 위치를 기반으로 하여; 및 이러한 기간 동안의 객체에 대한 최악의 속도를 가정하여 현재 시간에서부터 임계 시간까지의 자율 주행 차량에서 객체까지의 시선 방향 범위를 추정하기 위해 유사한 방법 및 기술을 구현할 수 있다.
17.4.2 임계 시간에서의 미래 속도 불확실성 경계(Future Velocity Uncertainty Boundary at Critical Time)
자율 주행 차량은 이후 자율 주행 차량 및 객체가 임계 시간에 이들 추정된 위치에 도달한다고 가정할 때 임계 시간까지 자율 주행 차량이 수집할 수 있는 객체 모션 데이터를 기반으로 하여 객체의 미래 속도 불확실성 경계를 계산하기 위해 전술한 방법 및 기술을 구현한다.
17.4.3 임계 시간에서의 불확실성(Uncertainty at Critical Time)
자율 주행 차량은, 예를 들어 임계 시간에서 자율 주행 차량을 기준으로 하는 접선 방향(즉, 시선 방향에 수직인 방향)에서 가능한 객체 속도 범위에 비례하는, 임계 시간에서의 객체 모션의 불확실성을 특성화할 수 있다. 이후, 임계 시간에서 객체 속도의 예측된 불확실성이 임계 불확실성 아래인 경우(예를 들어, 객체의 가능한 접선 속도의 범위가 4 m/s 미만인 경우), 자율 주행 차량은 블록(S142)에서 현재 스캔 주기 동안 경로 계획 결정에서 객체를 뮤팅하기나 미래 시간까지 객체에 응답하는 모든 충돌 회피 액션을 지연하도록 선택할 수 있다.
반대로, 임계 시간에서의 객체 속도의 예측된 불확실성이 이러한 임계 불확실성을 초과하는 경우(예를 들어, 객체의 가능한 접선 속도의 범위가 4 m/s보다 큰 경우), 자율 주행 차량은, 예를 들어 임계 시간을 미래 시간까지 추가로 연장하기 위해 이러한 불확실성에 비례하여, 그 속도를 줄임으로써 자율 주행 차량이 객체와 충돌할 가능성이 있기 전에 객체에 대한 추가 모션 데이터를 캡처할 수 있기 때문에 이러한 지연된 임계 시간 이전에 객체의 모션 불확실성을 줄일 수 있다.
17.5 객체 및 포인트 변경(Changing Object and Points)
또한, 자율 주행 차량은 그에 따라 객체의 유형을 예측하고 객체의 모션을 예측하는 객체 분류 또는 식별에 의존하지 않을 수 있기 때문에, 자율 주행 차량은, 예를 들어 이들 객체가 유사한 속도로 유사한 궤적을 따라 이동하고 있는 경우, 필드에 있는 복수의 실제 객체에 걸쳐 있는 포인트 그룹을 정의할 수 있다. 그러나, 자율 주행 차량은 자율 주행 차량이 현재 스캔 주기에서 이들 객체를 구별하고; 이전의 그룹화된 객체로부터의 모션 특성을 이들 개별 객체 각각에 전달한 다음; 전술한 바와 같이 이들 객체 각각에 대한 미래 상태 경계를 계산할 수 있을 때인, 이들 실제 객체가 더 이상 유사한 궤적을 따라 및/또는 유사한 속도로 이동하지 않을 때까지 이러한 "그룹화된 객체"에 대한 미래 상태 경계를 계산하고, 개선하고, 회피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
마찬가지로, 자율 주행 차량은 단일 실제 객체를 나타내는 2개의 포인트 클러스터를 구별하고, 예를 들어 자율 주행 차량이 이들 2개의 클러스터에 있는 포인트의 시선 속도(또는 거리 변화율)의 근접성 및 자체 일관성이 단일 객체를 나타낸다고 결정할 때까지, 이들 클러스터 모두에 대한 미래 상태 경계를 계산, 개선 및 회피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
추가적으로 또는 대안적으로, 자율 주행 차량은 자율 주행 차량 주변 필드에 있는 객체의 하위 영역을 나타내는 더 작은 포인트 클러스터 및 개별 포인트에 대한 미래 상태 경계를 계산, 개선 및 회피하기 위해 전술한 방법 및 기술을 구현할 수 있다.
본 명세서에 기술된 시스템 및 방법은 적어도 부분적으로 컴퓨터 판독 가능한 명령을 저장하는 컴퓨터 판독 가능한 매체를 수신하도록 구성된 기계로서 구체화 및/또는 구현될 수 있다. 명령은 어플리케이션, 애플릿, 호스트, 서버, 네트워크, 웹사이트, 통신 서비스, 통신 인터페이스, 사용자 컴퓨터 또는 모바일 장치의 하드웨어/펌웨어/소프트웨어 요소, 손목 밴드, 스마트폰, 또는 이들의 적절한 조합과 통합된 컴퓨터 실행 가능한 구성 요소에 의해 실행될 수 있다. 실시예의 다른 시스템 및 방법이 적어도 부분적으로 컴퓨터 판독 가능한 명령을 저장하는 컴퓨터 판독 가능한 매체를 수신하도록 구성된 기계로서 구체화 및/또는 구현될 수 있다. 명령은 전술한 유형의 네트워크 및 장치와 통합된 컴퓨터 실행 가능한 구성 요소에 의해 통합된 컴퓨터 실행 가능한 구성 요소에 의해 실행될 수 있다. 컴퓨터 판독 가능한 매체는 RAM, ROM, 플래시 메모리, EEPROM, 광학 장치(CD 또는 DVD), 하드 드라이브, 플로피 드라이브, 또는 임의의 적합한 장치와 같은 모든 적합한 컴퓨터 판독 가능한 매체에 저장될 수 있다. 컴퓨터 실행 가능한 구성 요소는 프로세스일 수 있지만 모든 적합한 전용 하드웨어 장치가 (대안적으로 또는 추가적으로) 명령을 실행할 수 있다.
당업자가 이전의 상세한 설명과 도면 및 청구범위로부터 인식할 수 있는 바와 같이, 다음의 청구범위에 정의된 바와 같이 본 발명의 범위를 벗어나지 않고 본 발명의 실시예를 수정 및 변경할 수 있다.

Claims (60)

  1. 자율 주행 차량(autonomous vehicle)의 자율 주행 내비게이션(autonomous navigation)을 위한 방법으로서,
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정(motion limit assumption) 세트에 액세스하는 단계;
    제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 상기 제1 포인트 그룹에 있는 각 포인트는
    상기 센서에서부터 상기 제1 객체의 표면까지의 제1 범위 값;
    상기 센서를 기준으로 하는 상기 제1 객체의 상기 표면의 제1 방위각 위치(azimuthal position); 및
    상기 센서를 기준으로 하는 상기 제1 객체의 상기 표면의 제1 시선 속도(radial velocity)를 포함하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 방위각 위치와 제1 시선 속도 사이의 제1 연관성(correlation)을 계산하는 단계;
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 각 속도(angular velocity) 및 상기 제1 객체의 가능한 접선 속도(tangential velocity)와 관련이 있는 제1 함수를 계산하는 단계; 및
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도를 기반으로 하여 상기 제1 시간에서의 상기 제1 객체의 제1 시선 속도를 계산하는 단계;
    상기 제1 시간에서의 상기 자율 주행 차량의 제1 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 제1 정지 기간(stopping duration)을 추정하는 단계;
    상기 정지 기간만큼 상기 제1 시간에서부터 오프셋된 제1 임계 시간을 계산하는 단계;
    다음을 기반으로 하여, 상기 제1 임계 시간에 상기 제1 객체에 액세스할 수 있는 제1 그라운드 영역(ground area)을 나타내는 제1 미래 상태 경계(future state boundary)를 계산하는 단계로서, 상기 다음은
    상기 제1 함수에 의해 정의된, 상기 제1 시간에서의, 상기 제1 객체의 가능한 각 속도 및 상기 제1 객체의 가능한 접선 속도;
    상기 제1 시선 속도; 및
    상기 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계; 및
    상기 제1 임계 시간 이전에 상기 제1 미래 상태 경계로의 진입을 피하기 위해 제1 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  2. 제1 항에 있어서,
    상기 제1 객체의 상기 제1 미래 상태 경계를 제외한, 상기 자율 주행 차량 주변의, 액세스 영역을 계산하는 단계를 더 포함하고;
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 제1 미래 상태 경계의 둘레의 임계 거리 내에 속하는 상기 제1 시간에서의 상기 자율 주행 차량의 제1 위치에 응답하여, 상기 액세스 영역을 향해 내비게이션하기 위해 상기 제1 내비게이션 액션을 실행하는 단계를 포함하는 방법.
  3. 제1 항에 있어서,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 제1 미래 상태 경계의 안에 속하는 상기 제1 시간에서의 상기 자율 주행 차량의 제1 위치에 응답하여 상기 자율 주행 차량을 감속하기 위해 제동 액션(braking action)을 실행하는 단계를 포함하는 방법.
  4. 제1 항에 있어서,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 제1 미래 상태 경계의 바깥쪽에 속하는 상기 제1 시간에서의 상기 자율 주행 차량의 제1 위치에 응답하여 상기 자율 주행 차량의 속도를 유지하는 단계를 포함하는 방법.
  5. 제1 항에 있어서,
    상기 제1 스캔 주기 다음의 제2 스캔 주기 동안,
    제2 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 필드에 있는 상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 방위각 위치와 제2 시선 속도 사이의 제2 연관성을 계산하는 단계;
    상기 제2 연관성을 기반으로 하여, 상기 제2 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 함수를 계산하는 단계; 및
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 각도를 기반으로 하여 제2 시간에서의 제1 객체의 제2 시선 속도를 계산하는 단계;
    상기 제1 함수 및 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도 및 상기 제1 객체의 제2 각 속도를 추정하는 단계;
    상기 제2 시간에서의 상기 자율 주행 차량의 제2 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 제2 정지 기간을 추정하는 단계;
    상기 정지 기간만큼 상기 제2 시간에서부터 오프셋된 제2 임계 시간을 계산하는 단계;
    다음을 기반으로, 상기 제2 임계 시간에 상기 제1 객체에 액세스할 수 있는 제2 그라운드 영역을 나타내는 제2 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제1 객체의 상기 제2 접선 속도;
    상기 제1 객체의 상기 제2 각 속도;
    상기 제1 시선 속도; 및
    상기 미리 정의된 모션 제한 가정 세트;
    를 포함하는 단계 ; 및
    상기 제1 임계 시간 전에 상기 제2 미래 상태 경계로의 진입을 피하기 위해 제2 내비게이션 액션을 선택하는 단계,
    를 더 포함하는 방법.
  6. 제5 항에 있어서,
    상기 제1 미래 상태 경계를 계산하는 단계는
    노면(road surface)과 거의 평행한 평면 내에 있고;
    제1 영역 치수(area dimension)를 특징으로 하는 상기 제1 미래 상태 경계를 계산하는 단계를 포함하고,
    상기 제2 미래 상태 경계를 계산하는 단계는
    상기 평면 내에 있고;
    상기 제1 영역 치수보다 작은 제2 영역 치수를 특징으로 하는 상기 제2 미래 상태 경계를 계산하는 단계를 포함하는 방법.
  7. 제1 항에 있어서,
    상기 제1 연관성을 계산하는 단계는
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선(trend line)을 계산하는 단계; 및
    상기 제1 선형 추세선의 제1 기울기를 기반으로 하여 상기 제1 연관성을 계산하는 단계로서, 상기 기울기는 상기 제1 시간에서의 상기 제1 객체의 제1 접선 속도와 상기 제1 객체의 제1 각 속도 사이의 관계를 나타내는 단계를 포함하는 방법.
  8. 제7 항에 있어서,
    상기 제1 선형 추세선으로부터의 상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 편차를 기반으로 하여 상기 제1 선형 추세선의 제1 오차를 특성화하는 단계를 더 포함하고,
    상기 제1 함수를 계산하는 단계는
    상기 제1 연관성을 기반으로 하여 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 선(line)을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭(width)을 계산하는 단계를 포함하고,
    상기 제1 미래 상태 경계를 계산하는 단계는 상기 제1 폭의 상기 제1 선으로 나타낸, 상기 제1 시간에서의, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도를 기반으로 하여 상기 제1 미래 상태 경계를 계산하는 단계를 포함하는 방법.
  9. 제1 항에 있어서,
    상기 제1 스캔 이미지에 액세스하는 단계는
    상기 자율 주행 차량에 장착되고; 및
    상기 센서를 기준으로 하는 상기 필드 내에 있는 표면의 위치 및 속도(speed)를 나타내는 스캔 이미지를 생성하도록 구성된
    4차원 광 감지 및 거리 측정 센서를 포함하는 상기 센서에 의해 캡처된 데이터를 포함하는 상기 제1 스캔 이미지에 액세스하는 단계를 포함하는 방법.
  10. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    상기 자율 주행 차량에서 제1 시간에, 상기 제1 시간에서의 상기 자율 주행 차량의 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 정지 기간(stopping duration)을 추정하는 단계;
    상기 정지 기간만큼 상기 제1 시간에서 오프셋된 임계 시간을 계산하는 단계;
    대략적으로 상기 제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된, 상기 자율 주행 차량의 근처 필드의, 제1 스캔 이미지에서 객체를 감지하는 단계;
    상기 제1 스캔 이미지를 기반으로 하여, 상기 제1 객체의 제1 모션(motion) 및 제1 위치를 도출하는 단계;
    다음을 기반으로 하여, 상기 제1 시간에서부터 상기 제1 임계 시간까지 상기 제1 객체에 액세스할 수 있는 제1 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 위치;
    상기 제1 객체의 상기 제1 모션; 및
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계; 및
    상기 제1 임계 시간 이전에 상기 제1 미래 상태 경계로의 진입을 피하기 위해 제1 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  11. 제10 항에 있어서,
    일반 그라운드 기반 차량의 최대 선형 가속도;
    상기 일반 그라운드 기반 차량의 최대 선형 속도; 및
    상기 일반 그라운드 기반 차량의 최대 각 속도,
    를 포함하는 상기 미리 정의된 모션 제한 가정 세트에 액세스하는 단계를 더 포함하고,
    상기 제1 미래 상태 경계를 계산하는 단계는
    상기 제1 시간에서부터 상기 제1 임계 시간까지 상기 제1 객체에 액세스할 수 있는 상기 제1 그라운드 영역을 계산하기 위해 상기 정지 기간 동안의 상기 제1 객체의 상기 제1 위치부터, 상기 최대 선형 가속도에 따라 상기 최대 선형 속도까지 가속시키고 상기 최대 각 속도로 이동하는, 상기 제1 객체의 상기 제1 모션을 적분하는 단계; 및
    상기 제1 그라운드 영역을 상기 제1 미래 상태 경계로서 저장하는 단계를 포함하는 방법.
  12. 제11 항에 있어서,
    상기 제1 스캔 이미지에서 제2 객체를 감지하는 단계;
    상기 제1 스캔 이미지를 기반으로 하여, 상기 제2 객체의 제2 위치 및 제2 모션을 도출하는 단계;
    상기 제1 시간에서부터 상기 제1 임계 시간까지 상기 제2 객체에 액세스할 수 있는 제2 그라운드 영역을 계산하기 위해 상기 정지 기간 동안의 상기 제2 객체의 상기 제2 위치부터, 상기 최대 선형 가속도에 따라 상기 최대 선형 속도까지 가속시키고 상기 최대 각 속도로 이동하는, 상기 제2 객체의 상기 제2 모션을 적분하는 단계; 및
    상기 제2 그라운드 영역을 제2 미래 상태 경계로서 저장하는 단계를 더 포함하고,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 제1 임계 시간 이전에 상기 제1 미래 상태 경계 및 상기 제2 미래 상태 경계로의 진입을 피하기 위해 상기 제1 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  13. 제12 항에 있어서,
    상기 제1 객체의 상기 제1 미래 상태 경계 및 상기 제2 객체의 상기 제2 미래 상태 경계를 제외한, 상기 자율 주행 차량 주변의, 액세스 영역을 계산하는 단계를 더 포함하고,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 액세스 영역을 향해 내비게이션하기 위해 상기 제1 내비게이션 액션을 실행하는 단계를 포함하는 방법.
  14. 제10 항에 있어서,
    상기 제1 객체의 상기 제1 미래 상태 경계를 제외한, 상기 자율 주행 차량 주변의, 액세스 영역을 계산하는 단계를 더 포함하고,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 제1 미래 상태 경계의 둘레의 임계 거리 내에 있는 상기 제1 시간에서의 상기 자율 주행 차량의 제1 위치에 응답하여 상기 액세스 영역을 향해 내비게이션하기 위해 상기 제1 내비게이션 액션을 실행하는 단계를 포함하는 방법.
  15. 제10 항에 있어서,
    상기 제1 스캔 이미지에서 상기 객체를 감지하는 단계는 상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 상기 제1 포인트 그룹에 있는 각 포인트는
    상기 센서에서부터 상기 제1 객체의 표면까지의 제1 범위 값;
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 표면의 제1 방위각 위치; 및
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 표면의 제1 시선 속도,
    를 포함하는 단계를 포함하고,
    상기 제1 객체의 상기 제1 모션 및 상기 제1 위치를 도출하는 단계는
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 방위각 위치 사이의 제1 연관성을 계산하는 단계;
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 함수를 계산하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도를 기반으로 하여 상기 제1 시간에서의 상기 제1 객체의 제1 시선 속도를 계산하는 단계; 및
    상기 제1 포인트 그룹에 있는 포인트의 제1 범위 값 및 제1 방위각 위치를 기반으로 하여 상기 제1 객체의 상기 제1 위치를 도출하는 단계,
    를 포함하고,
    상기 제1 미래 상태 경계를 계산하는 단계는
    상기 제1 함수에 의해 정의된, 상기 제1 시간에서의, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도;
    상기 제1 시선 속도;
    상기 제1 위치; 및
    상기 미리 정의된 모션 제한 가정 세트,
    를 기반으로 하여 상기 제1 미래 상태 경계를 계산하는 단계를 포함하는 방법.
  16. 제15 항에 있어서,
    상기 제1 스캔 주기 다음의 제2 스캔 주기 동안,
    제2 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 필드에 있는 상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 방위각 위치 사이의 제2 연관성을 계산하는 단계;
    상기 제2 연관성을 기반으로 하여, 상기 제2 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 함수를 계산하는 단계; 및
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도를 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 제2 시선 속도를 계산하는 단계;
    상기 제1 함수와 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도 및 상기 제1 객체의 제2 각 속도를 추정하는 단계;
    상기 제2 시간에서의 상기 자율 주행 차량의 제2 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 제2 정지 기간을 추정하는 단계;
    상기 정지 기간만큼 상기 제2 시간에서부터 오프셋된 제2 임계 시간을 계산하는 단계;
    다음을 기반으로 하여, 상기 제2 임계 시간에 상기 제1 객체에 액세스할 수 있는 제2 그라운드 영역을 나타내는 제2 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제1 객체의 상기 제2 접선 속도;
    상기 제1 객체의 상기 제2 각 속도;
    상기 제2 시선 속도; 및
    상기 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계; 및
    상기 제1 임계 시간 이전에 상기 제2 미래 상태 경계로의 진입을 피하기 위해 제2 내비게이션 액션을 선택하는 단계,
    를 더 포함하는 방법.
  17. 제16 항에 있어서,
    상기 제2 미래 상태 경계를 계산하는 단계는 상기 제1 그라운드 영역보다 작은 상기 제2 그라운드 영역을 나타내는 상기 제2 미래 상태 경계를 계산하는 단계를 포함하는 방법.
  18. 제10 항에 있어서,
    상기 제1 스캔 이미지에서 제2 객체를 감지하는 단계;
    상기 제1 스캔 이미지를 기반으로 하여, 상기 제2 객체의 제2 위치 및 제2 모션을 도출하는 단계;
    다음을 기반으로 하여, 상기 제1 시간에서부터 상기 제1 임계 시간까지 상기 제2 객체에 액세스할 수 있는 제2 그라운드 영역을 나타내는 제2 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제1 시간에서의 상기 제2 객체의 상기 제2 위치;
    상기 제2 객체의 상기 제2 모션; 및
    공공 도로에 근접한 일반 객체에 대한 상기 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계; 및
    상기 자율 주행 차량에서부터 임계 거리를 초과하는 상기 제1 시간에서의 상기 제2 미래 상태 경계의 제2 둘레까지의 제2 거리에 응답하여, 상기 자율 주행 차량에서 다음 경로 계획 고려 사항에서 상기 제2 객체를 뮤팅(mute)하는 단계를 더 포함하고,
    상기 제1 내비게이션 액션을 선택하는 단계는 상기 자율 주행 차량에서부터 상기 임계 거리 내에 속하는 상기 제1 시간에서의 상기 제1 미래 상태 경계의 제1 둘레까지의 제1 거리에 응답하여, 상기 자율 주행 차량에서 상기 다음 경로 계획 고려 사항에서 상기 제1 객체를 활성화하는 단계를 포함하는 방법.
  19. 제10 항에 있어서,
    상기 정지 기간을 추정하는 단계는
    대략적으로 상기 제1 시간에, 상기 자율 주행 차량에 배치된, 제2 센서에 의해 캡처된 상기 필드의 제2 이미지에 액세스하는 단계;
    상기 제2 이미지에서 추출된 피처(features) 세트를 기반으로 하여 상기 제1 시간에 상기 자율 주행 차량에 의해 점유된 노면의 유형을 해석하는 단계;
    상기 피처 세트를 기반으로 하여 상기 노면의 상태(quality)를 예측하는 단계;
    상기 노면의 상기 유형 및 상기 노면의 상기 상태를 기반으로 하여 상기 노면에서 작용하는 상기 자율 주행 차량의 타이어에 대한 마찰 계수를 추정하는 단계; 및
    다음을 기반으로 하여, 상기 정지 기간을 추정하는 단계로서, 상기 다음은,
    상기 제1 시간에서의 상기 자율 주행 차량의 차량 속도(speed);
    상기 마찰 계수; 및
    상기 자율 주행 차량에 대한 제동 모델(braking model),
    을 포함하는 단계,
    를 포함하는 방법.
  20. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트에 액세스하는 단계;
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 객체를 나타내는 상기 스캔 이미지에 있는 포인트 그룹을 식별하는 단계로서, 상기 포인트 그룹에 있는 각 포인트는
    상기 자율 주행 차량을 기준으로 하는 상기 객체의 표면의 위치;
    상기 자율 주행 차량을 기준으로 하는 상기 객체의 상기 표면의 시선 속도,
    를 포함하는 단계;
    상기 포인트 그룹에 있는 포인트의 시선 속도와 위치 사이의 연관성을 계산하는 단계;
    상기 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 객체의 가능한 접선 속도 및 상기 객체의 가능한 각 속도와 관련이 있는 함수를 계산하는 단계;
    상기 포인트 그룹에 있는 포인트의 시선 속도를 기반으로 하여 상기 제1 시간에서의 상기 객체의 시선 속도를 계산하는 단계;
    다음을 기반으로 하여, 미래 시간에 상기 객체에 액세스할 수 있는 그라운드 영역을 나타내는 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 함수에 의해 정의된, 상기 제1 시간에서의, 상기 객체의 가능한 접선 속도 및 상기 객체의 가능한 각 속도;
    상기 객체의 상기 시선 속도; 및
    상기 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계; 및
    상기 미래 임계 시간 이전에 상기 미래 상태 경계를 피하기 위해 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  21. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 상기 제1 포인트 그룹에 있는 각 포인트는
    상기 센서에서부터 상기 제1 객체의 표면까지의 제1 범위 값;
    상기 센서를 기준으로 하는 상기 제1 객체의 상기 표면의 제1 방위각 위치; 및
    상기 센서를 기준으로 하는 상기 제1 객체의 상기 표면의 제1 시선 속도,
    를 포함하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 방위각 위치 사이의 제1 연관성을 계산하는 단계; 및
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 함수를 계산하는 단계;
    제2 스캔 주기 동안,
    제2 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 필드에 있는 상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 방위각 위치 사이의 제2 연관성을 계산하는 단계; 및
    상기 제2 연관성을 기반으로 하여, 상기 제2 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 함수를 계산하는 단계;
    상기 제1 함수와 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도 및 상기 제1 객체의 제2 각 속도를 추정하는 단계; 및
    상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 기반으로 하여 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  22. 제21 항에 있어서,
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도에 대한 제2 중심 경향 척도(measure of central tendency)를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 시선 속도를 계산하는 단계; 및
    상기 제1 객체의 상기 제2 접선 속도, 상기 제1 객체의 상기 제2 각 속도 및 상기 제1 객체의 상기 제2 시선 속도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 전체 속도를 특성화하는 단계를 더 포함하고,
    상기 내비게이션 액션을 선택하는 단계는 상기 제2 시간에서의 상기 제1 객체의 상기 전체 속도를 기반으로 하여 상기 제1 객체를 피하기 위해 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  23. 제21 항에 있어서,
    상기 제1 연관성을 계산하는 단계는
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선을 계산하는 단계; 및
    상기 제1 선형 추세선의 제1 기울기를 기반으로 하여 상기 제1 연관성을 계산하는 단계로서, 상기 제1 기울기는 상기 제1 시간에서의 상기 제1 객체의 제1 접선 속도와 상기 제1 객체의 제1 각 속도 사이의 관계를 나타내는 단계를 포함하는 방법.
  24. 제23 항에 있어서,
    상기 제1 포인트 그룹에 있는 포인트의 제1 방위각 위치의 범위를 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제1 반경을 계산하는 단계를 더 포함하고,
    상기 제1 선형 추세선의 상기 제1 기울기를 계산하는 단계는
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 접선 속도와
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 반경과 상기 제1 시간에서의 상기 제1 객체의 상기 제1 각 속도의 곱의
    제1 차이를 나타내는 상기 제1 기울기를 계산하는 단계를 포함하고,
    상기 제1 선형 추세선의 상기 제1 기울기를 계산하는 단계는
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 반경과
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 접선 속도와 상기 제1 시간에서의 상기 제1 객체의 상기 제1 각 속도 사이의 차이의
    제1 곱을 나타내는 상기 제1 기울기를 계산하는 단계를 포함하고,
    상기 제1 함수를 계산하는 단계는 상기 제1 시간에서의 상기 제1 기울기 및 상기 제1 반경을 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 선형 함수를 계산하는 단계를 포함하는 방법.
  25. 제23 항에 있어서,
    상기 제2 연관성을 계산하는 단계는
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 통해 제2 선형 추세선을 계산하는 단계; 및
    상기 제2 선형 추세선의 제2 기울기를 기반으로 하여 상기 제2 연관성을 계산하는 단계로서, 상기 제2 기울기는 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도와 상기 제1 객체의 제2 각 속도 사이의 관계를 나타내는 단계,
    를 포함하고,
    상기 제1 선형 추세선으로부터의 상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 편차를 기반으로 하여 상기 제1 선형 추세선의 제1 오차를 특성화하는 단계; 및
    상기 제2 선형 추세선으로부터의 상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 편차를 기반으로 하여 상기 제2 선형 추세선의 제2 오차를 특성화하는 단계,
    를 더 포함하고,
    상기 제1 함수를 계산하는 단계는
    상기 제1 연관성을 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 선을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭을 계산하는 단계,
    를 포함하고,
    상기 제2 함수를 계산하는 단계는
    상기 제2 연관성을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 선을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭을 계산하는 단계,
    를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 추정하는 단계는, 상기 제1 폭의 상기 제1 선과 상기 제2 폭의 상기 제2 선의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도 범위 및 상기 제1 객체의 제2 각 속도 범위를 추정하는 단계를 포함하고,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 범위 및 상기 제1 객체의 상기 제2 각 속도 범위를 기반으로 하여 상기 제1 객체를 피하기 위해 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  26. 제23 항에 있어서,
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트에 액세스하는 단계; 및
    상기 제1 시간과 상기 제2 시간 사이의 시간 차이 동안의 상기 미리 정의된 모션 제한 가정 세트의 적분을 기반으로 하여 상기 제1 함수의 제1 오차를 특성화하는 단계를 더 포함하고,
    상기 제1 함수를 계산하는 단계는
    상기 제1 연관성을 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 선을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭을 계산하는 단계,
    를 포함하고,
    상기 제2 함수를 계산하는 단계는
    상기 제2 연관성을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 선을 계산하는 단계를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 추정하는 단계는, 상기 제2 선과 상기 제1 폭의 상기 제1 선의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도 범위 및 상기 제1 객체의 제2 각 속도 범위를 추정하는 단계를 포함하고,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 범위 및 상기 제1 객체의 상기 제2 각 속도 범위를 기반으로 하여 상기 제1 객체를 피하기 위해 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  27. 제21 항에 있어서,
    상기 제1 함수를 계산하는 단계는, 노면에 거의 평행한 수평면 내에 있는, 상기 제1 시간에서의, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 상기 제1 함수를 계산하는 단계를 포함하고,
    상기 제2 함수를 계산하는 단계는, 노면에 거의 평행한 상기 수평면 내에 있는, 상기 제2 시간에서의, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 상기 제2 함수를 계산하는 단계를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 추정하는 단계는, 3 자유도 상태 공간에서 상기 제1 함수와 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 추정하는 단계를 포함하는 방법.
  28. 제21 항에 있어서,
    공공 도로에 근접한 일반 객체에 대한 최대 객체 속도 가정에 액세스하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 시선 속도를 계산하는 단계;
    상기 제1 객체의 미래 상태 경계를 계산하기 위해 타겟 시간 기간 동안의 상기 제1 객체의 상기 제2 시선 속도, 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 적분하는 단계,
    를 더 포함하고,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제1 객체의 상기 미래 상태 경계로의 미래 진입을 피하기 위해 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  29. 제28 항에 있어서,
    상기 제1 시간에서의 상기 자율 주행 차량의 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계; 및
    상기 정지 기간을 기반으로 하여 상기 타겟 시간 기간을 계산하는 단계,
    를 더 포함하고,
    상기 제1 객체의 상기 미래 상태 경계로의 미래 진입을 피하기 위해 상기 내비게이션 액션을 선택하는 단계는, 상기 제1 객체의 상기 미래 상태 경계의 임계 거리 내에 있는 상기 제2 시간에서의 상기 자율 주행 차량의 위치에 응답하여 상기 자율 주행 차량을 감속하기 위해 제동 액션을 실행하는 단계를 포함하는 방법.
  30. 제21 항에 있어서,
    제3 스캔 주기 동안,
    상기 제2 시간 다음의 제3 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제3 스캔 이미지에 액세스하는 단계;
    상기 필드에 있는 상기 제1 객체를 나타내는 상기 제3 스캔 이미지에 있는 제3 포인트 그룹을 식별하는 단계;
    상기 필드에 있는 상기 제2 객체를 나타내는 상기 제3 스캔 이미지에 있는 제4 포인트 그룹을 식별하는 단계로서, 상기 제2 객체는 상기 제2 시간에서부터 상기 제3 시간까지 상기 제1 객체와 별개인 단계;
    상기 제3 그룹에 있는 포인트의 제3 시선 속도와 제3 방위각 위치 사이의 제3 연관성을 계산하는 단계;
    상기 제4 그룹에 있는 포인트의 제4 시선 속도와 제4 방위각 위치 사이의 제4 연관성을 계산하는 단계;
    상기 제3 연관성을 기반으로 하여, 상기 제3 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제3 함수를 계산하는 단계; 및
    상기 제4 연관성을 기반으로 하여, 상기 제3 시간에서의 상기 제2 객체의 가능한 접선 속도 및 상기 제2 객체의 가능한 각 속도와 관련이 있는 제4 함수를 계산하는 단계;
    상기 제2 함수와 상기 제3 함수의 교집합을 기반으로 하여 상기 제3 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제3 접선 속도 및 상기 제1 객체의 제3 각 속도를 추정하는 단계;
    상기 제2 함수와 상기 제4 함수의 교집합을 기반으로 하여 상기 제3 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제4 접선 속도 및 상기 제2 객체의 제4 각 속도를 추정하는 단계; 및
    상기 제1 객체의 상기 제3 접선 속도, 상기 제1 객체의 상기 제3 각 속도, 상기 제2 객체의 상기 제4 접선 속도 및 상기 제2 객체의 상기 제4 각 속도를 기반으로 하여 상기 제1 객체 및 상기 제2 객체를 피하기 위해 제2 내비게이션 액션을 선택하는 단계,
    를 더 포함하는 방법.
  31. 제21 항에 있어서,
    상기 제1 스캔 이미지에 액세스하는 단계는
    상기 자율 주행 차량에 장착되고; 및
    상기 센서를 기준으로 하여 상기 필드 내에 있는 표면의 위치 및 속도(speed)를 나타내는 스캔 이미지를 생성하도록 구성된
    4차원 광 감지 및 거리 측정 센서를 포함하는 상기 센서에 의해 캡처된 데이터를 포함하는 상기 제1 스캔 이미지에 액세스하는 단계를 포함하는 방법.
  32. 제21 항에 있어서,
    제3 스캔 주기 동안, 상기 제1 시간 및 상기 제2 시간에 앞서 제3 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제3 이미지에서 감지된 제3 포인트 그룹으로 표시된 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제3 연관성을 기반으로 하여 제3 함수를 생성하는 단계를 더 포함하고,
    상기 제1 연관성을 계산하는 단계는, 상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도, 제1 방위각 위치 및 제1 고도 위치를 통해 제1 최적 평면(best-fit plane)을 계산하는 단계로서, 상기 제1 최적 평면은 상기 제1 시간에서의 상기 제1 객체의 제1 접선 속도, 상기 제1 객체의 제1 각 속도 및 상기 제1 객체의 제1 피치 속도 사이의 관계를 나타내는 단계를 포함하고,
    상기 제1 함수를 계산하는 단계는 상기 제1 최적 평면을 기반으로 하여 상기 제1 함수를 계산하는 단계를 포함하고,
    상기 제2 연관성을 계산하는 단계는, 상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도, 제2 방위각 위치 및 제2 고도 위치를 통해 제2 최적 평면을 계산하는 단계로서, 상기 제2 최적 평면은 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도, 상기 제1 객체의 제2 각 속도 및 상기 제1 객체의 제2 피치 속도 사이의 관계를 나타내는 단계를 포함하고,
    상기 제2 함수를 계산하는 단계는 상기 제2 최적 평면을 기반으로 하여 상기 제2 함수를 계산하는 단계를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도 및 상기 제1 객체의 상기 제2 각 속도를 추정하는 단계는, 상기 제1 함수, 상기 제2 함수 및 상기 제3 함수의 교집합을 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 상기 제2 접선 속도, 상기 제1 객체의 상기 제2 각 속도 및 상기 제1 객체의 제2 피치 속도를 계산하는 단계를 포함하는 방법.
  33. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 상기 제1 포인트 그룹에 있는 각 포인트는
    상기 센서에서부터 상기 제1 객체의 표면까지의 제1 범위 값;
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 표면의 제1 위치; 및
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 표면의 제1 시선 속도,
    를 포함하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 위치 사이의 제1 연관성을 계산하는 단계; 및
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 선형 모션(linear motion) 및 상기 제1 객체의 가능한 각도 모션(angular motion)과 관련이 있는 제1 함수를 계산하는 단계;
    제2 스캔 주기 동안,
    제2 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 위치 사이의 제2 연관성을 계산하는 단계; 및
    상기 제2 연관성을 기반으로 하여, 상기 제2 시간에서의 상기 제1 객체의 가능한 선형 모션 및 상기 제1 객체의 가능한 각도 모션과 관련이 있는 제2 함수를 계산하는 단계;
    상기 제1 함수와 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 선형 모션 및 상기 제1 객체의 각도 모션을 추정하는 단계; 및
    상기 제2 시간에서의 상기 제1 객체의 상기 선형 모션 및 상기 제1 객체의 상기 각도 모션을 기반으로 하여 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  34. 제33 항에 있어서,
    상기 제1 연관성을 계산하는 단계는
    노면에 거의 평행한 평면에 투영된, 상기 제1 포인트 그룹에 있는, 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선을 계산하는 단계; 및
    상기 제1 선형 추세선의 제1 기울기를 기반으로 하여 상기 제1 연관성을 계산하는 단계로서, 상기 제1 기울기는 상기 제1 시간에서의 상기 제1 객체의 제1 접선 속도와 상기 제1 객체의 제1 각 속도 사이의 관계를 나타내는 단계,
    를 포함하고,
    상기 제2 연관성을 계산하는 단계는
    상기 평면에 투영된, 상기 제2 포인트 그룹에 있는, 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 통해 제2 선형 추세선을 계산하는 단계; 및
    상기 제2 선형 추세선의 제2 기울기를 기반으로 하여 상기 제2 연관성을 계산하는 단계로서, 상기 제2 기울기는 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도와 상기 제1 객체의 제2 각 속도 사이의 관계를 나타내는 단계,
    를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 선형 모션 및 상기 제1 객체의 상기 각도 모션을 추정하는 단계는, 상기 제1 함수와 상기 제2 함수의 상기 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도 및 상기 제1 객체의 제2 각 속도를 추정하는 단계를 포함하는 방법.
  35. 제33 항에 있어서,
    상기 제1 연관성을 계산하는 단계는, 상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 및 제1 위치를 통해 제1 최적 평면을 계산하는 단계로서 상기 제1 최적 평면은 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제1 접선 속도, 상기 제1 객체의 제1 각 속도 및 상기 제1 객체의 제1 피치 속도 사이의 관계를 나타내는 단계를 포함하고,
    상기 제1 함수를 계산하는 단계는 상기 제1 최적 평면을 기반으로 하여 상기 제1 함수를 계산하는 단계를 포함하고,
    상기 제2 연관성을 계산하는 단계는 상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도 및 제2 위치를 통해 제2 최적 평면을 계산하는 단계로서 상기 제2 최적 평면은 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도, 상기 제1 객체의 제2 각 속도 및 상기 제1 객체의 제2 피치 속도 사이의 관계를 나타내는 단계를 포함하고,
    상기 제2 함수를 계산하는 단계는 상기 제2 최적 평면을 기반으로 하여 상기 제2 함수를 계산하는 단계를 포함하는 방법.
  36. 제35 항에 있어서,
    제3 스캔 주기 동안, 상기 제1 시간 및 상기 제2 시간에 앞서 제3 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제3 이미지에서 감지된 제3 포인트 그룹으로 표시된 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제3 연관성을 기반으로 하여 제3 함수를 생성하는 단계를 더 포함하고,
    상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 상기 선형 모션 및 상기 제1 객체의 상기 각도 모션을 추정하는 단계는, 상기 제1 함수, 상기 제2 함수 및 상기 제3 함수의 상기 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 상기 선형 모션 및 상기 제1 객체의 상기 각도 모션을 추정하는 단계를 포함하는 방법.
  37. 제35 항에 있어서,
    상기 제1 스캔 주기 동안,
    상기 제1 스캔 이미지에 있는 상기 제1 포인트 그룹에 근접한 제3 포인트 그룹을 식별하는 단계;
    상기 제3 포인트 그룹에 있는 포인트의 제3 시선 속도 및 제3 위치를 통해 제3 최적 평면을 계산하는 단계로서, 상기 제3 최적 평면은 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제3 접선 속도, 상기 제2 객체의 제3 각 속도 및 상기 제2 객체의 제3 피치 속도 사이의 관계를 나타내는 단계; 및
    상기 제3 최적 평면을 기반으로 하여 제3 함수를 계산하는 단계;
    상기 제2 스캔 주기 동안,
    상기 제2 스캔 이미지에 있는 상기 제2 포인트 그룹에 근접한 제4 포인트 그룹을 식별하는 단계;
    상기 제4 포인트 그룹에 있는 포인트의 제4 시선 속도 및 제4 위치를 통해 제4 최적 평면을 계산하는 단계로서, 상기 제4 최적 평면은 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제4 접선 속도, 상기 제2 객체의 제4 각 속도 및 상기 제2 객체의 제4 피치 속도 사이의 관계를 나타내는 단계; 및
    상기 제4 최적 평면을 기반으로 하여 제4 함수를 계산하는 단계;
    상기 제3 함수와 상기 제4 함수의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제2 선형 모션 및 상기 제2 객체의 제2 각도 모션을 추정하는 단계; 및
    상기 제1 객체의 상기 선형 모션과 상기 제2 객체의 상기 제2 선형 모션 사이의 정렬에 응답하여 일반적인 강체(common rigid body)에 대응하는 것으로서 상기 제1 객체 및 상기 제2 객체를 식별하는 단계,
    를 더 포함하는 방법.
  38. 제37 항에 있어서,
    상기 제2 시간에서의 상기 제2 객체의 상기 제2 각도 모션을 추정하는 단계는, 상기 제3 함수와 상기 제4 함수의 상기 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제2 각 속도 및 제2 피치 속도를 추정하는 단계를 포함하고,
    상기 제4 포인트 그룹에 있는 포인트의 제4 시선 속도의 제2 중심 경향 척도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제2 시선 속도를 계산하는 단계;
    상기 제2 시간에서의 상기 제2 객체의 상기 제2 시선 속도, 상기 제2 접선 속도, 상기 제2 각 속도 및 상기 제2 피치 속도를 기반으로 하여 상기 제2 시간에서의 상기 제2 객체의 전체 절대 속도를 계산하는 단계;
    상기 제2 시간에서의 상기 제2 객체의 전체 절대 속도 방향으로 상기 제4 포인트 그룹에 있는 포인트의 제4 시선 속도의 제4 속도 성분 세트를 계산하는 단계;
    상기 제2 객체의 상기 전체 절대 속도의 거의 2배인 상기 제4 속도 성분 세트의 최대 속도를 기반으로 하여 상기 제2 객체를 바퀴로 식별하는 단계; 및
    상기 제2 객체를 상기 바퀴로 식별하는 단계에 응답하여, 상기 일반적인 강체를 바퀴달린 차량으로 라벨링하는 단계
    를 더 포함하는 방법.
  39. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    상기 자율 주행 차량에서 일련의 스캔 주기의 각 스캔 주기 동안,
    스캔 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 스캔 이미지에 있는 포인트 그룹을 식별하는 단계로서, 포인트 그룹에 있는 각 포인트는
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 표면의 위치; 및
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 표면의 시선 속도,
    를 포함하는 단계; 및
    상기 포인트 그룹에 있는 포인트의 시선 속도와 위치 사이의 연관성을 기반으로 하여 함수를 계산하는 단계로서, 상기 함수는 상기 스캔 시간에서의 상기 제1 객체의 가능한 선형 모션 및 상기 제1 객체의 가능한 각도 모션과 관련이 있는 단계;
    현재 함수와 이전 함수의 교집합을 기반으로 하여 현재 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 현재 선형 모션 및 상기 제1 객체의 현재 각도 모션을 추정하는 단계로서, 상기 현재 함수는 상기 현재 시간에 캡처된 데이터를 포함하는 제1 스캔 이미지에서 도출되고, 상기 이전 함수는 상기 현재 시간 이전에 캡처된 데이터를 포함하는 제2 스캔 이미지에서 도출되는 단계; 및
    상기 제1 객체의 상기 현재 선형 모션 및 상기 제1 객체의 상기 현재 각도 모션을 기반으로 하여 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  40. 제39 항에 있어서,
    상기 제1 시간에서의 상기 자율 주행 차량의 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계;
    상기 제1 객체의 상기 현재 선형 모션, 상기 제1 객체의 상기 현재 각도 모션 및 상기 현재 시간에서의 상기 자율 주행 차량의 모션을 기반으로 하여 상기 현재 시간에서의 상기 제1 객체의 현재 절대 선형 모션 및 상기 제1 객체의 현재 절대 각도 모션을 계산하는 단계;
    공공 도로에 근접한 일반 객체에 대한 최대 객체 가속도 가정에 액세스하는 단계;
    상기 제1 시간에서의 상기 자율 주행 차량의 모션, 접선 속도와 시선 속도 쌍의 상기 제1 범위 및 상기 제1 시간에서의 상기 제1 객체의 상기 제1 시선 속도를 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 절대 속도 범위를 계산하는 단계; 및
    상기 제1 시간에서부터 상기 제1 임계 시간까지 상기 제1 객체에 액세스할 수 있는 그라운드 영역을 계산하기 위해, 상기 정지 기간 동안 상기 최대 객체 가속도 가정에 따라 가속시키는, 상기 제1 객체의 상기 현재 절대 선형 모션 및 상기 제1 객체의 상기 현재 절대 각도 모션을 적분하는 단계,
    를 더 포함하고,
    상기 내비게이션 액션을 선택하는 단계는 상기 제1 임계 시간 이전에 상기 그라운드 영역으로의 진입을 피하기 위해 상기 제1 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  41. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계로서, 상기 제1 포인트 그룹에 있는 각 포인트는
    상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 표면의 제1 위치; 및
    상기 센서를 기준으로 하는 상기 제1 객체의 상기 표면의 제1 시선 속도,
    를 포함하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 제1 중심 경향 척도를 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제1 시선 속도를 계산하는 단계; 및
    상기 제1 객체의 상기 제1 시선 속도에 수직인 제1 접선 방향을 따라 상기 제1 시간에서의 상기 제1 객체의 모션의 제1 불확실성 방향을 특성화하는 단계;
    상기 제1 시간에서의 상기 자율 주행 차량의 모션을 기반으로 하여 상기 제1 시간 다음의 제2 시간에서의 상기 제1 객체의 모션의 예측된 제2 불확실성 방향을 계산하는 단계; 및
    상기 제1 불확실성 방향과 상이한 상기 제2 불확실성 방향에 응답하여, 상기 제2 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계를 포함하는 방법.
  42. 제41 항에 있어서,
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트에 액세스하는 단계를 더 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 모션의 상기 예측된 제2 불확실성 방향을 계산하는 단계는
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 및 상기 미리 정의된 모션 제한 가정 세트와 일치하는, 상기 자율 주행 차량을 향한, 상기 제1 객체의 최대 접선 속도를 계산하는 단계; 및
    상기 제1 시간에서의 상기 자율 주행 차량의 모션 및 상기 제1 시간에서의 상기 제1 객체의 상기 최대 접선 속도를 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 모션의 예측된 제2 불확실성 방향을 계산하는 단계,
    를 포함하는 방법.
  43. 제41 항에 있어서,
    상기 제1 시간으로부터 오프셋된 임계 시간을 계산하는 단계;
    상기 제1 스캔 이미지를 기반으로 하여, 상기 제1 객체의 제1 위치를 도출하는 단계;
    상기 제1 포인트 그룹에 있는 포인트의 제1 위치와 제1 시선 속도 사이의 제1 연관성을 계산하는 단계;
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 제1 객체의 가능한 각 속도와 관련이 있는 제1 함수를 계산하는 단계; 및
    다음을 기반으로 하여, 상기 제1 시간에서부터 상기 임계 시간까지 상기 제1 객체에 액세스할 수 있는 제1 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 위치;
    상기 제1 객체의 제1 시선 속도;
    상기 제1 함수에 의해 정의된 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도; 및
    공공 도로에 근접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계,
    를 더 포함하고,
    상기 제2 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계는, 임계 거리보다 크게 상기 제1 미래 상태 경계 바깥쪽에 있는 상기 제1 시간에서의 상기 자율 주행 차량 위치에 응답하여 추가로 상기 제2 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계를 포함하는 방법.
  44. 제43 항에 있어서,
    상기 임계 시간을 계산하는 단계는
    상기 제1 시간에서의 상기 자율 주행 차량의 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계; 및
    상기 정지 기간만큼 상기 제1 시간으로부터 오프셋된 상기 임계 시간을 계산하는 단계를 포함하는 방법.
  45. 제41 항에 있어서,
    상기 제1 스캔 주기 동안,
    상기 필드에 있는 제2 객체를 나타내는 상기 제1 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계로서, 상기 제2 포인트 그룹에 있는 각 포인트는
    상기 자율 주행 차량을 기준으로 하는 상기 제2 객체의 표면의 제2 위치; 및
    상기 센서를 기준으로 하는 상기 제2 객체의 상기 표면의 제2 시선 속도,
    를 포함하는 단계;
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 제2 중심 경향 척도를 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제2 객체의 제2 시선 속도를 계산하는 단계; 및
    상기 제2 객체의 상기 제2 시선 속도에 수직인 제2 접선 방향을 따라 상기 제1 시간에서의 상기 제2 객체의 모션의 제3 불확실성 방향을 특성화하는 단계;
    상기 제1 시간에서의 상기 자율 주행 차량의 모션을 기반으로 하여 상기 제2 시간에서의 상기 제2 객체의 모션의 예측된 제4 불확실성 방향을 계산하는 단계; 및
    임계값 차이 미만으로 상기 제3 불확실성 방향과 상이한 상기 예측된 제4 불확실성 방향에 응답하여, 상기 제2 시간에서의, 상기 제2 객체를 기준으로 하는, 상기 자율 주행 차량의 모션을 수정하기 위해 내비게이션 액션을 선택하는 단계를 더 포함하는 방법.
  46. 제45 항에 있어서,
    상기 내비게이션 액션을 선택하는 단계는, 상기 임계값 차이보다 크게 상기 제1 불확실성 방향과 상이한 상기 제2 객체의 모션의 대안적인 제4 불확실성 방향을 산출하기 위해 상기 제2 시간에서의 상기 제2 객체를 기준으로 하는 대체 위치에 상기 자율 주행 차량을 배치하는 상기 내비게이션 액션을 식별하는 단계를 포함하고, 상기 내비게이션 액션은 제동 입력, 가속도 입력 및 조향 입력으로 구성된 내비게이션 액션 그룹에서 선택되는 방법.
  47. 제45 항에 있어서,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제1 시간에서의 상기 자율 주행 차량의 위치 앞의 임계 거리 내에서 상기 제1 시간에서의 상기 자율 주행 차량의 제1 궤적을 교차하는 상기 제3 불확실성 방향에 응답하여 추가로 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  48. 자율 주행 차량의 자율 주행 내비게이션을 위한 방법으로서,
    상기 자율 주행 차량에서 제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡쳐된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계; 및
    상기 제1 포인트 그룹을 기반으로 하여 상기 제1 시간에서의 상기 제1 객체의 제1 모션을 특성화하는 단계;
    상기 자율 주행 차량에서 제2 스캔 주기 동안,
    상기 제1 시간 다음의 제2 시간에 상기 센서에 의해 캡쳐된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계; 및
    상기 제1 모션 및 상기 제2 포인트 그룹을 기반으로 하여 상기 제2 시간에서의 상기 제1 객체의 제2 모션을 특성화하는 단계;
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션의 제2 불확실성을 특성화하는 단계;
    상기 제2 시간에서의 상기 자율 주행 차량의 모션 및 상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션을 기반으로 하여 상기 제2 시간 다음의 제3 시간에서의 상기 제1 객체의 제3 모션에 대한 예측된 제3 불확실성을 계산하는 단계; 및
    상기 제2 불확실성 아래에 속하는 상기 예측된 제3 불확실성에 응답하여, 상기 제2 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계를 포함하는 방법.
  49. 제48 항에 있어서,
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 모션을 특성화하는 단계는,
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도와 제1 방위각 위치 사이의 제1 연관성을 계산하는 단계;
    상기 제1 연관성을 기반으로 하여, 상기 제1 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 함수를 계산하는 단계,
    를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션을 특성화하는 단계는,
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도와 제2 방위각 위치 사이의 제2 연관성을 계산하는 단계;
    상기 제2 연관성을 기반으로 하여, 상기 제2 시간에서의 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제2 함수를 계산하는 단계; 및
    상기 제1 함수와 상기 제2 함수의 교집합을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도 범위 및 상기 제1 객체의 제2 각 속도 범위를 추정하는 단계,
    를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션에 대한 상기 제2 불확실성을 특성화하는 단계는, 상기 제1 함수와 상기 제2 함수의 합집합에 대한 상기 제1 함수와 상기 제2 함수의 교집합의 비(ratio)에 비례하는 상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션에 대한 상기 제2 불확실성을 특성화하는 단계를 포함하는 방법.
  50. 제49 항에 있어서,
    상기 제1 연관성을 계산하는 단계는
    상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도 대(versus) 제1 방위각 위치를 통해 제1 선형 추세선을 계산하는 단계; 및
    상기 제1 선형 추세선의 제1 기울기를 기반으로 하여 상기 제1 연관성을 계산하는 단계로서, 상기 제1 기울기는 상기 제1 시간에서의 상기 제1 객체의 제1 접선 속도와 상기 제1 객체의 제1 각 속도 사이의 관계를 나타내는 단계를 포함하는 방법.
  51. 제50 항에 있어서,
    상기 제2 연관성을 계산하는 단계는
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도 대(versus) 제2 방위각 위치를 통해 제2 선형 추세선을 계산하는 단계;
    상기 제2 선형 추세선의 제2 기울기를 기반으로 하여 상기 제2 연관성을 계산하는 단계로서, 상기 제2 기울기는 상기 제2 시간에서의 상기 제1 객체의 제2 접선 속도와 상기 제1 객체의 제2 각 속도 사이의 관계를 나타내는 단계,
    를 포함하고,
    상기 제1 선형 추세선으로부터의 상기 제1 포인트 그룹에 있는 포인트의 제1 시선 속도의 편차를 기반으로 하여 상기 제1 선형 추세선의 제1 오차를 특성화하는 단계;
    상기 제2 선형 추세선으로부터의 상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 편차를 기반으로 하여 상기 제2 선형 추세선의 제2 오차를 특성화하는 단계,
    를 더 포함하고,
    상기 제1 함수를 계산하는 단계는
    상기 제1 연관성을 기반으로 하여 상기 제1 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 각 속도와 관련이 있는 제1 선을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭을 계산하는 단계,
    를 포함하고,
    상기 제2 함수를 계산하는 단계는
    상기 제2 연관성을 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 가능한 접선 속도 및 상기 제1 객체의 가능한 접선 속도와 관련이 있는 제2 선을 계산하는 단계; 및
    상기 제1 오차를 기반으로 하여 상기 제1 선의 제1 폭을 계산하는 단계,
    를 포함하고,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션에 대한 상기 제2 불확실성을 특성화하는 단계는, 상기 제1 폭의 상기 제1 선과 상기 제2 폭의 상기 제2 선의 교집합 영역에 비례하는 상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션에 대한 상기 제2 불확실성을 특성화하는 단계를 포함하는 방법.
  52. 제49 항에 있어서,
    상기 제3 시간에서의 상기 제1 객체의 상기 제3 모션에 대한 상기 예측된 제3 불확실성을 계산하는 단계는
    상기 제2 시간에서의 상기 자율 주행 차량의 모션 및 상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션을 기반으로 하여 상기 제3 시간에서의 상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 예측된 제3 위치를 계산하는 단계;
    상기 제3 시간에서의 상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 예측된 제3 위치를 기반으로 하여 상기 제3 시간에서의 상기 제1 객체의 모션의 예측된 제3 불확실성 방향을 계산하는 단계; 및
    상기 제2 함수와 상기 제3 불확실성 방향의 교집합을 기반으로 하여 상기 제3 시간에서의 상기 제1 객체의 상기 제3 모션에 대한 상기 예측된 제3 불확실성을 계산하는 단계를 포함하는 방법.
  53. 제52 항에 있어서,
    상기 제3 시간에서의 상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 예측된 제3 위치를 계산하는 단계는
    상기 제2 포인트 그룹에 있는 포인트의 제2 시선 속도의 제1 중심 경향 척도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 시선 속도를 계산하는 단계;
    상기 제2 접선 속도 범위의 제2 중심 경향 척도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 접선 속도를 추정하는 단계;
    상기 제2 각 속도 범위의 제3 중심 경향 척도를 기반으로 하여 상기 제2 시간에서의, 상기 자율 주행 차량을 기준으로 하는, 상기 제1 객체의 제2 각 속도를 추정하는 단계; 및
    상기 제1 객체의 상기 제2 시선 속도, 상기 제1 객체의 상기 제2 접선 속도, 상기 제1 객체의 상기 제2 각 속도 및 상기 제2 시간에서의 상기 자율 주행 차량의 모션을 기반으로 하여 상기 제3 시간에서의 상기 자율 주행 차량을 기준으로 하는 상기 제1 객체의 상기 예측된 제3 위치를 계산하는 단계를 포함하는 방법.
  54. 제48 항에 있어서,
    상기 제2 시간으로부터 오프셋된 임계 시간을 계산하는 단계;
    상기 제2 스캔 이미지를 기반으로 하여, 상기 제1 객체의 제2 위치를 도출하는 단계; 및
    다음을 기반으로 하여, 상기 제2 시간에서부터 상기 임계 시간까지 상기 제2 객체에 액세스할 수 있는 제2 그라운드 영역을 나타내는 제1 미래 상태 경계를 계산하는 단계로서, 상기 다음은,
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 위치;
    상기 제2 시간에서의 상기 제1 객체의 제2 모션; 및
    공공 도로에 인접한 일반 객체에 대한 미리 정의된 모션 제한 가정 세트,
    를 포함하는 단계,
    를 더 포함하고,
    상기 제3 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계는, 임계 거리보다 크게 상기 제2 미래 상태 경계의 바깥쪽에 속하는 상기 제2 시간에서의 상기 자율 주행 차량의 위치에 응답하여 추가로 상기 제3 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계를 포함하는 방법.
  55. 제54 항에 있어서,
    상기 임계 시간을 계산하는 단계는
    상기 제1 시간에서의 상기 자율 주행 차량의 속도(speed)를 기반으로 하여, 상기 자율 주행 차량이 완전 정지에 도달하는 정지 기간을 추정하는 단계; 및
    상기 정지 기간만큼 상기 제1 시간으로부터 오프셋된 상기 임계 시간을 계산하는 단계를 포함하는 방법.
  56. 제48 항에 있어서,
    상기 제1 스캔 주기 동안,
    상기 필드에 있는 제2 객체를 나타내는 상기 제1 스캔 이미지에 있는 제3 포인트 그룹을 식별하는 단계; 및
    상기 제3 포인트 그룹을 기반으로 하여 상기 제1 시간에서의 상기 제2 객체의 제3 모션을 특성화하는 단계;
    상기 제2 스캔 주기 동안,
    상기 필드에 있는 상기 제2 객체를 나타내는 상기 제2 스캔 이미지에 있는 제4 포인트 그룹을 식별하는 단계; 및
    상기 제3 모션 및 상기 제2 포인트 그룹을 기반으로 하여 상기 제2 시간에서의 상기 제2 객체의 제4 모션을 특성화하는 단계;
    상기 제2 시간에서의 상기 제2 객체의 상기 제4 모션에 대한 제4 불확실성을 특성화하는 단계;
    상기 제2 시간에서의 상기 자율 주행 차량의 모션 및 상기 제2 시간에서의 상기 제2 객체의 상기 제4 모션을 기반으로 하여 상기 제3 시간에서의 상기 제2 객체의 제5 모션에 대한 예측된 제5 불확실성을 계산하는 단계; 및
    임계값 차이 미만으로 상기 제4 불확실성과 상이한 상기 예측된 제5 불확실성에 응답하여, 상기 제3 시간에서의, 상기 제2 객체를 기준으로 하는, 상기 자율 주행 차량의 모션을 수정하기 위해 내비게이션 액션을 선택하는 단계를 더 포함하는 방법.
  57. 제56 항에 있어서,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제3 시간에서의 상기 제2 객체의 모션의 불확실성을 감소시키기 위해 상기 제2 시간에서의 상기 제2 객체를 기준으로 하는 대체 위치에 상기 자율 주량 차량을 배치하는 상기 내비게이션 액션을 식별하는 단계를 포함하고, 상기 내비게이션 액션은 제동 입력; 가속도 입력; 및 조향 입력으로 구성된 내비게이션 액션 그룹에서 선택되는 방법.
  58. 제56 항에 있어서,
    상기 내비게이션 액션을 선택하는 단계는, 상기 제2 시간에서의 상기 자율 주행 차량의 제2 궤적을 교차하는 상기 제2 시간에서의 상기 제2 객체의 상기 제4 모션에 응답하여 추가로 상기 내비게이션 액션을 선택하는 단계를 포함하는 방법.
  59. 자율 주행 차량의 자율 주행 내비게이션 방법으로서,
    상기 자율 주행 차량에서 제1 스캔 주기 동안,
    제1 시간에 상기 자율 주행 차량의 센서에 의해 캡처된 데이터를 포함하는 제1 스캔 이미지에 액세스하는 단계;
    상기 자율 주행 차량에 근접한 필드에 있는 제1 객체를 나타내는 상기 제1 스캔 이미지에 있는 제1 포인트 그룹을 식별하는 단계; 및
    상기 제1 포인트 그룹을 기반으로 하여 상기 제1 시간에서의 상기 제1 객체의 제1 모션을 특성화하는 단계;
    상기 제1 시간에서의 상기 제1 객체의 상기 제1 모션에 대한 제1 불확실성을 특성화하는 단계;
    상기 제1 시간에서의 상기 자율 주행 차량의 모션 및 상기 제1 시간에서의 상기 제1 객체의 상기 제1 모션을 기반으로 하여 상기 제1 시간 다음의 제2 시간에서의 상기 제1 객체의 제2 모션에 대한 예측된 제2 불확실성을 계산하는 단계; 및
    상기 제1 불확실성 아래에 속하는 상기 예측된 제2 불확실성에 응답하여, 상기 제2 시간에서의 상기 자율 주행 차량에 의한 객체 회피를 위한 제동 고려 사항에서 상기 제1 객체를 뮤팅하는 단계를 포함하는 방법.
  60. 제59 항에 있어서,
    상기 제1 스캔 주기 다음의 제2 스캔 주기 동안,
    상기 제2 시간에 상기 센서에 의해 캡처된 데이터를 포함하는 제2 스캔 이미지에 액세스하는 단계;
    상기 제1 객체를 나타내는 상기 제2 스캔 이미지에 있는 제2 포인트 그룹을 식별하는 단계; 및
    상기 제1 시간에서의 상기 제2 객체의 상기 제1 모션 및 상기 제2 포인트 그룹을 기반으로 하여 상기 제2 시간에서의 상기 제2 객체의 제2 모션을 특성화하는 단계;
    상기 제2 시간에서의 상기 제1 객체의 상기 제2 모션에 대한 제2 불확실성을 특성화하는 단계; 및
    상기 예측된 제2 불확실성을 초과하는 상기 제2 불확설성에 응답하여, 상기 제2 시간 다음의 제3 시간에서의, 상기 제2 객체를 기준으로 하는, 상기 자율 주행 차량의 모션을 수정하기 위해 내비게이션 액션을 선택하는 단계,
    를 더 포함하는 방법.
KR1020227031758A 2020-02-21 2021-02-22 자율 주행 내비게이션 동안의 객체 회피 방법 KR102503388B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202062980132P 2020-02-21 2020-02-21
US202062980131P 2020-02-21 2020-02-21
US62/980,132 2020-02-21
US62/980,131 2020-02-21
US202063064316P 2020-08-11 2020-08-11
US63/064,316 2020-08-11
PCT/US2021/019122 WO2021168452A2 (en) 2020-02-21 2021-02-22 Method for object avoidance during autonomous navigation

Publications (2)

Publication Number Publication Date
KR20220134029A true KR20220134029A (ko) 2022-10-05
KR102503388B1 KR102503388B1 (ko) 2023-03-02

Family

ID=77366637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227031758A KR102503388B1 (ko) 2020-02-21 2021-02-22 자율 주행 내비게이션 동안의 객체 회피 방법

Country Status (9)

Country Link
US (4) US20210261158A1 (ko)
EP (1) EP4096978A4 (ko)
JP (1) JP7336604B2 (ko)
KR (1) KR102503388B1 (ko)
CN (1) CN115461258B (ko)
AU (1) AU2021222055B2 (ko)
CA (1) CA3168740C (ko)
MX (1) MX2022010293A (ko)
WO (1) WO2021168452A2 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018006738B4 (de) * 2018-02-02 2022-03-10 Mitsubishi Electric Corporation Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte
DE102018211240A1 (de) * 2018-07-07 2020-01-09 Robert Bosch Gmbh Verfahren zum Klassifizieren einer Relevanz eines Objekts
US11592832B2 (en) * 2018-08-20 2023-02-28 Uatc, Llc Automatic robotically steered camera for targeted high performance perception and vehicle control
US11360480B2 (en) 2019-08-21 2022-06-14 Zoox, Inc. Collision zone detection for vehicles
RU2745804C1 (ru) * 2019-11-06 2021-04-01 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ и процессор для управления перемещением в полосе движения автономного транспортного средства
FR3103303B1 (fr) * 2019-11-14 2022-07-22 Continental Automotive Détermination d’un coefficient de friction pour un véhicule sur une route
US11684005B2 (en) * 2020-03-06 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
US11718304B2 (en) 2020-03-06 2023-08-08 Deere & Comoanv Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
JP7431623B2 (ja) * 2020-03-11 2024-02-15 株式会社Subaru 車外環境認識装置
US11678599B2 (en) 2020-03-12 2023-06-20 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11667171B2 (en) 2020-03-12 2023-06-06 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11753016B2 (en) * 2020-03-13 2023-09-12 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
US11685381B2 (en) 2020-03-13 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
KR20210129913A (ko) * 2020-04-21 2021-10-29 주식회사 만도모빌리티솔루션즈 운전자 보조 시스템
US11433885B1 (en) * 2020-08-20 2022-09-06 Zoox, Inc. Collision detection for vehicles
KR20220027327A (ko) * 2020-08-26 2022-03-08 현대모비스 주식회사 딥러닝 기반 노면판단 모델을 이용한 터레인모드 제어 방법 및 장치
US11954924B2 (en) * 2020-10-23 2024-04-09 Shoppertrak Rct Llc System and method for determining information about objects using multiple sensors
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
US11702102B2 (en) * 2020-11-19 2023-07-18 Waymo Llc Filtering return points in a point cloud based on radial velocity measurement
US20220289237A1 (en) * 2021-03-10 2022-09-15 Gm Cruise Holdings Llc Map-free generic obstacle detection for collision avoidance systems
KR20230000655A (ko) * 2021-06-25 2023-01-03 현대자동차주식회사 차량 및 그 제어 방법
US11904906B2 (en) * 2021-08-05 2024-02-20 Argo AI, LLC Systems and methods for prediction of a jaywalker trajectory through an intersection
US20230047336A1 (en) * 2021-08-12 2023-02-16 Waymo Llc Time gaps for autonomous vehicles
CN113997943A (zh) * 2021-10-28 2022-02-01 山东新一代信息产业技术研究院有限公司 一种基于语义聚类的自动驾驶车辆控制方法、设备及介质
US20230162374A1 (en) * 2021-11-19 2023-05-25 Shenzhen Deeproute.Ai Co., Ltd Method for forecasting motion trajectory, storage medium, and computer device
KR102512793B1 (ko) * 2021-11-29 2023-03-22 한국기술교육대학교 산학협력단 차량의 군집주행을 위한 시스템
US12030528B2 (en) * 2021-12-03 2024-07-09 Zoox, Inc. Vehicle perception system with temporal tracker
WO2023206346A1 (en) * 2022-04-29 2023-11-02 Nvidia Corporation Detecting hardware faults in data processing pipelines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010235063A (ja) * 2009-03-31 2010-10-21 Equos Research Co Ltd 車両制御装置、車両、及び車両制御プログラム
KR20110074629A (ko) * 2008-10-24 2011-06-30 그레이 앤 컴퍼니, 인크. 자율 운전 차량의 제어 및 시스템
JP2018192826A (ja) * 2017-05-12 2018-12-06 株式会社デンソー 車両の自動運転制御システム
JP2019026129A (ja) * 2017-08-01 2019-02-21 トヨタ自動車株式会社 運転支援装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3322500A1 (de) * 1983-06-23 1987-03-19 Krupp Gmbh Verfahren zum passiven bestimmen von zieldaten eines fahrzeugs
DE19747446A1 (de) * 1997-10-28 1999-04-29 Cit Alcatel Verfahren zur Ansteuerung mindestens eines Haltestellen-Displays und Steuerzentrale
JP3427815B2 (ja) * 2000-03-30 2003-07-22 株式会社デンソー 先行車選択方法及び装置、記録媒体
US6982668B1 (en) * 2003-09-30 2006-01-03 Sandia Corporation Tangential velocity measurement using interferometric MTI radar
US20060100771A1 (en) * 2004-11-10 2006-05-11 E-Lead Electronic Co., Ltd. Vehicle speed detection apparatus
JP4893118B2 (ja) * 2006-06-13 2012-03-07 日産自動車株式会社 回避制御装置、この回避制御装置を備える車両および回避制御方法
US20100295940A1 (en) * 2007-10-16 2010-11-25 I F M Electronic Gmbh Method and apparatus for determining distance
WO2012172632A1 (ja) * 2011-06-13 2012-12-20 トヨタ自動車株式会社 運転支援装置及び運転支援方法
US9187099B2 (en) * 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
CA2910296A1 (en) 2014-12-12 2016-06-12 Atlantic Inertial Systems Limited (HSC) Collision detection system
US9784829B2 (en) * 2015-04-06 2017-10-10 GM Global Technology Operations LLC Wheel detection and its application in object tracking and sensor registration
US9599706B2 (en) * 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
US10654477B2 (en) * 2015-10-15 2020-05-19 Hitachi Automotive Systems, Ltd. Vehicle control device
JP6655342B2 (ja) * 2015-10-15 2020-02-26 株式会社Soken 衝突判定システム、衝突判定端末及びコンピュータプログラム
WO2017147747A1 (en) * 2016-02-29 2017-09-08 SZ DJI Technology Co., Ltd. Obstacle avoidance during target tracking
EP3349033A1 (en) * 2017-01-13 2018-07-18 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
US11334070B2 (en) * 2017-08-10 2022-05-17 Patroness, LLC Systems and methods for predictions of state of objects for a motorized mobile system
JP6989766B2 (ja) * 2017-09-29 2022-01-12 ミツミ電機株式会社 レーダー装置及び物標検出方法
CN111417871A (zh) * 2017-11-17 2020-07-14 迪普迈普有限公司 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理
WO2019138485A1 (ja) * 2018-01-11 2019-07-18 住友電気工業株式会社 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム
US11091162B2 (en) * 2018-01-30 2021-08-17 Toyota Motor Engineering & Manufacturing North America, Inc. Fusion of front vehicle sensor data for detection and ranging of preceding objects
WO2019157455A1 (en) * 2018-02-09 2019-08-15 Skydio, Inc. Aerial vehicle smart landing
US11022683B1 (en) * 2018-03-15 2021-06-01 Aeva, Inc. Simultaneous measurement of range and velocity using optical radar
US11550061B2 (en) * 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
US10706294B2 (en) * 2018-05-03 2020-07-07 Volvo Car Corporation Methods and systems for generating and using a road friction estimate based on camera image signal processing
JP2019197375A (ja) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 衝突回避支援装置
EP3572839A1 (en) * 2018-05-23 2019-11-27 Aptiv Technologies Limited Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system
EP3842303B1 (en) 2018-08-14 2024-05-15 Mobileye Vision Technologies Ltd. Systems and methods for navigating with safe distances
US20200211394A1 (en) 2018-12-26 2020-07-02 Zoox, Inc. Collision avoidance system
US11090525B2 (en) * 2019-01-25 2021-08-17 4Iiii Innovations Inc. Virtual inertia enhancements in bicycle trainer resistance unit
US10943355B2 (en) 2019-01-31 2021-03-09 Uatc, Llc Systems and methods for detecting an object velocity
CN110362074B (zh) * 2019-06-18 2021-11-23 华南理工大学 一种基于航迹重规划的水面无人艇动态避碰方法
US11663833B2 (en) * 2019-11-08 2023-05-30 Vayyar Imaging Ltd. Systems and methods for sensing the surroundings of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110074629A (ko) * 2008-10-24 2011-06-30 그레이 앤 컴퍼니, 인크. 자율 운전 차량의 제어 및 시스템
JP2010235063A (ja) * 2009-03-31 2010-10-21 Equos Research Co Ltd 車両制御装置、車両、及び車両制御プログラム
JP2018192826A (ja) * 2017-05-12 2018-12-06 株式会社デンソー 車両の自動運転制御システム
JP2019026129A (ja) * 2017-08-01 2019-02-21 トヨタ自動車株式会社 運転支援装置

Also Published As

Publication number Publication date
WO2021168452A3 (en) 2021-10-28
EP4096978A2 (en) 2022-12-07
WO2021168452A8 (en) 2022-10-06
MX2022010293A (es) 2023-01-04
US11719821B2 (en) 2023-08-08
JP7336604B2 (ja) 2023-08-31
JP2023507671A (ja) 2023-02-24
KR102503388B1 (ko) 2023-03-02
WO2021168452A2 (en) 2021-08-26
US20210261159A1 (en) 2021-08-26
US20210261158A1 (en) 2021-08-26
US11235785B2 (en) 2022-02-01
US20230333252A1 (en) 2023-10-19
CN115461258B (zh) 2023-09-05
CA3168740C (en) 2023-08-01
AU2021222055B2 (en) 2022-12-01
AU2021222055A1 (en) 2022-10-06
EP4096978A4 (en) 2024-03-06
US20210261157A1 (en) 2021-08-26
CA3168740A1 (en) 2021-08-26
CN115461258A (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
KR102503388B1 (ko) 자율 주행 내비게이션 동안의 객체 회피 방법
US11772680B2 (en) Mapping lane marks and navigation based on mapped lane marks
US20220397402A1 (en) Systems and methods for determining road safety
WO2021053393A1 (en) Systems and methods for monitoring traffic lane congestion
WO2021138616A1 (en) Systems and methods for vehicle navigation
WO2018204656A1 (en) Detection and classification systems and methods for autonomous vehicle navigation
US11680801B2 (en) Navigation based on partially occluded pedestrians
JP2004531424A (ja) 車用の感知装置
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
WO2020174279A2 (en) Systems and methods for vehicle navigation
US20230236037A1 (en) Systems and methods for common speed mapping and navigation
US20230202473A1 (en) Calculating vehicle speed for a road curve
EP4330934A2 (en) Multi-frame image segmentation
US20230211726A1 (en) Crowdsourced turn indicators
US20240094399A1 (en) System and method for object reconstruction and automatic motion-based object classification
JP2020148601A (ja) 認識装置、車両制御装置、認識方法、およびプログラム
WO2023067385A2 (en) Radar-camera fusion for vehicle navigation
GB2616114A (en) Vehicle navigation with pedestrians and determining vehicle free space

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant