CN113313936A - 用于运载工具的交通灯检测*** - Google Patents
用于运载工具的交通灯检测*** Download PDFInfo
- Publication number
- CN113313936A CN113313936A CN202110219428.5A CN202110219428A CN113313936A CN 113313936 A CN113313936 A CN 113313936A CN 202110219428 A CN202110219428 A CN 202110219428A CN 113313936 A CN113313936 A CN 113313936A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- traffic
- digital video
- location
- processors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 52
- 230000004044 response Effects 0.000 claims abstract description 35
- 238000001914 filtration Methods 0.000 claims abstract description 15
- 238000004891 communication Methods 0.000 claims description 41
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 37
- 230000008447 perception Effects 0.000 description 28
- 230000004807 localization Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 20
- 230000001133 acceleration Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 230000007704 transition Effects 0.000 description 8
- 238000012795 verification Methods 0.000 description 8
- 230000001276 controlling effect Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101100175317 Danio rerio gdf6a gene Proteins 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18154—Approaching an intersection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/095—Traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/096805—Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
- H04L67/025—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/52—Network services specially adapted for the location of the user terminal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/44—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Atmospheric Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
Abstract
本发明涉及一种用于运载工具的交通灯检测***。用于操作运载工具的方法包括:基于第一照相机所捕获的第一数字视频流和第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯。通过对照对从传感器接收到的第一地点数据进行滤波而获得的第二地点数据来验证第一地点数据,确定为运载工具位于第二时空地点处。基于第二时空地点所参考的语义地图确定为交通灯预期在第一时空地点处。响应于确定为交通灯预期在第一时空地点处,基于两个第一数字视频流检测交通灯的交通信号。根据交通信号来确定轨迹。控制电路根据轨迹来操作运载工具。
Description
技术领域
本说明书总体上涉及运载工具的操作,并且具体地涉及用于运载工具的交通灯检测***。
背景技术
运载工具从初始地点到最终目的地的操作通常需要用户或运载工具的决策***选择通过道路网络从初始地点到最终目的地的路线。该路线可能涉及满足诸如不超过最大驾驶时间等的目标。复杂的路线可能需要许多决策,使得用于自主驾驶的传统贪婪算法不切实际。
发明内容
用于操作运载工具的方法包括使用该运载工具的一个或多个处理器来检测位于第一时空地点处的交通灯。该检测是基于由运载工具的第一照相机捕获的第一数字视频流和由运载工具的第二照相机捕获的第二数字视频流。处理器还确定为运载工具位于第二时空地点处。为了确定第二时空地点,处理器对照第二地点数据来验证使用运载工具的多个传感器所生成的第一地点数据。通过使用滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)对第一地点数据进行滤波来获得第二地点数据。处理器基于由第二时空地点所参考的语义地图而确定为交通灯预期在第一时空地点处。响应于确定为交通灯预期在第一时空地点处,处理器基于第一数字视频流和第二数字视频流来检测交通灯的交通信号。处理器根据交通信号确定运载工具的轨迹。运载工具的控制电路根据所确定的轨迹来操作运载工具。
另一方面,运载工具的一个或多个处理器接收来自该运载工具的LiDAR、该运载工具的RADAR的传感器数据以及来自该运载工具的全球导航卫星***(GNSS)接收器的地点数据。第一滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)由处理器执行以通过对地点数据进行滤波来确定运载工具的时空地点。时空地点与一个或多个行驶车道相关联。处理器对照基于LiDAR、RADAR和GNSS接收器的模冗余的地点数据来验证运载工具的时空地点。处理器从运载工具的方向盘传感器和轮传感器接收里程数据。由处理器执行第二滤波器以通过对里程数据进行滤波来确定为运载工具正在特定行驶车道中操作。处理器基于由运载工具的照相机捕获的数字视频流来识别与特定行驶车道相对应的交通灯。运载工具的控制电路根据交通灯的交通信号来操作运载工具。
另一方面,运载工具的一个或多个处理器基于由运载工具的照相机捕获的数字视频流检测到交通灯的交通信号已经从绿灯转变为黄灯。处理器基于由运载工具的专用短距离通信(DSRC)传感器接收到的DSRC消息来验证为交通信号已经转变为黄灯。DSRC消息由交通灯的DSRC发送器发送。处理器基于数字视频流确定为交通信号将在特定时间量内转变为红灯。处理器基于数字视频流确定为运载工具位于距交通灯的停止线的特定距离处。处理器确定为运载工具能够根据舒适性配置文件在特定时间量内停止在停止线处。该确定是基于特定时间量和距停止线的特定距离。运载工具的控制电路根据舒适性配置文件使运载工具在特定时间量内停止在停止线处。
另一方面,运载工具的控制电路根据运载工具的轨迹在特定行驶车道中操作运载工具。该轨迹引导运载工具在交叉口处左转。运载工具的一个或多个处理器检测到运载工具正在接近交叉口。处理器基于从运载工具的一个或多个传感器接收到的传感器数据来确定运载工具的时空地点。处理器基于时空地点所参考的语义地图来确定运载工具距交叉口的距离。处理器基于传感器数据确定为运载工具能够在交叉口处从特定行驶车道左转。传感器数据包括特定车道的车道标记的数字视频流。处理器检测到位于交叉口处的交通灯的交通信号为绿色左转箭头或绿灯。响应于检测到交通信号为绿色左转箭头,控制电路操作运载工具,以使得运载工具根据轨迹在交叉口处左转。
根据本发明的一方面,提供一种方法,其包括:由运载工具的一个或多个处理器基于所述运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;由所述一个或多个处理器确定为所述运载工具位于第二时空地点处,所述确定包括:由所述一个或多个处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过由滤波器对所述第一地点数据进行滤波而获得的;由所述一个或多个处理器基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;响应于确定为所述交通灯预期在所述第一时空地点处,由所述一个或多个处理器基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;由所述一个或多个处理器根据所述交通信号确定所述运载工具的轨迹;以及由所述运载工具的控制电路根据所确定的轨迹来操作所述运载工具。
根据本发明的一方面,提供一种运载工具,其包括:一个或多个计算机处理器;以及一个或多个存储有指令的非暂时性存储介质,所述指令在由所述一个或多个计算机处理器执行时使所述一个或多个计算机处理器:基于所述运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;确定为所述运载工具位于第二时空地点处,所述确定包括:由所述一个或多个计算机处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过滤波器对所述第一地点数据进行滤波而获得的;基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;响应于确定为所述交通灯预期在所述第一时空地点处,基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;根据所述交通信号确定所述运载工具的轨迹;以及由所述运载工具的控制电路根据所确定的轨迹来操作所述运载工具。
根据本发明的一方面,提供一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时使所述一个或多个计算装置:基于运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;确定为所述运载工具位于第二时空地点处,所述确定包括:由所述运载工具的一个或多个处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过滤波器对所述第一地点数据进行滤波而获得的;基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;响应于确定为所述交通灯预期在所述第一时空地点处,基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;根据所述交通信号确定所述运载工具的轨迹;以及根据所确定的轨迹来操作所述运载工具。
本文所公开的实施例的益处和优点包括:由自主运载工具生成和评价不同且复杂的运动片段以应对交通灯和交通信号,同时降低操作成本并防止碰撞,等等。所公开的实施例增加了运载工具以及行人和其它运载工具的导航安全性。通过自动预测交通灯的地点并识别交通信号的转变,运载工具可以增加乘客舒适度以及乘客和行人的安全性。此外,还实现了减小运载工具的磨损、减小行驶时间、减小行驶距离以及增加道路网络上的其它运载工具的安全性。
这些和其它方面、特征和实现可以被表示为用于进行功能的方法、设备、***、组件、程序产品、部件或步骤以及以其它方式表示。
这些和其它方面、特征和实现将从以下描述(包括权利要求书)变得清楚。
附图说明
图1是例示根据一个或多个实施例的具有自主能力的自主运载工具(AV)的示例的框图。
图2是例示根据一个或多个实施例的示例“云”计算环境的框图。
图3是例示根据一个或多个实施例的计算机***的框图。
图4是例示根据一个或多个实施例的AV的示例架构的框图。
图5是例示根据一个或多个实施例的可以由感知模块使用的输入和输出的示例的框图。
图6是例示根据一个或多个实施例的LiDAR***的示例的框图。
图7是例示根据一个或多个实施例的操作中的LiDAR***的框图。
图8是例示根据一个或多个实施例的LiDAR***的操作的附加细节的框图。
图9是例示根据一个或多个实施例的规划模块的输入和输出之间的关系的框图。
图10例示根据一个或多个实施例的在路径规划中使用的有向图。
图11是例示根据一个或多个实施例的控制模块的输入和输出的框图。
图12是例示根据一个或多个实施例的控制器的输入、输出和组件的框图。
图13A是例示根据一个或多个实施例的用于运载工具的交通灯检测(TLD)***的框图。
图13B是例示根据一个或多个实施例的感知模块的框图。
图13C是例示根据一个或多个实施例的绘图模块的框图。
图13D是例示根据一个或多个实施例的定位模块的框图。
图14例示根据一个或多个实施例的示例TLD场景。
图15是例示根据一个或多个实施例的用于运载工具的TLD***的操作处理的流程图。
图16是例示根据一个或多个实施例的用于运载工具的TLD***的操作处理的流程图。
图17是例示根据一个或多个实施例的用于运载工具的TLD***的操作处理的流程图。
图18是例示根据一个或多个实施例的用于运载工具的TLD***的操作处理的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,本发明可以在没有这些具体细节的情况下实施将是明显的。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,示出了示意要素(诸如表示装置、模块、指令块和数据要素的那些要素)的具体排列或次序。然而,本领域技术人员应当理解,附图中示意要素的具体次序或排列并不意在意味着要求特定的处理次序或序列、或处理过程的分离。此外,在附图中包含示意要素并不意在意味着在所有实施例中都需要这种要素,也不意在意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、诸如实线或虚线或箭头用于例示两个或更多个其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意在意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中示出,以便不使本公开内容模糊。此外,为了便于例示,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接要素表示信号、数据或指令的通信,本领域技术人员应理解,这种要素表示影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中例示出。在以下的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说将明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地使实施例的方面模糊。
下面描述的若干特征各自可以彼此独立地使用,也可以与其它特征的任何组合一起使用。然而,任何个别特征可能不能解决以上所讨论的任何问题,或者只能解决以上所讨论的问题之一。以上所讨论的一些问题可能不能通过本文所描述的任何一个特征得到充分解决。虽然提供了标题,但在本说明书的其它地方也可以找到与具体标题有关但在具有该标题的部分中未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.***概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.交通灯检测***的架构
8.用于交通灯检测***的操作的处理
***概述
图1是例示根据一个或多个实施例的具有自主能力的自主运载工具100的示例的框图。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地操作,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点操作到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物特征传感器)、传输和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(诸如,模数转换器)、数据存储装置(诸如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(诸如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村区域的污物通道等)。因为有些运载工具(例如,四轮驱动的小卡车、越野车(SUV)等)能够穿过各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式定义为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的一些空间(例如,小于50%)。例如,具有相距远的车道标记的道路可能在标记之间容纳两个或更多个运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,并且因此可被解释为具有比车道标记之间的空间窄的车道,或具有车道之间的两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如乡村区域沿着通道的岩石和树木)来定义车道。
“一个或多个”包括由一个要素执行的功能、由多个要素例如以分布式的方式执行的功能、由一个要素执行的若干功能、由若干要素执行的若干功能、或上述的任何组合。
还将理解的是,尽管在一些情况下,术语“第一”、“第二”等在本文中是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所描述的实施例的范围的情况下,第一触点可被称为第二触点,并且类似地,第二触点可被称为第一触点。第一触点和第二触点两者都是触点,但它们不是相同触点。
在本文所描述的各种实施例的说明书中使用的术语仅用于描述特定实施例的目的,而不是意在限制。如在所描述的各种实施例的说明书和所附权利要求书中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还将理解的是,如本文所使用的“和/或”是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还将理解的是,当在本说明书中使用术语“包括”、“包含”、“具备”和/或“具有”时,具体说明存在所陈述的特征、整数、步骤、操作、要素和/或组件,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组件、和/或其群组。
如本文所使用的,取决于上下文,术语“如果”可选地被理解为意指“当”或“在当时”或“响应于确定为”或“响应于检测到”。类似地,取决于上下文,短语“如果已确定”或“如果[所陈述的条件或事件]已被检测到”可选地被理解为意指“在确定时”或“响应于确定为“或”在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
如本文所使用的,AV***是指AV以及支持AV操作的硬件、软件、存储的数据和实时生成的数据的阵列。在实施例中,AV***并入在AV内。在实施例中,AV***跨若干地点分布。例如,AV***的一些软件是在类似于下面关于图2描述的云计算环境200的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,诸如分别为所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶***相关术语的分类和定义,通过引用将其全部内容并入本文件,用于了解运载工具自主权等级的更多详细信息)。本文件所描述的技术也适用于部分自主运载工具和驾驶员辅助运载工具,诸如所谓的第2级和第1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶***相关术语的分类和定义)。在实施例中,一个或多个第1级、第2级、第3级、第4级和第5级运载工具***可基于对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所描述的技术可以使从完全自主运载工具到人类操作的运载工具范围内的任何级别的运载工具受益。
参考图1,AV***120使AV 100沿着轨迹198操作,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV***120包括被装备以从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304类似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV***120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性诸如是AV的位置、线速度和加速度、角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是GNSS、测量运载工具线加速度和角速率两者的惯性测量单元(IMU)、用于测量或估计轮滑移率的轮传感器、轮制动压力或制动扭矩传感器、引擎扭矩或轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、超声波传感器、飞行时间(TOF)深度传感器、速率传感器、温度传感器、湿度传感器和降水传感器。
在实施例中,AV***120包括数据存储单元142和存储器144,用于存储与计算机处理器146相关联的机器指令或由传感器121收集的数据。在实施例中,数据存储单元142与以下关于图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据从远程数据库134通过通信信道传输到AV 100。
在实施例中,AV***120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线速度和角速度、线加速度和角加速度、以及线航向和角航向)测量或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV***120。在实施例中,远程数据库134嵌入在如图2中所描述的云计算环境200中。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与遥操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储诸如道路和街道地点的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速度分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息两者以算法方式生成控制动作,允许AV***120执行其自主驾驶能力。
在实施例中,AV***120包括耦接到计算装置146的计算机***设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,***设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。耦接是无线的或有线的。任意两个或更多个的接口装置可以集成到单个装置中。
示例云计算环境
图2是例示根据一个或多个实施例的示例“云”计算环境的框图。云计算是一种服务交付模式,用于使得能够方便、按需地在网络上访问可配置计算资源(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)的共享池。在典型的云计算***中,一个或多个大型云数据中心容纳用于交付云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机***206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。一般而言,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,并且每行包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器基于数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)被排列成若干组。在实施例中,服务器节点类似于图3中描述的计算机***。数据中心204a具有许多分布在多个机架上的计算***。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算***206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路耦接的网际网络的任意组合。通过网络交换的数据使用多种网络层协议(诸如,因特网协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(Frame Relay)等)进行传输。此外,在网络表示多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络表示一个或多个互连网际网络(诸如公共因特网等)。
计算***206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算***206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)装置、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算***206a-f在其它***中实现或作为其它***的一部分实现。
计算机***
图3是例示根据一个或多个实施例的计算机***300的框图。在实现中,计算机***300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)的被持久编程为执行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机***、便携式计算机***、手持装置、网络装置或包含硬线和/或程序逻辑以实现这些技术的任何其它设备。
在实施例中,计算机***300包括总线302或用于传达信息的其它通信机制、以及与总线302耦接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机***300还包括主存储器306,诸如随机存取存储器(RAM)或其它动态存储装置,该主存储器306耦接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机***300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机***300还包括只读存储器(ROM)308或耦接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉口存储器的存储装置310,并且该存储装置310耦接到总线302以存储信息和指令。
在实施例中,计算机***300通过总线302耦接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器的显示器312。包括字母数字键和其它键的输入装置314耦接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,诸如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴(第一轴(例如,x轴)和第二轴(例如,y轴))上的两个自由度,这两个轴允许装置指定平面上的位置。
根据一个实施例,本文的技术由计算机***300响应于处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列而执行。这些指令从诸如存储装置310的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所描述的过程步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
如本文所使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式操作。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310的光盘、磁盘、固态驱动器或三维交叉口存储器。易失性介质包括动态存储器,诸如主存储器306。存储介质的常见形式包括例如软盘、软磁盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,诸如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及将一个或多个指令的一个或多个序列承载到处理器304以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机***300的本地调制解调器接收电话线路上的数据,并使用红外发射器将数据转换为红外信号。红外检测器接收红外信号中承载的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收到的指令可以可选地在处理器304执行之前或之后存储在存储装置310上。
计算机***300还包括耦接到总线302的通信接口318。通信接口318提供耦接到连接至本地网络322的网络链路320的双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载表示各种类型的信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”328的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328两者都使用承载数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中这些信号承载了进出计算机***300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机***300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机***300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4是例示根据一个或多个实施例的用于自主运载工具(例如,图1所示的AV 100)的示例架构400的框图。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV***120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV 100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自全球导航卫星***(GNSS)单元的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如人行横道、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5是例示根据一个或多个实施例的感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例的框图。一个输入502a是LiDAR(光检测和测距)***(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR***产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表示的3D或2D点(也称为点云)的集合。
另一输入502b是RADAR(雷达)***。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR***的视线内的对象有关的数据。RADAR***502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表示的一个或多个射频电磁信号。
另一输入502c是照相机***。照相机***使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机***产生照相机数据作为输出504c。照相机数据通常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。在一些示例中,照相机***具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机***能够感知深度。尽管照相机***所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机***可被配置为“看见”远处的(例如,AV前方的远至1公里或更远的)对象。因此,照相机***可以具有为了感知遥远的对象而优化的诸如传感器和镜头等的特征。
另一输入502d是交通灯检测(TLD)***。TLD***使用一个或多个照相机来获得与交通灯、街道标志和提供视觉操作信息的其它物理对象有关的信息。TLD***产生TLD数据作为输出504d。TLD数据经常采用图像数据(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)的形式。TLD***与包含照相机的***的不同之处在于:TLD***使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉操作信息的物理对象有关的信息,使得AV 100能够访问这些对象所提供的所有相关操作信息。例如,TLD***的视角可以为约120度或更大。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它***(例如,提供至如图4所示的规划模块404),或者可以采用相同类型的单个组合输出或多个组合输出(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型的单个组合输出或多个组合输出(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的形式,将组合输出提供至其它***。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:在将一个或多个数据处理步骤应用到组合输出之前,将输出组合。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6是例示根据一个或多个实施例的LiDAR***602的示例(例如,图5所示的输入502a)的框图。LiDAR***602从发光器606(例如,激光发射器)发射光604a-604c。LiDAR***所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR***602。(从LiDAR***发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR***602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与LiDAR***相关联的一个或多个数据处理***生成表示LiDAR***的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定AV附近的一个或多个物理对象的边界616。
图7是例示根据一个或多个实施例的操作中的LiDAR***602的框图。在该图所示的情境中,AV 100接收采用图像702的形式的照相机***输出504c和采用LiDAR数据点704的形式的LiDAR***输出504a两者。在使用中,AV 100的数据处理***将图像702与数据点704进行比较。特别地,在数据点704中也识别在图像702中识别出的物理对象706。这样,AV100基于数据点704的轮廓和密度来感知物理对象的边界。
图8是例示根据一个或多个实施例的LiDAR***602的操作的附加细节的框图。如上所述,AV 100基于LiDAR***602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR***602发射的光804a-804d。换句话说,由于LiDAR***602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR***602。在AV 100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR***602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR***602所发射的光804e-804f将以与预期一致方式不一致的方式从点810a-810b反射。根据该信息,AV 100可以确定存在对象808。
路径规划
图9是例示根据一个或多个实施例的(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。一般而言,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要在街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分上行驶的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小卡车等的能够越野的运载工具,则路线902包括诸如未铺面路径或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个或多个车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素来从这多个车道中选择某车道。类似地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10例示根据一个或多个实施例的在路径规划中(例如,由规划模块404(图4))使用的有向图1000。一般而言,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个交叉口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括用于该有向图中的表示AV 100的视场中的物理地点的一部分的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能穿过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边缘1010a-1010c连接。如果两个节点1006a-1006b通过边缘1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV 100在节点之间行驶时,意味着AV100在由相应节点表示的两个物理位置之间行驶。)边缘1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边缘1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV 100不能从第二节点行驶到第一节点。在边缘1010a-1010c表示例如单向街道,街道、道路或公路的单独车道,或者由于法律或物理约束因而仅能沿一个方向穿过的其它特征的情况下,边缘1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边缘组成的路径1012。
边缘1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV 100选择该边缘的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边缘1010a所表示的物理距离是另一边缘1010b所表示的物理距离的两倍,则第一边缘1010a的关联成本1014a可以是第二边缘1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、交叉口的数量、限速等。另一典型的资源是燃料经济性。两个边缘1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边缘1010a与另一边缘1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边缘的个体成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11是例示根据一个或多个实施例的(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而操作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器,随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12是例示根据一个或多个实施例的控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的若干输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达交叉口时穿过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
交通灯检测***的架构
图13A是例示根据一个或多个实施例的用于AV 100的交通灯检测(TLD)***1300的框图。参考图1更详细地例示和描述AV 100。在图5中引入并描述了示例TLD***。在本文公开的实施例中,术语“交通灯”是指正被检测的硬件,包括支撑硬件和包括圆形或方形灯的框。术语“交通信号”是指交通灯的状态,即交通灯是否是红灯、闪光黄灯、绿色转向箭头等。因此,交通灯的交通信号用于引导交通。
图13A中例示的示例TLD***1300包括感知模块1304、绘图模块1340和定位模块1360。感知模块1304不同于参考图4例示和描述的感知模块402。感知模块1304包括照相机和其它传感器并且用于检测交通信号1310的状态等。感知模块1304是使用参考图3例示和描述的组件来实现的。感知模块1304生成交通灯1404的交通信号1310,如参考图13B更详细地例示和描述的。参考图14更详细地例示和描述交通灯1404。
定位模块1360不同于参考图4例示和描述的定位模块408。定位模块1360用于确定AV 100的地点和交通灯1404的地点等。定位模块1360是使用参考图3例示和描述的组件来实现的。绘图模块1340存储环境190的地图并对其进行搜索和计算,以预测交通灯1404的地点等。绘图模块1340是使用参考图3例示和描述的组件来实现的。
TLD***1300从规划模块404接收轨迹198。参考图1更详细地例示和描述轨迹198。参考图4更详细地例示和描述规划模块404。AV 100在环境190内操作,参考图1更详细地例示和描述。环境190包括AV 100、一个或多个运载工具193、一个或多个行人192、交叉口和交通灯。参考图1更详细地例示和描述一个或多个运载工具193以及一个或多个行人192。
图13B是例示根据一个或多个实施例的感知模块1304的框图。图13C是例示根据一个或多个实施例的绘图模块1340的框图。图13D是例示根据一个或多个实施例的定位模块1360的框图。在一些实施例中,图13A、图13B、图13C中例示的组件如图13A、图13B、图13C中所示连接。在其它实施例中,图13A、图13B、图13C中所示的连接中的一些被省略或存在组件之间的附加连接。
感知模块1304基于由AV 100的照相机1306a捕获的数字视频流1308a来检测位于第一时空地点处的交通灯。例如,检测位于地点1408处的交通灯1404。参考图14更详细地例示和描述交通灯1404和地点1408。照相机1306a可以是可见光、红外或热(或两者兼有)光谱的单目或立体摄像机。数字视频流1308a是编码数字数据形式的移动可视图像的电子表示。电路1324a对数字视频流1308a进行图像处理和识别功能以生成标识交通灯1404的数据1326a。电路1324a是使用参考图3例示和描述的组件来实现的。在一些实施例中,电路1324a包括执行软件的通用CPU。
第二数字视频流1308b由AV 100的第二照相机1306b捕获以用于模冗余。在一些实施例中,照相机1306a位于AV 100上的第一位置处(例如,在顶上)。照相机1306b位于AV 100上的第二位置处(例如,在AV 100的一侧或前保险杠上方),以基于数字视频流1308a和数字视频流1308b的冗余来提高交通灯1404的检测的准确度。
数字视频流1308a、1308b可以由电路1324a、1324b、1320进行比较以确定差异并且以更大的准确度检测位于地点1408处的交通灯1404。电路1324b、1320是使用参考图3例示和描述的组件来实现的。在一些实施例中,电路1324b、1320包括执行软件的通用CPU。电路1320有时被称为“交通灯状态检测”模块或“交通灯状态比较”模块。电路1322使用(由定位模块1350生成的)AV 100的地点数据来基于数字视频流1308a、1308b确定交通灯1404相对于AV 100的地点1408。电路1322有时被称为“位置/关系意识”电路。地点数据包括交通灯1404的所确定的地点1408。在一些实施例中,电路1322基于由绘图模块1340存储的环境190的语义地图1342确定为交通灯1404预期在地点1408处。电路1348a、1322使用AV 100的所确定的时空地点1412来参考语义地图1342。图14例示了时空地点1412。电路1322因此相对于AV 100定位交通灯1404以便于交通灯检测。电路1322、1348a是使用参考图3例示和描述的组件来实现的。在一些实施例中,电路1322、1348a包括执行软件的通用CPU。
响应于确定为交通灯1404预期在地点1408处,电路1320基于数字视频流1308a和数字视频流1308b检测交通灯1404的交通信号1310。为了检测交通信号1310,电路1324a分割数字视频流1308a的至少一个图像帧。电路1324a使用边缘检测来检测至少一个图像帧的与交通信号1310相对应的区域。例如,交通灯1404的矩形框包含三个或更多个圆形或方形灯。电路1324a分割框内的矩形区域以隔离灯。类似地,电路1324b处理数字视频流1308b以分割交通灯1404的框内的矩形区域来检测交通信号1310。电路1320、1324b是使用参考图3例示和描述的组件来实现的。在一些实施例中,电路1320、1324b包括执行软件的通用CPU。
感知模块1300使用N模冗余来检测交通信号1310。在一些实施例中,N为3。在其它实施例中,N可以是4、5、6等,这取决于照相机的数量。例如,为了检测交通信号1310,电路1324a、1320基于来自照相机1306a的数字视频流1308a检测到交通信号1310为第一颜色(例如,绿色)。电路1324b、1320基于来自照相机1306b的数字视频流1308b检测到交通信号1310为第二颜色(例如,红色)。电路1324c、1320基于由AV 100的DSRC传感器1316接收到的DSRC消息1318检测到交通信号1310为第三颜色(例如,红色)。响应于检测到第三颜色(红色)与第二颜色相同,电路1320将交通信号1310与第二颜色(红色)相关联。
当照相机1306a未操作时,数字视频流1308a中存在延迟,或者交通信号检测由于另一原因(诸如数字视频流1308a、1308b之间的失配)而故障,电路1320检测到检测交通灯1404的交通信号1310的故障。响应于检测到故障,电路1320将交通信号1310与红灯相关联。因此,为了安全,每当电路1320不能检测交通信号1310时,感知模块1300将交通灯状态设置为红灯作为默认最坏情况场景。
在实施例中,电路1320进行机器学习(例如,使用多个神经网络)以基于数据1326a、1326b来检测交通信号1310。例如,电路1320可以包括用于检测绿灯的第一神经网络和用于检测红灯的第二神经网络。在一些实施例中,电路1324a从数字视频流1308a中提取第一特征向量。第一特征向量包括一个或多个特征,其是数字视频流1308a的图像帧的紧凑的、非冗余的表示,例如像素强度值和像素坐标。电路1324b从数字视频流1308b中提取第二特征向量。然后,机器学习可以用于检测交通信号1310的颜色或形状,例如,红色“非右转”箭头。
可以训练多于一个神经网络,例如,一个用于红色检测的神经网络和一个用于绿色检测的神经网络。电路1320包括由电路1320内的处理器执行的机器学习模型。机器学习模型用于基于特征向量来预测交通信号1310。例如,机器学习模型预前被训练成基于从对象的数字视频流提取的特征来识别对象的颜色。训练机器学习模型包括配置机器学习模型内的权重和内部连接以基于从交通灯的数字视频流提取的特征向量来识别交通灯的交通信号。在一些实施例中,机器学习模型包括被训练成用于识别红灯的第一人工神经网络和被训练成用于识别绿灯的第二人工神经网络(例如,卷积神经网络)。第一人工神经网络独立于第二人工神经网络。在其它实施例中,电路1320和机器学习模型使用不同的机器学习技术,诸如深度学习、神经网络、线性支持向量机(线性SVM)、针对其它算法的增强(例如,AdaBoost)、逻辑回归、朴素贝叶斯、基于记忆的学习、随机森林、袋装树、决策树、增强树或增强桩等。
在一些实施例中,电路1320基于由AV 100的DSRC传感器1316接收到的专用短距离通信(DSRC)消息1318或其它通信技术来验证检测到的交通信号1310。DSRC是用于运载工具和基础设施(诸如智能交通灯、智能交通控制中枢等)之间的安全、高速无线通信的协议。DSRC消息1318是从交通灯1404接收的。电路1320将数据1326a、1326b与DSRC数据1326c进行比较以验证检测到的交通信号1310。在一些实施例中,电路1322基于由AV 100的DSRC传感器1316从交通灯1404接收到的DSRC消息1318来验证为交通灯1404确实位于所确定的地点1408处。例如,DSRC电路1324c生成DSRC数据1326c,DSRC数据1326c由电路1322使用以验证为交通灯1404位于地点1408处。DSRC数据1326c指示交通灯1404的地点和状态(交通信号)。
进行交通信号1310、交通灯1404的地点数据1312以及AV 100的地点数据(例如,地点数据1366a)的验证以改进数据质量,即,确保数据是正确和有用的。在一些实施例中,该验证使用验证例程、验证规则和验证约束,其检查数据的正确性、意义和安全性。在其它实施例中,该验证检查统计模型的输出相对于由TLD***1300生成或接收的真实世界数据是否是可接受的。在一些实施例中,AV 100的DSRC传感器1316从交通灯1404接收指示交通信号1310将在特定时间T1改变的DSRC消息1318。例如,DSRC消息1318通告交通信号1310的颜色以及交通信号1310将在从当前时间T3起的指定时间量T2内改变,其中T1=T2+T3。
定位模块1360基于传感器数据确定为AV 100位于时空地点1412处。为了确定时空地点1412,一个或多个RADAR 1374生成RADAR数据1396a。RADAR定位单元1378基于RADAR数据1396a生成AV 100的地点数据1366a。在一些实施例中,一个或多个LiDAR 1376生成LiDAR数据1396b。LiDAR定位单元1380基于LiDAR数据1396b生成AV 100的地点数据1366b。在一些实施例中,一个或多个GNSS接收器1370生成GNSS数据1396c。GNSS定位电路1392还基于GNSS数据1396c生成AV 100的地点数据1394。电路1392是使用参考图3所例示和描述的组件来实现的。在一些实施例中,电路1392包括执行软件的通用CPU。
定位电路1362对照由定位电路1364生成的地点数据1368来验证使用RADAR 1374生成的地点数据1366a、使用LiDAR 1376生成的地点数据1366b、和/或使用GNSS接收器1370生成的地点数据1394。在一些实施例中,定位电路1362包括用于更准确定位的第一滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)。定位电路1364包括第二滤波器(例如,贝叶斯滤波器、卡尔曼滤波器、扩展卡尔曼滤波器、无迹卡尔曼滤波器、粒子滤波器等)以对地点数据1366进行滤波来生成地点数据1368。第二滤波器改进了定位准确度,而与其它定位模式相比,由定位电路1362进行的验证降低了滤波中的误差裕度。例如,如果定位电路1362对照地点数据1366a、1366b、1394或地点数据1368检测到(由定位电路1362或定位电路1364确定的)时空地点1404的验证的失败,则控制电路406可以根据舒适性配置文件使AV 100停止。定位电路1362对照由GNSS定位电路1392生成的GNSS地点数据1394来进一步验证地点数据1366a、1366b、1368。电路1362、1364是使用参考图3例示和描述的组件来实现的。在一些实施例中,电路1362、1364包括执行软件的通用CPU。
电路1362、1348a基于语义地图1342验证AV 100确实位于时空地点1412处。电路1348a、1362使用交通灯1404的地点1408参考语义地图1342。因此定位模块1360将交通灯1404的地点1408与带注释的地图(语义地图1342)进行比较以定位AV 100。在一些实施例中,电路1348b、1362使用交通灯1404的地点1408参考基于RADAR的地图1344来定位AV 100。在一些实施例中,电路1348c、1362使用交通灯1404的地点1408参考基于LiDAR的地图1346来定位AV 100并且提供甚至更大的冗余和容错,从而增加定位准确度。
第一滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)由定位电路1362的处理器执行以通过对地点数据1366a、1366b、1394进行滤波来确定AV 100的时空地点1412。时空地点1412与一个或多个车道(例如,图14中例示的车道1428、1432)相关联。定位电路1362对照基于LiDAR 1374、RADAR 1376和GNSS接收器1370的模冗余的地点数据1366a、1366b和1394来进一步验证AV 100的时空地点1412。例如,使用三模冗余。在检测到定位故障时,定位电路1362通知规划模块404,规划模块404根据舒适性配置文件发起安全停止操纵。
AV 100的方向盘传感器1384生成诸如方向盘角度和角速度等的数据。AV 100的多个轮传感器生成诸如轮的角度和速率等的数据。参考图1呈现了关于轮速率传感器的附加细节。里程单元1386基于来自AV 100的方向盘传感器1384和轮传感器1382的数据来生成里程数据1388。在一些实施例中,惯性测量单元(IMU)1372生成诸如测量加速度和角速度(其可以转换为俯仰、横摆、侧倾)或运载工具后备检测(或向后滚动)等的数据。在实施例中,验证电路1390对照数据1396c验证来自IMU 1372的数据。
第二滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)由定位电路1364内的一个或多个处理器执行以通过对里程数据1388和来自IMU 1372的数据进行滤波来确定为AV 100正在一个或多个车道1428、1432中的特定车道1428中操作。为了定位特定车道1428中的AV100,车道1428还可以使用语义地图1342与交通灯1404相关联。例如,为了确定为AV 100正在特定车道1428中操作,定位电路1364参考语义地图1342。语义地图1342表示包括一个或多个车道1428、1432的可驾驶区域。定位电路1364使用由第二滤波器滤波的里程数据1388来参考语义地图1342。在一些实施例中,定位电路1362、1364对照AV 100的轨迹198验证特定车道1428。在确定为运载工具在特定车道1428中操作之前,由规划模块404确定轨迹198。因此,定位电路1362、1364可以验证为AV 100确实正在规划模块404预期的车道中操作。
电路1320基于由AV 100的照相机1306a捕获的数字视频流1308a来识别与特定车道1428相对应的交通灯1404。在一些实施例中,电路1320使用照相机1306a、1306b和DSRC传感器1316的模冗余来验证交通灯检测。AV 100使用控制电路406根据交通灯1404的交通信号1310进行操作。
在一些实施例中,定位模块1360基于地点数据1394和GNSS数据1396c确定为AV100位于城市区域中。在验证AV 100的时空地点1412之前,电路1362生成加权地点数据。通过将从一个或多个LiDAR 1376接收到的LiDAR数据1366b以及从一个或多个RADAR 1374接收到的RADAR数据1366a加权得高于从一个或多个GNSS接收器1370接收到的GNSS数据1396c来生成加权地点数据。对照加权的地点数据来验证时空地点1412。当定位揭示AV 100正在更密集的城市区域中操作时,GNSS数据可能粒度不足以用于更准确的定位。因此,较大的权重被用于LiDAR数据1366b和RADAR数据1366a。另一方面,定位模块1360可以基于地点数据1394和GNSS数据1396c确定为AV 100位于农村区域。当定位揭示AV 100正在广阔的农村区域中操作时,LiDAR和RADAR数据可能具有很少的内容。电路1362通过将从一个或多个GNSS接收器1370接收到的GNSS数据1396c加权得高于从一个或多个LiDAR 1376接收到的LiDAR数据1366b以及从一个或多个RADAR 1374接收到的RADAR数据1366a来生成加权地点数据。
规划模块404使用检测到的交通信号1310、交通灯1404的地点数据1312以及AV100的时空地点1412以根据交通信号1310确定AV 100的轨迹198。参考图4更详细地例示和描述规划模块404。在检测交通信号1310之前,电路1320预测为交通信号1310是红灯以确定AV 100的轨迹198。即,TLD***1300假设每当交通灯1404的状态是未知或尚未检测到时该状态是红灯。
AV 100的控制电路406根据所确定的轨迹198来操作AV 100。参考图4更详细地例示和描述控制电路406。控制电路406是使用参考图3更详细例示和描述的组件来构建的。在一些实施例中,响应于检测到交通灯1404,AV 100使用控制电路406或感知模块1304来调整照相机1306a、1306b中的至少一个的定向,以在AV 100正朝向交通灯1404移动时使照相机1306a、1306b指向交通灯1404。随着AV 100移动,照相机1306a、1306b随着AV 100接近交通灯1404而向上或侧向成角度地朝向交通灯1404以更好地捕获图像。
在一些实施例中,AV 100的控制电路406根据舒适性配置文件来操作AV 100。舒适性配置文件可以被存储在AV 100的数据存储单元142或存储器144中。参考图1更详细地例示和描述数据存储单元142和存储器144。舒适性配置文件包括可能影响AV 100中的乘客的舒适度的多个数据字段,各数据字段描述一个或多个操作参数,诸如最大操作速率、加速度波动的最大幅度、最大纵向加速度、最大横向加速度、转向角的最大变化、最大转弯率、或者AV100的急动幅度的最大限制等。当操作AV 1010时,操作参数为乘客提供舒适的乘坐。规划模块404使用舒适性配置文件来计划AV 100的轨迹198。
图14例示了示例交通灯检测场景。在图14中,AV 100位于时空地点1412处并且正在接近交叉口1416。参考图1更详细地例示和描述AV 100。AV 100使用电路1320检测到交叉口1416处的交通灯1404的交通信号1310是绿灯。参考图13A-D更详细地例示和描述电路1320和交通信号1310。AV 100使用照相机1306a、1306b检测到地点1408处不存在对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)。照相机1306a、1306b、自然障碍物191、运载工具193和行人192参考图1和13A-D更详细地例示和描述。规划模块404将消息发送到控制电路406以根据所确定的轨迹198操作AV 100。参考图1和4更详细地例示和描述规划模块404、控制电路406和轨迹198。
在一些实施例中,AV 100使用照相机1306a、1306b基于数字视频流1308a、1308b来检测到行人192正在地点1408(交通灯1404所位于的地点)处行走。参考图13A-D更详细地例示和描述数字视频流1308a、1308b。虽然交通信号1310是绿灯,但是规划模块404调整AV100的轨迹198,使得控制电路406减小AV 100的速率以避免AV 100与行人192的碰撞。因此,如果交通信号1310是绿灯但是在(交叉口1416的)人行横道中存在行人,则AV 100将减慢或停止以避免碰撞。
当在环境190中操作时,感知模块1304可以检测多个交通灯1404、1420、1436。参考图1和13A-D更详细地例示和描述环境190和感知模块1304。基于如参考图13A-D更详细地例示和描述的数字视频流1308a、1308b中的一个或两个来检测多个交通灯1404、1420、1436。多个交通灯1404、1420、1436包括用于基于AV 100正在操作的车道1428和AV 100的时空地点1412来控制AV 100的操作的交通灯1404。感知模块1304从多个交通灯1404、1420、1436中识别控制交通灯1404。例如,当AV 100在如图14所例示的多车道道路上操作时,感知模块1304将各个检测到的交通灯绘图到车道。因此AV 100服从交通灯1404的交通信号1310,交通灯1404基于参考图13A-D更详细地例示和描述的定位模块1360确定的时空地点1412控制AV 100正在操作的车道1428。
在一些实施例中,AV 100的DSRC传感器1316接收指示交通信号1310将在特定时间T1改变的DSRC消息1318。参考图13A-D更详细地例示和描述了DSRC传感器1316和DSRC消息1318。规划模块404根据消息生成轨迹198。例如,AV 100可从交通灯1404接收DSRC消息以确定是否将要做出转变信号优先级变化。在一些实施例中,AV 100确定为交通灯1404由于断电而不可操作。例如,照相机1306a、1306b可以检测到该区域中的若干交通灯1404、1420正在闪光红色或黄色。可选地,DSRC传感器1316可以接收指示交通灯1404不可操作的DSRC消息1318。控制电路406停止AV 100。因此,如果AV 100检测到交通灯1404或若干交通灯不工作(例如,由于电力故障),则AV 100将在交叉口1416之前停止,然后仅当其它转弯或接近的运载工具1424、自行车或行人192已经停止或不存在时行进。
在一些实施例中,TLD***1300从控制电路406接收控制数据。参考图13A-D更详细地例示和描述TLD***1300。控制数据包括AV 100的速率或AV 100的转向角。定位模块1360使用来自规划模块404的轨迹198和控制数据将车道1428与交叉口1416相关。电路1322进一步将交通灯1404与AV 100正在操作的环境190的交叉口1416相关联。电路1322至少基于控制数据来进行该关联。
当AV 100正在操作时,电路1348a基于AV 100的时空地点1412参考语义地图1342。参考图13A-D更详细地例示和描述电路1348a和语义地图1342。基于语义地图1342,电路1348a、1322预测AV 100将遇到交通灯1420的特定时间T1。参考图13A-D更详细地例示和描述电路1322。例如,电路1322将地点数据1368与语义地图1342相对应以确定AV 10将遇到交通灯1420的时间量T2。在一些实施例中,电路1342使用基于RADAR的地图1344和/或基于LiDAR的地图1346来替代语义地图1342或除了语义地图1342之外还使用基于RADAR的地图1344和/或基于LiDAR的地图1346。参考图13A-D更详细地例示和描述基于RADAR的地图1344和基于LiDAR的地图1346。控制电路406在特定时间T1之前调整照相机1306a的定向,使得照相机1306a在特定时间T1指向交通灯1420。由此,在AV 100预期交通灯的时间T1,照相机1306a以适合于捕获交通灯的视频的角度定向。
在一些实施例中,AV 100正在如图14例示的地点1444处操作。感知模块1304基于如参考图13A-D更详细描述的数字视频流1308a、1308b来检测交通灯1448。交通灯1448位于交叉口1416处。AV 100正在接近交叉口1440或位于交叉口1440处。当AV 100在交叉口(例如,交叉口1440)处或附近并且照相机1306a、1306b感测交通灯(例如,交通灯1448)的存在时,AV 100的空间地点用于确定交通灯1448是否实际上位于另一附近交叉口(例如,交叉口1416)或控制另一车道。AV 100实际位于的交叉口1440可能没有交通灯。电路1320确定为交通灯1448位于与交叉口1440不同的交叉口1416处。电路1320基于地点数据1312、里程数据1388和数字视频流1308a、1308b来进行该确定。参考图13A-D更详细地例示和描述里程数据1388。
在一些实施例中,两条车道彼此相邻并且具有相同的行进方向但属于不同的道路。电路1320感测特定交通灯的存在(控制不同于车道1428的特定车道)。电路1320还确定为特定交通灯与不同于车道1428的特定车道相对应。电路1320基于地点数据1312、里程数据1388和数字视频流1308a、1308b来进行该确定。
在一些实施例中,电路1320基于由AV 100的照相机1306a、1306b捕获的数字视频流1308a、1308b来检测到交通灯1404的交通信号1310已经从绿灯转变为黄灯。在检测到交通信号1310已从绿灯转变为黄灯之前,电路1320将交通信号1310与红灯相关联(作为最坏情况,安全机制)。交通信号1310的转变用于触发AV 100相对于交叉口1416的停止线1452的定位。例如,如果电路1320检测到明确的交通灯状态(例如,“红色”),则规划模块404使用从AV 100到停止线1452的距离D1来确定AV 100的行为(例如,根据舒适性配置文件减速到停止线1452、紧急停止等)。
继续交通信号1310转变为黄灯的示例,电路1320基于由AV 100的DSRC传感器1316接收到的DSRC消息1318验证为交通信号1310是黄灯。DSRC消息1318由交通灯1404的DSRC发送器发送且可以由电路1324c处理。例如,电路1320将交通信号1310与红灯相关联,直到以其它方式以高置信水平确定为止。此外,如果数字视频流1308a、1308b不明确或发生诊断故障,则TLD***1300继续将交通信号1310与红灯相关联。
电路1320基于数字视频流1308a、1308b确定为交通信号1310在特定时间量T2内将转变为红灯。电路1320确定在交通信号1310转变为黄灯之后经过的时间T4。基于经过的时间T4,电路1320确定特定时间量T2。例如,电路使用自交通信号1310从绿灯改变为黄灯时起的经过时间T4来确定是否停止。基于DSRC消息1318,电路1320确定交通灯1404的地点1408。TLD***1300对照语义地图1342验证特定时间量T2。TLD***1300利用交通灯1404的地点1408参考语义地图1342。例如,来自语义地图1342的语义数据可以验证交通信号1310花费多长时间来改变。
电路1320基于数字视频流1308a、1308b和AV 100的地点1412确定为AV 100位于距交通灯1404的停止线1452的特定距离D1处。规划模块404确定为AV 100能够根据舒适性配置文件在特定时间量T2内停止在停止线1452处。规划模块404基于特定时间量T2和距停止线的特定距离D1做出该确定。在实施例中,规划模块404根据舒适性配置文件确定将应用于AV 100以使AV 100在特定时间量T2内停止在停止线1452处的减速量。在一些场景中,AV100前方可能存在另一运载工具193。规划模块404确定AV 100与AV 100前方的另一运载工具193之间的距离D2。规划模块404基于AV 100与另一运载工具193之间的距离D2来确定要应用于AV 100以使AV 100停止的减速量。在一些实施例中,规划模块404基于距离D1和时间T2、距前方运载工具193的距离D2或舒适性配置文件来确定要应用的减速量。AV 100的控制电路406根据舒适性配置文件使AV 100在特定时间量T2内停止在停止线1452处。
基于特定时间量T2和距停止线1452的特定距离,规划模块404可以确定为AV 100不能根据舒适性配置文件在特定时间量T2内停止在停止线1452处(例如,如果T2太小)。利用舒适性配置文件来分析距停止线1452的特定距离。规划模块404调整轨迹198以通过控制电路406操作AV 100在特定时间量T2内通过交叉口1416。例如,如果交通信号1310是黄灯并且距停止线1452的特定距离太小而不能舒适地停止,则AV 100将保持移动通过黄灯。
在一些实施例中,规划模块404确定为AV 100不能根据舒适性配置文件在特定时间量T2内停止在车道1428中。例如,在车道1428中在AV 100前方可能存在另一运载工具193,因此,需要紧急制动。为了根据舒适性配置文件使AV 100在特定时间量T2内停止在停止线1452处,规划模块404确定从车道1428到另一车道(例如,车道1432)的AV 100的轨迹198。因此AV 100可以改变车道,使得如果在车道1428中在AV 100前方存在另一运载工具193但在另一车道1432中存在到停止线1452的足够距离,则AV 100不需要紧急制动。
当AV 100正接近交叉口1440时,电路1320基于数字视频流1308a、1308b检测位于交叉口1440处的交通灯1420。电路1320将交通灯1420的交通信号1456与红灯(用于安全的初始最坏情况场景)相关联。电路1320基于数字视频流1308a、1308b检测到交通信号1456是绿灯。响应于检测到交通信号1456是绿灯,规划模块404和控制电路406操作AV 100通过交叉口1440。例如,考虑AV 100接近由单个交通灯管辖的四向、单车道、交叉口的场景。交通灯的交通信号是绿灯,并且当AV 100接近时保持绿灯。(在检测交通信号之前,AV 100假设交通信号是红灯。)一旦AV 100检测到绿灯,AV 100就行进通过交叉口。
电路1320可以基于数字视频流1308a的第一图像帧检测到交通信号1456是黄灯。电路1320可以基于数字视频流1308a的第二图像帧检测到交通信号1456是红灯,其中第二图像帧在时间上早于第一图像帧被捕获。电路1320预测为交通信号1456将变为绿灯。因此,基于交通信号1456的先前状态(红色或绿色),检测到黄灯可能意味着前进或停止。
考虑AV 100正在车道1460中操作并且正接近交叉口1416的场景。TLD***1300确定为轨迹198正在引导AV 100在交通灯1448处右转。交通灯1448位于交叉口1416处。电路1320基于数字视频流1308a、1308b检测到交叉口1416中不存在对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)。响应于检测到在交叉口1416中不存在对象,规划模块404和控制电路406根据轨迹198操作AV 100。如果AV 100检测到交通灯1448的交通信号是红灯并且从规划模块404接收到在交叉口1416右转的指令,则AV 100将仅在停止和让路给行人192之后在红灯时右转。电路1320可以基于数字视频流1308a、1308b来检测交叉口1416处的交通标志。交通标志指示运载工具不应在红灯时右转(在红灯时不转弯)。控制电路406使AV 100在交叉口1416处停止,直到交通灯1448的交通信号是绿灯或右绿箭头之一为止。如果TLD 1300检测到红灯并从规划模块404接收到右转的指令,则TLD 1300将扫描为在红灯时不转弯而张贴的标志。AV 100将仅在没有这种标志的情况下在红灯时右转。
考虑AV 100正在车道1428中操作并且正接近交叉口1416的场景。控制电路406根据AV 100的轨迹198在车道1428中操作AV 100。轨迹198引导AV 100在交叉口1416处左转。定位模块1360检测到AV 100正在接近交叉口1416。例如,交通信号1310的可能的交通信号配置是闪烁红灯、闪烁黄灯、绿灯和红色左转箭头等。
为了检测到AV 100正在接近交叉口1416,定位模块1362基于从AV 100的一个或多个传感器接收到的传感器数据来确定AV 100的时空地点1412。在一些实施例中,定位电路1364对GNSS数据1396c、RADAR数据1396a和/或LIDAR数据1396b进行卡尔曼滤波以改进定位准确度。第二滤波器由定位电路1364执行以生成经滤波的传感器数据,其中传感器数据包括GNSS数据1396c、RADAR数据1396a和/或LIDAR数据1396b。在一些实施例中,定位模块1362对照传感器数据验证经滤波的传感器数据以提供时空地点。还可以通过电路1322对照数字视频流1308a、1308b来验证传感器数据。
定位电路1362使用由时空地点1412参考的语义地图1342确定AV 100距交叉口1416的距离D2。例如,语义地图1342被包括在TLD***1300中以便于对以下内容的关系意识:(1)使AV 100与车道(例如,车道1428)相关;(2)使用来自规划模块404的轨迹198使车道1428与交叉口(例如,交叉口1416)相关;(3)使车道1428和交叉口1416与交通灯(例如,交通灯1404)相关;以及(4)使AV 100与停止线(例如,停止线1452)相关。
规划模块404基于来自照相机1306a、1306b和本说明书中所描述的其它传感器的传感器数据确定为AV 100可以在交叉口1416处从车道1428左转。例如,传感器数据包括车道1428的车道标记1464的数字视频流。TLD***1300检测到位于交叉口1416处的交通灯1404的交通信号1310是绿色左转箭头或绿灯。TLD***1300被实现为“故障安全。”为了支持不同的交通信号配置,TLD***1300跟踪交通信号序列。例如,交通信号1310可以是具有红色转弯箭头的绿灯,这意味着运载工具可以直行通过交叉口1416但不左转。响应于TLD***1300检测到交通信号1310是绿色左转箭头,规划模块404和控制电路406操作AV 100,使得AV 100根据轨迹198在交叉口1416处左转。
在另一场景下,响应于检测到交通信号是绿灯,感知模块402使用一个或多个传感器(例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、或超声波传感器)来扫描交叉口1416。参考图4更详细地例示和描述感知模块402。进行扫描以检测在与AV 100正在操作的第二方向相反的第一方向上接近交叉口1416的另一运载工具(例如,运载工具1424)。例如,TLD***1300检测绿色左转信号但为在相反方向上行驶的运载工具1424让路。响应于检测到不存在在第一方向上接近交叉口1416的另一运载工具193,规划模块404和控制电路406操作AV 100,使得AV 100根据轨迹198在交叉口1416处左转。
响应于检测到交通信号1310是绿灯,感知模块402可以检测到另一运载工具1424正在与AV 100操作的第二方向相反的第一方向上接近交叉口1416。感知模块402和规划模块404确定为AV 100能够在另一运载工具1424到达交叉口1416之前根据舒适性配置文件左转。例如,AV 100确定在相反方向上接近的另一运载工具1424的速率和另一运载工具1424与交叉口1416之间的距离D3。规划模块404使用舒适性配置文件来确定是否左转。
考虑AV 100正在交叉口1416处从车道1428左转的场景。当AV 100正左转时,电路1320检测到交通信号1310已从绿色左转箭头转变为红灯。响应于检测到交通信号1310已从绿色左转箭头转变为红灯,定位模块1360基于从控制电路406接收到的控制数据来确定AV100相对于交叉口1416的新的时空地点1468。控制数据包括方向盘的角度和AV 100的速率。方向盘的角度由参考图1和11更详细地例示和描述的转向控制102和/或转向输入1108确定。在一些实施例中,还使用里程数据1388。规划模块404基于新的时空地点1468生成AV100的新轨迹。例如,如果交通信号1310是正在变成红灯的绿色左转箭头,来自一个或多个GNSS接收器1370、IMU 1372、一个或多个轮传感器1382(测量轮角度和速率)、方向盘传感器1384或里程单元1386的数据用于确定AV 100已经转了多远,以确定AV 100的下一行为。
在一些实施例中,交通灯1404可以具有同时有效的多于一个交通信号,例如,红色左转箭头和绿灯。电路1320基于传感器数据(例如,数字视频流1308a、1308b)确定交通灯1404的配置。该配置包括多个交通信号(来自交通灯1404的多个灯或多个灯泡)。各个灯或灯泡通常是一个交通信号(例如,红灯或绿色左转箭头)。交通灯1404的配置基于车道标记1464控制各个灯或灯泡与哪个车道相关联。在一些实施例中,电路1320首先检测车道标记1464,检测一个或多个交通信号,然后将各个交通信号与车道相关联。
电路1320将多个交通信号中的一个或多个交通信号与AV 100正在操作的车道1428相关联。电路1320基于车道1428的车道标记1464的数字视频流来关联一个或多个交通信号。车道标记1464的数字视频流可以由照相机1306a、1306b、可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122和/或LiDAR 123生成。一个或多个交通信号包括交通信号1310。
考虑AV 100在交叉口1440处停止的场景。电路1320基于传感器数据检测到交叉口1440处的交通信号1456是闪光黄灯。传感器数据包括数字视频流1308a、1308b。规划模块404基于接近交叉口1440的另一运载工具1472的速率来确定在操作通过交叉口1440之前暂停的时间量。运载工具1472正在与AV 100正操作的第二方向垂直的第三方向接近交叉口1440。AV 100的规划模块基于运载工具1472和交叉口1440之间的距离D4以及运载工具1472横向接近交叉口1440的速率来确定在行进之前在交叉口1440处暂停的时间量。
考虑AV 100在交叉口1440处停止的场景。交通信号1456是红灯。电路1320基于数字视频流1308a、1308b检测到交通信号1456已从红灯转变为绿灯。感知模块402基于可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122和/或LiDAR 123生成的传感器数据来检测到另一运载工具193停止在交叉口1440内。响应于检测到另一运载工具193停止在交叉口1440内,控制电路406使AV 100在交叉口1440处暂停。
在实施例中,规划模块404基于数字视频流1308a、1308b确定为AV 100将不能在交通信号1456转变为红灯之前穿过交叉口1440。响应于确定为AV 100将不能穿过交叉口1440,控制电路406使AV 100在交叉口1440处暂停。例如,AV 100检测到交通信号1456是正在转变为绿灯的红灯。即使当交通信号1456是绿灯时,AV 100也不会进入交叉口1440,除非在交通信号1456再次点亮红灯之前有足够的空间完全穿过交叉口1440(以避免在存在拥堵交通的情况下阻塞交叉口1440)。
图15是例示用于AV 100的操作处理的流程图。参考图1更详细地例示和描述AV100。在一个实施例中,图15的处理由参考图13A-D更详细地例示和描述的TLD***1300进行。其它实体(例如,AV 100的一个或多个组件)在其它实施例中进行处理的一些或所有步骤。同样,实施例可以包括不同的和/或附加的步骤,或者以不同的顺序进行这些步骤。
AV 100检测(1504)位于地点1408处的交通灯1404。参考图14更详细地例示和描述交通灯1404和地点1408。基于由AV 100的照相机1306a捕获的数字视频流1308a和由AV 100的照相机1306b捕获的数字视频流1308b来检测交通灯1404。参考图13A-D更详细地例示和描述数字视频流1308a、1308b和照相机1306a、1306b。
AV 100确定为(1508)AV 100位于时空地点1412处。参考图14更详细地例示和描述时空地点1412。为了确定时空地点1412,AV 100对照由定位电路1364生成的地点数据1368来验证使用RADAR 1374生成的地点数据1366a、使用LiDAR 1376生成的地点数据1366b和/或使用GNSS接收器1370生成的地点数据1394。参考图13A-D更详细地例示和描述RADAR1374、LiDAR 1376、GNSS接收器1370和定位电路1364。例如,通过使用定位电路1364中的第二滤波器对第一地点数据进行滤波来生成或获得地点数据1366a、1366b、1394。
AV 100基于由时空地点1412参考的语义地图1342确定为(1512)交通灯1404预期在地点1408处。语义地图1342由绘图模块1340存储。电路1348a、1322使用AV 100的所确定的时空地点1412来参考语义地图1342。语义地图1342、绘图模块1340和电路1348a、1322在图13A-D中例示和描述。
响应于确定为交通灯1404确实预期在地点1408处,AV 100基于数字视频流1308a、1308b来检测(1516)交通灯1404的交通信号1310。为了检测交通信号1310,电路1324a分割数字视频流1308a的至少一个图像帧。电路1324a在图13A-D中例示和描述。电路1324a使用边缘检测来检测至少一个图像帧的与交通信号1310相对应的区域。例如,交通灯1404的矩形框包含三个或更多个圆形或方形灯。电路1324a分割框内的矩形区域以隔离灯。类似地,电路1324b处理数字视频流1308b以分割交通灯1404的框内的矩形区域来检测交通信号1310。
AV 100根据交通信号1310确定(1520)AV 100的轨迹198。在检测交通信号1310之前,电路1320预测到交通信号1310是红灯以确定AV 100的轨迹198。即,AV 100假设每当交通灯1404的状态未知或尚未检测到时该状态是红灯。
控制电路406根据所确定的轨迹198来操作(1524)AV 100。在一些实施例中,响应于检测到交通灯1404,AV 100使用控制电路406或感知模块1304来调整照相机1306a、1306b中的至少一个的定向,以在AV 100正朝向交通灯1404移动时使照相机1306a、1306b指向交通灯1404。随着AV 100移动,照相机1306a、1306b随着AV 100接近交通灯1404而向上或侧向成角度地朝向交通灯1404以更好地捕获图像。
图16是例示用于AV 100的AV 100的操作处理的流程图。在一个实施例中,图16的处理由TLD***1300进行。其它实体(例如,AV 100的一个或多个组件)在其它实施例中进行处理的一些或所有步骤。同样,实施例可以包括不同的和/或附加的步骤,或者以不同的顺序进行这些步骤。
AV 100接收(1604)使用RADAR 1374生成的地点数据1366a、使用LiDAR 1376生成的地点数据1366b和/或使用AV 100的GNSS接收器1370生成的地点数据1394。参考图13A-D更详细地例示和描述RADAR 1374、LiDAR 1376、GNSS接收器1370和定位电路1364。定位电路1362对照由定位电路1364生成的地点数据1368来验证使用RADAR 1374生成的地点数据1366a、使用LiDAR1376生成的地点数据1366b和/或使用GNSS接收器1370生成的地点数据1394。
AV 100使用由定位电路1362执行的第一滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)来对地点数据1366a、1366b、1394进行滤波(1608)以确定AV 100的时空地点1412。时空地点1412与一个或多个车道(例如,图14中例示的车道1428、1432)相关联。
AV 100对照基于LiDAR 1374、RADAR 1376和GNSS接收器1370的模冗余的地点数据1366a、1366b、1394来验证(1612)AV 100的时空地点1412。例如,使用三模冗余。在检测到定位故障时,定位电路1362通知规划模块404,规划模块404根据舒适性配置文件发起安全停止操纵。
AV 100从AV 100的方向盘传感器1384和多个轮传感器1382接收(1616)里程数据1388。方向盘传感器1384生成诸如方向盘角度和角速度等的数据。多个轮传感器1382生成诸如轮的角度和速率等的数据。参考图1呈现了关于轮速率传感器的附加细节。里程单元1386基于来自方向盘传感器1384和轮传感器1382的数据来生成里程数据1388。在一些实施例中,IMU 1372生成诸如测量惯性、俯仰、横摆、侧倾、或运载工具后备检测(或向后滚动)等的数据。验证电路1390对照数据1396c验证来自IMU 1372的数据。
AV 100使用由定位电路1364执行的第二滤波器(例如,贝叶斯滤波器、卡尔曼滤波器等)对里程数据1388进行滤波(1620)。进行滤波以确定为AV 100正在一个或多个车道1428、1432中的车道1428中操作。为了将AV 100定位在特定车道1428中,车道1428还可以使用语义地图1342与交通灯1404相关联。例如,为了确定为AV 100正在特定车道1428中操作,定位电路1364参考语义地图1342。语义地图1342表示包括一个或多个车道1428、1432的可行使区域。定位电路1364使用由第二滤波器滤波的里程数据1388来参考语义地图1342。
AV 100基于由AV 100的照相机1306a、1306b捕获的数字视频流1308a、1308b来识别(1624)与车道1428相关联的交通灯1404。在一些实施例中,电路1320使用照相机1306a、1306b和DSRC传感器1316的模冗余来验证交通灯检测。
AV 100的控制电路406根据交通灯1404的交通信号1310来操作(1628)AV 100。感知模块1300使用N模冗余来检测交通信号1310。在一些实施例中,N为3。在其它实施例中,N可以是4、5、6等,这取决于照相机的数量。例如,为了检测交通信号1310,电路1324a、1320基于来自照相机1306a的数字视频流1308a检测到交通信号1310为第一颜色(例如,绿色)。电路1324b、1320基于来自照相机1306b的数字视频流1308b检测到交通信号1310为第二颜色(例如,红色)。电路1324c、1320基于由AV 100的DSRC传感器1316接收到的DSRC消息1318检测到交通信号1310为第三颜色(例如,红色)。响应于检测到第三颜色(红色)与第二颜色相同,电路1320将交通信号1310与第二颜色(红色)相关联。
图17是例示根据一个或多个实施例的用于AV 100的AV 100的操作处理的流程图。在一个实施例中,图17的处理由TLD***1300进行。其它实体(例如,AV 100的一个或多个组件)在其它实施例中进行处理的一些或所有步骤。同样,实施例可以包括不同的和/或附加的步骤,或者以不同的顺序进行这些步骤。
AV 100基于由AV 100的照相机1306a、1306b捕获的数字视频流1308a、1308b检测到(1704)交通灯的交通信号1310已经从绿灯转变为黄灯。在检测到交通信号1310已从绿灯转变为黄灯之前,电路1320将交通信号1310与红灯相关联(作为最坏情况,安全机制)。
AV 100基于由AV 100的DSRC传感器1316接收到的DSRC消息1318验证为(1708)交通信号1310为黄灯。DSRC消息1318由交通灯1404的DSRC发送器发送且可由电路1324c处理。例如,电路1320将交通信号1310与红灯相关联,直到以其它方式以高置信水平确定为止。此外,如果数字视频流1308a、1308b不明确或发生诊断故障,则TLD***1300继续将交通信号1310与红灯相关联。
当前时间由T1表示。AV 100基于数字视频流1308a、1308b确定为(1712)交通信号1310将在特定时间量T2内转变为红灯。电路1320确定在交通信号1310转变为黄灯之后经过的时间T4。基于经过的时间T4,电路1320确定特定时间量T2。
AV 100基于数字视频流1308a、1308b和AV 100的地点1412确定为(1716)AV 100位于距交通灯1404的停止线1452的特定距离D1处。基于DSRC消息1318,电路1320确定交通灯1404的地点1408。TLD***1300对照语义地图1342来验证特定时间量T2。TLD***1300利用交通灯1404的地点1408参考语义地图1342。例如,来自语义地图1342的语义数据可以验证交通信号1310花费多长时间来改变。
AV 100确定为(1720)AV 100能够根据舒适性配置文件在特定时间量T2内停止在停止线1452处。规划模块404基于特定时间量T2和距停止线的特定距离D1做出该确定。规划模块404根据舒适性配置文件确定将应用于AV 100以使AV 100在特定时间量T2内停止在停止线1452处的减速量。
AV 100的控制电路406根据舒适性配置文件使AV 100在特定时间量T2内停止(1724)在停止线1452处。在一些场景中,AV 100前方可能存在另一运载工具193。规划模块404确定AV 100与AV 100前方的另一运载工具193之间的距离D2。规划模块404基于AV 100与另一运载工具193之间的距离D2确定要应用于AV 100以使AV 100停止的减速量。
图18是例示根据一个或多个实施例的AV 100的操作处理的流程图。其它实体(例如,TLD***1300的一个或多个组件)在其它实施例中进行处理的一个或多个步骤。同样,实施例可以包括不同的和/或附加的步骤,或者以不同的顺序进行这些步骤。
AV 100根据AV 100的轨迹198操作(1804)特定车道1428中的AV 100。轨迹198引导AV 100在交叉口1416处左转。AV 100、车道1428和交叉口1416在图14中例示。定位模块1360检测到AV 100正在接近交叉口1416。例如,交通灯1404的交通信号1310的可能的交通信号配置是闪烁红灯、闪烁黄灯、绿灯和红色左转箭头等。
AV 100检测到(1808)AV 100正在接近交叉口1416。为了进行检测,AV 100基于从AV 100的一个或多个传感器接收到的传感器数据来确定AV 100的时空地点1412。例如,传感器数据包括GNSS数据1396c、RADAR数据1396a和/或LIDAR数据1396b。在一些实施例中,定位模块1362对照传感器数据来验证经滤波的传感器数据以提供时空地点1412。还可以通过电路1322对照数字视频流1308a、1308b来验证传感器数据。参考图13A-D更详细地例示和描述RADAR 1374、LiDAR 1376、GNSS接收器1370和定位电路1364。
AV 100使用由时空地点1412参考的语义地图1342来确定AV 100距交叉口1416的距离D2。例如,语义地图1342被包括在TLD***1300中以便于对以下内容的关系意识:(1)使AV 100与车道(例如,车道1428)相关;(2)使用来自规划模块404的轨迹198使车道1428与交叉口(例如,交叉口1416)相关;(3)使车道1428和交叉口1416与交通灯(例如,交通灯1404)相关;以及(4)使AV 100与停止线(例如,停止线1452)相关。
AV 100基于来自照相机1306a、1306b和本说明书中所描述的其它传感器的传感器数据确定为(1812)AV 100可以在交叉口1416处从车道1428左转。例如,传感器数据包括车道1428的车道标记1464的数字视频流。TLD***1300检测到位于交叉口1416的交通灯1404的交通信号1310是绿色左转箭头或绿灯。TLD***1300被实现为“故障安全。”
AV 100确定为(1818)位于交叉口1416处的交通灯1404的交通信号1310是绿色左转箭头或绿灯。响应于检测到交通信号1310是绿灯,感知模块402可以检测到另一运载工具1424正在与AV 100操作的第二方向相反的第一方向上接近交叉口1416。感知模块402和规划模块404确定为在另一运载工具1424到达交叉口1416之前AV 100能够根据舒适性配置文件左转。
响应于确定交通信号1310是绿色左转箭头,控制电路406操作(1820)AV 100,使得AV 100根据轨迹198在交叉口1416处左转。
附加实施例
在实施例中,本文公开的方法和实现用于检测和分析位于铁路道口处的交通信号、由应急运载工具发射的光信号、在拉桥道口上的照明信号、具有闪光黄灯的道路危险或状况标志、以及具有闪光灯的学校公共汽车。
在实施例中,本文公开的方法和实现用于检测和分析指示急转弯、陡峭的上坡或道路状况的光信号。例如,这样的信号可以是闪光黄色以引起注意。
在实施例中,地图数据用于确定铁路道口或拉桥道口是否闪光红色。
在实施例中,LiDAR数据用于检测学校公共汽车、应急运载工具、或警用车连同检测其闪光的灯。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
相关申请的交叉引用
本申请要求于2020年2月26日提交的美国临时申请62/981,597的权益,其全部内容通过引用合并于此。
Claims (20)
1.一种方法,包括:
由运载工具的一个或多个处理器基于所述运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;
由所述一个或多个处理器确定为所述运载工具位于第二时空地点处,所述确定包括:由所述一个或多个处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过由滤波器对所述第一地点数据进行滤波而获得的;
由所述一个或多个处理器基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;
响应于确定为所述交通灯预期在所述第一时空地点处,由所述一个或多个处理器基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;
由所述一个或多个处理器根据所述交通信号确定所述运载工具的轨迹;以及
由所述运载工具的控制电路根据所确定的轨迹来操作所述运载工具。
2.根据权利要求1所述的方法,其中,所述第一照相机位于所述运载工具上的第一位置处,并且所述第二照相机位于所述运载工具上的第二位置处,以基于所述第一数字视频流和所述第二数字视频流的冗余来提高对所述交通灯的检测的准确度。
3.根据权利要求1或2所述的方法,还包括:由所述一个或多个处理器基于所述运载工具的专用短距离通信传感器即DSRC传感器从所述交通灯接收到的DSRC消息来验证所述交通信号。
4.根据权利要求1至3中任一项所述的方法,还包括:由所述一个或多个处理器基于所述运载工具的DSRC传感器从所述交通灯接收到的DSRC消息来验证为所述交通灯位于所述第一时空地点处。
5.根据权利要求1至4中任一项所述的方法,还包括:由所述一个或多个处理器基于所述第一时空地点所参考的语义地图来验证为所述运载工具位于所述第二时空地点处。
6.根据权利要求1至5中任一项所述的方法,还包括:
在检测所述交通信号之前,由所述一个或多个处理器预测为所述交通信号是红灯以确定所述运载工具的所述轨迹。
7.根据权利要求1至6中任一项所述的方法,还包括:
由所述一个或多个处理器对检测第二交通灯的第二交通信号的故障进行检测;以及
响应于检测到所述故障,由所述一个或多个处理器将所述第二交通信号与红灯相关联。
8.根据权利要求1至7中任一项所述的方法,其中,检测所述交通信号包括:由所述一个或多个处理器分割所述第一数字视频流和所述第二数字视频流的至少一个图像帧以检测所述至少一个图像帧的与所述交通信号相对应的区域。
9.根据权利要求1至8中任一项所述的方法,还包括:由所述运载工具的DSRC传感器从所述交通灯接收用于指示所述交通信号将在特定时间改变的DSRC消息。
10.根据权利要求1至9中任一项所述的方法,还包括:
响应于检测到所述交通灯,由所述一个或多个处理器调整所述第一照相机和所述第二照相机中的至少一个照相机的定向,以在所述运载工具正移动时使所述第一照相机和所述第二照相机中的所述至少一个照相机指向所述交通灯。
11.根据权利要求1至10中任一项所述的方法,其中,所述运载工具的所述多个传感器包括一个或多个全球导航卫星***接收器即GNSS接收器、一个或多个RADAR传感器、以及一个或多个LiDAR。
12.根据权利要求1至11中任一项所述的方法,其中,检测所述交通信号包括:
由所述一个或多个处理器基于所述第一数字视频流确定为所述交通信号为第一颜色;
由所述一个或多个处理器基于所述第二数字视频流确定为所述交通信号为第二颜色;
由所述一个或多个处理器基于所述运载工具的DSRC传感器所接收到的DSRC消息确定为所述交通信号为第三颜色,所述第三颜色与所述第二颜色相同;以及
响应于确定为所述交通信号为所述第三颜色,由所述一个或多个处理器将所述交通信号与所述第二颜色相关联。
13.根据权利要求1至12中任一项所述的方法,其中,检测所述交通信号包括:
由所述一个或多个处理器从所述第一数字视频流和所述第二数字视频流中提取特征向量;以及
通过由所述一个或多个处理器执行的机器学习模型基于所述特征向量来确定所述交通信号,所述机器学习模型被训练以基于从对象的数字视频流中提取的特征来识别所述对象的颜色。
14.根据权利要求13所述的方法,还包括:由所述一个或多个处理器训练所述机器学习模型以基于从所述交通灯的数字视频流中提取的特征向量来识别所述交通灯的交通信号。
15.根据权利要求13所述的方法,其中,所述机器学习模型包括:
被训练以识别红灯的第一人工神经网络;以及
被训练以识别绿灯的第二人工神经网络,所述第一人工神经网络独立于所述第二人工神经网络。
16.根据权利要求1至15中任一项所述的方法,还包括:
由所述一个或多个处理器确定为所述交通信号为绿灯;
由所述一个或多个处理器基于所述第一数字视频流和所述第二数字视频流确定为行人正在所述第一时空地点处行走;以及
由所述控制电路减小所述运载工具的速率以避免所述运载工具与所述行人的碰撞。
17.根据权利要求1至16中任一项所述的方法,还包括:
由所述一个或多个处理器确定为所述交通灯由于断电而不能操作;以及
由所述控制电路使所述运载工具停止。
18.根据权利要求1至17中任一项所述的方法,还包括:
由所述一个或多个处理器确定在所述第一时空地点处不存在对象;以及
由所述一个或多个处理器将消息发送到所述控制电路以根据所确定的轨迹来操作所述运载工具。
19.一种运载工具,包括:
一个或多个计算机处理器;以及
一个或多个存储有指令的非暂时性存储介质,所述指令在由所述一个或多个计算机处理器执行时使所述一个或多个计算机处理器:
基于所述运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;
确定为所述运载工具位于第二时空地点处,所述确定包括:由所述一个或多个计算机处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过滤波器对所述第一地点数据进行滤波而获得的;
基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;
响应于确定为所述交通灯预期在所述第一时空地点处,基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;
根据所述交通信号确定所述运载工具的轨迹;以及
由所述运载工具的控制电路根据所确定的轨迹来操作所述运载工具。
20.一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时使所述一个或多个计算装置:
基于运载工具的第一照相机所捕获的第一数字视频流和所述运载工具的第二照相机所捕获的第二数字视频流来检测位于第一时空地点处的交通灯;
确定为所述运载工具位于第二时空地点处,所述确定包括:由所述运载工具的一个或多个处理器对照第二地点数据来验证从所述运载工具的多个传感器接收到的第一地点数据,所述第二地点数据是通过滤波器对所述第一地点数据进行滤波而获得的;
基于所述第二时空地点所参考的语义地图确定为所述交通灯预期在所述第一时空地点处;
响应于确定为所述交通灯预期在所述第一时空地点处,基于所述第一数字视频流和所述第二数字视频流检测所述交通灯的交通信号;
根据所述交通信号确定所述运载工具的轨迹;以及
根据所确定的轨迹来操作所述运载工具。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062981597P | 2020-02-26 | 2020-02-26 | |
US62/981,597 | 2020-02-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113313936A true CN113313936A (zh) | 2021-08-27 |
Family
ID=74046405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110219428.5A Pending CN113313936A (zh) | 2020-02-26 | 2021-02-26 | 用于运载工具的交通灯检测*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US11854212B2 (zh) |
KR (2) | KR102551208B1 (zh) |
CN (1) | CN113313936A (zh) |
DE (1) | DE102021101758A1 (zh) |
GB (2) | GB2614360B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3039666C (en) | 2016-10-28 | 2022-08-23 | Ppg Industries Ohio, Inc. | Coatings for increasing near-infrared detection distances |
US11561329B2 (en) | 2019-01-07 | 2023-01-24 | Ppg Industries Ohio, Inc. | Near infrared control coating, articles formed therefrom, and methods of making the same |
DE102019106844A1 (de) * | 2019-03-18 | 2020-09-24 | Daimler Ag | Detektion von Fehlfunktionen der Schaltzustandserkennung von Lichtsignalanlagen |
DE102019119084A1 (de) * | 2019-07-15 | 2021-01-21 | Valeo Schalter Und Sensoren Gmbh | Bestimmen eines Signalstatus einer Lichtsignalanlage |
KR20220033081A (ko) * | 2020-09-08 | 2022-03-16 | 현대자동차주식회사 | 자율 주행 제어 장치 및 방법 |
EP3968305A1 (en) * | 2020-09-15 | 2022-03-16 | Volkswagen Aktiengesellschaft | Method, computer program and apparatus for controlling operation of a vehicle equipped with an automated driving function |
US11704385B2 (en) * | 2020-09-25 | 2023-07-18 | Toyota Research Institute, Inc. | Traffic light detection auto-labeling and federated learning based on vehicle-to-infrastructure communications |
US11681780B2 (en) * | 2020-09-30 | 2023-06-20 | Nissan North America, Inc. | Annotation and mapping for vehicle operation in low-confidence object detection conditions |
US11841439B2 (en) | 2020-11-02 | 2023-12-12 | Waymo Llc | Point cloud segmentation using a coherent lidar for autonomous vehicle applications |
US20220135074A1 (en) * | 2020-11-02 | 2022-05-05 | Waymo Llc | Classification of objects based on motion patterns for autonomous vehicle applications |
US11656629B1 (en) | 2020-12-08 | 2023-05-23 | Waymo Llc | Detection of particulate matter in autonomous vehicle applications |
CN112349101B (zh) * | 2021-01-08 | 2021-04-27 | 深圳裹动智驾科技有限公司 | 高精地图生成方法、以及识别交通灯的方法及*** |
KR20220110977A (ko) * | 2021-02-01 | 2022-08-09 | 현대모비스 주식회사 | 긴급차량 양보 시스템 및 그 제어 방법 |
KR102652486B1 (ko) * | 2021-09-24 | 2024-03-29 | (주)오토노머스에이투지 | 라이다를 이용한 신호등 정보 예측 방법 및 이를 이용한 서버 |
DE102021128785A1 (de) * | 2021-11-05 | 2023-05-11 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zur Ermittlung der Entfernung eines Lichtsignalgebers |
CN113780247B (zh) * | 2021-11-09 | 2022-03-01 | 禾多科技(北京)有限公司 | 红绿灯检测方法、装置、电子设备和计算机可读介质 |
US20230280183A1 (en) * | 2022-03-01 | 2023-09-07 | Mobileye Vision Technologies Ltd. | Machine learning-based traffic light relevancy mapping |
US20240038065A1 (en) * | 2022-07-28 | 2024-02-01 | Motional Ad Llc | Managing traffic light detections |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110182475A1 (en) * | 2010-01-22 | 2011-07-28 | Google Inc. | Traffic signal mapping and detection |
CN104411559A (zh) * | 2012-03-26 | 2015-03-11 | 谷歌公司 | 用于检测交通信号及其关联状态的鲁棒方法 |
US20150124096A1 (en) * | 2013-10-25 | 2015-05-07 | Magna Electronics Inc. | Vehicle vision system utilizing communication system |
WO2016012524A1 (fr) * | 2014-07-23 | 2016-01-28 | Valeo Schalter Und Sensoren Gmbh | Détection de feux tricolores à partir d'images |
CN109035832A (zh) * | 2018-09-12 | 2018-12-18 | 清华大学苏州汽车研究院(吴江) | 基于v2x通信的信号灯路口智能通行*** |
CN109460715A (zh) * | 2018-10-18 | 2019-03-12 | 大唐网络有限公司 | 一种基于机器学习的交通灯自动识别实现方法 |
CN109949590A (zh) * | 2017-12-21 | 2019-06-28 | 通用汽车环球科技运作有限责任公司 | 交通信号灯状态评估 |
WO2019142563A1 (ja) * | 2018-01-22 | 2019-07-25 | 日立オートモティブシステムズ株式会社 | 電子制御装置 |
CN110471415A (zh) * | 2014-07-31 | 2019-11-19 | 伟摩有限责任公司 | 具有自动驾驶模式的车辆及其控制方法和*** |
CN110543814A (zh) * | 2019-07-22 | 2019-12-06 | 华为技术有限公司 | 一种交通灯的识别方法及装置 |
US20200005632A1 (en) * | 2018-06-07 | 2020-01-02 | Intelligent Commute Llc | Traffic light adaptive learning and mapping method and system for improving vehicle energy efficiency and driving comfort |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206427A1 (en) | 2015-01-21 | 2017-07-20 | Sportstech LLC | Efficient, High-Resolution System and Method to Detect Traffic Lights |
US10507807B2 (en) | 2015-04-28 | 2019-12-17 | Mobileye Vision Technologies Ltd. | Systems and methods for causing a vehicle response based on traffic light detection |
US10181264B2 (en) * | 2016-04-18 | 2019-01-15 | Ford Global Technologies, Llc | Systems and methods for intersection assistance using dedicated short range communications |
US10139832B2 (en) | 2017-01-26 | 2018-11-27 | Intel Corporation | Computer-assisted or autonomous driving with region-of-interest determination for traffic light analysis |
JP6552064B2 (ja) | 2017-03-31 | 2019-07-31 | 株式会社Subaru | 車両の走行制御システム |
DE102017004118A1 (de) | 2017-04-27 | 2018-10-31 | Daimler Ag | Verfahren zum Betrieb eines Fahrerassistenzsystems |
AT16628U1 (de) * | 2017-05-23 | 2020-03-15 | Ars Electronica Linz Gmbh & Co Kg | System zum Steuern von unbemannten Luftfahrzeugen in einem Schwarm, um ein bewegtes Objekt mit mehreren Kameras zu filmen |
CN109492507B (zh) | 2017-09-12 | 2022-09-23 | 阿波罗智能技术(北京)有限公司 | 红绿灯状态的识别方法及装置、计算机设备及可读介质 |
KR102390882B1 (ko) | 2017-11-27 | 2022-04-26 | 현대모비스 주식회사 | 무선통신을 이용한 신호등 변화 알림 장치 및 방법 |
US10528824B2 (en) | 2017-12-11 | 2020-01-07 | GM Global Technology Operations LLC | Artificial neural network for lane feature classification and localization |
US11334753B2 (en) | 2018-04-30 | 2022-05-17 | Uatc, Llc | Traffic signal state classification for autonomous vehicles |
JP7119720B2 (ja) | 2018-07-30 | 2022-08-17 | 株式会社デンソー | 運転支援装置 |
US11645511B2 (en) * | 2019-04-24 | 2023-05-09 | Toyota Research Institute, Inc. | Systems and methods for simulating instantaneous attentive human responses to road hazards for improved early warning systems and fleet data harvesting |
US11170238B2 (en) * | 2019-06-26 | 2021-11-09 | Woven Planet North America, Inc. | Approaches for determining traffic light state |
US10816993B1 (en) * | 2019-11-23 | 2020-10-27 | Ha Q Tran | Smart vehicle |
-
2020
- 2020-11-03 US US17/088,001 patent/US11854212B2/en active Active
- 2020-11-11 GB GB2210975.5A patent/GB2614360B/en active Active
- 2020-11-11 GB GB2017795.2A patent/GB2592461B/en active Active
- 2020-12-09 KR KR1020200171473A patent/KR102551208B1/ko active IP Right Grant
-
2021
- 2021-01-27 DE DE102021101758.0A patent/DE102021101758A1/de active Pending
- 2021-02-26 CN CN202110219428.5A patent/CN113313936A/zh active Pending
-
2023
- 2023-06-29 KR KR1020230084162A patent/KR20230104836A/ko active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110182475A1 (en) * | 2010-01-22 | 2011-07-28 | Google Inc. | Traffic signal mapping and detection |
CN104411559A (zh) * | 2012-03-26 | 2015-03-11 | 谷歌公司 | 用于检测交通信号及其关联状态的鲁棒方法 |
US20150124096A1 (en) * | 2013-10-25 | 2015-05-07 | Magna Electronics Inc. | Vehicle vision system utilizing communication system |
WO2016012524A1 (fr) * | 2014-07-23 | 2016-01-28 | Valeo Schalter Und Sensoren Gmbh | Détection de feux tricolores à partir d'images |
CN110471415A (zh) * | 2014-07-31 | 2019-11-19 | 伟摩有限责任公司 | 具有自动驾驶模式的车辆及其控制方法和*** |
CN109949590A (zh) * | 2017-12-21 | 2019-06-28 | 通用汽车环球科技运作有限责任公司 | 交通信号灯状态评估 |
WO2019142563A1 (ja) * | 2018-01-22 | 2019-07-25 | 日立オートモティブシステムズ株式会社 | 電子制御装置 |
US20200005632A1 (en) * | 2018-06-07 | 2020-01-02 | Intelligent Commute Llc | Traffic light adaptive learning and mapping method and system for improving vehicle energy efficiency and driving comfort |
CN109035832A (zh) * | 2018-09-12 | 2018-12-18 | 清华大学苏州汽车研究院(吴江) | 基于v2x通信的信号灯路口智能通行*** |
CN109460715A (zh) * | 2018-10-18 | 2019-03-12 | 大唐网络有限公司 | 一种基于机器学习的交通灯自动识别实现方法 |
CN110543814A (zh) * | 2019-07-22 | 2019-12-06 | 华为技术有限公司 | 一种交通灯的识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
王振永 等: "电机的数学模型和参数辨识", 机械工业出版社, pages: 159 - 162 * |
Also Published As
Publication number | Publication date |
---|---|
DE102021101758A1 (de) | 2021-08-26 |
US20210261152A1 (en) | 2021-08-26 |
GB2614360B (en) | 2024-02-28 |
GB2592461A (en) | 2021-09-01 |
US11854212B2 (en) | 2023-12-26 |
KR20230104836A (ko) | 2023-07-11 |
GB2614360A (en) | 2023-07-05 |
KR20210108867A (ko) | 2021-09-03 |
KR102551208B1 (ko) | 2023-07-03 |
GB2592461B (en) | 2022-10-12 |
GB202017795D0 (en) | 2020-12-23 |
GB202210975D0 (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102551208B1 (ko) | 차량의 교통 신호등 검출 시스템 | |
CN111915917B (zh) | 计算机实现的方法、存储介质和运载工具 | |
US11945440B2 (en) | Data driven rule books | |
CN113196291A (zh) | 自动选择用于注释的数据样本 | |
CN111190418A (zh) | 使用多维包络调整运载工具的横向间隙 | |
DK201970128A1 (en) | AUTOMATIC ANNOTATION OF ENVIRONMENTAL FEATURES IN A MAP DURING NAVIGATION OF A VEHICLE | |
CN113165668A (zh) | 利用机器学习使用运动规划来操作运载工具 | |
CN112783151A (zh) | 从预先计算的或动态生成的轨迹库的轨迹预测 | |
US11325592B2 (en) | Operation of a vehicle using multiple motion constraints | |
CN113012187A (zh) | 使用曲面拟合的前景提取 | |
CN112986979A (zh) | 使用融合的照相机/LiDAR数据点的自动对象标注 | |
EP4163595A1 (en) | Automatic annotation of environmental features in a map during navigation of a vehicle | |
US10960886B2 (en) | Traffic light estimation | |
US11731653B2 (en) | Conditional motion predictions | |
CN113156935A (zh) | 用于交通灯检测的***和方法 | |
CN112634633A (zh) | 利用自主运载工具对多路停车交叉口进行导航 | |
CN113195333A (zh) | 使用线性时间逻辑的自主运载工具操作 | |
CN115328110A (zh) | 用于自主运载工具的***和方法以及存储介质 | |
KR102639008B1 (ko) | 도로 특징부에 대한 폐색 표현을 구현하기 위한 시스템 및 방법 | |
CN113044025A (zh) | 用于运载工具的安全*** | |
CN114627451A (zh) | 运载工具、用于运载工具的方法和存储介质 | |
CN114252066A (zh) | 运载工具、用于运载工具的方法以及存储介质 | |
CN115079687A (zh) | 用于自主运载工具的***、方法和存储介质 | |
CN113970924A (zh) | 用于运载工具的方法和*** | |
GB2616739A (en) | Traffic light estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |