CN107966097B - 光检测和测距与视觉车辆感测 - Google Patents
光检测和测距与视觉车辆感测 Download PDFInfo
- Publication number
- CN107966097B CN107966097B CN201710970298.2A CN201710970298A CN107966097B CN 107966097 B CN107966097 B CN 107966097B CN 201710970298 A CN201710970298 A CN 201710970298A CN 107966097 B CN107966097 B CN 107966097B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- computer
- coordinates
- identified
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 10
- 230000000007 visual effect Effects 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 43
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000002485 combustion reaction Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/015—Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/08—Measuring arrangements characterised by the use of optical techniques for measuring diameters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/933—Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
- G05B19/0423—Input/output
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/056—Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/106—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/301—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种计算机被编程用于识别红外图像中的车辆,基于红外图像确定车辆的车身类型,并且至少基于所确定的车身类型来预测一个或多个车辆元件的坐标。此外,该计算机还被编程用于执行多个LIDAR传感器扫描,并且基于LIDAR传感器扫描来确定车辆元件是否处于预测坐标。
Description
技术领域
本发明大体上涉及车辆感测,以及更具体地涉及一种光检测和测距与视觉车辆感测方法。
背景技术
自主车辆在没有用户干预的情况下可以基于来自计算机控制器的指令进行操作。例如,自主车辆的转向、加速、和制动中的每个都通常取决于由一个或多个车辆检测传感器提供的数据,包括关于与自主车辆共享道路的其他车辆的数据。自主车辆可以配备有各种类型的车辆检测传感器。可以通过组合来自各种类型的车辆检测传感器的数据来改进自主车辆的操作。
发明内容
根据本发明,提供一种计算机,该计算机被编程用于:
识别红外图像中的车辆;
基于红外图像来确定车辆的车身类型;
至少基于所确定的车身类型来预测一个或多个车辆元件的坐标;
执行多个LIDAR传感器扫描;和
基于LIDAR传感器扫描,确定车辆元件是否处于预测坐标。
根据本发明的一个实施例,该计算机还被编程用于至少部分地基于从红外图像确定的所识别的车辆的形状来确定车辆的车身类型,其中形状包括车辆高度、车辆长度、车辆宽度和车辆元件之间的距离中的至少一个。
根据本发明的一个实施例,其中车辆的车身类型是敞篷车、小型汽车、中型轿车、全尺寸轿车、多用途运动车、小型货车、厢型车、以及皮卡车中的一种。
根据本发明的一个实施例,其中一个或多个车辆元件包括前挡风玻璃、前车灯、车窗、后车灯、车柱,轮拱和车轮。
根据本发明的一个实施例,该计算机还被编程用于:
接收两个或更多个红外图像;
至少部分地基于接收到的两个或更多个红外图像来识别所识别的车辆的移动方向;和
进一步基于所识别的移动方向来预测一个或多个车辆元件的坐标。
根据本发明的一个实施例,该计算机还被编程用于:
基于红外图像来推断所识别的车辆的尺寸;和
进一步基于所推断的尺寸和与所识别的车身类型相关联的尺寸来预测一个或多个车辆元件的坐标。
根据本发明的一个实施例,该计算机还被编程用于:
预测一个或多个车辆元件中的一个的尺寸;和
基于LIDAR传感器扫描,确定一个或多个车辆元件中的每个是否具有与其预测尺寸相匹配的尺寸。
根据本发明的一个实施例,该计算机还被编程用于:
至少部分地基于所确定的车身类型来预测两个车辆元件之间的距离;和
基于LIDAR传感器扫描,进一步确定两个车辆元件是否处于距彼此的预测距离。
根据本发明的一个实施例,该计算机还被编程用于:
基于红外图像来预测所识别的车辆相对于主车辆的方位;和
进一步基于所识别的车辆相对于主车辆的预测方位来预测所识别的车辆的一个或多个车辆元件的坐标。
根据本发明的一个实施例,该计算机还被编程用于:
至少部分地基于所识别的车辆的一个或多个车辆元件的预测坐标来确定扫描区域;和
通过以下方式来执行多个LIDAR传感器扫描:
将LIDAR光束传输到所确定的扫描区域;和
接收所传输的LIDAR光束的反射。
根据本发明的一个实施例,该计算机还被编程用于至少通过以下方式接收所传输的LIDAR光束的反射:
从透明车辆元件接收第一反射;和
从不透明车辆元件接收第二反射。
根据本发明的一个实施例,该计算机还被编程用于通过至少部分地基于第一反射和第二反射检测透明车辆元件的尺寸来确定车辆元件是否处于预测坐标。
根据本发明的一个实施例,该计算机还被编程用于:当确定车辆元件处于预测坐标时,基于预测坐标来操作主车辆。
根据本发明,提供一种方法,该方法包含:
识别红外图像中的车辆;
基于红外图像来确定车辆的车身类型;
至少基于所确定的车身类型来预测一个或多个车辆元件的坐标;
执行多个LIDAR传感器扫描;和
基于LIDAR传感器扫描,确定该元件是否处于预测坐标。
根据本发明的一个实施例,该方法中确定车辆的车身类型至少部分地基于从红外图像确定的所识别的车辆的形状。
根据本发明的一个实施例,该方法还包含:
至少部分地基于所识别的车辆的一个或多个车辆元件的预测坐标来确定扫描区域;和
至少通过以下方式来执行多个LIDAR传感器扫描:
将LIDAR光束传输到所确定的扫描区域;和
接收所传输的LIDAR光束的反射。
根据本发明的一个实施例,该方法中扫描区域至少包括所识别的车辆的一个或多个车辆元件。
根据本发明的一个实施例,该方法包含:
接收两个或更多个红外图像;
至少部分地基于接收到的两个或更多个红外图像来识别所识别的车辆的移动方向;和
进一步基于所识别的移动方向来预测一个或多个车辆元件的坐标。
根据本发明的一个实施例,该方法还包含:
基于红外图像来推断所识别的车辆的尺寸;和
进一步基于所推断的尺寸和与所识别的车身类型相关联的尺寸来预测一个或多个车辆元件的坐标。
根据本发明的一个实施例,该方法还包含:
至少部分地基于所确定的车身类型来预测两个车辆元件之间的距离;和
基于LIDAR传感器扫描,进一步确定两个车辆元件是否处于距彼此的预测距离。
附图说明
图1是包括红外/LIDAR感测***的示例性车辆的框图;
图2示出了由图1中的车辆的红外传感器拍摄的具有叠加在其上的车辆车身元件的示意图的第二车辆的红外图像;
图3是具有叠加在其上的LIDAR传感器扫描的图2的红外图像;
图4是基于来自LIDAR和红外传感器的数据来检测车辆的示例性过程的流程图。
具体实施方式
介绍
参考附图,其中相同的附图标记在全部各图中表示相同的部件,主车辆100的计算机110被编程用于识别红外图像中的第二车辆200,并且基于红外图像来确定第二车辆200的车身类型。计算机110被编程用于至少基于所确定的车身类型来预测一个或多个车辆200元件(例如车柱220、保险杠、车窗230等)的坐标,并且然后基于红外数据来执行多个LIDAR(光检测和测距)传感器扫描(sweep)。计算机110还被编程用于然后基于LIDAR传感器扫描来确定该元件是否处于预测坐标。
***元件
图1示出了包括计算机110、红外传感器120、(光检测和测距)LIDAR传感器130、以及下文讨论的其它部件的示例性主车辆100。车辆100可以以各种已知方式被提供动力,例如使用电动马达和/或内燃机。为了与其他车辆200(下面讨论)区分开,车辆100在本文中可以被称为“第一”车辆100。
计算机110包括诸如已知的处理器和存储器。存储器包括一种或多种形式的计算机可读介质,并且储存可由计算机110执行的用于执行包括如本文所公开的各种操作的指令。
计算机110可以以自主或半自主模式操作车辆100。为了本公开的目的,自主模式被定义为:在自主模式下,车辆100的推进、制动和转向中的每个由计算机110控制;在半自主模式下,计算机110控制车辆100推进、制动和转向中的一个或两个。
计算机110可以包括用于操作车辆制动、推进(例如,通过控制内燃机、电动马达、混合发动机等中的一个或多个来控制车辆中的加速度)、转向、气候控制,室内和/或室外灯等中的一个或多个,以及用于确定是否以及何时是由计算机110而不是人类操作者控制这种操作的编制程序。
计算机110可以包括多于一个处理器,或者例如通过如下文进一步描述的车辆通信总线通信地连接至多于一个处理器,例如用于监测和/或控制各种车辆的控制器(例如,动力传动***控制器、刹车***控制器、转向***控制器等)的包括在车辆中的控制器等。计算机110总体上被设置用于在车辆通信网络上进行通信,例如车辆通信网络包括诸如控制器区域网络(CAN)等的车辆内总线。
通过车辆网络,计算机110可以向车辆中的各种装置传输消息和/或从各种装置(例如,红外传感器120、LIDAR传感器130、致动器等)接收消息。替代地或另外地,在计算机110实际上包含多个装置的情况下,车辆通信网络可以用于在本公开中表示为计算机110的设备之间的通信。此外,如下所述,各种控制器和/或传感器可以通过车辆通信网络向计算机110提供数据。
车辆100可以包括一个或多个红外传感器120,例如红外摄像机。红外传感器120是诸如已知的测量由视场中的物体辐射的红外光的电子传感器。数据可以由计算机110以已知的方式接收。在一个示例中,计算机110可以基于从第一车辆100的红外传感器120接收到的数据,生成诸如包括第二车辆200(参见图2)的红外投影的红外图像的红外图像数据。红外传感器120可以安装在车辆100中的各种位置,例如在前部或后部车辆灯罩中、挡风玻璃后面、侧视镜外壳(package)中等。红外传感器120的视场可以包括第一车辆100外部的区域。为了生成图像数据,另外地或替代地,第一车辆100可以包括摄像机传感器。摄像机传感器可以包括芯片、图像传感器和光学部件。摄像机传感器可以基于由摄像机传感器的图像传感器捕获的光学信号来输出图像数据。
车辆100可以包括一个或多个LIDAR传感器130,该一个或多个LIDAR传感器130提供包含车辆100外部的至少一部分的数据。LIDAR数据可以由计算机110以已知方式(例如通过第一车辆100网络)从LIDAR传感器130接收。LIDAR数据可以包括相对于第一车辆100的一个或多个物体的例如在由第一车辆100的计算机110保存的三维坐标系中的坐标。LIDAR数据还可以包括与其他物体有关的其他数据,例如尺寸、与主车辆100的相对速度等。LIDAR传感器130可以通过传输LIDAR光束(例如激光束)并且接收所传输的LIDAR光束的反射来扫描LIDAR传感器130的视场中的区域。通常,LIDAR传感器130可以提供用于以非常高的分辨率映射感测物体的物理特征的数据,并且可以针对宽范围的材料,包括透明车辆元件,例如玻璃车窗230、车辆灯260、270等,或者不透明的车辆元件,例如车柱220、车轮250、车门等。此外,众所周知,当来自LIDAR传感器130的传输光束被引导至透明或半透明物体时,传输的LIDAR光束可以部分由物体反射,也可以部分穿透该物体。因此,车辆100的计算机110可以被编程用于基于接收到的LIDAR光束的反射来确定反射LIDAR光束的物体是否具有透明表面,例如玻璃,或者具有不透明表面,例如金属、橡胶等。
第一车辆100的致动器通过电路、芯片或其他电子部件来实施,该致动器可以根据已知的适当的控制信号来致动各种车辆子***。致动器可以用于控制第一车辆100的制动、加速和转向。作为示例,第一车辆100的计算机110可以输出控制指令以控制致动器。
图2示出了基于第一车辆100的红外传感器120的第二车辆200的示例性红外图像205,和叠加在红外图像205上的第二车辆200车身元件的示意图210。
第二车辆200可以以各种已知方式被提供动力,例如使用电动马达和/或内燃机。车辆200包括可以具有包括敞篷车、小型汽车、中型轿车、全尺寸轿车、多用途运动车、小型货车、厢型车、以及皮卡车的各种类型的车身280。替代地或另外地,可以使用其他车身类型类别。车辆200的车身280可以包括车柱220、车窗230、轮拱240、车轮250、前车灯260和后车灯270中的一个或多个。
车身280的类型可以至少基于车辆200的车身280的物理特性(例如,尺寸、形状等)来限定。具有来自各种车辆型号和/或制造商的特定车身280类型(例如,中型轿车)的车辆200可以具有基本相似的物理特性。例如,具有轿车车身类型的车辆200车身280可以具有基本相似的尺寸,例如发动机罩的长度、前后车轮250中心之间的距离、车辆200的车顶的高度等。“基本相似”是尺寸偏差小于预定阈值,例如5%。
如图2所示,示意图210示出了车辆200的车身280的车身类型。示意图210可以基于与车辆200的车身280的车身类型相关联的数据。与车身类型相关联的数据可以包括车身280的尺寸和/或各种车辆200元件的尺寸。例如,车身类型数据可以包括与车辆200或车辆200元件相关联的尺寸,例如,高度H1、长度L1、车轮直径D3、轮拱直径D4、车柱宽度D5和/或侧窗230长度D6。另外地或替代地,车身类型数据可以包括车辆200元件例如相对于诸如拐角点290的参考点的坐标,包括前车轮250的坐标D1、D2等等。另外地或替代地,与车身类型相关联的数据可以包括车辆200元件之间的距离,例如前后车轮250中心之间的距离,和/或指示车辆200的车身280的形状的数据。
车辆元件坐标的预测
现在参考图1-2,第一车辆100的计算机110被编程用于从第一车辆100的红外传感器120接收红外图像205数据,并且至少基于红外图像205使用诸如已知的图像处理技术来识别车辆200。第一车辆100的计算机110还被编程用于基于红外图像205来确定车辆200的车身类型,并且至少基于所确定的车身类型来预测一个或多个车辆元件(例如诸如车轮250的车身280部件)的坐标。此外,第一车辆100的计算机110可以被编程用于计算红外图像205中的所识别的第二车辆200周围的矩形295的坐标。或者,第一车辆100的计算机110可以计算立体矩形295(即,超矩形(hyper rectangle))的坐标。例如,当第二车辆200的前车窗230和侧车窗230都在红外图像205中可见时,则计算机110可以计算第二车辆200周围的超矩形295的坐标。
在一个示例中,第一车辆100的计算机110可以被编程用于至少部分基于第二车辆200的车身280的物理特性(例如,第二车辆200的车身280的形状、诸如车辆200的车身280的长度L1、高度H1和/或宽度的尺寸、和/或第二车辆200元件之间的距离)来确定第二车辆200的车身280的车身类型。
在一个示例中,第一车辆100的计算机110可以至少基于与所确定的车身类型相关联的数据和包括在红外图像205中的数据来预测各种车辆200元件(例如,车身280的部件)的坐标。预测坐标可以包括车辆200元件的尺寸、车辆200元件之间的距离、和/或相对于诸如矩形295的拐角的参考点290的车辆200元件的坐标。例如,基于所确定的车身类型,第一车辆100的计算机110可以预测:车辆200的车柱220具有宽度D5。然而,根据接收到的红外图像205,第一车辆100的计算机110例如由于红外图像205的模糊性,可能基于红外图像205无法识别车辆200的车柱220。因此,第一车辆100的计算机110仅基于红外图像205可能无法识别车柱220的宽度。因此,第一车辆100的计算机110可以被编程用于至少基于红外图像205和与所确定的车身类型相关联的数据来预测第二车辆200元件的坐标,例如,预测车柱220具有宽度D5。作为另一示例,第一车辆100的计算机110可以预测前车轮250的坐标D1、D2,例如,预测前车轮250的中心相对于参考点290位于坐标D1、D2处。
第二车辆200元件的坐标可以在具有参考点(例如,第一车辆100的红外传感器120的视场中的预设点)的三维坐标系中定义。另外地或替代地,坐标可以基于第一车辆100的外部在红外图像205中的投影而在二维坐标系中定义。
在另一示例中,第一车辆100的计算机110可以被编程用于接收多个红外图像205,并且至少部分地基于接收到的红外图像205来识别所识别的第二车辆200的移动方向。第一车辆100的计算机110然后可以被编程用于进一步基于所识别的移动方向来预测第二车辆200元件的坐标。例如,第一车辆100的计算机110可以在每个红外图像中确定例如相对于第一车辆100的位置的第二车辆200位置。然后,第一车辆100的计算机110可以基于所确定的第二车辆200的位置(例如,基于第二车辆200的位置的变化)来确定第二车辆200的移动方向。例如,第一车辆100的计算机110可以基于所确定的移动方向来选择用作坐标预测的第二车辆200元件。在一个示例中,如图2所示,基于所确定的移动方向D7,第一车辆100的计算机110可以确定:第二车辆200的前挡风玻璃车窗230在红外图像205中完全或部分不可见,并且因此由红外图像205无法预测车窗230的坐标。
在又一示例中,第一车辆100的计算机110可以被编程用于基于红外图像205来预测所识别的第二车辆200相对于第一车辆100的方位。第二车辆200相对于第一车辆100的方位可以被定义为车辆100、200的纵向轴线之间的角度。然后,第一车辆100的计算机110可以进一步基于所预测的所识别的第二车辆200相对于第一车辆100的方位来预测所识别的第二车辆200的一个或多个车辆元件的坐标。
为了预测第二车辆200元件的坐标,第一车辆100的计算机110可以被编程用于基于接收到的红外图像205来推断所识别的第二车辆200的尺寸,并且进一步基于所推断的尺寸和与所识别的车辆车身类型相关联的尺寸来预测第二车辆200元件的坐标。例如,与具有中型轿车车身类型的第二车辆200相关联的车身类型可以指示车辆200的长度为440cm。此外,第一车辆100的计算机110可以确定在红外图像205中捕获的第二车辆200的长度(例如矩形295的长度)可以是220像素。另外地或替代地,第一车辆100的计算机110可以进一步基于诸如车辆100、200之间的距离和/或车辆100、200的方向之间的角度的其他参数来推断第二车辆200的尺寸。
基于LIDAR传感器扫描的车辆检测验证
图3示出了具有叠加在其上的LIDAR传感器130扫描区域215的红外图像205。第一车辆100的计算机110被编程用于基于LIDAR传感器扫描来确定车辆200元件(例如,诸如前车轮250的车身280的部件)是否处于预测坐标,例如D1、D2。
为了确定车辆200元件是否处于预测坐标,第一车辆100的计算机110可以被编程用于至少部分地基于一个或多个车辆200元件的预测坐标来确定一个或多个扫描区域215(在图3中示出了示例性扫描区域215a、215b和215c,这些扫描区域中的每个被指代为通用扫描区域215以便于本说明书说明)。作为一个示例,扫描区域215可以包括由矩形295覆盖的区域的一个或多个部分。另外地或替代地,扫描区域215可以包括由矩形295、在预测坐标处的特定点等覆盖的整个区域(或体积)。然后,第一车辆100的计算机110可以通过将LIDAR光束传输至所确定的扫描区域215来在各自的扫描区域215中执行多个LIDAR传感器130扫描,然后计算机110接收所传输的LIDAR光束的反射。
例如,第一车辆100的计算机110可以基于在车辆200的前后车灯260、270之间延伸的扫描区域215b来对车辆200的长度进行第一估计。然后,第一车辆100的计算机110可以基于反射LIDAR光束的扫描区域215b的反射区域225来对车辆200的长度进行第二估计。车辆100的计算机110然后可以确定基于LIDAR扫描的所识别的车辆200的长度是否等于所预测的与特定的车身280类型相关联的长度L1。
第一车辆100的计算机110可以被编程用于预测车辆200元件的尺寸,例如前车轮250的直径D3、前轮拱240的直径D4等,并且基于LIDAR传感器扫描,确定车辆200元件是否具有与预测尺寸相匹配的尺寸。例如,第一车辆100的计算机110可以确定车辆200的前车轮250是否具有与其预测尺寸相匹配的尺寸,例如,前车轮250的直径D3和前轮拱240的直径D4是否与预测尺寸相匹配。车辆100的计算机110可以基于从LIDAR传感器130到各个反射区域225、245的距离来区分扫描区域215c的区域225、245。轮拱240的表面相对于车轮250的外表面具有到LIDAR传感器130更长的距离。
作为另一示例,车辆100的计算机110可以被编程用于至少部分地基于所确定的车身类型并且基于LIDAR传感器扫描来预测两个车辆元件(例如前和后车轮250)之间的距离。车辆100的计算机110然后可以确定两个车辆元件是否处于距彼此的预测距离。
如上所述,透明和/或半透明表面可以部分地反射LIDAR光束。因此,第一车辆100的计算机110可以被编程用于至少通过从透明车辆200元件(例如玻璃)接收第一反射并且从不透明车辆200元件接收第二反射来接收所传输的LIDAR光束的反射。计算机110还可被编程用于通过至少部分地基于第一反射和第二反射检测透明车辆元件的尺寸来确定该元件是否处于预测坐标。例如,车辆100的计算机110可以接收包括来自侧车窗230的透明区域225和车柱220的不透明区域225的反射的扫描区域215A的反射。车辆100的计算机110可以基于扫描区域215A的区域225、235来确定车柱220的宽度D5和/或侧车窗230的长度D6。
作为另一示例,车辆100的计算机110可以被编程用于接收多个红外图像205,至少部分地基于红外图像205来确定第二车辆200的速度。车辆100的计算机110还可以被编程用于进一步基于所识别的车辆200的所确定的速度来确定元件是否处于预测坐标。
示例性过程的流程
图4示出了用于基于从主车辆100的红外传感器120和LIDAR传感器130接收到的数据来检测第二车辆200的示例性过程400。第一车辆100的计算机110可以被编程用于执行如下所述的示例性过程400的框。
该过程开始于框405,在框405中,主车辆100的计算机110从车辆100的红外传感器120接收一个或多个红外图像205。作为一个示例,车辆100的计算机110可以周期性地(例如每30ms(毫秒))接收红外图像205。
接下来,在判定框410中,主车辆100的计算机110可以使用诸如已知的图像处理技术来识别接收到的红外图像205中的第二车辆200。如果在红外图像中识别出第二车辆200,则过程400进行到框415;否则过程400结束。
在框415中,主车辆100的计算机110基于接收到的红外图像205(例如基于第二车辆200的位置的变化)来确定所识别的第二车辆200的方向和/或速度。
接下来,在框420中,主车辆100的计算机110仍然依靠红外图像205例如基于第二车辆的形状和/或其他属性来确定所识别的第二车辆200的车身类型。车身类型可以包括车身280的尺寸和/或各种车辆200元件的尺寸。
接下来,在框425中,主车辆100的计算机110基于红外图像205和/或与所确定的车身类型相关联的数据来推断所识别的第二车辆200的尺寸。例如,主车辆100的计算机110可以根据基于相关联的车身类型确定的第一尺寸和基于红外图像205识别的第二尺寸来推断车辆200的尺寸。
接下来,在框430中,主车辆100的计算机110预测所识别的第二车辆200的方位。例如,所识别的第二车辆200的方位可以被定义为车辆100、200的纵向轴线之间的角度。
接下来,在框435中,主车辆100的计算机110预测所识别的第二车辆200元件(例如车柱220、车轮250等)的坐标,例如车辆200元件相对于参考点的坐标,例如,前车轮250中心的坐标D1、D2。然后,第二车辆200元件坐标的预测可用于预测车辆200元件(例如前和后车轮250)之间的距离,和/或预测车辆200元件尺寸,例如前车轮250直径D3。
接下来,在框440中,主车辆100的计算机110执行LIDAR传感器130扫描。例如,主车辆100的计算机110可以被编程用于至少部分地基于一个或多个车辆200元件的预测坐标来确定一个或多个扫描区域215。然后,第一车辆100的计算机110可以通过将LIDAR光束传输到所确定的扫描区域215并且然后接收所传输的LIDAR光束的反射来在各自的扫描区域215中执行多个LIDAR传感器130扫描。
如上所述,根据过程400编程的车辆100的计算机110可以扫描基于所识别的第二车辆200的车身类型所确定的区域215。因此,有利地,主车辆100的计算机110可能需要扫描LIDAR传感器130的视场的有限区域,而不是扫描例如LIDAR传感器130的整个视场。因为扫描有限的区域215而不是LIDAR传感器130的整个视场可以在主车辆100的计算机110处花费较少数量的计算周期,所以这是有益的。
接下来,在判定框445中,主车辆100的计算机110基于LIDAR传感器扫描来确定车辆元件是否处于预测坐标。换句话说,主车辆100的计算机110验证基于所确定的车身类型的预测坐标与基于LIDAR传感器130扫描确定的坐标是否一致。如果车辆100的计算机110确定第二车辆200元件处于预测坐标,则过程400进行到框450;否则过程400进行到框455。
在框450中,车辆100的计算机110基于使用红外图像数据生成的数据(例如,所识别的第二车辆200的尺寸、位置坐标、速度和/或移动方向)来操作车辆100,例如,车辆100的计算机110可以使用诸如第二车辆200的坐标的数据来控制车辆100的操作,例如用于避免碰撞。在框450之后,过程400结束。
在框455中,主车辆100的计算机110执行LIDAR传感器130的整个视场的LIDAR传感器130扫描。另外地或替代地,主车辆100的计算机110可以执行由矩形或立体矩形295指定的区域的LIDAR传感器130扫描。
接下来,在框460中,主车辆100的计算机110基于从LIDAR传感器130接收到的数据来操作车辆100。从LIDAR传感器130接收道的数据可以包括所识别的第二车辆200的尺寸、位置坐标、速度、和/或移动方向。例如,车辆100的计算机110可以使用从LIDAR传感器130接收到的数据(例如第二车辆200的坐标)来控制车辆100的操作,例如用于避免碰撞。在框460之后,过程400结束。
在框440之后,过程400可以结束或者虽然在图4中未示出,但是如果车辆100继续操作,则过程400可以返回到框405。
如本文所讨论的计算装置通常包括可执行指令,其中该指令可以由一个或多个诸如上面所列的计算装置执行,并且以执行上述方法或步骤。计算机可执行指令可以由计算机程序编译或解释,计算机程序采用多种编程语言和/或技术创建,这些编程语言和/或技术包括但并不限于单独地或组合的JavaTM、C、C++、Visual Basic、JavaScript、Perl、HTML等。通常,处理器(例如微处理器)例如从存储器、计算机可读介质等接收指令,并且执行这些指令,由此完成包括这里所描述的一个或多个程序的一个或多个程序。这样的指令或其他数据可以采用各种计算机可读介质存储和传输。计算装置中的文件通常是储存在诸如存储介质、随机存取存储器等的计算机可读介质上的数据的集合。
计算机可读介质包括参与提供可以由计算机读取的数据(例如指令)的任意介质。这样的介质可以采用多种形式,包括但不限于非易失性介质和易失性介质。非易失性介质可以包括例如光盘或磁盘或其他永久性存储器。易失性介质可以包括例如典型地构成主存储器的动态随机存取存储器(DRAM)。计算机可读介质的常规形式包括,例如软盘、柔性盘、硬盘、磁盘、任何其他磁性介质、CD-ROM(只读光盘驱动器)、DVD(数字化视频光盘)、任何其他光学介质、穿孔卡片、纸带、具有孔图案的任何其他物理介质、RAM(随机存取存储器)、PROM(可编程只读存储器)、EPROM(可擦除可编程只读存储器)、FLASHEEPROM(闪速电可擦除可编程只读存储器)、任何其他存储器芯片或盒,或者任何其他计算机可读取的介质。
关于这里所述的媒介、程序、***、方法、启发式等,应理解的是虽然这样的程序等的步骤已经被描述为按照一定的顺序排列发生,但这样的程序可以采用以这里描述的顺序之外的顺序完成的描述的步骤实施操作。进一步应该理解的是,某些步骤可以同时执行,可以添加其他步骤,或者可以省略这里所述的某些步骤。换言之,这里的程序的描述提供用于说明某些实施例的目的,并且不应该以任何方式解释为限制本公开的主题。
相应地,应理解的是包括上面的描述和附图以及以下的权利要求的本公开的目的是说明而不是限制。在阅读上面的描述时,除了提供的示例外许多实施例和应用对于本领域技术人员都是显而易见的。本发明的范围应参照本公开所附权利要求以及包括在基于本公开的非临时专利申请中的权利要求、连同这些权利要求所享有的全部等同范围而确定,而不是参照上面的说明而确定。可以预期的是这里所讨论的技术将出现进一步的发展,并且所公开的***和方法将可以结合到这样的进一步的实施例中。总之,应理解的是本公开的主体能够进行修正和变化。
Claims (14)
1.一种光检测和测距与视觉车辆感测方法,包含:
识别红外图像中的第二车辆;
基于所述红外图像来确定所述第二车辆的车身类型;
至少基于所述所确定的车身类型来预测一个或多个第二车辆元件的坐标;
执行多个LIDAR传感器扫描;
基于所述LIDAR传感器扫描,确定所述元件是否处于所述预测坐标;以及当确定所述元件处于所述预测坐标时,基于所述预测坐标来操作第一车辆。
2.根据权利要求1所述的方法,其中确定所述第二车辆的所述车身类型至少部分地基于从所述红外图像确定的所述所识别的第二车辆的形状,并且所述形状包括车辆高度、车辆长度、车辆宽度和车辆元件之间的距离中的至少一个。
3.根据权利要求1所述的方法,其中所述第二车辆的所述车身类型是敞篷车、小型汽车、中型轿车、全尺寸轿车、多用途运动车、小型货车、厢型车、以及皮卡车中的一种。
4.根据权利要求1所述的方法,其中所述一个或多个第二车辆元件包括前挡风玻璃、前车灯、车窗、后车灯、车柱、轮拱和车轮。
5.根据权利要求1所述的方法,还包含:
接收两个或更多个红外图像;
至少部分地基于所述接收到的两个或更多个红外图像来识别所述所识别的第二车辆的移动方向;和
进一步基于所述所识别的移动方向来预测所述一个或多个第二车辆元件的坐标。
6.根据权利要求1所述的方法,还包含:
基于所述红外图像来推断所述所识别的第二车辆的尺寸;和
进一步基于所述所推断的尺寸和与所述所识别的车身类型相关联的尺寸来预测所述一个或多个第二车辆元件的坐标。
7.根据权利要求1所述的方法,还包含:
预测所述一个或多个第二车辆元件中的一个的尺寸;和
基于所述LIDAR传感器扫描,确定所述一个或多个第二车辆元件中的每个是否具有与其预测尺寸相匹配的尺寸。
8.根据权利要求1所述的方法,还包含:
至少部分地基于所述所确定的车身类型来预测两个第二车辆元件之间的距离;和
基于所述LIDAR传感器扫描,确定所述两个第二车辆元件是否处于距彼此的所述预测距离。
9.根据权利要求1所述的方法,还包含:
基于所述红外图像来预测所述所识别的第二车辆相对于第一车辆的方位;和
进一步基于所述所识别的第二车辆相对于所述第一车辆的所述预测方位来预测所述所识别的第二车辆的所述一个或多个第二车辆元件的坐标。
10.根据权利要求1所述的方法,还包含:
至少部分地基于所述所识别的第二车辆的所述一个或多个第二车辆元件的所述预测坐标来确定扫描区域;和
通过以下方式来执行多个LIDAR传感器扫描:
将LIDAR光束传输到所述所确定的扫描区域;和
接收所述所传输的LIDAR光束的反射。
11.根据权利要求10所述的方法,还包含:至少通过以下方式来接收所述所传输的LIDAR光束的反射:
从第二车辆的透明元件接收第一反射;和
从第二车辆的不透明元件接收第二反射。
12.根据权利要求11所述的方法,还包含:通过至少部分地基于所述第一反射和所述第二反射检测所述透明元件的尺寸来确定所述一个或多个第二车辆元件是否处于所述预测坐标。
13.一种被编程用于执行根据权利要求1-12中任一项所述的方法的计算装置。
14.一种计算机程序产品,包含储存可由计算机处理器执行的指令的计算机可读介质,所述指令用于执行根据权利要求1-12中任一项所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/298,389 | 2016-10-20 | ||
US15/298,389 US10629072B2 (en) | 2016-10-20 | 2016-10-20 | LIDAR and vision vehicle sensing |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107966097A CN107966097A (zh) | 2018-04-27 |
CN107966097B true CN107966097B (zh) | 2021-11-30 |
Family
ID=60419151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710970298.2A Active CN107966097B (zh) | 2016-10-20 | 2017-10-16 | 光检测和测距与视觉车辆感测 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10629072B2 (zh) |
CN (1) | CN107966097B (zh) |
DE (1) | DE102017124373A1 (zh) |
GB (1) | GB2558356A (zh) |
MX (1) | MX2017013477A (zh) |
RU (1) | RU2017134279A (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180096059A (ko) * | 2017-02-20 | 2018-08-29 | 엘지전자 주식회사 | 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 |
US11474244B2 (en) * | 2019-04-16 | 2022-10-18 | GM Global Technology Operations LLC | System and method of controlling operation of a device having an optical sensor |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
DE102019126400A1 (de) * | 2019-09-30 | 2021-04-01 | Ford Global Technologies, Llc | Verfahren zum Betrieb eines Kraftfahrzeugs mit einem LIDAR-Sensor |
CN111267665B (zh) * | 2020-02-17 | 2021-12-21 | 国网安徽电动汽车服务有限公司 | 一种利用图像判定汽车类型实现电动汽车充电的方法 |
CN111288902B (zh) * | 2020-02-21 | 2021-09-10 | 苏州大学 | 一种双视场光相干断层扫描成像***及材料厚度检测法 |
CN112255641A (zh) * | 2020-09-30 | 2021-01-22 | 成都新成汽车检测设备有限公司 | 一种汽车轴距的测量方法 |
US20220229187A1 (en) * | 2021-01-15 | 2022-07-21 | Nec Laboratories America, Inc. | Lidar-driven mmwave beam management |
CN114485465B (zh) * | 2022-01-25 | 2024-06-25 | 山东新凌志检测技术有限公司 | 一种汽车列车外廓尺寸自动快速识别装置及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5809161A (en) * | 1992-03-20 | 1998-09-15 | Commonwealth Scientific And Industrial Research Organisation | Vehicle monitoring system |
CN201133809Y (zh) * | 2007-10-29 | 2008-10-15 | 麻伟明 | 机动车外廓尺寸动态自动测量装置 |
CN104361751A (zh) * | 2014-10-27 | 2015-02-18 | 北京握奇智能科技有限公司 | 一种自由流收费的激光扫描车型识别*** |
CN105427614A (zh) * | 2015-08-28 | 2016-03-23 | 北京动视元科技有限公司 | 一种车型分类***及其方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62231190A (ja) | 1986-04-01 | 1987-10-09 | Yamaha Motor Co Ltd | 衝突警報装置 |
US7209221B2 (en) | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
JP4608631B2 (ja) | 2005-06-08 | 2011-01-12 | 国立大学法人名古屋大学 | 車両用画像処理装置、運転支援装置 |
GB2437137A (en) | 2006-04-03 | 2007-10-17 | Autoliv Development Ab | Drivers aid that sensors the surrounding of the vehicle, and with a positioning system compares the detected objects to predict the driving conditions |
CA2668064A1 (en) * | 2006-10-30 | 2008-05-08 | Autonosys Inc. | Scanning system for lidar |
US7961906B2 (en) | 2007-01-03 | 2011-06-14 | Science Applications International Corporation | Human detection with imaging sensors |
FR2947656B1 (fr) | 2009-07-06 | 2016-05-27 | Valeo Vision | Procede de detection d'un obstacle pour vehicule automobile |
US20130300875A1 (en) | 2010-04-23 | 2013-11-14 | Flir Systems Ab | Correction of image distortion in ir imaging |
US8195394B1 (en) | 2011-07-13 | 2012-06-05 | Google Inc. | Object detection and classification for autonomous vehicles |
US9429650B2 (en) | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
US9396403B2 (en) * | 2012-12-31 | 2016-07-19 | Instytut Badawczy Drog I Mostow | Method of vehicle identification and a system for vehicle identification |
US9052393B2 (en) | 2013-01-18 | 2015-06-09 | Caterpillar Inc. | Object recognition system having radar and camera input |
US9201421B1 (en) | 2013-11-27 | 2015-12-01 | Google Inc. | Assisted perception for autonomous vehicles |
US9519060B2 (en) | 2014-05-27 | 2016-12-13 | Xerox Corporation | Methods and systems for vehicle classification from laser scans using global alignment |
CN105302151B (zh) | 2014-08-01 | 2018-07-13 | 深圳中集天达空港设备有限公司 | 一种飞机入坞引导和机型识别的***及方法 |
CN104536009B (zh) | 2014-12-30 | 2016-12-28 | 华中科技大学 | 一种激光红外复合的地面建筑物识别及导航方法 |
-
2016
- 2016-10-20 US US15/298,389 patent/US10629072B2/en active Active
-
2017
- 2017-10-03 RU RU2017134279A patent/RU2017134279A/ru not_active Application Discontinuation
- 2017-10-13 GB GB1716847.7A patent/GB2558356A/en not_active Withdrawn
- 2017-10-16 CN CN201710970298.2A patent/CN107966097B/zh active Active
- 2017-10-18 DE DE102017124373.9A patent/DE102017124373A1/de active Pending
- 2017-10-19 MX MX2017013477A patent/MX2017013477A/es unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5809161A (en) * | 1992-03-20 | 1998-09-15 | Commonwealth Scientific And Industrial Research Organisation | Vehicle monitoring system |
CN201133809Y (zh) * | 2007-10-29 | 2008-10-15 | 麻伟明 | 机动车外廓尺寸动态自动测量装置 |
CN104361751A (zh) * | 2014-10-27 | 2015-02-18 | 北京握奇智能科技有限公司 | 一种自由流收费的激光扫描车型识别*** |
CN105427614A (zh) * | 2015-08-28 | 2016-03-23 | 北京动视元科技有限公司 | 一种车型分类***及其方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180114436A1 (en) | 2018-04-26 |
MX2017013477A (es) | 2018-09-28 |
GB2558356A (en) | 2018-07-11 |
GB201716847D0 (en) | 2017-11-29 |
US10629072B2 (en) | 2020-04-21 |
DE102017124373A1 (de) | 2018-05-30 |
CN107966097A (zh) | 2018-04-27 |
RU2017134279A (ru) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107966097B (zh) | 光检测和测距与视觉车辆感测 | |
CN108688656B (zh) | 车辆及用于控制车辆的方法 | |
US9863775B2 (en) | Vehicle localization system | |
CN107640092B (zh) | 车辆内部和外部监视 | |
CN108089573B (zh) | 车辆视觉 | |
US11308805B2 (en) | Parking space notification device and method | |
KR102494864B1 (ko) | 차량 및 그 제어방법 | |
CN107807358B (zh) | 利用红外灯来检测迎面而来的车辆 | |
CN112771591B (zh) | 用于评价运输工具的环境中的对象对运输工具的行驶机动动作的影响的方法 | |
CN112596050A (zh) | 一种车辆及车载传感器***、以及行车数据采集方法 | |
US20210011481A1 (en) | Apparatus for controlling behavior of autonomous vehicle and method thereof | |
JP2019038350A (ja) | 駐車支援装置 | |
US11100353B2 (en) | Apparatus of controlling region of interest of image and method for controlling the same | |
JP7346129B2 (ja) | 駐車支援装置及び駐車支援装置の制御方法 | |
US10556584B2 (en) | Vehicle vision | |
JP4768499B2 (ja) | 車載周辺他車検出装置 | |
WO2021070489A1 (ja) | 車両用周辺監視装置及び車両用周辺監視方法 | |
KR102441050B1 (ko) | 차량의 충돌 제어 장치 및 방법 | |
WO2021172532A1 (ja) | 駐車支援装置および駐車支援方法 | |
KR20190062689A (ko) | 차량 및 그 제어 방법 | |
US20240078819A1 (en) | Steering wheel contact detection | |
WO2023026760A1 (ja) | 物体検知装置、物体検知方法 | |
KR102548868B1 (ko) | 차량 및 그 제어방법 | |
KR102457511B1 (ko) | 차량 및 그 제어방법 | |
KR20220122338A (ko) | 전방 카메라 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |