CN109416399A - 三维成像*** - Google Patents

三维成像*** Download PDF

Info

Publication number
CN109416399A
CN109416399A CN201780039604.9A CN201780039604A CN109416399A CN 109416399 A CN109416399 A CN 109416399A CN 201780039604 A CN201780039604 A CN 201780039604A CN 109416399 A CN109416399 A CN 109416399A
Authority
CN
China
Prior art keywords
laser
source
laser source
photoelectric detector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780039604.9A
Other languages
English (en)
Other versions
CN109416399B (zh
Inventor
裴军
马克·麦克德
叶军
崔宇鹏
韩立群
廖冬
廖冬一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Pupil Technology Co
Original Assignee
Deep Pupil Technology Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Pupil Technology Co filed Critical Deep Pupil Technology Co
Publication of CN109416399A publication Critical patent/CN109416399A/zh
Application granted granted Critical
Publication of CN109416399B publication Critical patent/CN109416399B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

激光雷达***包括激光源、光电检测器、发射透镜、接收透镜和处理器。激光源被配置以被平移通过发射平面中的多个发射位置,并且发射多个激光脉冲。发射透镜被配置以将多个激光脉冲准直并导向对象。接收透镜被配置以将从对象反射的多个激光脉冲中的每一个的一部分准直并聚焦到多个检测位置。光电检测器被配置以被平移通过多个对应检测位置,并且被配置以检测多个激光脉冲中的每一个的所述部分。处理器被配置以确定多个激光脉冲中的每一个从发射到检测的飞行时间,和基于所确定的飞行时间来构建对象的三维图像。

Description

三维成像***
相关申请的交叉引用
本申请要求2016年9月16日提交的申请号为15/267,558的美国非临时专利申请、2016年10月7日提交的申请号为15/288,206的美国非临时专利申请、以及2016年12月22日提交的申请号为15/389,368的美国非临时专利申请的权益和优先权,它们要求了2016年4月26日提交的申请号为62/327,447的美国临时专利申请的优先权。出于各种目的,上述专利申请的全部内容通过引用并入本文。
背景技术
三维传感器对于自主车辆、无人机以及其他应用是重要的。例如,它们可以用于自主车辆中的障碍物检测。远程雷达由于其低成本和高可靠性已成为高端汽车的常见选择。虽然毫米波雷达的角分辨率(例如,在72GHz W波段下操作)可以优于2度,但是这种角分辨率不足以引导高速的自主车辆。例如,通常认为200米的感测范围对于以每小时120公里(即约33米/秒或75英里/小时)行驶的汽车是必要的。可以计算出,对于200m远的对象,需要0.2度或更小的角分辨率以实现0.7m的空间分辨率。该空间分辨率将确保通过至少一个像素来检测正常尺寸的车辆。另一方面,与消费者汽车的平均售价相比,目前市售的基于激光雷达的三维传感器非常昂贵。
发明内容
根据本发明的实施例,一种用于对象的三维成像的激光雷达***,所述激光雷达***包括激光源,其被配置以被平移通过发射平面中的多个发射位置。所述激光源被配置以发射多个激光脉冲,其中所述多个激光脉冲中的每一个在所述多个发射位置中的相应一个处发射。所述激光雷达***还包括发射透镜,其被配置以使所述多个激光脉冲准直并导向所述对象,所述多个激光脉冲中的每一个的一部分可以从所述对象反射。所述激光雷达***还包括接收透镜,其被配置以接收从所述对象反射的所述多个激光脉冲中的每一个的一部分并将其聚焦到检测平面中的多个对应检测位置。所述多个对应检测位置中的每一个与所述多个发射位置中的相应的一个共轭。所述激光雷达***还包括光电检测器,其被配置以被平移通过所述检测平面中的所述多个对应检测位置,所述光电检测器被配置以接收和检测从所述对象反射的多个激光脉冲中的每一个的一部分。所述激光雷达***还包括处理器,其耦合到所述激光源和所述光电检测器,所述处理器被配置以确定所述多个激光脉冲中的每一个从发射到检测的飞行时间,和基于所确定的所述多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
在另一实施例中,一种三维成像方法可包括:将激光源平移到发射平面中的多个发射位置中的每一个,并使用所述激光源发射多个激光脉冲。所述多个激光脉冲中的每一个在所述多个发射位置中的相应一个处发射。所述方法还包括使用发射透镜准直所述多个激光脉冲并将其导向对象。所述多个激光脉冲中的每一个的一部分被从所述对象反射。所述方法还包括使用接收透镜接收从所述对象反射的所述多个激光脉冲中的每一个的一部分,并将其聚焦到检测平面中的多个对应的检测位置。每个对应的检测位置与相应的发射位置共轭。所述方法还包括将光电检测器平移到所述检测平面中的所述多个对应的检测位置中的每一个,和使用光电检测器检测所述多个检测位置中的每一个处的所述多个激光脉冲中的每一个的所述一部分。所述方法还可包括使用处理器确定所述多个激光脉冲中的每一个从发射到检测的飞行时间,和基于所确定的所述多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
根据一个进一步的实施例,一种用于对象的三维成像的激光雷达***可包括第一激光源,其被配置以被平移通过发射平面中的第一多个发射位置。所述第一激光源被配置以分别在所述第一多个发射位置处发射第一多个激光脉冲。所述激光雷达***还可包括第二激光源,其被配置以被平移通过所述发射平面中的第二多个发射位置。所述第二激光源被配置以分别在所述第二多个发射位置发射第二多个激光脉冲。所述激光雷达***还可包括发射透镜,其被配置以准直所述第一多个激光脉冲和所述第二多个激光脉冲并将其导向所述对象。所述第一多个激光脉冲中的每一个的一部分和所述第二多个激光脉冲中的每一个的一部分被从所述对象反射。所述激光雷达***还可包括接收透镜,其被配置以接收从所述对象反射的所述第一多个激光脉冲中的每一个的所述部分和从所述对象反射的所述第二多个激光脉冲中的每一个的所述部分,并将其聚焦到所述检测平面中的所述第一多个对应的检测位置和所述第二多个对应的检测位置。所述第一多个对应的检测位置中的每一个与所述第一多个发射位置中的相应一个共轭,并且所述第二多个对应的检测位置中的每一个与所述第二多个发射位置中的相应一个共轭。所述激光雷达***还可包括第一光电检测器,其被配置以被平移通过所述检测平面中的所述第一多个对应的检测位置,所述第一光电检测器可操作以接收和检测从所述对象反射的所述第一多个激光脉冲中的每一个的所述部分。所述激光雷达***还可包括第二光电检测器,其被配置以被平移通过所述检测平面中的所述第二多个对应的检测位置。所述第二光电检测器可操作以接收和检测从所述对象反射的所述第二多个激光脉冲中的每一个的所述部分。所述激光雷达***还可包括处理器,其耦合到所述第一激光源、所述第二激光源、所述第一光电检测器和所述第二光电检测器。所述处理器可被配置以确定所述第一多个激光脉冲中的每一个以及所述第二多个激光脉冲中的每一个的从发射到检测的飞行时间,和基于所确定的所述第一多个激光脉冲中的每一个以及所述第二多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
根据本发明的另一实施例,一种三维成像的方法包括将第一激光源平移到发射平面中的第一多个发射位置中的每一个,和使用所述第一激光源发射第一多个激光脉冲。所述第一多个激光脉冲中的每一个在所述第一多个发射位置中的相应一个处发射。所述方法还包括将第二激光源平移到所述发射平面中的第二多个发射位置中的每一个和使用所述第二激光源发射第二多个激光脉冲。所述第二多个激光脉冲中的每一个在所述第二多个发射位置中的相应一个处发射。所述方法还包括使用发射透镜准直和引导(i)所述第一多个激光脉冲以第一多个场角朝向第一场范围中的场景,以及(ii)所述第二多个激光脉冲以第二多个场角朝向第二多个场范围中的场景。所述第一多个激光脉冲中的每一个的一部分和所述第二多个激光脉冲中的每一个的一部分从所述场景中的一个或多个对象上被反射。所述方法还包括使用接收透镜接收从所述一个或多个对象反射的所述第一多个激光脉冲中的每一个的一部分和所述第二多个激光脉冲中的每一个的一部分,并将其聚焦到所述检测平面中的第一个多个对应的检测位置和第二多个对应的检测位置。所述第一多个对应的检测位置中的每一个与所述第一多个发射位置中的相应一个共轭,并且所述第二多个对应的检测位置中的每一个与所述第二多个发射位置中的相应一个共轭。所述方法还包括将第一光电检测器平移到所述检测平面中的所述第一多个对应的检测位置中的每一个,和使用第一光电检测器,在所述第一多个检测位置中的每一个处检测所述第一多个激光脉冲中的每一个的所述部分。所述方法还包括将第二光电检测器平移到所述检测平面中的所述第二多个对应的检测位置中的每一个,和使用第二光电检测器,在所述第二多个检测位置中的每一个处检测所述第二多个激光脉冲中的每一个的所述部分。所述方法还包括使用处理器确定所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个从发射到检测的飞行时间,和基于所确定的所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的所述飞行时间,来构建所述一个或多个对象的三维图像。
根据本发明的实施例,一种用于执行场景的三维成像的***包括第一激光雷达传感器,其具有以第一角度朝向场景取向的第一光轴。所述第一激光雷达传感器包括第一激光源,其被配置以发射第一多个激光脉冲,和第一发射光学元件,其被配置以准直所述第一多个激光脉冲并将所述第一多个激光脉冲以相对于所述第一光轴的对应的第一多个入射角导向所述场景中的一个或多个第一对象。所述第一多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射。所述第一激光雷达传感器还包括第一接收光学元件,其被配置以接收并聚焦从所述一个或多个第一对象反射的所述第一多个激光脉冲中的每一个的所述部分,和第一光电检测器,其被配置以接收和检测由所述第一接收光学元件聚焦的所述第一多个激光脉冲中的每一个的所述部分。所述***还包括第二激光雷达传感器,其具有以第二角度朝向所述场景取向的第二光轴。所述第二激光雷达传感器包括第二激光源,其被配置以发射第二多个激光脉冲,和第二发射光学元件,其被配置以准直所述第二多个激光脉冲并将所述第二多个激光脉冲以相对于第二光轴的第二多个对应入射角导向所述场景中的所述一个或多个第二对象。所述第二多个激光脉冲中的每一个的一部分被从所述一个或多个第二对象反射。所述第二激光雷达传感器还包括第二接收光学元件,其被配置以接收并聚焦从所述一个或多个第二对象反射的所述第二多个激光脉冲中的每一个的所述部分,和第二光电检测器,其被配置以接收和检测由所述第二接收光学元件聚焦的所述第二多个激光脉冲中的每一个的所述部分。所述***还包括处理器,其包括耦合到所述第一激光雷达传感器和所述第二激光雷达传感器的一个或多个处理单元。所述处理器被配置以确定所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的从发射到检测的飞行时间,和基于所确定的所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的所述飞行时间、所述第一光轴的所述第一角度、所述第一多个入射角、所述第二光轴的所述第二角度和所述第二多个入射角,构建所述场景的三维图像。
根据本发明的另一个实施例,一种三维成像***包括第一三维传感器,其具有以第一角度朝向场景取向的第一光轴。所述第一三维传感器包括激光源,其被配置以发射多个激光脉冲,和发射光学元件,其被配置以准直所述多个激光脉冲并将所述多个激光脉冲相对于所述第一光轴以多个对应的入射角导向所述场景中的一个或多个第一对象。所述多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射。所述第一三维传感器还包括接收光学元件,其被配置以接收并聚焦从所述一个或多个第一对象反射的所述多个激光脉冲中的每一个的所述部分,光电检测器,其被配置以接收和检测由所述接收光学元件聚焦的所述多个激光脉冲中的每一个的所述部分,和处理器,其包括耦合到所述激光源和所述光电检测器的一个或多个处理单元。所述处理器被配置以确定所述多个激光脉冲中的每一个的飞行时间,和基于所确定的所述多个激光脉冲中的每一个的所述飞行时间、所述第一光轴的所述第一角度,和所述多个入射角,来构建所述一个或多个第一对象的三维图像。所述第一三维传感器的特征在于第一角视场。所述三维成像***还包括第二三维传感器,其被配置以构建所述场景中的一个或多个第二对象的三维图像,所述第二三维传感器的特征在于第二角视场。所述处理器耦合到所述第二三维传感器并且被配置以基于所述一个或多个第一对象的三维图像以及所述一个或多个第二对象的三维图像来构建所述场景的三维图像。
根据本发明的另一实施例,一种用于自主车辆的三维感测的方法包括使用激光雷达传感器在向前方向上感测一个或多个第一对象,所述激光雷达传感器包括激光源、光电检测器、发射光学元件、接收光学元件和处理器,所述处理器包括耦合到所述激光源和所述光电检测器的一个或多个处理单元。感测一个或多个第一对象通过以下方式执行:使用激光源发射多个激光脉冲,并且使用所述发射光学元件准直多个激光脉冲并将其相对于向前方向以多个对应入射角导向所述一个或多个第一对象。其中所述多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射。感测一个或多个第一对象还通过以下方式执行:使用所述接收光学元件接收和聚焦从所述一个或多个第一对象反射出的所述多个激光脉冲中的每一个的所述部分,使用所述光电检测器检测通过所述接收光学元件聚焦的所述多个激光脉冲中的每一个的所述部分,使用所述处理器确定所述多个激光脉冲中的每一个的从发射到检测的飞行时间,和基于所确定的所述多个激光脉冲中的每一个的所述飞行时间以及所述多个入射角,使用处理器构建所述一个或多个第一对象的三维图像。所述方法还包括使用光学三维传感器在向左或向右方向上感测一个或多个第二对象,以获得所述一个或多个第二对象的三维图像,和使用所述处理器组合所述一个或多个第一对象的三维图像以及所述一个或多个第二对象的三维图像。
根据本发明的实施例,一种三维成像***包括第一照射源,其被配置以将第一光扇朝向视场中的对象投射。当所述第一光扇照射到所述对象上时,所述第一光扇可形成第一照射线,所述三维成像***还包括第二发光源,其被配置以投射实质上平行于所述第一光扇并与所述第一光扇间隔开的第二光扇。当所述第二光扇照射到所述对象上时,所述第二光扇可形成第二照射线。所述第一照射源和所述第二照射源还被配置以同步地横向扫描所述第一光扇和所述第二光扇穿过所述视场。所述三维成像***还包括相机,其被配置以当所述第一光扇和所述第二光扇在所述对象的多个区域上被扫描时,捕获所述视场的多个图像帧。每个所述图像帧包括当所述第一光扇和所述第二扇光照射到所述对象的相应区域时,所述第一照射线和所述第二照射线的图像。所述三维成像***还包括处理器,其耦合到所述相机并且被配置以基于所述多个图像帧构建所述对象的三维图像。
根据本发明的另一个实施例,一种三维成像***包括照射源,其被配置以朝向视场中的对象投射光扇。当所述光扇照射所述对象时,所述光扇可产生照射线,其中所述照射源还被配置以横向地扫描所述光扇穿过所述视场。所述三维成像***还包括第一相机,其与所述照射源以第一基线距离横向分开。所述第一相机被配置以在所述对象的多个区域上扫描所述光扇时捕获所述视场的多个第一图像帧,每个所述第一图像帧包括当所述光扇照射所述对象的相应区域时的照射线的图像。所述三维成像***还包括处理器,其耦合到所述第一相机。所述处理器被配置以对于所述多个第一图像帧中的每一个:确定相应第一图像帧中的所述照射线的位置,和基于所确定的位置,确定从所述三维成像***到对应于所述相应第一图像帧的所述对象的所述相应区域的距离。所述处理器还被配置以基于从所述多个第一图像帧确定的从所述相机到所述对象的所述多个区域的多个距离,来构建所述对象的三维图像。
根据本发明的另一实施例,一种三维成像***包括第一照射源,其被配置以朝向视场中的对象投射第一结构化照射,当所述第一结构化照射照射所述对象时,所述第一结构化照射产生第一失真照射图案。所述三维成像***还包括第二照射源,其被配置以朝向所述视场中的所述对象投射第二结构化照射,当所述第二结构化照射照射所述对象时,所述第二结构化照射产生第二失真照射图案。所述三维成像***还包括相机,其与所述第一照射源以第一基线距离横向分开,并且与所述第二照射源以第二基线距离横向分开。所述相机被配置以捕获所述视场的图像帧,所述图像帧包括所述第一失真照射图案的图像和所述第二失真照射图案的图像中的至少一个。所述三维成像***还包括处理器,其耦合到所述相机,并且被配置以基于所述第一失真照射图案的图像和所述第二失真照射图案的图像中的至少一个来构建所述对象的三维图像。
在一些实施例中,针对预定距离分辨率选择所述第一基线距离,并且针对预定距离检测范围选择所述第二基线距离。在一个实施例中,所述处理器还被配置以基于所述第一失真照射图案的图像构建所述对象的第一三维图像,基于所述第二失真照射图案的图像构建所述对象的第二三维图像,和使用所述对象的所述第二三维图像校准所述对象的所述第一个三维图像,以获得所述对象的所述三维图像。在一个实施例中,所述第一照射源包括第一激光源,其被配置以发射第一激光束,和第一衍射光学元件,其被配置以将所述第一激光束转换为所述第一结构化照射,和所述第二照射源包括第二激光源,其被配置以发射第二激光束,和第二衍射光学元件,其被配置以将所述第二激光束转换为所述第二结构化照射。在一个实施例中,所述第一结构化照射具有第一图案,并且所述第二结构化照射具有与所述第一图案不同的第二图案。在一个实施例中,所述第一照射源被配置为以预定频率调制所述第一照射图案,并且所述第二照射源被配置为以所述预定频率而不是以相对于所述第一照射图案的偏移相位来调制所述第二照射图案。
根据本发明的实施例,一种用于确定车辆速度的传感器包括:光源,其被配置以照射车辆正行驶的地面,相机,其实质向下指向地面并被配置为以预定的帧率捕获被所述光源照射的所述地面的多个图像帧,和耦合到所述相机的处理器。所述处理器可被配置以检测所述多个图像帧中的所述地面的一个或多个特征,和通过逐帧跟踪所述地面的一个或多个特征来确定所述车辆的速度。
根据本发明的另一实施例,一种确定车辆速度的方法包括:使用安装到所述车辆上的光源照射所述车辆正行驶的地面,使用安装到所述车辆上的相机,以预定的帧率捕获被所述光源照射的所述地面的多个图像帧,使用耦合到所述相机的一个或多个处理器检测所述多个图像帧中的所述地面的一个或多个特征,和使用所述一个或多个处理器通过逐帧跟踪所述一个或多个特征来确定所述车辆的所述速度。
本发明的这些和其他实施例以及它们的许多优点和特征结合下文和附图进行了更详细的描述。
附图说明
图1示意性地示出了根据本发明的一个实施例的用于三维成像的激光雷达***。
图2示意性地示出了根据本发明的一个实施例的用于扫描激光雷达***中的一个或多个激光源和一个或多个光电检测器的柔性机构。
图3示意性地示出了根据本发明的另一实施例的用于扫描激光雷达***中的一个或多个激光源和一个或多个光电检测器的柔性机构。
图4示意性地示出了根据本发明的一个实施例的用于在两个维度上扫描激光雷达***中的一个或多个激光源和一个或多个光电检测器的柔性机构。
图5示意性地示出了根据本发明的一个实施例的用于扫描激光雷达***中的多个激光源和多个光电检测器的柔性机构。
图6示意性地示出了根据本发明的另一实施例的用于扫描激光雷达***中的一个或多个激光源和一个或多个光电检测器的柔性机构。
图7示意性地示出了根据本发明的又一个实施例的用于扫描激光雷达***中的一个或多个激光源和一个或多个光电检测器的柔性机构。
图8示意性地示出了根据本发明的一个实施例的用于扫描激光雷达***中的多个激光源和多个光电检测器的柔性机构。
图9显示了示出了使用根据本发明的一个实施例的激光雷达***的三维成像方法的简化流程图。
图10A显示了根据本发明的一个实施例的示例性像素图案,其中激光源的位置作为时间的函数遵循正弦波形。
图10B示出了根据本发明一个实施例的场配置,其中一个子场对接相邻子场。
图10C示出了根据本发明一个实施例的场配置,其中一个子场与相邻子场部分重叠。
图11是示出根据本发明的实施例的三维成像方法的简化流程图。
图12示意性地示出了根据本发明的一个实施例的包括三个激光雷达传感器的三维成像***。
图13示意性地示出了根据本发明的另一实施例的包括三个激光雷达传感器的三维成像***。
图14示意性地示出了根据本发明实施例的包括两个三维传感器的三维成像***。
图15显示了示出根据本发明的实施例的三维感测方法的简化流程图。
图16示意性地示出了根据本发明的实施例的三维成像***,其中可以执行校准。
图17显示了示出根据本发明的实施例的执行距离校准的方法的简化流程图。
图18示意性地示出了传统的三维成像***。
图19示意性地示出了根据本发明的一个实施例的三维成像***。
图20示出了根据本发明另一实施例的三维成像***。
图21示意性地示出了根据本发明的一个实施例、可由图3所示的三维成像***的相机捕获的对象(例如,房屋)的图像。
图22示出了根据本发明的一个实施例的图像传感器的像素处的光强度作为帧数的函数的示意图。
图23示意性地示出了根据本发明的一个实施例的使用扫描镜的三维成像***。
图24示意性地示出了根据本发明的另一实施例的使用扫描镜的三维成像***。
图25示出了根据本发明的另一实施例的三维成像***。
图26示出了根据本发明的另一实施例的三维成像***。
图27示出了根据本发明的又一实施例的三维成像***。
图28示出了根据本发明的另一实施例的三维成像***。
图29示出了根据本发明的一个实施例的包括扫描滤光器的三维成像***。
图30示意性地示出了根据本发明的实施例的使用结构化照射的三维成像***。
图31示出了根据本发明的另一实施例的使用结构化照射的三维成像***。
图32示意性地示出了根据本发明的实施例的安装在自主或半自动车辆上的用于障碍物检测的一个或多个三维成像***。
图33示意性地示出了其上安装有用于确定车辆的速度的传感器的车辆。
图34是示出根据本发明的一些实施例的用于确定车辆速度的传感器的示意图。
图35A和35B示出了根据本发明的一个实施例的可由图34所示的传感器中的相机捕获的路面的两个连续的图像帧的示例性图像。
图36A和36B示出了根据本发明的实施例的可由图34所示的传感器中的相机捕获的路面的两个连续的图像帧的示例性图像。
图37是示出根据本发明的实施例的确定车辆速度的方法的简化流程图。
具体实施方式
本公开一般涉及用于确定车辆位置的三维成像***和传感器。
I.用于三维感测的扫描激光雷达***
本公开的一些实施例一般涉及用于三维成像的激光雷达***。更具体地,本公开的实施例提供扫描激光雷达***以及使用廉价柔性件进行三维成像的方法,其适用于自主车辆、无人机和其他应用。
图1示意性地示出了根据本发明实施例的用于三维成像的激光雷达***100。激光雷达***100包括发射透镜130和接收透镜140,两者都是固定的。激光雷达***100包括实质上设置于发射透镜130的后焦平面中的激光源110a。激光源110a可操作以从发射透镜130的后焦平面中的相应发射位置发射激光脉冲120。发射透镜130被配置以将激光脉冲120准直并导向位于激光雷达***100前方的对象150。对于激光源110a的给定发射位置,准直的激光脉冲120’以对应的角度被导向对象150。
激光脉冲120的部分122被从对象150向接收透镜140反射。接收透镜140被配置以将从对象150反射的激光脉冲120的部分122聚焦到接收透镜140的焦平面上的对应检测位置。激光雷达***100还包括光电检测器160a,光电检测器160a实质上设置于接收透镜140的焦平面处。光电检测器160a被配置以在对应检测位置处接收和检测从对象反射的激光脉冲120的部分122。光电检测器160a的对应检测位置与激光源110a的相应发射位置共轭。
激光脉冲120可以具有短的持续时间,例如,100ns脉冲宽度。激光雷达***100还包括耦合到激光源110a和光电检测器160a的处理器190。处理器190被配置以确定激光脉冲120从发射到检测的飞行时间(TOF)。由于激光脉冲120以光速行进,激光雷达***100和对象150之间的距离,可以基于所确定的飞行时间来确定。
根据一些实施例,可以将激光源120a光栅式扫描到发射透镜130的后焦平面中的多个发射位置,并且激光源120a被配置以在多个发射位置发射多个激光脉冲。在各个发射位置发射的每个激光脉冲由发射透镜130准直,并且以对应的角度被导向对象150,并且入射在对象150的表面上的对应点处。因此,在将激光源120a光栅式扫描在发射透镜130的后焦平面中的特定区域内时,对象150上的相应对象区域被扫描。将光电检测器160a光栅式扫描到接收透镜140的焦平面中的多个对应的检测位置。光电检测器160a的扫描与激光源110a的扫描同步进行,使得光电检测器160a和激光光源110a在任何给定的时间总是相互共轭。
通过确定在相应发射位置处发射的每个激光脉冲的飞行时间,可以确定从激光雷达***100到对象150的表面上的每个对应点的距离。在一些实施例中,处理器190与位置编码器耦合,位置编码器检测每个发射位置处的激光源110a的位置。基于发射位置,可以确定准直的激光脉冲120’的角度。可以基于角度和到激光雷达***100的距离来确定对象150的表面上的对应点的X-Y坐标。因此,可以基于所测量的对象150表面上的点距离激光雷达100的距离来构建对象150的三维图像。在一些实施例中,三维图像可以表示为点云,即对象150表面上的一组点的X,Y和Z坐标。
在一些实施例中,测量返回激光脉冲的强度并用于调整来自相同发射点的后续激光脉冲的功率,以便防止检测器饱和,改善眼睛安全性或降低总功率消耗。可以通过改变激光脉冲的持续时间、施加到激光器的电压或电流、或者存储在用于为激光器供电的电容器中的电荷,来改变激光脉冲的功率。在后一种情况下,可以通过改变施加到电容器的充电时间、充电电压或充电电流来改变存储在电容器中的电荷。在一些实施例中,也可使用强度来向图像添加另一个维度。例如,图像可以包含X,Y和Z坐标,以及反射率(或亮度)。
可以基于激光源110a的扫描范围和发射透镜130的焦距来估计激光雷达***100的视角(AFOV),
其中h是沿某一方向的激光源110a的扫描范围,f是发射透镜130的焦距。对于给定的扫描范围h,较短的焦距将产生更宽的AFOV。对于给定的焦距f,较大的扫描范围将产生更宽的AFOV。在一些实施例中,激光雷达***100可以包括在发射透镜130的后焦平面处以阵列设置的多个激光源,使得在保持每个单独激光源的扫描范围相对较小的同时,可以实现更大的总AFOV。相应地,激光雷达***100可以包括在接收透镜140的焦平面处以阵列设置的多个光电检测器,每个光电检测器与相应的激光源共轭。例如,如图1所示,激光雷达***100可以包括第二激光源110b和第二光电检测器160b。在其他实施例中,激光雷达***100可包括四个激光源和四个光电检测器,或八个激光源和八个光电检测器。在一个实施例中,激光雷达***100可以包括以4×2阵列布置的8个激光源和以4×2阵列布置的8个光电检测器,使得激光雷达***100可以在水平方向上具有比其在垂直方向上的AFOV更宽的AFOV。根据各种实施例,激光雷达***100的总AFOV可以在约5度至约15度、或约15度至约45度、或约45度至约90度的范围内,取决于发射透镜的焦距、每个激光源的扫描范围、以及激光源的数量。
激光源110a可以被配置以发射在紫外光波长范围内、可见光波长范围内、或近红外波长范围内的激光脉冲。每个激光脉冲的能量可以是微焦耳的量级,这通常被认为是“对眼睛安全的”。对于在大于约1500nm波长工作的激光源,由于眼睛不聚焦在那些波长处,能量水平可能更高。光电检测器160a可以包括硅雪崩光电二极管、光电倍增器、PIN二极管或其他半导体传感器。
激光雷达***100的角分辨率可以被有效地衍射受限,其可以被估算为θ=1.22λ/D,
其中λ是激光脉冲的波长,并且D是透镜孔径的直径。根据各种实施例,激光雷达***100的角分辨率可以在约1mrad至约20mrad(约0.05-1.0度)的范围内,这取决于透镜的类型。
在一些实施例中,如下所述,可以使用相对低成本的柔性机构来扫描激光源和光电检测器。
图2示意性地示出了,根据本发明的实施例,可用于扫描图1中所示的激光雷达***100中的一个或多个激光源110a和110b以及一个或多个光电检测器160a和160b的柔性机构200。柔性机构200包括固定基座210、第一柔性件220和第二柔性件222。第一柔性件220和第二柔性件222中的每一个的基座端附接到基座210。第一平台230附接到第一柔性件230的自由端,用于在其上安装一个或多个激光源110a和110b。第二平台232附接到第二柔性件232的自由端,用于在其上安装一个或多个光电检测器160a和160b。
第一柔性件220被配置使得其自由端在被致动时可以横向偏转,从而将一个或多个激光源110a和110b在发射透镜130的后焦平面中实质上平移。类似地,第二柔性件222被配置使得其自由端在被致动时可以横向偏转,从而将一个或多个光电检测器160a和160b在接收透镜140的焦平面中实质上平移。在一个实施例中,第一柔性件220的自由端和和第二柔性件222的自由端通过系杆240彼此机械连接,使得每个光电检测器160a或160b与相应的激光源110a或110b之间的距离在它们正被扫描时保持恒定。这将确保在针对发射透镜130和接收透镜140的透镜配置设计基本相同的前提下,每一个光电检测器160a或160b总是与相应的激光源110a或110b共轭。
在第一柔性件220和第二柔性件222通过系杆240机械连接的该实施例中,第一柔性件220和第二柔性件222可由单个致动器致动。例如,如图2所示,它们可以由音圈260和262以及永磁体250和252同时致动。当音圈260和262通电时,第一柔性件220和第二柔性件222可以通过磁力在所需方向上偏转。音圈260和262可以从直流(DC)到显著高于柔性组件的共振频率的频率下操作。在一个实施例中,它们可以在共振频率下操作。在那种情况下,可以以最高效率地生成大振幅。在另一个实施例中,在音圈260和262移动时,磁体250和252保持固定。在其他实施例中,第一柔性件220和第二柔性件222可以由其他类型的致动器致动,例如由电动机驱动的压电致动器和凸轮等。本领域普通技术人员将认识到许多变化、替代和修改。
在一些实施例中,激光雷达***100可包括位于第二平台232后面的位置编码器270,位置编码器270可被配置以检测光电检测器160a相对于参考位置的位置。位置编码器270可以将光电检测器160a的位置输入到处理器190。处理器190可以基于光电检测器160a的位置确定激光源110a的位置,因为激光源110a的位置和光电检测器160a的位置总是相互共轭。处理器190可以使用激光源110a的位置来构建对象150的三维图像。在可替代的实施例中,位置编码器270可以位于第一平台230的后面并且被配置以检测激光源160a相对于参考位置的位置,并且可以将激光源110a的位置输入到处理器190。位置编码器270可以是磁编码器、光学编码器、电容传感器、霍尔传感器或本领域技术人员已知的任何其他编码器类型。
图3示意性地示出了,根据本发明的另一个实施例,可用于扫描图1所示的激光雷达***100中的激光源110a和110b以及光电检测器160a和160b的柔性机构300。类似于柔性机构200,柔性机构300包括固定基座310、第一柔性件320和第二柔性件322。第一柔性件320的基座端和第二柔性件322的基座端中的每一个附接到基座310。第一平台330附接到第一柔性件320的自由端,用于在其上安装一个或多个激光源110a和110b。第二平台332附接到第二柔性件322的自由端,用于在其上安装一个或多个光电检测器160a和160b。这里,与图2中所示的柔性机构200不同。第一柔性件320的自由端与第二柔性件322的自由端没有机械连接,并且它们由单独的致动器致动。在一个实施例中,如图3所示,第一柔性件320可以由音圈360和362以及永磁体350致动;第二柔性件322可以由音圈364和366以及永磁体352致动。在其他实施例中,可以使用其他类型的致动器,例如由电动机驱动的压电致动器和凸轮等。
可以使用电子控制电路同步致动第一柔性件320和第二柔性件322,使得每个光电检测器160a或160b的位置总是与相应的激光源110a或110b的位置共轭。在一个实施例中,激光雷达***100还包括位于第一平台330后面的第一位置编码器370,用于检测激光源110a相对于参考位置的位置,以及位于第二平台332后面的第二位置编码器372,用于检测光电检测器160a相对于参考位置的位置。第一位置编码器370和第二位置编码器372可以耦合到处理器190。处理器190可以基于激光源110a的位置与光电检测器160a的位置之间的比较,来生成电子反馈信号,并使用电子反馈信号来同步第一柔性件320的致动和第二柔性件322的致动,使得激光源110a的位置和光电检测器160a的位置总是相互共轭。
如图2中所示的柔性机构200,或者,如图3所示的柔性机构300,可以被配置以两个维度扫描激光源110a和光电检测器160a。图4示意性地示出了柔性机构300的透视图。第一柔性件320和第二柔性件322基本上是悬臂式,它们的基座端固定到基座310。第一柔性件320的自由端和第二柔性件322的自由端中的每一个可以在垂直方向以及水平方向上偏转,如图4中的箭头所指示。在一些实施例中,第一柔性件320和第二柔性件322可以以第一速度在水平方向上被光栅式扫描,并且以小于第一速度的第二速度在垂直方向上被扫描式光栅,反之亦然。通过选择用于彼此远离的正交方向的共振频率,可以实现光栅式扫描的致动和控制。应该理解的是,尽管图4中示出的是单个激光源110a和单个光电检测器160a,可以将多个激光源安装在附接到第一柔性件320的平台330上,并且可以将多个光电检测器安装在附接到第二柔性件332的平台332上。
当悬臂式柔性件在高频率下致动时,例如图2-4中所示的那些,由于运动的最末端处的高加速度,可能引入振动。根据本发明的一些实施例,可以使用柔性机构的抗衡对(counter-balancing pairs)来减少振动。图5示意性地示出了根据本发明的实施例的抗衡柔性机构500。柔性机构500包括基座510、并排设置的第一柔性件520a和第二柔性件520b,并排设置的第三柔性件522a和第四柔性件522b。每个柔性件520a,520b,522a和522b的基座端附接到基座510。一个或多个激光源110a附接到第一柔性件520a的自由端,并且一个或多个激光源110b附接到第二柔性件520b的自由端。一个或多个光电检测器160a附接到第三柔性件522a的自由端,并且一个或多个光电检测器160b附接到第四柔性件522b的自由端。在一个实施例中,第一柔性件520a和第三柔性件522a在左右方向和前后方向上相对于第二柔性件520b和第四柔性件522b沿相对方向移动。也就是说,在给定时间,第一柔性件520a和第三柔性件522a可以向左和向前移动,而第二柔性件520b和第四柔性件522b可以向右和向后移动,如图5所示。以这种方式,第一柔性件520a的运动可以抗衡第二柔性件520b的运动,并且第三柔性件522a的运动可以抗衡第四柔性件522b的运动,从而消除大部分振动。在一些实施例中,第一柔性件520a的移动和第三柔性件522a的移动是同步的,使得激光源110a的位置和光电检测器160a的位置总是相互共轭。类似地,第二柔性件520b的移动和第四柔性件522b的移动是同步的,使得激光源110b的位置和光电检测器160b的位置总是相互共轭。柔性件520a,520b,522a和522b的抗衡运动可以通过使用来自处理器190的电控制信号气来实现。在可替代实施例中,可将假(dummy)柔性件用于振动的消除。
图6示意性地示出了,根据本发明的另一个实施例,可用于扫描图1所示的激光雷达***100中的一个或多个激光源110a-110d以及一个或多个光电检测器160a-160d的柔性机构600。在该示例中,四个激光源110a-110d和四个光电检测器160a-160d安装在同一刚性平台630上。对激光源110a-110d和光电检测器160a-160d的位置进行布置使得每个激光器源110a,110b,110c或110d与对应的光电检测器160a,160b,160c或160d在空间上共轭。平台630通过第一柔性件耦合到第一基板610,所述第一柔性件包括两个柔性元件620a和620b。柔性元件620a和620b可以通过使用单个致动器(例如如图6所示的音圈650和永磁体660)或者通过压电致动器等向左或向右偏转。在一个实施例中,第一基板610可以通过第二柔性件耦合到第二基板612,所述第二柔性件包括两个柔性元件670a和670b。柔性元件670a和670b可以通过使用单个致动器(例如如图6所示的音圈652和永磁体662)或者通过压电致动器等向前或向后偏转。
因此,激光源110a-110d和光电检测器160a-160d可以分别通过柔性元件620a和620b的左右移动以及通过柔性元件670a和670b的前后移动,在发射透镜130和接收透镜140的焦平面中在两个维度上被扫描。因为激光源110a-110d和光电检测器160a-160d安装在相同的刚性平台630上,所以在对发射透镜130和接收透镜140的透镜配置设计基本相同的前提下,每个激光-光电检测器对之间的共轭空间关系在它们被扫描时保持不变。应当理解,尽管在图6中以示例示出了四个激光源110a-110d和四个光电检测器160a-160d,可以在单个平台630上安装更少或更多的激光源和更少或更多的光电检测器。例如,根据本发明的各种实施例,可以在单个平台630上安装一个激光源和一个光电检测器,或两个激光源和两个光电检测器,或八个激光源和八个光电检测器。在一个实施例中,八个激光源可以以4×2阵列布置,八个光电检测器可以以4×2阵列布置,所有这些都安装在同一个刚性平台630上。
在一些实施例中,第一位置编码器640可以设置成与平台630相邻,用于检测激光源110a-110d在左右方向上的坐标(即,x坐标),且第二位置编码器642可以设置成与第一基板610相邻,用于检测激光源110a-110d在前后方向上的坐标(即,y坐标)。第一位置编码器640和第二位置编码器642可以将激光源110a-110d的x-y坐标输入到处理器190,以用于构建对象150的三维图像。
图7示意性地示出了,根据本发明的又一个实施例,可用于扫描图1所示的激光雷达***100中的一个或多个激光源110a-110d以及一个或多个光电检测器160a-160d的柔性机构700。与图6类似,激光源110a-110d和光电检测器160a-160d安装在同一个刚性平台630上。这里,平台630通过柔性件耦合到固定基座610,所述柔性件包括四个柔性元件720a-720d。四个柔性元件720a-720d可以在左右方向和前后方向上横向偏转,从而允许激光源110a-110d和光电检测器160a-160d在两个维度上被扫描。类似于图6中所示的柔性机构600,因为激光源110a-110d和光电检测器160a-160d安装在同一个刚性平台630上,所以每个激光-光电检测器对之间的共轭空间关系在它们被扫描时保持不变。
图8示意性地示出了,根据本发明的另一实施例,可用于扫描图1所示的激光雷达***100中的多个激光源110a-110h和多个光电检测器160a-160h的柔性机构800。在该示例中,四个激光源110a-110d和四个光电检测器160a-160d安装在第一刚性平台630上,以及另外四个激光源110e-110h和另外四个光电检测器160e-160h安装在第二刚性平台632上。第一刚性平台630通过包括四个柔性元件720a-720d的第一柔性件耦合到固定基座610。第二刚性平台632通过包括四个柔性元件722a-722d的第二柔性件耦合到固定基座610。根据一个实施例,第一平台630和第二平台632被配置以在相对方向上移动,使得可以消除大部分振动。例如,如图8所示,当第二平台632向右移动时,第一平台630可以向左移动。类似地,当第二平台632向后移动时,第一平台630可以向前移动。应当理解,尽管在该示例中仅示出了两个平台630和632,但是可以使用更多用于额外的激光源和光电检测器的平台对。本领域普通技术人员将认识到许多变化、替代和修改。
在一个方面,本发明的实施例提供了使用激光雷达***执行三维成像的方法。图9示出了,根据本发明的实施例,使用激光雷达***(例如图1中所示的激光雷达***100)进行三维成像的方法900的简化的流程图。方法900可包括:在步骤902,将激光源平移到发射平面中的多个发射位置中的每一个,以及在步骤904,使用激光源发射多个激光脉冲。多个激光脉冲中的每一个在多个发射位置中的相应一个发射位置处发射。方法900可进一步包括:在步骤906,使用发射透镜准直多个激光脉冲并将多个激光脉冲导向激光雷达***前方的对象。多个激光脉冲中的每一个的一部分可以从对象上被反射。方法900可进一步包括,在步骤908,使用接收透镜来接收从对象反射的多个激光脉冲中的每一个的一部分并且将其聚焦到检测平面中的多个对应的检测位置。每个对应的检测位置与相应的发射位置共轭。方法900可以进一步包括:在步骤910,将光电检测器平移到检测平面中的多个对应检测位置中的每一个,以及在步骤912,使用光电检测器检测多个检测位置中的每一个处的多个激光脉冲中的每一个的一部分。方法900可进一步包括:在步骤914,使用处理器确定从发射到检测的多个激光脉冲中的每一个的飞行时间,以及在步骤916,基于所确定的多个激光脉冲中的每一个的飞行时间,构建对象的三维图像。
应该理解的是,图9中所示的具体步骤使用根据本发明的实施例的激光雷达***执行三维成像的特定方法。根据可替代的实施例,还可以执行其他步骤顺序。例如,本发明的可替代实施例可以以不同的顺序执行上面概述的步骤。此外,图9中所示的单独步骤可以包括多个子步骤,这些子步骤可以以适合于该单独步骤的各种顺序执行。进一步地,根据特定应用可以添加额外的步骤并且可以去除一些步骤。本领域普通技术人员将认识到许多变化、修改和替代。
在一些实施例中,将光电检测器平移到检测平面中的多个对应检测位置中的每一个是与将激光源平移到发射平面中的多个发射位置中的每一个同步地执行的,使得在任何给定时间,光电检测器的位置总是与激光源的位置共轭。在一个实施例中,激光源和光电检测器安装在同一平台上,并通过平移平台来执行平移激光源和平移光电检测器。
在一些实施例中,在发射平面中平移激光源通过多个发射位置包括在发射平面中光栅式扫描激光源,以及在检测平面中平移光电检测器通过多个对应的检测位置包括光栅式扫描检测平面中的光电检测器。在一些实施例中,发射平面和检测平面实质上垂直于激光雷达***的光轴。可以在发射平面中在两个维度上执行激光源的光栅式扫描,以及可以在检测器平面中在两个维度上执行检测器的光栅扫描。在一些实施例中,激光源的光栅式扫描和光电检测器的光栅式扫描在第一方向上可以以第一速度执行,并且激光源的光栅式扫描和光电检测器的光栅式扫描在与第一方向正交的第二方向上,可以以小于第一速度的第二速度执行。
在各种实施例中,激光源的光栅式扫描可以导致,激光源的位置作为时间的函数而遵循正弦波形、或三角波形、或锯齿波形等。在一些实施例中,激光源在第一方向上的光栅式扫描可以导致激光源在第一方向上的位置为遵循第一波形的时间的函数,并且激光源在第二方向上的光栅式扫描可以导致激光源在第二方向上的位置为遵循不同于第一波形的第二波形的时间的函数。本领域普通技术人员将认识到许多变化、替代和修改。
在一些实施例中,每个返回激光脉冲的强度被测量并被用于调整来自相同发射点的后续激光脉冲的功率。可以通过改变激光脉冲的持续时间、施加到激光器的电压或电流、或者存储在用于为激光器供电的电容器中的电荷,来改变激光脉冲的功率。在后一种情况下,可以通过改变对电容器的充电时间、充电电压、或充电电流来改变存储在电容器中的电荷。在一些实施例中,也可使用强度来向图像添加另一维度。例如,图像可以包含X,Y和Z坐标,以及反射率(或亮度)。
根据各种实施例,每个激光源可以被配置以定期的时间间隔以特定重复率(例如10kHz等)发射激光脉冲。根据本发明的不同实施例,对于包括多个激光源的激光雷达***,多个激光源可以被配置以相同的时间间隔同时发射激光脉冲,或者可以被配置以交错的时间间隔发射激光脉冲。例如,在一个实施例中,第一激光源可以被配置以10kHz的脉冲重复率发射激光脉冲,其对应于连续脉冲之间的时间间隔ΔT=100μβ。第二激光源可以被配置也以10kHz的脉冲重复率发射激光脉冲,但是以时间延迟Δt与第一激光源的发射时间相交错,时间延迟Δt小于连续脉冲之间的时间间隔ΔT。例如,第二激光源的射出和第一激光源的射出之间的延迟时间可以是Δt=10μs。
在一个实施例中,其中第一激光源和第二激光源被配置以交错的时间间隔发射激光脉冲,由第一光电检测器和第二光电检测器产生的电信号可以输入到单个模拟-数字转换器(ADC),用于测量由第一激光源和第二激光源发射的脉冲串的飞行时间,只要飞行时间总是短于激光脉冲之间的时间。在其他实施例中,由第一光电检测器和第二光电检测器产生的电信号可以输入到单独的ADC中。
在激光源的光栅式扫描导致激光源的位置作为时间的函数(其遵循除三角波形或锯齿波形以外的波形)的实施例中,扫描的速度可随着激光源的位置而变化。例如,在正弦波形的情况下,扫描速度在运动的极端处可能比在其他位置处慢。在这种情况下,如果激光源被配置以恒定速率发射激光脉冲,整个成像场的像素密度可能会变化。
图10A示出了示例性像素图案,其中激光源的位置作为时间的函数遵循正弦波形。水平轴是任意单位的时间;垂直轴是任意单位的沿扫描方向(例如,垂直或水平)的像素位置。如所示的,像素密度在成像场的极端(例如,顶部和底部)边缘处(扫描运动在此停止和转向)较高,而在扫描速度较快的成像场的中间范围内较低。
在一些实施例中,激光源可以被配置以非恒定速率发射激光脉冲以补偿扫描速度的不均匀性,使得可以实现基本均匀的像素密度。在其他实施例中,不管扫描运动的波形如何,激光源可以被配置以恒定速率发射激光脉冲。在这种情况下,位置编码器可以测量激光源发射一系列激光脉冲的位置。然后,处理器可以基于激光源的位置确定一系列激光脉冲的对应像素位置。
在激光雷达***包括两个或更多个激光源和两个或更多个光电检测器的实施例中,例如图8中所示的激光雷达***,可以扫描每个激光源以覆盖成像场的一部分(即,子场)。配置多个子场的一种方式是对接相邻的子场。图10B示出了根据一个实施例的其中一个子场对接相邻子场的场配置。在每个激光源的位置作为时间的函数遵循正弦波形的情况下,如图10B所示,该方法可以导致在两个子场对接的区域(例如,区域1010)中的较高像素密度,以及在每个子场的中间范围中的较低像素密度。
图10C示出了根据本发明实施例的可替代的场配置,其中一个子场与相邻子场部分重叠。通过部分地重叠两个相邻子场,一个子场的极端边缘处的更密集像素可以与另一个子场的中间范围中的较不密集像素并置。以这种方式,可以实现更均匀的整体像素密度。在一些实施例中,相邻子场之间的重叠可以高达50%;也就是说,一个子场的极端边缘基本上与另一个子场的中点重合。在垂直(或水平)方向上有两个以上子场的情况下,可以选择重叠小于50%,以避免使一个子场的下边缘太靠近在两个子场下方的另一个子场的上边缘。该方法可以扩展到水平和垂直方向上都存在多个子场的情况。图10C中示出的场配置可能会提供一些额外的优势。例如,它可以提供在视场中心附近具有相对均匀的更密集像素的区域(例如,区域1020),在这个区域更可能出现感兴趣的对象。而且,它可以通过使非常高的像素密度的区域最小化来为激光雷达***提供改善的眼睛安全性。
图11是示出了根据本发明的实施例的三维成像的方法1100的简化流程图。方法1100包括,在步骤1102,将第一激光源平移到发射平面中的第一多个发射位置中的每一个;以及在步骤1104,使用第一激光源发射第一多个激光脉冲。第一多个激光脉冲中的每一个在第一多个发射位置中的相应一个处发射。方法1100可以进一步包括,在步骤1106,将第二激光源平移到发射平面中的第二多个发射位置中的每一个;以及在步骤1108,使用第二激光源发射第二多个激光脉冲。第二多个激光脉冲中的每一个在第二多个发射位置中的相应一个处发射。方法1100可以进一步包括,在步骤1110,使用发射透镜准直和引导:(i)第一多个激光脉冲以第一多个场角朝向第一场范围中的场景,以及(ii)第二多个激光脉冲以第二多个场角朝向第二场范围中的场景。第一多个激光脉冲中的每一个的一部分和第二多个激光脉冲中的每一个的一部分从场景中的一个或多个对象上被反射。方法1100可以进一步包括,在步骤1112,使用接收透镜接收从一个或多个对象上反射的第一多个激光脉冲中的每一个的一部分和第二多个激光脉冲中的每一个的一部分,并将其聚焦到检测平面中的第一多个对应的检测位置和第二多个对应的检测位置。第一多个对应的检测位置中的每一个与第一多个发射位置中的相应一个共轭,并且第二多个对应的检测位置中的每一个与第二多个发射位置中的相应一个共轭。方法1100可以进一步包括:在步骤1114,将第一光电检测器平移到检测平面中的第一多个对应的检测位置中的每一个;以及在步骤1116,使用第一光电检测器,在第一多个检测位置中的每一个处检测第一多个激光脉冲中的每一个的一部分。方法1100可以进一步包括:在步骤1118,将第二光电检测器平移到检测平面中的第二多个对应的检测位置中的每一个;以及在步骤1120,使用第二光电检测器,在第二多个检测位置中的每一个处检测第二多个激光脉冲中的每一个的一部分。方法1100可以进一步包括:在步骤1122,使用处理器确定第一多个激光脉冲中的每一个和第二多个激光脉冲中的每一个从发射到检测的飞行时间;以及在步骤1124,基于所确定的第一多个激光脉冲中的每一个和第二多个激光脉冲中的每一个的飞行时间,来构建一个或多个对象的三维图像。
在一些实施例中,在发射平面中平移第一激光源通过第一多个发射位置包括,在发射平面中以一个维度光栅式扫描第一激光源;在检测平面中平移第一光电检测器通过第一多个对应的检测位置包括,在检测平面中以一个维度光栅式扫描第一光电检测器;在发射平面中平移第二激光源通过第二多个发射位置包括,在发射平面中以一个维度光栅式扫描第二激光源;和在检测平面中平移第二光电检测器通过第二多个对应的检测位置包括,在检测平面中以一个维度光栅式扫描第二光电检测器。在一些实施例中,在发射平面中以一个维度光栅式扫描第一激光源遵循正弦波形;并且在发射平面中以一个维度光栅式扫描第二激光源遵循正弦波形。在一些实施例中,第一场范围与第二场范围部分重叠。第一场范围和第二场范围可以重叠约10%至约50%。在一些实施例中,第一场范围和第二场范围可以重叠约30%至约50%。
II.多范围三维成像***
根据本公开的一些其他实施例,三维成像***可包括扫描激光雷达传感器和另一光学三维传感器。激光雷达传感器和光学三维传感器可以具有不同的感测范围和不同的角视场。三维成像的***和方法可适用于自主车辆、无人机和其他应用。
图12示意性地示出了根据本发明实施例的包括三个激光雷达传感器的三维成像***1200。三维成像***1200可适用于自主车辆或半自主车辆中的障碍物检测以及其他应用。例如,如图12所示,三维成像***1200可以安装在汽车1202的前保险杠上或前保险杠附近。三维成像***1200还可以安装在汽车1202的后保险杠上或后保险杠附近,或者安装在汽车1202的顶部上。
三维成像***1200包括具有基本上以向前方向取向的第一光轴1212的第一激光雷达传感器1210,具有朝左取向的第二光轴1222的第二激光雷达传感器1220,以及具有朝右取向的第三光轴1232的第三激光雷达传感器1230。在一个实施例中,第一激光雷达传感器1210、第二激光雷达传感器1220和第三激光雷达传感器1230中的每一个可类似于图1中所示的激光雷达传感器100。在其他实施例中,第一激光雷达传感器1210、第二激光雷达传感器1220和第三激光雷达传感器1230中的一个或多个可包括与图1中所示的激光雷达传感器100不同地构建的激光雷达传感器。例如,第一激光雷达传感器1210,第二激光雷达传感器1220和第三激光雷达传感器1230中的一个或多个可以包括使用准直反射镜和聚焦反射镜、而不是准直透镜130和聚焦透镜140的激光雷达传感器。
第一激光雷达传感器1210的特征可在于在向前方向上的第一角视场1214。第二激光雷达传感器1220的特征可在于向左的第二角视场1224。第三激光雷达传感器1230的特征可在于向右的第三角视场1234。在一个实施例中,三维成像***1200被配置成使得第一角视场1214、第二角视场1224和第三角视场1234不相互重叠,如图12所示。
在三维成像***1200用于自主车辆中的障碍物检测的情况下,可能期望三维成像***1200沿着车辆行驶的方向比在其他方向上(例如向左以及向右)具有更长的感测范围。激光雷达传感器的激光功率可能受限于人眼安全水平。对于给定的激光功率,在远离激光雷达传感器的距离L处的激光功率密度可以是近似与L的平方成反比并且与角视场的平方成反比。因此,激光雷达传感器可以被配置以具有更长的感测范围,代价是更窄的角视场。相反地,激光雷达传感器可以被配置以具有更宽的角视场,代价是更短的感测范围。
可能有利的是,将三维成像***1200进行配置以使得朝向向前方向取向的第一激光雷达传感器1210具有更长的感测范围和更窄的角视场,并且,使得分别向左和向右取向的第二激光雷达传感器1220和第三激光雷达传感器1230具有较短的感测范围但是具有较宽的角视场(如图12所示)。在一些实施例中,第一角视场1214的范围可以从大约5度到大约30度,并且第二角视场1224和第三角视场1234中的每一个可以在大约40度到大约90度的范围内。在一个实施例中,第一激光雷达传感器1210、第二激光雷达传感器1220和第三激光雷达传感器1230可以产生范围从大约110度到大约180度的组合角视场。
如上所讨论的,激光雷达传感器的角视场可取决于激光源的横向扫描范围和准直透镜的焦距。对于给定的扫描范围,较长焦距的透镜可能导致较窄的视场角;相反地,较短焦距的透镜可能导致较宽的视场角。在一个实施例中,第一激光雷达传感器1210可以包括具有较长焦距的发射透镜,并且第二激光雷达传感器1220和第三激光雷达传感器1230中的每一个可以包括具有较短焦距的发射透镜。
图13示意性地示出了根据本发明的另一实施例的三维成像***1200,其包括三个激光雷达传感器1210,1220和1230。三个激光雷达传感器1210,1220和1230的布置类似于图12中所示的布置,除了第一激光雷达传感器1210的第一角视场1214与第二激光雷达传感器1220的第二角视场1224部分重叠,并且也与第三激光雷达传感器1230的第三角视场1234部分重叠之外。在一些实施例中,三维成像***1200可以使用重叠的角视场用于第一激光雷达传感器1210和第二激光雷达传感器1220之间、以及第一激光雷达传感器1210和第三激光雷达传感器1230之间的交叉校准,如下所述。重叠的角视场也可以用于向处理器提供冗余信息,从而增加了成像***1200在关键应用(例如用于自主车辆防撞)中的可靠性。
在一些实施例中,三个激光雷达传感器1210,1220和1230可以利用在不同波长下操作的激光源,以避免三个激光雷达传感器之间的干扰。在一个实施例中,用于三个激光雷达传感器1210,1220和1230的激光源可以被配置以均匀时间间隔以一定的重复率(例如10kHz等)发射激光脉冲。在一个实施例中,用于三个激光雷达传感器1210,1220和1230的激光源可以被配置以相同的时间间隔同时发射激光脉冲。在另一个实施例中,用于三个激光雷达传感器1210,1220和1230的激光源可以被配置以交错的时间间隔发射激光脉冲,以防止三个激光雷达传感器之间的干扰。例如,用于第一激光雷达传感器1210的激光源可以被配置以10kHz的脉冲重复率发射激光脉冲,其对应于连续脉冲之间的时间间隔ΔT=100μβ。用于第二激光雷达传感器1220的激光源可以被配置也以10kHz的脉冲重复率发射激光脉冲,但是以时间延迟Δt与第一激光雷达传感器1210的激光源的发射时间相交错,时间延迟Δt小于连续脉冲之间的时间间隔ΔT。例如,用于第二激光雷达传感器1220的激光源的射出与用于第一激光雷达传感器1210的激光源的射出之间的延迟时间可以是Δt=10μs。类似地,用于第三激光雷达传感器1230的激光源可以被配置也以10kHz的脉冲重复率发射激光脉冲,但是以另一个时间延迟Δt与第二激光雷达传感器1220的激光源的发射时间相交错。
图14示意性地示出了根据本发明的实施例的三维成像***1400,三维成像***1400包括第一三维传感器1410和第二三维传感器1420。第一三维传感器1410具有第一角视场1412,第二三维传感器1420具有第二角视场1422,第二角视场1422比第一角视场1412宽并且涵盖第一角视场1412。第一三维传感器1410可以是基本上与图1中所示的激光雷达传感器100类似的激光雷达传感器。在一个实施例中,第二三维传感器1420可以也包括基本上与图1中所示的激光雷达传感器100类似的激光雷达传感器。在其他实施例中,第二三维传感器1420可包括不同类型的光学三维传感器,例如立体相机、结构光相机、干涉测量传感器等。还在其他实施例中,第二三维传感器1420可包括超声波传感器、雷达传感器等。
三维成像***1400可适用于自主车辆或半自主车辆中的障碍物检测以及其他应用。三维成像***1400可以安装在车辆的前保险杠上或其附近,如图14所示,第一三维传感器1410和第二三维传感器1420都在向前方向上对齐。在一些实施例中,第一三维传感器1410可以包括激光雷达传感器,该激光雷达传感器被配置以具有范围从大约5度到大约20度的第一角视场1412,并且可以具有相对长的感测范围。第二三维传感器1420可包括立体相机或结构化光相机,其具有范围从大约90度到大约180度的第二角视场1422,并且可具有相对短的感测范围,如图14所示。在一些实施例中,三维成像***1400可以使用第一三维传感器1410来校准第二三维传感器1420,反之亦可,如下所讨论。
图15示出了根据本发明的实施例的用于自主车辆的三维感测的方法1500。方法1500包括:在步骤1502,使用激光雷达传感器在向前方向上感测一个或多个第一对象,该激光雷达传感器包括激光源、光电检测器、发射光学元件、接收光学元件以及处理器,所述处理器包括耦合到激光源和光电检测器的一个或多个处理单元。在一个实施例中,感测一个或多个第一对象可以包括:使用激光源发射多个激光脉冲;使用发射光学元件准直多个激光脉冲并将其以相对于向前方向的多个入射角导向一个或多个第一对象,其中多个激光脉冲中的每一个的一部分被从一个或多个第一对象反射;使用接收光学元件接收和聚焦从一个或多个第一对象反射的多个激光脉冲中的每一个的一部分;使用光电检测器检测由接收光学元件聚焦的多个激光脉冲中的每一个的一部分;使用处理器确定多个激光脉冲中的每一个从发射到检测的飞行时间;并且基于所确定的多个激光脉冲中的每一个的飞行时间和多个入射角构建一个或多个第一对象的三维图像。
方法1500进一步包括:在步骤1504,使用光学三维传感器在朝左或朝右方向上感测一个或多个第二对象以获得一个或多个第二对象的三维图像。在一些实施例中,激光雷达传感器具有第一角视场,并且光学三维传感器具有比第一角视场宽的第二角视场。在一个实施例中,第二角视场至少部分地与第一角视场重叠。在一些实施例中,激光雷达传感器具有第一感测范围,并且光学三维传感器具有小于第一感测范围的第二感测范围。方法1500可进一步包括在步骤1506使用处理器组合一个或多个第一对象的三维图像和一个或多个第二对象的三维图像。
应该理解的是,图15中所示的具体步骤提供了根据本发明的实施例的执行三维成像的特定方法。根据可替代的实施例,还可以执行其他步骤顺序。例如,本发明的可替代实施例可以以不同的顺序执行上面概述的步骤。此外,图15中所示的单独步骤可以包括多个子步骤,这些子步骤可以以适合于单独步骤的各种顺序执行。进一步地,根据特定应用可以添加额外的步骤并且去除一些步骤。本领域普通技术人员将认识到许多变化、修改和替代。
可以预期较低成本的光学传感器具有比采用更优质的元件或技术的光学传感器更低的性能规格。对于激光雷达三维传感器以及其他光学三维传感器可能是这样。在某些配置中,可以使用更高性能的三维传感器来校准较低性能的三维传感器。
图16示意性地示出了根据本发明的实施例可执行校准的三维成像***1600。三维成像***1600包括第一三维传感器1610,其具有以第一角度取向的第一光轴1612,以及包括第二三维传感器1620,其具有以第二角度取向的第二光轴1622。第一三维传感器1610的特征可在于第一角视场1614,并且第二三维传感器1620的特征可在于第二角视场1624。第一角视场1614与第二角视场1624以重叠角视场1630重叠,如图16所示。在这个配置中,可以使用第一三维传感器1610利用重叠角视场1630来校准第二三维传感器1620,或者反之亦可。在一个实施例中,第一三维传感器1610可以包括具有更窄角视场和更高精度的激光雷达传感器,并且第二三维传感器1620可以包括具有更宽角视场和更低精度的激光雷达传感器。在另一个实施例中,第一三维传感器1610可以包括激光雷达传感器,并且第二三维传感器1620可以包括另一种类型的光学三维传感器,例如立体相机、结构光相机等。
校准可以采用几种形式。在一个实施例中,它可以包括用乘积比例校正(multiplication scale correction)、偏移校正或两者的组合进行的距离校准。对于距离的比例校正,校正距离dc可以由测量距离dm乘以常数c1给出,如dc=c1×dm。对于距离的偏移校正,可以将偏移量c2添加到测量距离中或从测量距离中减去,如dc=dm+c2。对于兼具比例和偏移的距离校正,校正距离dc可以由dc=c1×dm+c2给出。
在另一个实施例中,它可以包括水平方向或垂直方向上、或它们两者方向上的角度校准。角度校准可以是比例校正、或偏移校正,或两者的组合。对于角度的比例校正,校正角度Ac可以由测量角度Am乘以常数c3给出,如Ac=c3×Am。对于角度的偏移校正,可以将偏移量c4添加到测量角度中或从测量角度中减去偏移量c4,如Ac=Am+c4。对于兼具比例和偏移的角度校正,校正角度Ac可以由Ac=c3×Am+c4给出。
在又一个实施例中,可以进行更复杂的校正,例如失真度校正。在一些情况下,第一三维传感器,例如激光雷达传感器,可具有比不同类型的第二光学三维传感器更好的距离精度,而第二三维传感器可具有比第一三维传感器更好的角度精度。在这种情况下,可以使用第一三维传感器进行第二传感器的距离校准,并使用第二三维传感器进行第一三维传感器的角度校准。
图17是示出了根据本发明的实施例、使用图16中所示的三维成像***执行距离校准的方法1700的简化流程图。在方法1700中,假设第一三维传感器1610具有比第二三维传感器1620更高的精度,并且用于校准第二三维传感器1620。方法1700包括:在步骤1702,在如图16所示的重叠角视场1630内放置对象1640,例如,人。方法1700进一步包括:在步骤1704,使用第一三维传感器1610形成对象1640的第一三维图像;在步骤1706,使用第二三维传感器1620形成对象1640的第二三维图像。
方法1700可进一步包括:在步骤1708,使用合适的图像处理算法将第一三维图像的XY坐标(或者可替代地,垂直和水平角度)与第二三维图像的XY坐标(或者可替代地,垂直和水平角度)进行对准。方法1700进一步包括:在步骤1710,确定要应用于由第二三维传感器测量的距离的一个或多个比例常数和/或一个或多个偏移量,以便将第一三维图像的Z坐标与第二三维图像的Z坐标进行对准。方法1700可进一步包括:在步骤1712,使用一个或多个比例常数和/或一个或多个偏移量来编译用于第二三维传感器1620的校准文件。校准文件可以在将来的图像中用于第二三维传感器1620的距离校正。方法1700可以适用于角度校准、失真校正等。
应该理解的是,图17中所示的具体步骤提供了根据本发明的实施例的在三维成像***中执行距离校准的特定方法。根据可替代的实施例,还可以执行其他步骤顺序。例如,本发明的可替代实施例可以以不同的顺序执行上面概述的步骤。此外,图17中所示的单独步骤可以包括多个子步骤,这些子步骤可以以适合于单独步骤的各种顺序执行。进一步地,根据特定应用可以添加额外的步骤并且去除一些步骤。本领域普通技术人员将认识到许多变化、修改和替代。
III.对照射的三维成像***进行扫描
传统的三维成像***可包括以基准距离分开的两个相机。由于横向差异,由两个相机捕获的对象的图像将显示在不同的坐标处。可以利用图像差异来计算与三维成像***的对象的距离。然而,传统的三维成像***可能具有许多限制。例如,如果对象没有可区分的特征,则不能进行相应位置的识别。而且,如果照射不佳或照射太强而使得其超过相机的动态范围,则深度测量可能变得不可靠。此外,如果对象与基线距离相比位于距三维成像***相对更长的距离处,则测量精度可能严重依赖于图像的质量以及基线距离的稳定性,这两者都可能难以控制,特别是在汽车环境中。因此,需要改进的三维成像***。
图18示意性地示出了传统的三维成像***1800,其包括以基线距离D彼此横向偏离的第一相机1802和第二相机1804。第一相机1802和第二相机1804可分别用于获得场景1830的第一图像1842和第二图像1844。场景中的对象1832,例如房屋,可以由于视差而以类似于人双眼视觉的方式出现在两个图像1842和1844中的不同图像坐标处。通过比较这两个图像1842和1844,可以以视差图的形式获得相对深度信息,该视差图对对应图像点的水平坐标的差异进行编码。该视差图中的值可以与对应的像素位置处的景深成反比。因此,可以从视差图确定关于对象1832的与三维成像***1800有关的深度信息。
但是,图18中所示的传统三维成像***1800可能具有许多限制。例如,如果对象没有可区分的特征(即,无纹理或无特征),则不能进行对应位置的识别。因此,无法从图片中提取关于对象的深度信息。作为另一个例子,如果照射不佳或照射太强使得它超过相机的动态范围,则深度测量可能变得不可靠。此外,如果对象与基线距离D相比位于距三维成像***1800相对更长的距离处,则测量精度可能严重依赖于图像质量以及基线距离D的稳定性,两者都可能难以控制,特别是在汽车环境中。本发明的实施例提供了三维成像***,其可以克服传统三维成像***的一些上述限制。
图19示意性地示出了根据本发明的实施例的用于三维(3D)感测的三维成像***1900。三维成像***1900包括彼此水平偏离的第一相机1902和第二相机1904。三维成像***1900还包括照射源1920,其被配置以朝向两个相机1902和1904前方的场景投射垂直光扇1922。在一些实施例中,照射源1920可包括被配置以发射激光束的激光源,以及被配置以将激光束转换成垂直光扇1922的光学元件,例如,柱面透镜。垂直光扇1922可以在照射对象时在对象上形成照射线。通过比较在两个相机1902和1904上形成的照射线的图像,可以以与传统的三维成像***中相同的方式确定关于来自三维成像***1900的对象的深度信息。与传统的三维成像***相比,三维成像***1900的优点在于,照射线既用作照射又用于相机检测的特征,因此即使对象是无特征并且对象处于不佳的自然光照,也可以执行对对象的3D感测。
照射源1920还可包括扫描机构,该扫描机构被配置以在水平方向上扫描垂直光扇1922。在一些实施例中,扫描机构可包括扫描镜或旋转镜。可以使用柔性轴承或旋转轴承来扫描反射镜。根据不同实施例,柔性轴承或旋转轴承可由压电元件、音圈致动器或电机驱动。在另一个实施例中,扫描机构可包括声光偏转器。
当垂直光扇1922扫过视场时,相机1902和1904可以以合适的帧率捕获照射线的快照,从而可以获得关于视场中的对象的距离信息。可针对期望的水平空间分辨率和期望的检测速率来设置相机的帧率。例如,帧率可以在约30帧/秒至约1,000帧/秒的范围内,而照射的扫描速率可以在约每秒1次扫描到约每秒20次扫描的范围内。完整图像的水平分辨率和帧率取决于照射的扫描速率以及相机的帧率。例如,如果相机的帧率为每秒1,000帧,并且照射以每秒5次扫描的速率从图像的一侧扫描到另一侧,则每个图像将具有200个水平像素,并且图像速率将为每秒5张图片。在一个实施例中,为了提高图像速率并降低机械扫描要求,可以在光扇1922从左向右扫描时拍摄一个图像,并且在光扇1922从右扫描回到左时拍摄下一个图像。
根据另一实施例,三维成像***可仅包括一个相机,而不是如图19中所示的两个相机。只要相机的轴在水平方向上以基线距离偏离照射源的轴,就可以基于使用已知对象的先前校准,从图像中的照射线的变形,获得关于视场中的对象的深度信息。
在另一个实施例中,照射源可以被配置以将水平光扇投射到相机前方的对象上。可以在垂直方向上扫描水平线扇以用于3D感测对象。在其他实施例中,光扇可以是与水平的或垂直的不同的其他角度。本领域普通技术人员将认识到许多变化、替代和修改。
图20示出了根据本发明的另一实施例的三维成像***2000。三维成像***2000包括一个相机2002和两个照射源2010和2020。两个照射源2010和2020被配置以投射两个垂直光扇2012和2022。两个垂直光扇2012和2022可以被调整为彼此平行。三维成像***2000还可包括扫描机构,该扫描机构被配置以同时且同步地在水平方向上扫描两个垂直光扇2012和2022。根据本发明的不同实施例,扫描机构可包括扫描镜或旋转镜、或声光偏转器。
x-y平面中的空间分辨率和深度精度(即,z方向上的精度)可以取决于两个垂直光扇2012和2022的之间的间隔。通常,两个垂直光扇2012和2022相距得越远,在x-y平面的深度精度更好,但分辨率更差。在一些实施例中,两个垂直光扇2012和2022之间的间隔可以被配置为从大约2英寸到大约2英尺。在一个实施例中,间距优选为约18英寸。与图19中所示的三维成像***1900相比,三维成像***2000可以提供更高的深度精度。图21示意性地示出了可由三维成像***2000的相机2002捕获的对象(例如,房屋)的图像2140。两个垂直光扇2012和2022可以在对象上投射两条照射线2142和2144。图像2140中的两个照射线2142和2144之间的距离d取决于对象离相机2002的距离。通常,图像2140中的两个照射线2142和2144之间的距离d与对象离相机2002的距离成反比,也就是说,两个照射线2142和2144在图像2140中呈现出与彼此越近,则对象离相机2002越远。对于无限远处的对象,图像2140中的两条照射线2142和2144可以合并在一起,所述无限远处即投影几何形状中的消失点。因此,当在整个对象平面上扫描两个垂直光扇2012和2022时,可以从对象的一系列图像确定关于对象上的各个点的深度信息。
在可替代的实施例中,可以以下面的方式提取深度信息。当在水平方向上扫描两个垂直光扇2012和2022时,可以在一系列连续帧中监视图像2140中的单个像素的光强度。图22示出了根据本发明实施例的在像素处的光强度作为帧数的函数的示意绘图。当两个垂直光扇2012和2022被顺序扫描穿过与那个像素对应的物点时,两个强度峰值2202和2204可以出现在强度图中的两个不同帧数处。对于恒定速率扫描,两个强度峰值2202和2204之间的时间差与从该物点到相机2002的距离成反比。在一个实施例中,时间差可以通过两个强度峰值2202和2204之间的帧数与相机的帧率的乘积来确定。
图20中所示的三维成像***2000相比于传统的三维成像***可以提供若干优点。在传统的三维成像***中,需要两个相机,例如图18所示的三维成像***,两个相机之间的基线距离D的变化可能是误差的主要来源,尤其是在温度变化可达到100℃以上的汽车环境中。相反地,图20中所示的三维成像***2000只需要一个相机;因此,可以消除对基线距离D的准确性和稳定性的要求。
在三维成像***2000中,两个照射源2010和2020之间的距离以及两个照射源2010和2020中的每一个与相机2002之间的距离并不是关键,只要两个垂直光扇2012和2022保持相互平行。控制两个光扇2012和2022的平行度可比控制绝对基线距离D更容易。例如,一块金属或玻璃的两个预定平行表面可以在大的温度变化中保持平行,尽管主体尺寸可能会发生显著变化。另外,与基线距离变化不同,平行度可以容易地在原位测量以向控制软件提供反馈用于实时校正。因此,与传统的三维成像***相比,三维成像***2000可以为长距离测量提供更好的精度和稳定性。
图23示意性地示出了根据本发明的实施例的使用扫描镜的三维成像***2300。三维成像***2300包括安装在壳体2304中的相机2302、第一激光源2310以及第二激光源2330。第一激光源2310和第二激光源2330可被配置以分别发射第一准直激光束和第二准直激光束。三维成像***2300还包括第一光学元件2312,例如柱面透镜,其被配置为在垂直方向上扩展第一激光束以形成第一垂直光扇2314。三维成像***2300还包括第一反射镜2320,第一反射镜2320被配置以将第一垂直光扇2314朝向相机2302前方的对象反射。三维成像***2300还包括第二光学元件2332,其被配置为扩展由第二激光源2330发射的第二激光束以形成第二垂直光扇2334,以及第二反射镜2340,其被配置以将第二垂直光扇2334朝向相机2302前方的对象反射。
在一些实施例中,第一反射镜2320还被配置以围绕枢转轴线2322摆动,以便如箭头所指示在水平方向上扫描第一光扇2314。类似地,第二反射镜2340还被配置以围绕枢转轴线2342摆动,以便如箭头所指示在水平方向上扫描第二光扇2334。在一个实施例中,第一反射镜2320和第二反射镜2340可以分别由第一电机2324和第二电机2344机械驱动。在一个实施例中,三维成像***2300还可包括分别用于测量第一反射镜2320和第二反射镜2340的旋转角度的第一编码器2326和第二编码器2346。在一些实施例中,第一编码器2326和第二编码器2346可以发送反馈信号至处理器,使得处理器可以发送控制信号至第一电机2324和第二电机2344,以确保第一反射镜2320和第二反射镜2340被同步地扫描。
在一些实施例中,可以以约100度/秒至约1,000度/秒的角速度扫描第一光扇2314和第二光扇2334。第一光扇2314照射对象时可在对象上产生第一照射线,并且第二光扇2334照射对象时可在对象上产生第二照射线。相机2302可以被配置为以范围从大约60帧/秒到大约1,000帧/秒的帧率捕获第一照射线和第二照射线的图像。当第一光扇2314和第二光扇2334照射到对象的对应区域时,每个图像可以捕获两个第一照射线和第二照射线的“快照”。从图像中的第一照射线和第二照射线之间的距离可以确定从相机2302到对象的对应区域的距离。以这种方式,从当第一光扇2314和第二光扇2334被扫描穿过对象时相机2302所捕获的一系列“快照”,可以构建对象的三维图像。可替代地,如上面参考图22所述的,可以通过测量在图像的对应像素中检测第一照射线和检测第二照射线之间的时间延迟,来确定从相机2302到对象的对应区域的距离。通过测量当第一光扇2314和第二光扇2334被扫描穿过对象时图像中的所有像素的时间延迟,可以构建对象的三维图像。
根据本发明的一些实施例,第一电机2324和第二电机2344中的每一个可包括音圈电机、步进电机或伺服电机。在一个实施例中,第一电机2324和第二电机2344中的每一个可包括旋转电机,该旋转电机分别驱动连接到第一反射镜2320和第二反射镜2340中的每一个的凸轮。
在另一个实施例中,三维成像***2300可使用两个声光偏转器而不是使用振荡镜,来电子扫描第一垂直光扇2314和第二垂直光扇2334。在又一个实施例中,三维成像***2300可以使用两个旋转的多面反射镜来扫描第一垂直光扇2314和第二垂直光扇2334。根据不同实施例,每个多面反射镜可以由传统电机、伺服电机或步进电机驱动。
在另一实施例中,第一激光源2310和第二激光源2330中的每一个,连同第一光学元件2312和第二光学元件2332可以被配置为在水平方向上被扫描。在一个实施例中,取决于光学器件如何配置,可以不需要第一反射镜2320和第二反射镜2340。在另一个实施例中,第一反射镜2320和第二反射镜2340中的每一个可包括圆柱形反射表面,该圆柱形反射表面被配置为以在垂直方向上扩展由第一激光源2310或第二激光源2330发射的激光束,以形成垂直光扇。在这种情况下,第一光学元件2312和第二光学元件2332可以被省略。在另一个实施例中,三维成像***2300可包括单个激光源而不是两个单独的激光源。在这种情况下,三维成像***2300还可包括分束器,以将由单个激光源发射的激光束分成两个激光束。
图24示意性地示出了根据本发明的另一实施例的使用扫描反射镜的三维成像***2400。类似于图23中所示的三维成像***2300,三维成像***2400也包括相机2302、被配置以分别发射第一激光束和第二激光束的第一激光源2310和第二激光源2330、被配置以分别将第一激光束和第二激光束扩展为第一垂直光扇2314和第二垂直光扇2334的第一光学元件2312和第二光学元件2332,以及被配置以分别将第一垂直光扇2314和第二垂直光扇2334朝向相机2302前方的场景反射的第一反射镜2320和第二反射镜2340。三维成像***2400还包括连接组件2350,其机械地连接第一反射镜2320和第二反射镜2340。在一个实施例中,连接组件2350包括附接到第一反射镜2320的第一杆、附接到第二反射镜2340的第二杆,以及附接到第一杆和第二杆的横梁。三维成像***2400可包括单个马达2324,而不是具有两个马达,该单个马达2324被配置以通过连接组件驱动第一反射镜2320及第二反射镜2340。连接组件2350确保第一反射镜2320和第二反射镜2340关于彼此适当对准并被同步地扫描。三维成像***2400可包括单个编码器2326,用于测量第一反射镜2320的旋转角度或第二反射镜2340的旋转角度。
图25示出了根据本发明另一实施例的三维成像***2500。三维成像***2500类似于三维成像***2300,除了两个照射源放置在两个单独的外壳2304和606中。即,第一激光源2310、第一光学元件2312、第一反射镜2320、第一电机2324以及第一编码器2326放置于第一壳体2304中;和第二激光源2330、第二光学元件2332、第二反射镜2340、第二电机2344和第二编码器2346放置于第二壳体606中。在一些实施例中,相机2302可放置于第一壳体2304或第二壳体606中。在另一个实施例中,相机2302可以放置于另一个单独的壳体中。通过将两个照射源放置在分开的壳体中,可以更容易地改变两个光扇2314和2334之间的距离,以在分辨率和检测范围之间进行可能的折衷,而无需重新设计整个***。也可以更容易将三维成像***2500安装在空间受限的区域中,例如在自动车辆的保险杠中。
根据本发明的一些实施例,两个光扇彼此精确平行的要求,可以通过相对于对象的3D目标图像来校准对象的3D图像来减轻。例如,对象的3D目标图像可以通过使用飞行时间(TOF)激光雷达***来获取。由如图23至25所示的三维成像***2300、2400或2500获取的对象的3D图像,可以然后相对于3D目标图像进行比较以生成一组校准系数。该组校准系数可包括例如平移系数、旋转系数和比例系数,它们可以应用于由三维成像***获取的3D图像,以便与3D目标图像匹配。在一个实施例中,校准可以实时完成。在另一个实施例中,校准可以预先执行,并且校准系数可以由控制软件存储和使用。通过放宽平行度的要求,可以实现安装***设计的更大灵活性。例如,每个照射源可以单独安装,并且相机可以与照射源分开安装。例如,当应用于自主车辆中的障碍物检测时,两个照射源可以安装于车辆的前灯固定装置中。
图26示出了根据本发明的另一实施例的三维成像***2600。三维成像***2600仅包括一个照射源,照射源可包括激光源2310、光学元件2312、反射镜2320、电机2324和编码器2326。三维成像***2600还包括相机2302。照射源将光扇2314朝向相机视场中的对象投射。光扇2314可以在照射对象时在对象上形成照射线。在这种配置中,可以基于使用已知对象的在先校准,通过相机2302捕获的图像中所看到的照射线的位置的失真来确定对象距离。失真量可取决于相机2302的轴线与照射轴线之间的基线距离D。
在一些实施例中,照射源被配置为以大约每秒1次扫描到大约每秒20次扫描的范围内的速率在整个视场上扫描光扇2314,使得三维成像***2600以每秒约1幅图像到每秒约20幅图像的范围内的图像速率工作。如上所述,横向分辨率可以取决于照射源的扫描速率和相机2302的帧率。
图27示出了根据本发明的又一实施例的三维成像***2700。三维成像***2700与图26中所示的三维成像***2600类似,除了三维成像***2700包括设置在来自第一相机2302的照射源的相对侧上的第二相机2308之外。对于相对较远或部分隐藏在另一对象后面的对象,一个相机的照射线的视野可能会受阻。在照射源的相对侧添加第二相机可以帮助确保至少一个相机具有照射线的清晰视线可见性。在一个实施例中,第一相机的轴线和照射轴线之间的第一基线距离D1可以被选择为与第二相机的轴线和照射轴线之间的第二基线距离D2不同,使得一个相机被优化用于为最近的对象提供最佳深度分辨率,和另一个相机被优化用于远距离检测。
图28示出了根据本发明另一实施例的三维成像***2800。三维成像***2800与图26中所示的三维成像***2600类似,除了三维成像***2800包括三个激光源2310a-2310c和三个光学元件2312a-2312c、分别用于将激光源2310a-2310c发射的激光束扩展成三个垂直光扇2314a-2314c之外。在这种配置中,反射镜2320的扫描范围可以针对每个光扇产生特定的角视场AFOVa、AFOVb或AFOVc。总角视场TAFOV可以是三个单独的光扇的角视场AFOVa、AFOVb和AFOVc的总和。例如,对于每个单独的光扇的角视场AFOVa、AFOVb或AFOVc可以是大约30度,并且总角视场TAFOV可以是大约90度。因此,反射镜2320的相对小的扫描范围可以产生相对大的总角视场(例如,90度或更大)。根据不同实施例,相邻的光扇的角视场可以彼此邻接,或者可以彼此部分地重叠。
图28中所示的三维成像***2800可提供若干优点。例如,反射镜2320的相对小的扫描范围可以简化机械设计并提供更好的可靠性。另外,对于给定的机械扫描速度,它还可以增加***的总帧率。在其他实施例中,可以使用更少或更多的激光源,例如2或4个激光源。在一些可替代的实施例中,可以使用分束器、衍射光学元件、具有多个小平面的反射镜等,而不是使用多个激光源,来产生多个光扇。这个方法也可以在本发明的其他实施例中实现。例如,对于图23-25中所示的三维成像***2300,2400,2500,可以产生多个光扇对而不是单个光扇对,每个光扇对覆盖总角视场的相应部分。它也可以在图27所示的三维成像***2700中实施。
在一些实施例中,在图23-28中所示的三维成像***2300,2400,2500,2600,2700和2800中使用的一个或多个激光源可被配置以发射红外(IR)波长范围(例如,0.75μm-1000μm)的激光束。在一些实施例中,第一激光源2310和第二激光源2330可被配置以发射近红外(NIR)波长范围(例如,0.75μm-1.4μm)的激光束,或发射短波长红外(例如,1.4μm-3μm)激光束,或发射中波长红外的波长范围(例如,3μm-8μm)的激光束。对于在大于约1.5μm的波长下操作的激光源,因为眼睛不聚焦在那些波长处,能量水平可能更高。
一个与三维成像***相关联的性能问题是环境光控制。环境光,尤其是来自太阳光的光污染,可能会使相机饱和。为了抑制大多数环境光并因此改善动态范围和信噪比,可以在相机前方使用窄带滤光器连同窄带光源,例如激光源。例如,可以将多层薄膜滤光器设计为在激光源的红外波长范围内具有窄的传输频带,并且对于所有其他波长具有高反射率。然而,对于大多数多层薄膜型的窄带滤波器,传输频带的中心波长通常对入射角敏感。因此,对于从大角视场拍摄图像的相机,滤光器的中心波长可以随着以不同角度入射到滤光器上的光而偏移。下面讨论的解决方案可以解决这个问题。
图29示出了根据本发明的实施例的包括扫描滤光器1260的三维成像***2900。三维成像***2900与图24中所示的三维成像***2400类似。三维成像***2900包括相机2302、两个激光源2310和2330、两个反射镜2320和2340、以及连接两个反射镜2320和2340用于同步扫描两个反射反射镜2320和2340的扫描组件2350。三维成像***2900还包括设置在相机2302前方的窄带滤光器2960,窄带滤光器2960可被配置以随着两个反射反射镜2320和2340的扫描而被同步扫描,使得激光总是以恒定角度入射在滤光器2960上。注意,这仅对于如图23-28中所示的三维成像***2300,2400,2500,2600,2700和2800的情况下的扫描照射是可能的。如果在整个视场被同时照射的地方使用全局照射,则滤光器2960的扫描将不会消除入射角的变化。
可以机械地或电子地完成滤光器2960的扫描与反射镜2320和2340的扫描的同步。在反射镜2320和2340被机械扫描的情况下,滤光器2960的扫描速度与反射镜的扫描速度的比率应该是大约2:1,因为反射镜角度变化一度导致入射角度变化两度。在一个实施例中,滤光器2960可以经由机械杆2970耦合到扫描组件2350,使得电机2304驱动反射镜2320和2340的扫描以及滤光器2960的扫描。
根据本发明的另一个实施例,锁定检测(lock-in detection)技术可以用于环境光抑制。例如,由激光源2310和2330发射的激光束可以以特定频率调制,并且相机2302可被配置为以相同频率来检测光以便抵制其他信号。在一个实施例中,如图23-28中所示的三维成像***2300,2400,2500,2600,2700和2800中,可以利用与照射信号的调制频率同步的触发信号来操作相机2302。
根据又一实施例,相机2302可被配置以拍摄一个打开照射情况下的图像和另一个关闭照射情况下的图像。差异图像可以消除背景信号。
图30示意性地示出了根据本发明的实施例的使用结构化照射的三维成像***3000。三维成像***3000包括相机3002、第一激光源3010和第二激光源3020。三维成像***3000还包括第一衍射光学元件3030和第二衍射光学元件3040。第一衍射光学元件3030设置在第一激光源3010的前面,并被配置以将由第一激光源3010发射的激光束转换成投射在相机3002前方的视场处的第一结构化(图案化)照射3050。第二衍射光学元件3040设置在第二激光源3020的前面,并且被配置以将由第二激光源3020发射的激光束转换成第二结构化照射3060。根据不同实施例,第一结构化照射3050和第二结构化照射3060中的每一个,可以是网格图案、垂直线、水平线等。第一结构化照射3050和第二结构化照射3060可以具有不同的唯一可识别图案。这样,***可以针对两种不同的照射模式进行交叉校准。
两个激光源3010和3020可以以固定的基线距离分开。相机3002可以最佳地放置在两个激光源3010和3020之间,使得相机3002与第一激光源3010以第一固定基线距离D1分开,并且与第二激光源3020以第二固定基线距离D2分开。类似于如图23-25中所示的三维成像***2300,2400和2500,如在由相机3002捕获的图像中看到的,来自两个激光源3010和3020的照射点之间的视距可以用于确定在视场中的对象的距离。可替代地,图案的失真可用于确定距离信息。在一些实施例中,可以为D1和D2选择不同的基线距离。例如,可以针对较近的对象优化一个基线距离以获得良好的距离分辨率,并且可以针对远程检测优化另一个基线距离。
第一结构化照射3050和第二结构化照射3060可以以多种方式区分。例如,一个可以是水平线,以及另一个是垂直线。可替代地,它们可以都是网格图案,但是图案是偏移的,使得一个网格落入另一个网格的间隙中。在一个实施例中,两个激光源3010和3020可以被调制,与相机帧率同步地交替闪烁,以提供高分离度并允许锁定检测用于背景抑制。在另一个实施例中,两个激光源3010和3020可以被配置为在不同的波长范围内操作。相机3002可以使用窄带滤波器来区别两个照射波长范围。
在另一实施例中,可以使用两个相机,每个相机具有不同的窄带滤光器。例如,用于一个相机的滤光器可调谐到第一激光源3010的波长范围,并且用于另一个相机的滤光器可调谐到第二激光源3020的波长范围。在一些实施例中,照射3050和3060可被固定,或被扫描以允许更大的视场或更好的分辨率。通过检查一个相对于另一个的性能,这两个相机可以用于进一步改善校准。如果某个对象的一部分从其中一个相机的视野中被遮挡,则使用两个相机还可以帮助防止数据丢失。
图31示出了根据本发明另一实施例的使用结构化照射的三维成像***3100。三维成像***1400包括第一相机3102和第二相机3104、单个激光源3110、以及衍射光学元件3130。衍射光学元件3130设置在激光源3110前面,并且被配置以将由激光源3110发射的激光束转换至两个相机3102和3104的视场中的结构化照射3150。第一相机3102和第二相机3104以固定的基线距离彼此分开。激光源3110优选地设置在第一相机3102和第二相机3104之间,使得它与第一相机3102以第一基线距离D1分开,并且与第二相机3104以第二基线距离D2分开。
使用两个而不是一个相机可以以几种方式允许更稳健的性能。首先,使用单个相机,光的某些部分可能被视差错误阻挡。例如,一个对象可能被其前方的另一个对象部分地隐藏在视线中。使用两个相机,尽管一个对象可能部分地隐藏在一个相机的视线之外,但是它未必被另一个相机的视线隐藏。因此,可以减少部分照射不可见的可能性。其次,可以使用一个相机的图像来校准另一个相机的图像,从而提供更好的距离精度和位置精度。在一些实施例中,可以为D1选择与D2不同的基线距离。例如,可以针对较近的对象优化一个基线距离以获得良好的距离分辨率,并且可以针对远程检测优化另一个基线距离。
上面讨论的三维成像***,例如图23-31所示的三维成像***。,可以用于许多应用中。例如,它们可以用于自主车辆或无人机以用于障碍物检测。图32示意性地示出了根据本发明的实施例的安装在自主车辆或半自主车辆3202上用于障碍物检测的一个或多个三维成像***3210a-3210d。例如,第一三维成像***3210a可安装在车辆3202的前侧(例如,前保险杠)中用于检测车辆3202前方的对象;第二三维成像***3210b和第三三维成像***3210c可以安装在车辆3202的任一侧,用于检测侧方的对象;并且第四三维成像***3210d可以安装在车辆3202的后部(例如,在后保险杠上),用于检测车辆3202后面的对象。在一些实施例中,安装在车辆3202的前侧上的第一三维成像***3210a可被配置为用于远程检测,并且第二三维成像***3210b、第三三维成像***3210c和第四三维成像***3210d可以被配置为用于中程或短程检测。
IV.车辆的定位(locating)
车辆的定位,即确定车辆的位置,可通过使用多个传感器,例如雷达、前视相机、侧视相机以及全球导航卫星***(GNSS)接收器(例如,GPS接收器)来实现。使用从车辆伸出的相机可以允许识别用于确定车辆的位置的特征,例如车辆的周围环境中的建筑物或道路标志。然而,由于各种原因,从这样的信息精确确定车辆的位置和速度可能是困难的。例如,倾斜角度和数据的三维性质可能导致难以实现精确计算。
根据本发明的一些实施例,可以使用安装在车辆上并且直接向下(即,实质上垂直地)朝向路面的传感器确定车辆的速度。图33示意性地示出了车辆3310,其上安装有传感器3320,用于确定车辆3310的速度。尽管传感器3320被示出为安装在车辆3310的一侧,但是传感器3320可以非常适合于安装在车辆3310的下方。传感器3320可包括光源(未示出),该光源被配置以将光3330照射到车辆正行驶的地面3340。传感器3320也可包括实质向下指向地面3340的相机(未示出)。相机可以捕获由光源以特定帧率照射的地面3340的图像。传感器可以检测图像中的特征,例如车道标记、路面裂缝和砾石的纹理,并通过逐帧跟踪检测到的特征的运动来确定车辆的速度。
图34是示出根据本发明的一些实施例的用于确定车辆速度的传感器3320的示意图。传感器3320可包括光源3322和相机3324。光源3322可被配置以将光照射在车辆正行驶的地面3340的区域3332上。相机3324可以被配置为以预定的帧率捕获被光源3322照明的地面3340的区域3332的多个图像帧。传感器3320还可包括耦合到相机3324的处理器3326。处理器3326可以被配置以检测多个图像帧中的地面3340的一个或多个特征。例如,处理器3326可以使用特征检测算法,例如边缘检测算法和/或图像分割算法,来检测图像中的特征。处理器3326可以通过逐帧跟踪检测到的特征的运动来确定车辆的速度。
图35A和35B示出了根据本发明的实施例的可在两个连续图像帧3510和3520中由传感器3320中的相机3324捕获的路面的示例性图像。如所示的,图像可包括路面的某些特征,例如一些裂缝。对于移动的车辆,特征可以出现在逐帧图像中的不同位置处。例如,裂缝3530的边缘可以出现在第一图像帧3510中的第一纵向位置3540(例如,在车辆的运动方向上)处,并且可以出现在第二图像帧3520中的第二纵向位置3550处。通过测量第一纵向位置3540和第二纵向位置3550之间的距离d并且已知相机3324的帧率,处理器3326可以确定车辆的速度。
车辆的速度可以使用各种算法来确定。可以使用图像互相关算法(image cross-correlation algorithm)。可以使用本领域技术人员已知的各种对象跟踪算法,包括光流算法。光流或光学流是由观察者(眼睛或相机)与场景之间的相对运动引起的视觉场景中的对象、表面和边缘的表观运动的图案。有序图像的顺序可以允许将运动估计为瞬时图像速度或离散图像位移。确定光流的方法可包括相位相关法、基于块的方法(block-basedmethod),差分法、Horn-Schunck法、Buxton-Buxton法、Black-Jepson法和广义变分法,离散优化法等。
除了确定车辆的速度之外,处理器3326还可以通过逐帧跟踪检测到的特征的角度变化来确定车辆的变向率。图36A和36B示出了根据本发明的实施例的由传感器3320中的相机3324在两个连续图像帧3610和3620中捕获的路面的示例性图像。图像包括车道标记3630。如所示的,除了图像帧中纵向位置的改变之外,从第一帧3610到第二帧3620中车道标记3630的方位也改变了。通过测量两帧之间的角度变化并且已知相机3324的帧率,可以计算车辆的变向率。
在一些实施例中,由传感器3320确定的车辆变向率可用于替换或补充来自其他传感器(例如惯性测量单元(IMU)或罗盘)的信息。根据车辆的速度和变向率,可以确定车辆的速率。车辆的速率可以与来自其他传感器的数据(例如GNSS数据和雷达数据)组合,以确定车辆的位置。
在传感器3320安装在车辆的前(转向)轮附近的一些实施例中,处理器3326也可通过逐帧跟踪检测到的特征的侧到侧运动(side-to-side motion)(例如,横向运动)来确定车辆的转向轮的位置。
如上所述的并在图34中示出的传感器3320,与其他类型的传感器(例如传统上用于车辆定位的侧向安装(例如,水平安装)相机)相比,可以提供若干优点。例如,可能不需要倾斜角度的三角计算,因为相机3324可以以实质垂直的方位直接指向下方朝向地面。因此,传感器3320可具有改进的准确度。此外,与传统传感器相比,在夜间的照射要求可以降低,因为从车辆下侧到路面的一般距离仅为约0.3米。在如此短的距离内观察,可比观察可能在数米之外的建筑物之类的对象消耗更少的照射功率。
车辆还可以为传感器3320提供覆盖(例如,其中传感器3320安装在车辆下方)以免暴露于天气的元素,例如雨和雪,从而改善恶劣天气条件下的稳健性。在一些实施例中,传感器3320还可包括擦拭器***(例如,类似于挡风玻璃雨刷)、液体喷雾、空气喷嘴或它们的组合,以保持相机3324的棱镜或窗户清洁。
参见图34,相机3324可包括用于捕获图像帧的快门3328。根据不同实施例,快门3328可以作为卷帘快门或全局快门操作。卷帘快门是一种图像捕获方法,其中,通过垂直或水平地快速扫描穿过场景而不是通过在单个时刻拍摄整个场景的快照来捕获静态图像(在静态相机中)或视频的每个帧(在视频相机中)。换句话说,场景的图像的所有部分不是在完全相同的瞬间被记录。这可能会产生快速移动的对象或快速闪动的光的可预测的失真。这与“全局快门”形成对比,在“全局快门”中,整个帧在同一时刻被捕获。在使用卷帘快门的一些实施例中,扫描方向可垂直于车辆的纵向方向(例如,在垂直于车辆行驶方向的横向方向上),从而可以使图像的失真最小化。
在一些实施例中,光源3322可被配置以发射用于照射的可见光。在一些其他实施例中,光源3322可以被配置以发射用于照射的红外光或紫外光,以便减少对其他附近车辆的驾驶员的可能干扰。处理器3336可以耦合到光源3322并且被配置以控制光源3322的操作。
图37是示出根据本发明的实施例的确定车辆速度的方法3700的简化流程图。方法3700包括:在步骤3702,使用安装在车辆上的光源照射车辆正行驶的地面;在步骤3704,使用安装在车辆上的相机,以预定的帧速率捕获由光源照射的地面的多个图像帧;在步骤3706,使用耦合到相机的一个或多个处理器,检测多个图像帧中的地面的一个或多个特征;并且在步骤3708,使用一个或多个处理器,通过逐帧跟踪一个或多个特征,确定车辆的速度。
在一些实施例中,方法3700也可包括使用一个或多个处理器通过逐帧跟踪一个或多个特征的方位的变化来确定车辆的变向率。方法3700也可包括使用一个或多个处理器、通过逐帧跟踪地面的一个或多个特征的横向移动来确定车辆的转向轮的位置。
在一些实施例中,方法3700还可包括使用罗盘、陀螺仪、惯性测量单元(IMU)和全球导航卫星***(GNSS)接收器中的至少一个来确定车辆正在行驶的方向,并且基于车辆行驶中的车辆的速度和车辆的方向来确定车辆的速率。方法3700还可包括:当GNSS信号可用时,基于GNSS数据确定车辆的位置,以及当GNSS信号不可用时,基于车辆的速率确定车辆的位置。
在不脱离本发明实施例的精神和范围的情况下,可以以任何合适的方式组合特定实施例的具体细节。然而,本发明的其他实施例可针对涉及每个单独方面的特定实施例,或这些单独方面的特定组合。
出于说明和描述的目的已经呈现了本发明的示例性实施例的以上描述。其并非旨在穷举或将本发明限制于所描述的明确形式,并且鉴于上述教导可能得到许多修改和变化。实施例被选择并被描述以便解释本发明的原理及其实际应用,从而使得本领域的其他技术人员能够以不同实施例以及具有适合于预期的特定用途的各种修改来使用本发明。

Claims (94)

1.一种用于对象的三维成像的激光雷达***,所述激光雷达***包括:
激光源,其被配置以在发射平面中被平移通过多个发射位置,所述激光源被配置以发射多个激光脉冲,其中所述多个激光脉冲中的每一个在所述多个发射位置中的相应一个处发射;
发射透镜,其被配置以将所述多个激光脉冲准直并导向所述对象,其中所述多个激光脉冲中的每一个的一部分从所述对象反射;
接收透镜,其被配置以接收从所述对象反射的所述多个激光脉冲中的每一个的所述部分并将其聚焦到检测平面中的多个对应检测位置,其中所述多个对应检测位置中的每一个与所述多个发射位置中的相应的一个共轭;
光电检测器,其被配置以在所述检测平面中被平移通过所述多个对应检测位置,并且被配置以接收和检测从所述对象反射的多个激光脉冲中的每一个的所述部分;和
处理器,其被耦合到所述激光源和所述光电检测器,所述处理器被配置以:
确定所述多个激光脉冲中的每一个从发射到检测的飞行时间;和
基于所确定的所述多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
2.根据权利要求1所述的激光雷达***,还包括平台,其中,所述激光源和所述光电检测器被安装在所述平台上,所述平台被配置成被平移,以将所述激光源平移通过所述多个发射位置,并且将所述光电检测器平移通过所述多个检测位置,并且所述激光源和所述光电检测器之间的距离使得所述激光源和所述光电检测器在所述平台被平移时总是在空间上相互共轭。
3.根据权利要求2所述的激光雷达***,还包括柔性件,所述柔性件被耦合到所述平台并且被配置以平移所述平台。
4.根据权利要求3所述的激光雷达***,其中,通过使用音圈电机、压电传感器、扭力电机或旋转电机致动所述柔性件来平移所述平台。
5.根据权利要求1所述的激光雷达***,还包括:
第一平台,其中所述激光源被安装在所述第一平台上,并且所述第一平台被配置以被平移,以将所述激光源平移通过所述多个发射位置;和
第二平台,其中所述光电检测器被安装在所述第二平台上,并且所述第二平台被配置以被平移,以将所述光电检测器平移通过所述多个检测位置;
其中所述第一平台的平移与所述第二平台的平移同步地执行,使得当所述第一平台和所述第二平台平移时,所述激光源和所述光电检测器在空间上总是相互共轭。
6.根据权利要求5所述的激光雷达***,还包括:
第一柔性件,其被耦合于所述第一平台并且被配置以平移所述第一平台;以及
第二柔性件,其被耦合于所述第二平台并且被配置以平移所述第二平台。
7.根据权利要求1所述的激光雷达***,其中选择所述发射透镜的焦距,使得所述激光源在所述发射平面中通过所述多个发射位置的平移导致所述多个激光脉冲在对象尺寸上扫描穿过对象,所述对象尺寸从所述激光雷达***对向地形成的角度在约5度至约15度的范围内、或约15度至约45度的范围内、或约45度至约90度的范围内。
8.根据权利要求1所述的激光雷达***,其中:
所述激光源在所述发射平面中通过所述多个发射位置的平移,包括在所述发射平面中以一个维度对所述激光源进行的光栅式扫描;和
所述光电检测器在所述检测平面中通过所述多个对应的检测位置的平移,包括在所述检测平面中以一个维度对所述光电检测器进行的光栅式扫描。
9.根据权利要求1所述的激光雷达***,其中:
所述激光源在所述发射平面中通过所述多个发射位置的平移,包括在所述发射平面中以两个维度对所述激光源进行的光栅式扫描;和
所述光电检测器在所述检测平面中通过所述多个对应检测位置的平移,包括在所述检测平面中以两个维度对所述光电检测器进行的光栅式扫描。
10.根据权利要求9所述的激光雷达***,其中:
对所述激光源在第一方向上的光栅式扫描以第一速度执行;
对所述激光源在垂直于所述第一方向的第二方向上的光栅式扫描以与所述第一速度不同的第二速度执行;
对所述检测器在所述第一方向上的光栅式扫描以所述第一速度执行;和
对所述激光源在所述第二方向上的光栅式扫描以所述第二速度执行。
11.根据权利要求1所述的激光雷达***,还包括位置编码器,用于确定所述激光源相对于所述激光源的参考位置的位置,其中所述位置编码器被耦合到所述处理器,并且所述处理器被配置以基于所确定的所述多个激光脉冲中的每一个的所述飞行时间和所述激光源的所述位置,构建所述对象的三维图像。
12.一种三维成像方法,所述方法包括:
在发射平面中将激光源平移到多个发射位置中的每一个;
使用所述激光源发射多个激光脉冲,其中所述多个激光脉冲中的每一个在所述多个发射位置中的相应一个处发射;
使用发射透镜准直所述多个激光脉冲并将其导向对象,其中所述多个激光脉冲中的每一个的一部分被从所述对象反射;
使用接收透镜接收从所述对象反射的所述多个激光脉冲中的每一个的所述部分,并将其聚焦到检测平面中的多个对应的检测位置,其中每个对应的检测位置与相应的发射位置共轭;
在所述检测平面中将光电检测器平移到所述多个对应的检测位置中的每一个;
使用光电检测器检测所述多个检测位置中的每一个处的所述多个激光脉冲中的每一个的所述部分;
使用处理器确定所述多个激光脉冲中的每一个从发射到检测的飞行时间;和
基于所确定的所述多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
13.根据权利要求12所述的方法,其中在所述检测平面中将所述光电检测器平移到所述多个对应的检测位置中的每一个,是与在所述发射平面中将所述激光源平移到所述多个发射位置中的每一个同步地执行的,使得在任何给定时间,所述光电检测器的位置总是与所述激光源的位置共轭。
14.根据权利要求13所述的方法,其中所述激光源和所述光电检测器被安装在平台上,并且平移所述激光源和平移所述光电检测器包括平移所述平台。
15.根据权利要求13所述的方法,其中所述激光源被安装在第一平台上,并且所述光电检测器被安装在第二平台上,并且其中平移所述激光源包括平移所述第一平台,并且平移所述光电检测器包括平移所述第二平台。
16.根据权利要求13所述的方法,其中:
在所述发射平面中平移所述激光源通过所述多个发射位置包括在所述发射平面以一个维度光栅式扫描所述激光源;和
在所述检测平面中平移所述光电检测器通过所述多个对应的检测位置包括在所述检测平面中以一个维度光栅式扫描所述光电检测器。
17.根据权利要求13所述的方法,其中:
在所述发射平面中平移所述激光源通过所述多个发射位置包括在所述发射平面以两个维度光栅式扫描所述激光源;和
在所述检测平面中平移所述光电检测器通过所述多个对应的检测位置包括在所述检测平面中以两个维度光栅式扫描所述光电检测器。
18.一种用于对象的三维成像的激光雷达***,所述激光雷达***包括:
第一激光源,其被配置以在发射平面中被平移通过第一多个发射位置,所述第一激光源被配置以分别在所述第一多个发射位置处发射第一多个激光脉冲;
第二激光源,其被配置以在所述发射平面中被平移通过第二多个发射位置,所述第二激光源被配置以分别在所述第二多个发射位置发射第二多个激光脉冲;
发射透镜,其被配置以准直所述第一多个激光脉冲和所述第二多个激光脉冲并将其导向所述对象,其中所述第一多个激光脉冲中的每一个的一部分和所述第二多个激光脉冲中的每一个的一部分被从所述对象反射;
接收透镜,其被配置以接收从所述对象反射的所述第一多个激光脉冲中的每一个的所述部分和从所述对象反射的所述第二多个激光脉冲中的每一个的所述部分,并将其聚焦到所述检测平面中的所述第一多个对应的检测位置和所述第二多个对应的检测位置,其中所述第一多个对应的检测位置中的每一个与所述第一多个发射位置中的相应一个共轭,并且所述第二多个对应的检测位置中的每一个与所述第二多个发射位置中的相应一个共轭;
第一光电检测器,其被配置以在所述检测平面中被平移通过所述第一多个对应的检测位置,并且可操作以接收和检测从所述对象反射的所述第一多个激光脉冲中的每一个的所述部分;
第二光电检测器,其被配置以在所述检测平面中被平移通过所述第二多个对应的检测位置,并且可操作以接收和检测从所述对象反射的所述第二多个激光脉冲中的每一个的所述部分;和
处理器,其耦合到所述第一激光源、所述第二激光源、所述第一光电检测器和所述第二光电检测器,所述处理器被配置以:
确定所述第一多个激光脉冲中的每一个以及所述第二多个激光脉冲中的每一个的从发射到检测的飞行时间;和
基于所确定的所述第一多个激光脉冲中的每一个以及所述第二多个激光脉冲中的每一个的飞行时间来构建所述对象的三维图像。
19.根据权利要求18所述的激光雷达***,还包括平台,其中,
所述第一激光源、所述第二激光源、所述第一光电检测器和所述第二光电检测器被安装在所述平台上,所述平台被配置以被平移以将所述第一激光源平移通过所述第一多个发射位置,将所述第二激光源平移通过所述第二多个发射位置,将所述第一光电检测器平移通过所述第一多个检测位置,并且将所述第二光电检测器平移通过所述第二多个检测位置;和
所述第一激光源、所述第二激光源、所述第一光电检测器以及所述第二光电检测器位于所述平台上,使得当所述平台被平移时,所述第一激光源和所述第一光电检测器在空间上总是相互共轭,并且当所述平台被平移时,所述第二激光源和所述第二光电检测器在空间上总是相互共轭。
20.根据权利要求19所述的激光雷达***,还包括柔性件,所述柔性件被耦合到所述平台并且被配置以平移所述平台。
21.根据权利要求18所述的激光雷达***,还包括:
第一平台,其中所述第一激光源和所述第一光电检测器被安装在所述第一平台上,所述第一平台被配置以被平移,以便将所述第一激光源平移通过所述第一多个发射位置,并将所述第一光电检测器平移通过所述第一多个检测位置,并且所述第一激光源和所述第一光电检测器之间的距离使得,当所述第一平台被平移时,所述第一激光源和所述第一光电检测器在空间上总是相互共轭;和
第二平台,其中所述第二激光源和所述第二光电检测器被安装在所述第二平台上,所述第二平台被配置以被平移,以便将所述第二激光源平移通过所述第二多个发射位置,并将所述第二光电检测器平移通过所述第二多个检测位置,并且所述第二激光源和所述第二光电检测器之间的距离使得,当所述第二平台被平移时,所述第二激光源和所述第二光电检测器在空间上总是相互共轭。
22.根据权利要求21所述的激光雷达***,还包括:
第一柔性件,其耦合到所述第一平台并且被配置以平移所述第一平台;和
第二柔性件,其耦合到所述第二平台并且被配置以平移所述第二平台。
23.根据权利要求21所述的激光雷达***,其中,所述第一柔性件和所述第二柔性件被配置,以分别将所述第一平台和所述第二平台相对于彼此沿相对方向平移。
24.一种三维成像的方法,所述方法包括:
在发射平面中将第一激光源平移到第一多个发射位置中的每一个;
使用所述第一激光源发射第一多个激光脉冲,其中所述第一多个激光脉冲中的每一个在所述第一多个发射位置中的相应一个处发射;
在所述发射平面中将第二激光源平移到第二多个发射位置中的每一个;
使用所述第二激光源发射第二多个激光脉冲,其中所述第二多个激光脉冲中的每一个在所述第二多个发射位置中的相应一个处发射;
使用发射透镜准直和引导(i)所述第一多个激光脉冲以第一多个场角朝向第一场范围中的场景,以及(ii)所述第二多个激光脉冲以第二多个场角朝向第二多个场范围中的场景,其中所述第一多个激光脉冲中的每一个的一部分和所述第二多个激光脉冲中的每一个的一部分从所述场景中的一个或多个对象反射;
使用接收透镜接收从所述场景中的所述一个或多个对象反射的所述第一多个激光脉冲中的每一个的所述部分和所述第二多个激光脉冲中的每一个的所述部分,并将其聚焦到所述检测平面中的所述第一多个对应的检测位置和所述第二多个对应的检测位置,其中所述第一多个对应的检测位置中的每一个与所述第一多个发射位置中的相应一个共轭,并且所述第二多个对应的检测位置中的每一个与所述第二多个发射位置中的相应一个共轭;
在所述检测平面中将第一光电检测器平移到所述第一多个对应的检测位置中的每一个;
使用第一光电检测器,在所述第一多个检测位置中的每一个处检测所述第一多个激光脉冲中的每一个的所述部分;
在所述检测平面中将第二光电检测器平移到所述第二多个对应的检测位置中的每一个;
使用第二光电检测器,在所述第二多个检测位置中的每一个处检测所述第二多个激光脉冲中的每一个的所述部分;
使用处理器确定所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个从发射到检测的飞行时间;
基于所确定的所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的所述飞行时间,来构建所述一个或多个对象的三维图像。
25.根据权利要求24所述的方法,其中:
在所述发射平面中平移所述第一激光源通过所述第一多个发射位置包括,在所述发射平面中以一个维度光栅式扫描所述第一激光源;
在所述检测平面中平移所述第一光电检测通过所述第一多个对应的检测位置包括,在所述检测平面中以一个维度光栅式扫描所述光电检测器;
在所述发射平面中平移所述第二激光源通过所述第二多个发射位置包括,在所述发射平面中以一个维度光栅式扫描所述第二激光源;和
在所述检测平面中平移所述第二光电检测器通过所述第二多个对应的检测位置包括,在所述检测平面中以一个维度光栅式扫描所述第二光电检测器。
26.根据权利要求25所述的方法,其中:
在所述发射平面中以一个维度光栅式扫描所述第一激光源遵循正弦波形;和
在所述发射平面中以一个维度光栅式扫描所述第二激光源遵循正弦波形。
27.根据权利要求26所述的方法,其中,所述第一场范围与所述第二场范围部分重叠。
28.根据权利要求27所述的方法,其中所述第一场范围和所述第二场范围重叠约10%至约50%。
29.一种用于执行场景的三维成像的***,所述***包括:
第一激光雷达传感器,其具有以第一角度朝向场景取向的第一光轴,所述第一激光雷达传感器包括:
第一激光源,其被配置以发射第一多个激光脉冲;
第一发射光学元件,其被配置以准直所述第一多个激光脉冲并将所述第一多个激光脉冲以相对于所述第一光轴的对应的第一多个入射角导向所述场景中的一个或多个第一对象,其中所述第一多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射;
第一接收光学元件,其被配置以接收并聚焦从所述一个或多个第一对象反射的所述第一多个激光脉冲中的每一个的所述部分;和
第一光电检测器,其被配置以接收和检测由所述第一接收光学元件聚焦的所述第一多个激光脉冲中的每一个的所述部分;
第二激光雷达传感器,其具有以第二角度朝向所述场景取向的第二光轴,所述第二激光雷达传感器包括:
第二激光源,其被配置以发射第二多个激光脉冲;
第二发射光学元件,其被配置以准直所述第二多个激光脉冲并将所述第二多个激光脉冲以相对于第二光轴的第二多个对应入射角导向所述场景中的所述一个或多个第二对象,其中所述第二多个激光脉冲中的每一个的一部分被从所述一个或多个第二对象反射;
第二接收光学元件,其被配置以接收并聚焦从所述一个多个第二对象反射的所述第二多个激光脉冲中的每一个的所述部分;和
第二光电检测器,其被配置以接收和检测由所述第二接收光学元件聚焦的所述第二多个激光脉冲中的每一个的所述部分;和
处理器,其包括耦合到所述第一激光雷达传感器和所述第二激光雷达传感器的一个或多个处理单元,所述处理器被配置以:
确定所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的从发射到检测的飞行时间;和
基于所确定的所述第一多个激光脉冲中的每一个和所述第二多个激光脉冲中的每一个的所述飞行时间、所述第一光轴的所述第一角度、所述第一多个入射角、所述第二光轴的所述第二角度和所述第二多个入射角,构建所述场景的三维图像。
30.根据权利要求29所述的***,其中,所述第一激光雷达传感器的特征在于第一角视场,并且所述第二激光雷达传感器的特征在于第二角视场,所述第二角视场大于所述第一角视场。
31.根据权利要求30所述的***,其中,所述第一发射光学元件具有第一焦距,并且所述第二发射光学元件具有小于所述第一焦距的第二焦距。
32.根据权利要求30所述的***,其中,所述第一激光雷达传感器具有第一感测范围,并且所述第二激光雷达传感器具有比所述第一感测范围更短的第二感测范围。
33.根据权利要求30所述的***,其中所述第二光轴的所述第二角度与所述第一光轴的所述第一角度不同,并且所述第一角视场与所述第二角视场不重叠。
34.根据权利要求30所述的***,其中所述第二光轴的所述第二角度与所述第一光轴的所述第一角度不同,并且所述第一角视场与所述第二角视场部分重叠。
35.根据权利要求30所述的***,其中所述第二角视场涵盖所述第一角视场。
36.根据权利要求29所述的***,其中:
所述第一激光源被配置以被平移通过所述第一发射光学元件的焦平面中的第一多个发射位置,其中所述第一多个激光脉冲中的每一个在所述第一多个发射位置中的相应一个处发射,在由所述第一发射光学元件准直之后,产生第一多个入射角中的相应一个;
所述第一光电检测器被配置以被平移通过所述第一接收光学元件的焦平面中的第一多个对应的检测位置,其中所述第一光电检测器的平移与所述第一激光源的平移同步地执行,使得在任何给定时间,所述第一光电检测器的位置与所述第一激光源的位置总是共轭;
所述第二激光源被配置以被平移通过所述第二发射光学元件的焦平面中的第二多个发射位置,其中所述第二多个激光脉冲中的每一个在所述第二多个发射位置中的相应一个处发射,在由所述第二发射光学元件准直后,产生第二多个入射角中的相应一个;和
所述第二光电检测器被配置以被平移通过所述第二接收光学元件的焦平面中的第二多个对应的检测位置,其中所述第二光电检测器的平移与所述第二激光源的平移同步地执行,使得在任何给定时间,所述第二光电检测器的位置与所述第二激光源的位置总是共轭。
37.一种三维成像***,包括:
第一三维传感器,其具有以第一角度朝向场景取向的第一光轴,所述第一三维传感器包括:
激光源,其被配置以发射多个激光脉冲;
发射光学元件,其被配置以准直所述多个激光脉冲并将所述多个激光脉冲相对于所述第一光轴以多个对应的入射角导向所述场景中的一个或多个第一对象,其中所述多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射;
接收光学元件,其被配置以接收并聚焦从所述一个或多个第一对象反射的所述多个激光脉冲中的每一个的所述部分;
光电检测器,其被配置以接收和检测由所述接收光学元件聚焦的所述多个激光脉冲中的每一个的所述部分;和
处理器,其包括耦合到所述激光源和所述光电检测器的一个或多个处理单元,并被配置以:
确定所述多个激光脉冲中的每一个的飞行时间;和
基于所确定的所述多个激光脉冲中的每一个的所述飞行时间、所述第一光轴的所述第一角度和所述多个入射角,来构建所述一个或多个第一对象的三维图像;
其中所述第一三维传感器的特征在于第一角视场;和
第二三维传感器,其被配置以构建所述场景中的一个或多个第二对象的三维图像,所述第二三维传感器的特征在于第二角视场;
其中所述处理器被耦合到所述第二三维传感器并且被配置以基于所述一个或多个第一对象的三维图像以及所述一个或多个第二对象的三维图像来构建所述场景的三维图像。
38.根据权利要求37所述的三维成像***,其中:
所述激光源被配置以被平移通过所述发射光学元件的焦平面中的多个发射位置,其中所述多个激光脉冲中的每一个在所述多个发射位置中的相应一个处发射,从而在由所述发射光学元件准直之后,产生多个入射角中的对应的一个;和
所述光电检测器被配置以被平移通过所述接收光学元件的焦平面中的多个对应的检测位置,其中所述光电检测器的平移与所述激光源的平移同步地执行,使得在任何给定时间,所述光电检测器的位置与所述激光源的位置总是共轭。
39.根据权利要求37所述的三维成像***,其中,所述第二三维传感器包括光学三维传感器,所述光学三维传感器具有以第二角度朝向所述场景取向的第二光轴,所述第二角度与所述第一角度不同,并且其中所述第二角视场至少部分地与第一角视场重叠。
40.根据权利要求39所述的三维成像***,其中,所述第一三维传感器和所述第二三维传感器被配置以分别构建第三对象的第一三维图像和第二三维图像;所述第三对象位于其中所述第一角视场和所述第二角视场重叠的角视场内,并且其中所述处理器被配置以基于所述第三对象的所述第一三图像和所述第二三维图像校准由所述第二三维传感器确定的距离信息。
41.根据权利要求39所述的三维成像***,其中,所述第一三维传感器和所述第二三维传感器被配置以分别构建第三对象的第一三维图像和第二三维图像,所述第三对象位于其中所述第一角视场和所述第二角视场重叠的角视场内,并且其中所述处理器被配置以基于所述第三对象的所述第一三图像和所述第二三维图像校准由所述第二三维传感器确定的角度信息。
42.根据权利要求41所述的三维成像***,其中,所述角度信息包括在第一平面中的角度信息。
43.根据权利要求42所述的三维成像***,其中,所述角度信息还包括在与所述第一平面正交的第二平面中的角度信息。
44.根据权利要求37所述的三维成像***,其中,所述第二三维传感器包括激光雷达传感器。
45.根据权利要求37所述的三维成像***,其中,所述第二三维传感器包括光学三维传感器,所述光学三维传感器具有以所述第一角度朝向所述场景取向的第二光轴,并且其中所述第二角视场涵盖所述第一角视场。
46.一种用于自主车辆的三维感测的方法,所述方法包括:
使用激光雷达传感器在向前方向上通过以下方式感测一个或多个第一对象,所述激光雷达传感器包括激光源、光电检测器、发射光学元件、接收光学元件和处理器,所述处理器包括耦合到所述激光源和所述光电检测器的一个或多个处理单元:
使用激光源发射多个激光脉冲;
使用所述发射光学元件准直多个激光脉冲并将其相对于向前方向以多个对应入射角导向所述一个或多个第一对象,其中所述多个激光脉冲中的每一个的一部分被从所述一个或多个第一对象反射;
使用所述接收光学元件接收和聚焦从所述一个或多个第一对象反射的所述多个激光脉冲中的每一个的所述部分;
使用所述光电检测器检测通过所述接收光学元件聚焦的所述多个激光脉冲中的每一个的所述部分;
使用所述处理器确定所述多个激光脉冲中的每一个的从发射到检测的飞行时间;和
基于所确定的所述多个激光脉冲中的每一个的所述飞行时间以及所述多个入射角,使用处理器构建所述一个或多个第一对象的三维图像;
使用光学三维传感器在向左或向右方向上感测一个或多个第二对象,以获得所述一个或多个第二对象的三维图像;和
使用所述处理器将所述一个或多个第一对象的三维图像以及所述一个或多个第二对象的三维图像进行组合。
47.根据权利要求46所述的方法,其中,所述激光雷达传感器具有第一角视场,并且所述光学三维传感器具有比所述第一角视场更宽的第二角视场。
48.根据权利要求47所述的方法,其中,所述激光雷达传感器具有第一感测范围,并且所述光学三维传感器具有小于所述第一感测范围的第二感测范围。
49.根据权利要求47所述的方法,其中,所述第二角视场至少部分地与所述第一角视场重叠。
50.根据权利要求49所述的方法,还包括:
使用所述激光雷达传感器感测第三对象以获得所述第三对象的第一三维图像,所述第三对象位于其中所述第一角视场所述和第二角视场重叠的角视场内;
使用所述光学三维传感器感测所述第三对象以获得所述第三对象的第二三维图像;和
使用所述处理器基于所述第三对象的所述第一三维图像和所述第二三维图像校准由所述光学三维传感器确定的距离信息。
51.根据权利要求49所述的方法,还包括:
使用所述激光雷达传感器感测第三对象以获得所述第三对象的第一三维图像,所述第三对象位于其中所述第一角视场和所述第二角视场重叠的视角内;
使用所述光学三维传感器感测所述第三对象以获得所述第三对象的第二三维图像;和
使用所述处理器基于所述第三对象的所述第一三维图像和所述第二三维图像校准由所述光学三维传感器确定的角度信息。
52.根据权利要求49所述的方法,还包括:
使用所述激光雷达传感器感测第三对象以获得所述第三对象的第一三维图像,所述第三对象位于其中所述第一角视场和所述第二角视场重叠的视角内;
使用所述光学三维传感器感测所述第三对象以获得所述第三对象的所述第二三维图像;和
使用所述处理器,基于所述第三对象的所述第一三维图像和所述第二三维图像,校准由所述激光雷达传感器确定的角度信息。
53.一种三维成像***,包括:
第一照射源,其被配置以将第一光扇朝向视场中的对象投射,当所述第一光扇照射到所述对象上,所述第一光扇产生第一照射线,;
第二发光源,其被配置以投射实质上平行于所述第一光扇并与所述第一风扇间隔开的第二光扇,当所述第二风扇照射到所述对象上,所述第二光扇产生第二照射线,其中所述第一照射源和所述第二照射源还被配置以同步地横向扫描所述第一光扇和所述第二光扇穿过所述视场;
相机,其被配置以当所述第一光扇和所述第二光扇在所述对象的多个区域上被扫描时,捕获所述视场的多个图像帧,每个所述图像帧包括当所述第一光扇和所述第二扇光照射到所述对象的相应区域时,所述第一照射线和所述第二照射线的图像;和
处理器,其耦合到所述相机并且被配置以基于所述多个图像帧构建所述对象的三维图像。
54.根据权利要求53所述的三维成像***,其中,所述处理器通过以下方式构建所述对象的三维图像:
对于所述多个图像帧中的每一个:
确定所述第一照射线和所述第二照射线之间的间距;和
基于所确定的间距确定从所述相机到所述对象的相应区域的距离;和
基于从所述多个图像帧确定的所述相机到所述对象的多个区域的多个距离来构建所述对象的三维图像。
55.根据权利要求53所述的三维成像***,其中:
所述相机包括图像传感器,所述图像传感器包括多个像素,用于捕获所述多个图像帧;和
处理器,其通过以下方式构建所述对象的所述三维图像:
对于所述图像传感器的所述多个像素中的每个相应像素:
确定所述第一照射线出现在所述相应像素中的第一时间与所述第二照射线出现在所述相应像素中时的第二时间之间的相应时间延迟;和
基于所述相应时间延迟确定从所述相机到对应于所述相应像素的所述对象的相应区域的距离;和
基于从所述多个像素确定的从所述相机到所述对象的所述多个区域的多个距离来构建所述对象的所述三维图像。
56.根据权利要求53所述的三维成像***,其中:
所述第一照射源包括:
第一激光源,其被配置以发射第一激光束;
第一光学元件,被配置以将所述第一激光束转换为所述第一光扇;和
第一反射镜,被配置以将所述第一光扇向所述对象反射;和
所述第二照射源包括:
第二激光源,其被配置以发射第二激光束;
第二光学元件,其被配置以将所述第二激光束转换为所述第二光扇;和
第二反射镜,其被配置以将所述第二光扇向所述对象反射。
57.根据权利要求56所述的三维成像***,其中,所述第一反射镜和所述第二反射镜被配置以被同步扫描,以同步地横向扫描所述第一光扇和所述第二光扇穿过所述对象。
58.根据权利要求57所述的三维成像***,其中:
所述第一照射源包括:第一电机,其被配置以扫描所述第一反射镜;和第一编码器,其被配置以测量所述第一反射镜的角度;
所述第二照射源包括:第二电机,其被配置以扫描所述第二反射镜;和第二编码器,其被配置以测量所述第二反射镜的角度;和
所述处理器被耦合到所述第一电机、所述第二电机、所述第一编码器和所述第二编码器,并且被配置以基于由所述第一编码器测量的所述第一反射镜的角度和由所述第二编码器测量的所述第二反射镜的角度,来控制所述第一电机和所述第二电机,以使所述第一反射镜的扫描和所述第二反射镜的扫描同步。
59.根据权利要求58所述的三维成像***,其中所述第一电机和所述第二电机中的每一个包括步进电机、音圈电机、压电变换器或伺服电机中的一个。
60.根据权利要求56所述的三维成像***,其中,所述第一反射镜和所述第二反射镜中的每一个包括多面反射镜,并且被配置以被旋转以同步地横向扫描所述第一光扇和所述第二光扇穿过所述对象。
61.根据权利要求57所述的三维成像***,其中,所述第一反射镜和所述第二反射镜相互机械地连接,并且被配置以通过使用单个电机被同步地扫描。
62.根据权利要求56所述的三维成像***,其中,所述第一反射镜和所述第二反射镜中的每一个包括声光偏转器,所述声光偏转器被配置以将所述第一光扇和所述第二光扇偏转到多个角位置。
63.根据权利要求56所述的三维成像***,其中,所述第一光学元件和所述第二光学元件中的每一个包括柱面透镜或衍射光学元件。
64.根据权利要求53所述的三维成像***,其中:
所述第一照射源包括:
第一激光源,其被配置以发射第一激光束;和
第一柱面反射镜,其用于将所述第一激光束转换成朝向所述对象的所述第一光扇;
所述第二照射源包括:
第二激光源,其被配置以发射第二激光束;和
第二柱面反射镜,其被配置以将所述第二激光束转换成朝向所述对象的所述第二光扇;和
所述第一柱面反射镜和所述第二柱面反射镜被配置以被同步地扫描,以同步地横向扫描所述第一扇光和所述第二扇光穿过所述对象。
65.根据权利要求53所述的三维成像***,其被用在车辆中以用于障碍物检测。
66.一种三维成像***,包括:
照射源,其被配置以朝向视场中的对象投射光扇,当所述光扇照射所述对象时,所述光扇产生照射线,其中所述照射源还被配置以横向地扫描所述光扇穿过所述视场;
第一相机,其与所述照射源以第一基线距离横向分开,其中,所述第一相机被配置以在所述对象的多个区域上扫描所述光扇时捕获所述视场的多个第一图像帧,每个所述第一图像帧包括当所述光扇照射所述对象的相应区域时的照射线的图像;和
处理器,其被耦合到所述第一相机并被配置以:
对于所述多个第一图像帧中的每一个:
确定相应第一图像帧中的所述照射线的位置;和
基于所确定的位置,确定从所述三维成像***到对应于所述相应第一图像帧的所述对象的所述相应区域的距离;和
基于从所述多个第一图像帧确定的从所述相机到所述对象的所述多个区域的多个距离,来构建所述对象的三维图像。
67.根据权利要求66所述的三维成像***,其中,所述照射源被配置以大约每秒扫描1次到大约每秒扫描20次的速率扫描所述光扇穿过所述视场,使得所述三维成像***以范围从约1图像/秒至约20图像/秒的图像速率操作。
68.根据权利要求66所述的三维成像***,其中,所述照射源包括:
激光源,其被配置以发射激光束;
光学元件,其被配置以将所述激光束转换为所述光扇;和
反射镜,其被配置以朝向所述对象反射所述光扇,其中,所述反射镜还被配置以被扫描,以横向地扫描所述光扇穿过所述对象。
69.根据权利要求66所述的三维成像***,还包括:
第二相机,其与所述照射源以第二基线距离横向分开,并且与所述第一相机以第三基线距离横向分开,其中所述第二相机被配置以当所述光扇在所述对象的所述多个区域上被扫描时,捕获所述视场的多个第二图像帧,每个所述第二图像帧包括当所述光扇扇照射到所述对象的相应区域时的所述照射线的图像;
其中,所述处理器被耦合到所述第二相机,并且还被配置以,对于所述多个第二图像帧中的每一个:
确定相应第二图像帧中的所述照射线的位置;和
基于所确定的位置确定从所述三维成像***到对应于所述相应第二图像帧的所述对象的所述相应区域的距离。
70.根据权利要求69所述的三维成像***,其中由所述第二相机看到的所述对象的所述多个区域中的一个区域对于所述第一相机是不可见的。
71.根据权利要求69所述的三维成像***,其中,所述处理器还被配置以,使用从所述多个第二图像帧确定的多个距离,来校准从所述多个第一图像帧确定的所述多个距离。
72.根据权利要求66所述的三维成像***,其被用在车辆中以用于障碍物检测。
73.一种三维成像***,包括:
第一照射源,其被配置以朝向视场中的对象投射第一结构化照射,当所述第一结构化照射照射所述对象时,所述第一结构化照射产生第一失真照射图案;
第二照射源,其被配置以朝向所述视场中的所述对象投射第二结构化照射,当所述第二结构化照射照射所述对象时,所述第二结构化照射产生第二失真照射图案;
相机,其与所述第一照射源以第一基线距离横向分开,并且与所述第二照射源以第二基线距离横向分开,所述相机被配置以捕获所述视场的图像帧,所述图像帧包括所述第一失真照射图案的图像和所述第二失真照射图案的图像中的至少一个;和
处理器,其被耦合到所述相机,并且被配置以基于所述第一失真照射图案的图像和所述第二失真照射图案的图像中的至少一个来构建所述对象的三维图像。
74.根据权利要求73所述的三维成像***,其中,针对预定距离分辨率选择所述第一基线距离,并且针对预定距离检测范围选择所述第二基线距离。
75.根据权利要求73所述的三维成像***,其中,所述处理器还被配置以:
基于所述第一失真照射图案的图像构建所述对象的第一三维图像;
基于所述第二失真照射图案的图像构建所述对象的第二三维图像;和
使用所述对象的所述第二三维图像校准所述对象的所述第一三维图像,以获得所述对象的所述三维图像。
76.根据权利要求73所述的三维成像***,其中:
所述第一照射源包括:
第一激光源,其被配置以发射第一激光束;和
第一衍射光学元件,其被配置以将所述第一激光束转换为所述第一结构化照射;和
所述第二照射源包括:
第二激光源,其被配置以发射第二激光束;和
第二衍射光学元件,其被配置以将所述第二激光束转换为所述第二结构化照射。
77.根据权利要求73所述的三维成像***,其中,所述第一结构化照射具有第一图案,并且所述第二结构化照射具有与所述第一图案不同的第二图案。
78.根据权利要求73所述的三维成像***,其中,所述第一照射源被配置为以预定频率调制所述第一照射图案,并且所述第二照射源被配置为以所述预定频率而不是以相对于所述第一照射图案的偏移相位来调制所述第二照射图案。
79.一种用于确定车辆速度的传感器,所述传感器包括:
光源,其被配置以照射车辆正行驶的地面;
相机,其实质向下指向地面并被配置以预定的帧率捕获被所述光源照射的所述地面的多个图像帧;和
被耦合到所述相机的处理器,所述处理器被配置以:
检测所述多个图像帧中的所述地面的一个或多个特征;和
通过逐帧跟踪所述地面的一个或多个特征来确定所述车辆的速度。
80.根据权利要求79所述的传感器,其中所述光源和所述相机被配置以安装到所述车辆的下侧。
81.根据权利要求79所述的传感器,其中,使用相关算法确定所述车辆的速度。
82.根据权利要求79所述的传感器,其中,所述处理器还被配置以通过逐帧跟踪所述一个或多个特征的方位的变化来确定所述车辆的变向率。
83.根据权利要求79所述的传感器,其中,所述处理器还被配置以通过逐帧跟踪所述地面的所述一个或多个特征的横向移动来确定所述车辆的转向轮的位置。
84.根据权利要求79所述的传感器,还包括罗盘、陀螺仪、惯性测量单元(EVIU)和全球导航卫星***(GNSS)接收器中的至少一个,用于确定所述车辆正行驶的方向,并且所述处理器还被配置以基于所述车辆的所述速度和所述车辆正行驶的所述方向来确定所述车辆的速率。
85.根据权利要求84所述的传感器,其中,所述处理器还被配置以:
当GNSS信号可用时,基于GNSS数据确定所述车辆的位置;和
当GNSS信号不可用时,基于所述车辆的所述速率确定所述车辆的所述位置。
86.根据权利要求79所述的传感器,其中,所述相机包括用于捕获所述多个图像帧的全局快门。
87.根据权利要求79所述的传感器,其中,所述相机包括用于捕获所述多个图像帧的滚动快门,并且所述滚动快门被定向成使得扫描方向实质垂直于所述车辆的纵向方向。
88.根据权利要求79所述的传感器,其中所述光源被配置以提供红外光或紫外光以照射所述地面。
89.一种确定车辆速度的方法,所述方法包括:
使用安装在所述车辆上的光源,照射所述车辆正行驶的地面;
使用安装在所述车辆上的相机,以预定的帧率捕获被所述光源照射的所述地面的多个图像帧;
使用耦合到所述相机的一个或多个处理器,检测所述多个图像帧中的所述地面的一个或多个特征;和
使用所述一个或多个处理器,通过逐帧跟踪所述一个或多个特征来确定所述车辆的所述速度。
90.根据权利要求89所述的方法,其中使用相关算法确定所述车辆的所述速度。
91.根据权利要求89所述的方法,还包括:使用所述一个或多个处理器,通过逐帧跟踪所述一个或多个特征的方位的变化来确定所述车辆的变向率。
92.根据权利要求89所述的方法,还包括:使用所述一个或多个处理器,通过逐帧跟踪所述地面的所述一个或多个特征的横向移动来确定所述车辆的转向轮的位置。
93.根据权利要求89所述的方法,还包括:
使用罗盘、陀螺仪、惯性测量单元(IMU)和全球导航卫星***(GNSS)接收器中的至少一个来确定所述车辆正行驶的方向;和
基于所述车辆的所述速度和所述车辆正行驶的方向确定所述车辆的速率。
94.根据权利要求93所述的方法,还包括:
当GNSS信号可用时,基于GNSS数据确定所述车辆的位置;和
当GNSS信号不可用时,基于所述车辆的所述速率确定所述车辆的所述位置。
CN201780039604.9A 2016-04-26 2017-04-03 三维成像*** Active CN109416399B (zh)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662327447P 2016-04-26 2016-04-26
US62/327,447 2016-04-26
US15/267,558 US10451740B2 (en) 2016-04-26 2016-09-16 Scanning lidar systems for three-dimensional sensing
US15/267,558 2016-09-16
US15/288,206 2016-10-07
US15/288,206 US10481266B2 (en) 2016-04-26 2016-10-07 Multi-range three-dimensional imaging systems
US15/389,368 US10754036B2 (en) 2016-04-26 2016-12-22 Scanning illuminated three-dimensional imaging systems
US15/389,368 2016-12-22
PCT/US2017/025785 WO2017189185A1 (en) 2016-04-26 2017-04-03 Three-dimensional imaging systems

Publications (2)

Publication Number Publication Date
CN109416399A true CN109416399A (zh) 2019-03-01
CN109416399B CN109416399B (zh) 2023-07-04

Family

ID=60088474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780039604.9A Active CN109416399B (zh) 2016-04-26 2017-04-03 三维成像***

Country Status (5)

Country Link
US (4) US10451740B2 (zh)
EP (1) EP3449274A4 (zh)
JP (2) JP7108308B2 (zh)
CN (1) CN109416399B (zh)
WO (1) WO2017189185A1 (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109991588A (zh) * 2019-04-29 2019-07-09 北京握奇数据股份有限公司 一种激光雷达扫描装置
CN110244318A (zh) * 2019-04-30 2019-09-17 深圳市光鉴科技有限公司 基于异步ToF离散点云的3D成像方法
CN111103297A (zh) * 2020-01-20 2020-05-05 无锡市建筑工程质量检测中心 一种建筑外墙面层质量的非接触式检测方法及其检测***
CN111381246A (zh) * 2018-12-27 2020-07-07 北京万集科技股份有限公司 激光雷达接收组件及激光雷达***
CN111751807A (zh) * 2019-03-27 2020-10-09 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法
CN111766949A (zh) * 2020-07-16 2020-10-13 腾讯科技(深圳)有限公司 三维图像显示设备、显示方法、电子设备以及存储介质
CN111896964A (zh) * 2019-05-05 2020-11-06 苹果公司 在倾斜界面后面使用衍射结构的LiDAR***的紧凑光学封装
CN111948659A (zh) * 2019-05-17 2020-11-17 三菱重工业株式会社 激光雷达装置、测定方法、测定程序和行进物体
CN112146627A (zh) * 2019-06-26 2020-12-29 极光飞行科学公司 在无特征表面上使用投影图案的飞行器成像***
JP2021028594A (ja) * 2019-08-09 2021-02-25 パイオニア株式会社 投受光装置、測距装置及び回動体装置
CN112684456A (zh) * 2020-12-22 2021-04-20 安徽配隆天环保科技有限公司 一种无人机超声立体成像模型***
CN113109789A (zh) * 2021-04-09 2021-07-13 深圳煜炜光学科技有限公司 一种多线扫描激光雷达装置及控制方法
TWI736965B (zh) * 2019-08-27 2021-08-21 新煒科技有限公司 校準三維相機深度之方法、裝置、電腦裝置及存儲介質
CN113534191A (zh) * 2021-07-26 2021-10-22 重庆连芯光电技术研究院有限公司 单光子激光雷达的3d图像扫描和修复方法、装置和设备
CN114585943A (zh) * 2019-10-02 2022-06-03 深瞳科技公司 用于检测lidar成像传感器中的串扰的技术
WO2022116517A1 (zh) * 2020-12-04 2022-06-09 上海禾赛科技有限公司 滤除雷达点云中的拖点的方法、处理器以及激光雷达***
CN115407478A (zh) * 2022-08-25 2022-11-29 苏州立创致恒电子科技有限公司 一种自适应检测距离的三维成像***及方法

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425357B2 (en) * 2015-02-13 2022-08-23 Carnegie Mellon University Method for epipolar time of flight imaging
US11972586B2 (en) 2015-02-13 2024-04-30 Carnegie Mellon University Agile depth sensing using triangulation light curtains
US11493634B2 (en) 2015-02-13 2022-11-08 Carnegie Mellon University Programmable light curtains
US11747135B2 (en) 2015-02-13 2023-09-05 Carnegie Mellon University Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US10451740B2 (en) 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
USD832845S1 (en) * 2016-08-01 2018-11-06 Hand Held Products, Inc. Optical scanner
DE102016220504A1 (de) * 2016-10-19 2018-04-19 Robert Bosch Gmbh 3D-LIDAR-Sensor
DE102016220468A1 (de) * 2016-10-19 2018-04-19 Robert Bosch Gmbh Lidar-Sensor zur Erfassung eines Objektes
US10684358B2 (en) * 2016-11-11 2020-06-16 Raytheon Company Situational awareness sensor using a fixed configuration of optical phased arrays (OPAs)
IT201700021559A1 (it) * 2017-02-27 2018-08-27 St Microelectronics Srl Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti
US11016178B2 (en) 2017-03-13 2021-05-25 OPSYS Tech Ltd. Eye-safe scanning LIDAR system
US10114111B2 (en) * 2017-03-28 2018-10-30 Luminar Technologies, Inc. Method for dynamically controlling laser power
US20180284246A1 (en) * 2017-03-31 2018-10-04 Luminar Technologies, Inc. Using Acoustic Signals to Modify Operation of a Lidar System
US10677897B2 (en) 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data
KR20220119769A (ko) 2017-07-28 2022-08-30 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
US10346994B2 (en) * 2017-07-29 2019-07-09 Verizon Patent And Licensing Inc. Systems and methods for inward-looking depth scanning of a real-world scene
US10317905B2 (en) * 2017-08-10 2019-06-11 RavenOPS, Inc. Autonomous robotic technologies for industrial inspection
US11460550B2 (en) 2017-09-19 2022-10-04 Veoneer Us, Llc Direct detection LiDAR system and method with synthetic doppler processing
DK3460518T3 (da) * 2017-09-22 2024-06-03 Leica Geosystems Ag Hybrid lidar-billeddannelsesenhed til luftfotoanalyse
JP7117092B2 (ja) * 2017-09-25 2022-08-12 株式会社トプコン レーザ測定方法及びレーザ測定装置
US11194022B2 (en) 2017-09-29 2021-12-07 Veoneer Us, Inc. Detection system with reflection member and offset detection array
US10921431B2 (en) * 2017-10-19 2021-02-16 Cepton Technologies Inc. Apparatuses for scanning a lidar system in two dimensions
USD848428S1 (en) * 2017-11-08 2019-05-14 Lee Seng Fook Hand held 3D scanning device
USD848429S1 (en) * 2017-11-08 2019-05-14 Lee Seng Fook Hand held 3D scanning device with feedback system
EP3710855A4 (en) 2017-11-15 2021-08-04 Opsys Tech Ltd. NOISE ADAPTIVE SOLID-STATE LIDAR SYSTEM
US11585901B2 (en) 2017-11-15 2023-02-21 Veoneer Us, Llc Scanning lidar system and method with spatial filtering for reduction of ambient light
US10816666B2 (en) * 2017-11-21 2020-10-27 Magna Electronics Inc. Vehicle sensing system with calibration/fusion of point cloud partitions
US11592530B2 (en) * 2017-11-30 2023-02-28 Cepton Technologies, Inc. Detector designs for improved resolution in lidar systems
DE102017221797A1 (de) * 2017-12-04 2019-06-06 Osram Gmbh Lidar-System zur Umfelderfassung und Verfahren zum Betreiben eines Lidar-Systems
CN109884656B (zh) * 2017-12-06 2021-05-28 北京万集科技股份有限公司 用于实现扫描视场分区的激光雷达及测距方法
CN109313822B (zh) * 2017-12-13 2020-04-10 广州艾若博机器人科技有限公司 基于机器视觉的虚拟墙构建方法及装置、地图构建方法、可移动电子设备
US11662433B2 (en) 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method
CN108254736B (zh) * 2017-12-31 2022-05-13 天津木牛流马科技发展股份有限公司 亚毫米级激光雷达
CN108241146A (zh) * 2018-01-15 2018-07-03 深圳市速腾聚创科技有限公司 激光雷达及提高激光雷达发射点频的方法
WO2019140792A1 (zh) 2018-01-17 2019-07-25 上海禾赛光电科技有限公司 一种探测设备及其参数调整方法
DE102018201508B4 (de) 2018-02-01 2021-03-18 Robert Bosch Gmbh Verwendung in einem LiDAR-System eines Verfahrens zum Betrieb eines LiDAR-Systems durch Aussenden von Laserlicht in Form von Laserpulsen
US10771690B2 (en) * 2018-02-10 2020-09-08 Goodrich Corporation Distributed aperture systems for obstacle avoidance
US11592527B2 (en) 2018-02-16 2023-02-28 Cepton Technologies, Inc. Systems for incorporating LiDAR sensors in a headlamp module of a vehicle
US20190285734A1 (en) * 2018-03-14 2019-09-19 Infineon Technologies Ag Detection system with configurable range and field of view
KR102604050B1 (ko) 2018-04-01 2023-11-22 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
EP3776129A4 (en) * 2018-04-03 2021-12-22 SharkNinja Operating LLC FLIGHT TIME SENSOR SYSTEM INTENDED FOR ROBOTIC NAVIGATION AND LOCATION PROCESS IMPLEMENTING SUCH A SYSTEM
US10694168B2 (en) * 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
KR102466555B1 (ko) * 2018-06-14 2022-11-14 현대모비스 주식회사 라이다 센서 및 그 제어 방법
DE102018131182A1 (de) * 2018-06-21 2019-12-24 pmdtechnologies ag Lichtlaufzeitkamerasystem mit einer einstellbaren optischen Ausgangsleistung
CN109116331B (zh) * 2018-06-27 2020-04-24 上海禾赛光电科技有限公司 一种编码激光收发装置、测距装置以及激光雷达***
US10466342B1 (en) 2018-09-30 2019-11-05 Hesai Photonics Technology Co., Ltd. Adaptive coding for lidar systems
US11822020B2 (en) 2018-07-10 2023-11-21 Cepton Technologies, Inc. Scanning lidar systems with moving lens assembly
US20200019192A1 (en) 2018-07-13 2020-01-16 Caterpillar Paving Products Inc. Object detection and implement position detection system
US10627516B2 (en) 2018-07-19 2020-04-21 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
DE102018118584A1 (de) 2018-07-31 2020-02-06 Blickfeld GmbH Fahrzeugscheinwerfer mit LIDAR-Modul
CN110850859B (zh) * 2018-08-01 2023-03-07 深圳市优必选科技有限公司 一种机器人及其避障方法和避障***
GB2579689A (en) * 2018-08-07 2020-07-01 Cambridge Mechatronics Ltd Improved 3D sensing
EP3627175B1 (de) 2018-09-19 2020-07-22 Sick Ag Optoelektronischer sensor und verfahren zur ablenkung eines lichtstrahls
DE102018216707A1 (de) * 2018-09-28 2020-04-02 Ibeo Automotive Systems GmbH Umfelderkennungssystem sowie Verfahren für ein Umfelderkennungssystem
JP7242234B2 (ja) * 2018-09-28 2023-03-20 キヤノン株式会社 光検出装置、光検出システム
US20200103504A1 (en) * 2018-10-02 2020-04-02 GM Global Technology Operations LLC Multiple photonic chip lidar system architecture
US11269065B2 (en) * 2018-11-19 2022-03-08 Infineon Technologies Ag Muilti-detector with interleaved photodetector arrays and analog readout circuits for lidar receiver
DE102018220227A1 (de) * 2018-11-26 2020-05-28 Robert Bosch Gmbh LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
KR20200066947A (ko) 2018-12-03 2020-06-11 삼성전자주식회사 라이다 장치 및 이의 구동 방법
US11423572B2 (en) 2018-12-12 2022-08-23 Analog Devices, Inc. Built-in calibration of time-of-flight depth imaging systems
US11374041B2 (en) * 2019-01-25 2022-06-28 Cepton Technologies, Inc. Systems and methods for imaging using mechanical scanning mechanisms
CN114942453A (zh) * 2019-03-08 2022-08-26 欧司朗股份有限公司 Lidar传感器***、用于该***的光学部件、传感器和方法
JP2020153798A (ja) * 2019-03-19 2020-09-24 株式会社リコー 光学装置、測距光学系ユニット、測距装置及び測距システム
JP2020153796A (ja) 2019-03-19 2020-09-24 株式会社リコー 測距装置、及び測距方法
JP2022526998A (ja) 2019-04-09 2022-05-27 オプシス テック リミテッド レーザ制御を伴うソリッドステートlidar送光機
CN110764099A (zh) * 2019-05-24 2020-02-07 Oppo广东移动通信有限公司 一种飞行时间传感器及计算机可读存储介质
EP3977159A4 (en) 2019-05-30 2023-03-01 Opsys Tech Ltd. EYE-SAFE LONG-RANGE LIDAR SYSTEM WITH ACTUATOR
US11754682B2 (en) * 2019-05-30 2023-09-12 Microvision, Inc. LIDAR system with spatial beam combining
US11796643B2 (en) 2019-05-30 2023-10-24 Microvision, Inc. Adaptive LIDAR scanning methods
US11828881B2 (en) 2019-05-30 2023-11-28 Microvision, Inc. Steered LIDAR system with arrayed receiver
EP3980808A4 (en) 2019-06-10 2023-05-31 Opsys Tech Ltd. LONG-RANGE EYE-SAFE SOLID-STATE LIDAR SYSTEM
KR20210003003A (ko) 2019-07-01 2021-01-11 삼성전자주식회사 라이다 장치 및 그 제어 방법
US11474218B2 (en) 2019-07-15 2022-10-18 Veoneer Us, Llc Scanning LiDAR system and method with unitary optical element
US11579257B2 (en) 2019-07-15 2023-02-14 Veoneer Us, Llc Scanning LiDAR system and method with unitary optical element
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11808858B2 (en) 2019-09-04 2023-11-07 Pony Ai Inc. Systems and methods for constructing and utilizing field-of-view (FOV) information
US11450083B2 (en) * 2019-09-27 2022-09-20 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
US11644303B2 (en) 2019-12-16 2023-05-09 Faro Technologies, Inc. Three-dimensional coordinate measuring instrument coupled to a camera having a diffractive optical element
KR20220110850A (ko) * 2019-12-20 2022-08-09 에이엠에스 센서스 아시아 프라이빗 리미티드 다중 범위 채널들을 갖는 lidar
WO2021126082A1 (en) * 2019-12-20 2021-06-24 Ams Sensors Asia Pte. Ltd. Eye-safe operation of lidar scanner
US20210199778A1 (en) * 2019-12-30 2021-07-01 Cepton Technologies, Inc Half and quarter lissajous scan patterns for lidar
KR20230104298A (ko) * 2020-01-22 2023-07-07 노다르 인크. 비-강성 스테레오 비전 카메라 시스템
US11427193B2 (en) 2020-01-22 2022-08-30 Nodar Inc. Methods and systems for providing depth maps with confidence estimates
JP2021148746A (ja) * 2020-03-23 2021-09-27 株式会社リコー 測距装置及び測距方法
DE102020110142A1 (de) * 2020-04-14 2021-10-14 Scantinel Photonics GmbH Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt
WO2022182653A1 (en) * 2021-02-23 2022-09-01 Neural Propulsion Systems, Inc. Lidar systems and methods with improved eye safety cross-reference to reuated appuications
US11326758B1 (en) 2021-03-12 2022-05-10 Veoneer Us, Inc. Spotlight illumination system using optical element
US11922799B2 (en) * 2021-04-17 2024-03-05 Charles R. Crittenden Apparatus and method for a warning system
EP4321897A4 (en) * 2021-04-29 2024-06-05 Huawei Technologies Co., Ltd. LASER DETECTION DEVICE AND CONTROL METHOD AND CONTROL DEVICE THEREFOR AND TERMINAL DEVICE
CN113189609A (zh) * 2021-05-31 2021-07-30 阿波罗智联(北京)科技有限公司 基座、路侧传感设备以及智能交通***
US11732858B2 (en) 2021-06-18 2023-08-22 Veoneer Us, Llc Headlight illumination system using optical element
DE102021208089A1 (de) 2021-07-27 2023-02-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben einer LiDAR-Einrichtung
CN115862336B (zh) * 2023-02-27 2023-06-02 云南省交通规划设计研究院有限公司 一种基于双激光传感器的车辆行驶参数检测装置
CN116973347B (zh) * 2023-07-19 2024-02-09 哈尔滨工业大学 一种基于slipi-3dlif的激发测量装置及应用

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070181810A1 (en) * 2006-02-06 2007-08-09 Tan Michael R T Vertical cavity surface emitting laser (VCSEL) array laser scanner
CN101419711A (zh) * 2008-12-15 2009-04-29 东软集团股份有限公司 一种估计车辆自运动参数的方法和装置
CN104459183A (zh) * 2014-12-24 2015-03-25 四川大学 一种基于物联网的单相机车辆测速***及方法
US20150120241A1 (en) * 2013-10-24 2015-04-30 Massachusetts Institute Of Technology Methods and Apparatus for Coded Time-of-Flight Camera
US20150124238A1 (en) * 2013-11-05 2015-05-07 Kohji Sakai Object detecting apparatus
JP2015203594A (ja) * 2014-04-11 2015-11-16 国立大学法人 東京大学 距離画像生成装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05288857A (ja) * 1992-04-13 1993-11-05 Nec Corp レーザレーダ装置
JPH0675047A (ja) * 1992-08-25 1994-03-18 Furukawa Electric Co Ltd:The 障害物探知光レーダ
US6629641B2 (en) * 2000-06-07 2003-10-07 Metrologic Instruments, Inc. Method of and system for producing images of objects using planar laser illumination beams and image detection arrays
US5852492A (en) * 1996-06-07 1998-12-22 Lockheed Martin Vought Systems Corp. Fused lasar range/intensity image display for a human interpretation of lasar data
JP3169074B2 (ja) 1998-09-25 2001-05-21 日本電気株式会社 レーザレーダ装置
JP2004505263A (ja) * 2000-08-01 2004-02-19 エスリング・ミルコ 距離及び/又は位置を測定する測定装置及び測定方法
JP2002181533A (ja) 2000-12-18 2002-06-26 Hitachi Ltd レーザ測距装置
KR100770805B1 (ko) * 2001-08-06 2007-10-26 지멘스 악티엔게젤샤프트 3차원 거리측정 이미지를 기록하기 위한 방법 및 장치
US6556282B2 (en) * 2001-09-04 2003-04-29 Rosemount Aerospace, Inc. Combined LOAS and LIDAR system
JP3986928B2 (ja) 2002-08-23 2007-10-03 本田技研工業株式会社 物体検知装置
US7095488B2 (en) * 2003-01-21 2006-08-22 Rosemount Aerospace Inc. System for profiling objects on terrain forward and below an aircraft utilizing a cross-track laser altimeter
US7236235B2 (en) 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US8085388B2 (en) 2005-02-01 2011-12-27 Laser Projection Technologies, Inc. Laser radar projection with object feature detection and ranging
DE102005034729B3 (de) * 2005-07-21 2007-02-08 Eads Deutschland Gmbh Verfahren und Lidar-System zur Messung von Luftturbulenzen an Bord von Luftfahrzeugen sowie für Flughäfen und Windfarmen
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US8493445B2 (en) * 2006-05-31 2013-07-23 Sigma Space Corp Scanner/optical system for three-dimensional lidar imaging and polarimetry
DE102007010236B4 (de) * 2007-03-02 2008-11-20 Toposys Topographische Systemdaten Gmbh Vorrichtung und Verfahren zur Entfernungsbestimmung mittels Lichtpulsen
US8027029B2 (en) * 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
US8119971B2 (en) * 2008-01-17 2012-02-21 Ball Corporation Pulse data recorder in which a value held by a bit of a memory is determined by a state of a switch
JP5288857B2 (ja) 2008-03-28 2013-09-11 熱産ヒート株式会社 誘導加熱装置
US9041915B2 (en) * 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
JP5570708B2 (ja) 2008-05-29 2014-08-13 オムロンオートモーティブエレクトロニクス株式会社 対象物検出装置
DE102008031681A1 (de) * 2008-07-04 2010-01-14 Eads Deutschland Gmbh LIDAR-Verfahren zur Messung von Geschwindigkeiten und LIDAR-Vorrichtung mit zeitgesteuerter Detektion
HUE039300T2 (hu) 2008-11-25 2018-12-28 Tetravue Inc Rendszerek és eljárások nagyfelbontású háromdimenziós képalkotáshoz
JP2010164463A (ja) 2009-01-16 2010-07-29 Mitsubishi Electric Corp レーザ3次元画像計測装置
US8797550B2 (en) * 2009-04-21 2014-08-05 Michigan Aerospace Corporation Atmospheric measurement system
US8810796B2 (en) * 2009-04-21 2014-08-19 Michigan Aerospace Corporation Light processing system and method
WO2011014712A2 (en) * 2009-07-29 2011-02-03 Michigan Aerospace Corporation Atmospheric measurement system
US8600606B2 (en) * 2010-02-11 2013-12-03 GM Global Technology Operations LLC Vehicle safety systems and methods
US8494687B2 (en) * 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
US9086488B2 (en) * 2010-04-20 2015-07-21 Michigan Aerospace Corporation Atmospheric measurement system and method
US8558993B2 (en) * 2010-05-21 2013-10-15 The National Institute of Standards and Technology, as Presented by the Secretary of Commerce Optical frequency comb-based coherent LIDAR
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US11313678B2 (en) * 2011-06-30 2022-04-26 The Regents Of The University Of Colorado Remote measurement of shallow depths in semi-transparent media
KR101908304B1 (ko) * 2012-08-10 2018-12-18 엘지전자 주식회사 거리 검출 장치, 및 이를 구비하는 영상처리장치
AU2013333803B2 (en) * 2012-10-17 2019-04-18 Cathx Research Ltd Improvements in and relating to gathering range and dimensional information underwater surveys
US9304203B1 (en) * 2013-03-13 2016-04-05 Google Inc. Methods, devices, and systems for improving dynamic range of signal receiver
US9609858B2 (en) * 2013-09-13 2017-04-04 Palo Alto Research Center Incorporated Unwanted plant removal system having variable optics
CN108243619B (zh) * 2015-11-09 2020-06-23 三菱电机株式会社 投射光学设备和前照灯装置
US10451740B2 (en) 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070181810A1 (en) * 2006-02-06 2007-08-09 Tan Michael R T Vertical cavity surface emitting laser (VCSEL) array laser scanner
CN101419711A (zh) * 2008-12-15 2009-04-29 东软集团股份有限公司 一种估计车辆自运动参数的方法和装置
WO2010069168A1 (zh) * 2008-12-15 2010-06-24 东软集团股份有限公司 一种估计车辆自运动参数的方法和装置
US20150120241A1 (en) * 2013-10-24 2015-04-30 Massachusetts Institute Of Technology Methods and Apparatus for Coded Time-of-Flight Camera
US20150124238A1 (en) * 2013-11-05 2015-05-07 Kohji Sakai Object detecting apparatus
JP2015203594A (ja) * 2014-04-11 2015-11-16 国立大学法人 東京大学 距離画像生成装置
CN104459183A (zh) * 2014-12-24 2015-03-25 四川大学 一种基于物联网的单相机车辆测速***及方法

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111381246A (zh) * 2018-12-27 2020-07-07 北京万集科技股份有限公司 激光雷达接收组件及激光雷达***
CN111751807A (zh) * 2019-03-27 2020-10-09 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法
CN111751807B (zh) * 2019-03-27 2023-05-23 先进科技新加坡有限公司 用于校准或测试成像装置的设备和方法
CN109991588A (zh) * 2019-04-29 2019-07-09 北京握奇数据股份有限公司 一种激光雷达扫描装置
CN110244318B (zh) * 2019-04-30 2021-08-17 深圳市光鉴科技有限公司 基于异步ToF离散点云的3D成像方法
CN110244318A (zh) * 2019-04-30 2019-09-17 深圳市光鉴科技有限公司 基于异步ToF离散点云的3D成像方法
CN111896964A (zh) * 2019-05-05 2020-11-06 苹果公司 在倾斜界面后面使用衍射结构的LiDAR***的紧凑光学封装
CN111896964B (zh) * 2019-05-05 2024-04-12 苹果公司 在倾斜界面后面使用衍射结构的LiDAR***的紧凑光学封装
CN111948659A (zh) * 2019-05-17 2020-11-17 三菱重工业株式会社 激光雷达装置、测定方法、测定程序和行进物体
CN112146627A (zh) * 2019-06-26 2020-12-29 极光飞行科学公司 在无特征表面上使用投影图案的飞行器成像***
CN112146627B (zh) * 2019-06-26 2024-01-09 极光飞行科学公司 在无特征表面上使用投影图案的飞行器成像***
JP2021028594A (ja) * 2019-08-09 2021-02-25 パイオニア株式会社 投受光装置、測距装置及び回動体装置
TWI736965B (zh) * 2019-08-27 2021-08-21 新煒科技有限公司 校準三維相機深度之方法、裝置、電腦裝置及存儲介質
CN114585943A (zh) * 2019-10-02 2022-06-03 深瞳科技公司 用于检测lidar成像传感器中的串扰的技术
US12007480B2 (en) 2019-10-02 2024-06-11 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in LiDAR imaging sensors with multiple light sources
CN114585943B (zh) * 2019-10-02 2023-07-14 深瞳科技公司 用于检测lidar成像传感器中的串扰的技术
US11899110B2 (en) 2019-10-02 2024-02-13 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in LiDAR imaging sensors
CN111103297A (zh) * 2020-01-20 2020-05-05 无锡市建筑工程质量检测中心 一种建筑外墙面层质量的非接触式检测方法及其检测***
CN111766949A (zh) * 2020-07-16 2020-10-13 腾讯科技(深圳)有限公司 三维图像显示设备、显示方法、电子设备以及存储介质
WO2022116517A1 (zh) * 2020-12-04 2022-06-09 上海禾赛科技有限公司 滤除雷达点云中的拖点的方法、处理器以及激光雷达***
CN112684456A (zh) * 2020-12-22 2021-04-20 安徽配隆天环保科技有限公司 一种无人机超声立体成像模型***
CN112684456B (zh) * 2020-12-22 2024-05-17 安徽配隆天环保科技有限公司 一种无人机超声立体成像模型***
CN113109789A (zh) * 2021-04-09 2021-07-13 深圳煜炜光学科技有限公司 一种多线扫描激光雷达装置及控制方法
CN113109789B (zh) * 2021-04-09 2024-07-09 深圳煜炜光学科技有限公司 一种多线扫描激光雷达装置及控制方法
CN113534191A (zh) * 2021-07-26 2021-10-22 重庆连芯光电技术研究院有限公司 单光子激光雷达的3d图像扫描和修复方法、装置和设备
CN115407478A (zh) * 2022-08-25 2022-11-29 苏州立创致恒电子科技有限公司 一种自适应检测距离的三维成像***及方法
CN115407478B (zh) * 2022-08-25 2024-06-25 苏州立创致恒电子科技有限公司 一种自适应检测距离的三维成像***及方法

Also Published As

Publication number Publication date
JP2022153439A (ja) 2022-10-12
US10754036B2 (en) 2020-08-25
EP3449274A4 (en) 2019-12-25
US20200096642A1 (en) 2020-03-26
CN109416399B (zh) 2023-07-04
US10481266B2 (en) 2019-11-19
US20170310948A1 (en) 2017-10-26
JP7108308B2 (ja) 2022-07-28
EP3449274A1 (en) 2019-03-06
US11300684B2 (en) 2022-04-12
US10451740B2 (en) 2019-10-22
US20170307759A1 (en) 2017-10-26
JP2019521314A (ja) 2019-07-25
WO2017189185A1 (en) 2017-11-02
US20170307758A1 (en) 2017-10-26
JP7332210B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
CN109416399A (zh) 三维成像***
CN107219532B (zh) 基于mems微扫描镜的三维激光雷达及测距方法
JP5688876B2 (ja) レーザスキャナ測定システムの較正方法
US9841503B2 (en) Optical ground tracking apparatus, systems, and methods
US11080872B2 (en) Device and method for indoor mobile mapping of an environment
Pfeifer et al. Laser scanning–principles and applications
JP4228132B2 (ja) 位置測定装置
ES2693785T3 (es) Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno
CN109557522A (zh) 多射束激光扫描仪
US9842407B2 (en) Method and system for generating light pattern using polygons
Puente et al. Land-based mobile laser scanning systems: a review
US20140313321A1 (en) Optical ground tracking apparatus, systems, and methods
KR20100019576A (ko) 거리 센서 시스템 및 방법
EP2824418A1 (en) Surround sensing system
CN108469618B (zh) 测绘装置和用于测绘装置的旋转单元的旋转体
AU2003286238A1 (en) Ranging apparatus
NO332432B1 (no) System for deteksjon og avbildning av objekter i banen for marine fartoy
WO1999060335A1 (en) Survey apparatus
Jasiobedzki et al. Laser eye: a new 3D sensor for active vision
US20220404471A1 (en) Pivotable mems device having a feedback mechanism
WO2022153126A1 (en) Synchronization of multiple lidar systems
Altuntaş Point cloud acquisition techniques by using scanning LiDAR for 3D modelling and mobile measurement
US20240241249A1 (en) Synchronization of multiple lidar systems
US11972586B2 (en) Agile depth sensing using triangulation light curtains
WO2011144458A1 (en) Imaging device for imaging a scene using time - of - flight and thermographic measurements

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant