CN105164549A - 用于机器人的多传感立体视觉的方法、***和设备 - Google Patents

用于机器人的多传感立体视觉的方法、***和设备 Download PDF

Info

Publication number
CN105164549A
CN105164549A CN201480022190.5A CN201480022190A CN105164549A CN 105164549 A CN105164549 A CN 105164549A CN 201480022190 A CN201480022190 A CN 201480022190A CN 105164549 A CN105164549 A CN 105164549A
Authority
CN
China
Prior art keywords
laser
imager
sensor
processor
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480022190.5A
Other languages
English (en)
Other versions
CN105164549B (zh
Inventor
C·C·奥斯特伍德
D·L·斯特罗瑟
D·A·拉罗斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aurora Operations Inc
Original Assignee
Uber Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Uber Technologies Inc filed Critical Uber Technologies Inc
Publication of CN105164549A publication Critical patent/CN105164549A/zh
Application granted granted Critical
Publication of CN105164549B publication Critical patent/CN105164549B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/55Details of cameras or camera bodies; Accessories therefor with provision for heating or cooling, e.g. in aircraft
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Image Processing (AREA)

Abstract

本发明的实施例包括适合用于机器人、导航、机器视觉、制造业及其它应用的多传感立体视觉传感器。在一些例子中,传感器包立体摄像机,其产生用于生成视差图的图像数据来确定场景中物体的位置和/或传感器自身的位置。该立体传感器可以包括图像传感器,其被固定于整体框架上来防止不希望的漂移,以及用于从处理器带走热量的导热板。该处理器可以提供一有效手段来在传感器上直接计算立体视差图。传感器还可以包括激光测距仪,该激光测距仪提供适用于校准该立体摄像机和在某些环境下改进其精度的距离数据。在一些例子中,该激光器耦接于主轴上,该主轴反过来由齿轮组通过滑动离合器驱动。

Description

用于机器人的多传感立体视觉的方法、***和设备
相关申请的交叉引用
本申请基于美国法典第35卷第119(e)节要求于2013年3月15日提交的、名称为“用于机器人的多传感立体视觉的方法、***和设备”的美国临时申请第61/792,468号的优先权,该临时申请的全部内容通过引用方式并入本申请。
背景技术
三维(3D)传感在许多领域和环境下很有用处。其允许机器人、自动车辆、以及远程控制车辆安全行驶和穿过地形,避开静态障碍物如树木、建筑和陡降,以及动态障碍物如人、动物和车辆。3D传感还能够允许绘制机器人本地环境的地图和绘制更大周围区域的较大规模地图。在工业环境下,在此描述的三维传感器可以在机器周围建立静态的或适应性的安全防护帘,和/或计数或检查移动穿过自动装配线或生产线的部件。
高更新率的立体数据可以被用于感测待与之交互的近程障碍物、目标或物体。如果被安装作为人形机器人的“头部”,立体摄像机能够执行与人眼所做的完全一样的任务——建立人形机器人前方的实时3D模型表示,以允许进行反应性抓取、路径规划、步骤规划、物体识别、物体跟踪以及许多其它方式的3D计算。
发明内容
本发明的实施例包括组合立体视觉/激光测距传感器,其适用于机器人、导航、机器视觉、制造业以及其它应用。在一些情况下,这些传感器包括具有扫描激光的立体摄像机,其被用于提供视频图像、立体图像以及从激光测距测量结果取得的图像。这些传感器可以被用于计算动作,由此随着传感器相对于其周围环境移动(或者周围环境变化),激光图像可以被不断的“拼接在一起”形成整体地图。另外,立体摄像机和激光测距仪可以被用于“自检”彼此的距离数据。这允许传感器检测某些种类的故障,且在一些情况下允许传感器自校准。
两个传感器可以具有补偿(offsetting)能力:激光测距仪可以在长距离(例如,大约0.5米到大约30米)以高准确度运行,具有相当低的数据速率(例如,大约43,000点/秒),且可以很好地感测所有或差不多所有的表面,但是在穿过空气中的障碍,比如灰尘,进行成像时可能会遇到一些麻烦。立体摄像机速度可以较快(例如,大于15,000,000点/秒),在短距离上运行(例如,大约0.5米至大约5.0米,以7.0cm为基线),当穿过空气中的障碍进行成像时表现更好,但是可能不能感测到无特征表面的距离。
在一些实施例中,激光脉冲在空间和时间上彼此同步且与外部时钟同步。另外,激光脉冲和摄像机图像可以相对于彼此准确地定时。这将有助于校准。这还使利用激光数据构建准确的3D模型成为可能,即使是在传感器运动的情况下:由摄像机图像进行的动作估计能够补偿在获取激光测距仪数据点期间传感器的移动。
传感器的实施例可以包括集成于单个单元的元件,建立该单个单元是为了耐受各种环境,包括极端温度、机械冲击、震动以及湿度。特别是,摄像机/透镜设计可以被构建成对抗由于温度变化和/或机械冲击引起的失准的漂移。类似的,用于处理传感器数据的立体算法和控制可以被调整成用于在具有挑战性的环境下运行,例如照明不足和糟糕的天气状况,以及灰尘和其它空气中的颗粒。
在一些实施方式中,包括那些适合于机器人应用的,传感器可以包括或可操作地耦接到惯性测量单元(IMU)。耦接至IMU的传感器执行姿态估计软件来向用于导航等的机器人提供姿态解决方案。该姿态解决方案可以从源自IMU、立体(例如,视觉测程法(visualodometry))、轮编码器(wheelencoder)、全球卫星定位(GPS)接收器和/或激光测距仪的数据中得出。
在一些实施例中,传感器内或与传感器耦接的处理器执行一个或多个校准算法,其使得传感器单元能够快速评估其校准的状态。如果该单元检测到失准时(例如,自动地),那么它可以重新调整其校准参数,以在被称为“自愈(selfhealing)”的过程中“修正”该校准。该单元可以提醒用户有关自愈的信息而不需要用户的干预。
一个示例性的传感器单元可以无需目标就能够被(例如,自动地)校准。通常,摄像机和激光器***使用特定的立于场景中的目标(例如,在三脚架上)来进行校准。例如,***可以检测场景中的一个或多个“好的”机会目标,并且自动校准立体摄像机和激光测距仪这两者。
本发明的实施例包括用于估计环境中一个或多个物体的位置(包括***自身的位置)的***和方法。在一个实施例中,***包括第一成像器、第二成像器以及与第一和第二成像器可操作地耦接的处理器。在运行中,第一成像器从第一视角获取环境的至少两幅参考图像,第二成像器从第二视角获取环境的至少两幅对比图像。处理器由至少两幅参考图像中的第一参考图像和至少两幅对比图像中的第一对比图像合成环境的第一视差图。处理器还由至少两幅参考图像中的第二参考图像和至少两幅对比图像中的第二对比图像合成环境的第二视差图。处理器至少部分地基于第一视差图来确定物体的位置的第一位置估计,并且至少部分地基于第二视差图来确定物体的位置的第二位置估计。
在一些情况下,处理器能够估计第一位置估计和第二位置估计之间的偏差。处理器还可以纠正第一位置估计和第二位置估计之间的偏差。例如,***可以包括激光器用于使用激光照明物体,以及传感器用于检测由物体散射和/或反射的激光并且基于检测到的激光提供表示至所述物体的距离的距离信号。处理器可以通过将距离信号与第一位置估计、第二位置估计或第一和第二位置估计这两者进行比较,以确定第一位置估计与第二位置估计之间的偏差。
本发明的其它实施例包括用于对环境中的一个或多个特征进行成像的***和方法。一个示例性的***包括第一成像器、第二成像器以及与第一和第二成像器可操作地耦接的处理器。在运行中,第一成像器从第一视角获取环境的至少两幅参考图像,第二成像器从第二视角获取环境的至少两幅对比图像。处理器由至少两幅参考图像中的第一参考图像和至少两幅对比图像中的第一对比图像合成环境的第一视差图。处理器还由至少两幅参考图像中的第二参考图像和至少两幅对比图像中的第二对比图像合成环境的第二视差图。处理器可以在第一视差图和第二视差图中识别特征,还可以估计在第一视差图和第二视差图特征出现位置之间的偏差。
本发明的实施例还包括用于检测激光的扫描光束的失准(misalignment)的***和方法。一典型***包括激光器(laser)、与激光器光学连通和/或机械连接的扫描仪、传感器、以及与传感器可操作耦接的处理器。在运行中,激光器提供激光光束,扫描仪扫描激光光束以提供激光的扫描光束。传感器检测从环境中的至少一个物体散射和/或反射的激光,以便提供表示被检测到的激光的第一测量结果的第一信号和表示被检测到的激光的第二测量结果的第二信号。处理器基于第一信号生成环境的第一表征,并且基于第二信号生成环境的第二表征。处理器估计第一表征与第二表征之间的至少一个偏差,并基于第一表征与第二表征之间的至少一个偏差确定激光器、扫描仪以及传感器中的至少一个的失准。在一些情况下,处理器在确定所述激光器、所述扫描仪以及所述传感器中的至少一个的失准过程中,补偿(accountfor)激光器、扫描仪、和/或传感器中在第一测量结果与第二测量结果之间的移动。
在一些实施例中,传感器包括立体成像传感器,并且处理器被配置成基于所述第一表征和/或所述第二表征来校准所述立体传感器。在这些实施例中,处理器能够至少部分地基于所述第一表征来估计所述激光器、所述扫描仪以及所述立体成像传感器中的至少一个的第一三维位置。处理器还能够确定所述激光器、所述扫描仪以及所述立体成像传感器中的至少一个的第二三维位置估计,并且基于所述第一三维位置估计和所述第二三维位置估计来估计至少一个偏差。
本发明的另一个实施例中包括用于校准多传感立体视觉***的方法,该多传感器立体视觉***包括立体成像器和测距仪。在一个实施例中,该方法包括利用合适的处理器或其它计算装置通过由所述立体成像器提供的视差图来确定出现在所述视差图中的物体的第一三维位置估计。处理器通过由所述测距仪的测量结果来确定所述物体的第二三维位置估计。处理器确定第一三维位置估计与第二三维位置估计之间的偏差,例如,通过将所述第二三维位置估计的坐标投影到由所述视差图限定的空间上,并且确定所述第二三维位置估计的坐标与所述第一三维位置估计的坐标之间的距离。处理器基于在第一和第二三维位置估计中的偏差校准所述多传感立体视觉***。
在一些情况下,处理器通过利用立体成像器获取从第一视角观察的场景的第一二维图像,并且利用立体成像器获取从第二视角观察的场景的第二二维图像来确定第一三维位置估计。处理器由所述第一二维图像和所述第二二维图像合成所述视差图。
测距仪的一些实施例包括激光测距仪。在这些实施例中,确定第二三维位置估计包括用激光照明所述物体,检测从所述物体散射和/或反射的激光,至少部分地基于检测到的激光确定所述第二三维位置。
本发明的另一实施例包括用于基于图像数据产生环境的视差图的处理单元。一个示例性的处理单元包括至少一个接口,用于从至少两个成像器接收图像数据;至少一个纠正处理模块,与所述至少一个接口可操作地耦接,用于纠正所述图像数据;至少一个立体处理模块,与所述至少一个纠正处理模块可操作地耦接,用于基于所述图像数据产生视差图。在一些情况下,所述纠正处理模块和/或所述立体处理模块在现场可编程门阵列中实现。
例如,接口可以包括第一接口和第二接口。在运行中,第一接口将所述图像数据的第一部分的第一串行表征转换成所述图像数据的第一部分的第一并行表征。第二接口将所述图像数据的第二部分的第二串行表征转换成所述图像数据的第二部分的第二并行表征。
立体处理模块可以基于半全局块匹配(semi-globalblockmatching,SGBM)算法、半全局匹配(semi-globalmatching,SGM)算法以及立体块匹配(stereoblockmatching)算法中的至少一个来产生所述视差图。在一些情况下,立体处理模块搜索视差空间的动态可再配置部。该立体处理模块能够被动态地重新配置以便在不同的分辨率下处理图像数据。处理单元也可以动态地改变帧频,至少两台成像器按该帧频获取图像数据。
在一些实施例中,纠正模块包括至少一个存储器-到-存储器(memory-to-memory)模块。存储器-到-存储器模块可以包括前端、与所述前端可操作地耦接的延迟线、与所述延迟线可操作地耦接的后端。在运行中,前端从存储器中取得所述图像数据。延迟线将至少一个图像处理指令存储等于或大于所述存储器的延迟的时间。后端至少部分地基于从所述存储器中取得的所述图像数据产生纠正的输出。
一些处理单元还可以包括至少一个预处理模块,其与所述至少一个接口可操作地耦接,用于预处理所述图像数据的并行表征。例如,预处理模块可以对所述数据的并行表征进行滤波、柱状图生成、线性化、晕影修正、去马赛克、白平衡、和/或色彩空间转换中的至少一个。
本发明的又一实施例包括激光扫描***和方法。一个示例性的激光扫描***包括激光器,与所述激光器机械地耦接的主轴(spindle),用于向主轴施加扭矩的齿轮,以及被压缩于所述齿轮与所述主轴之间的滑动离合器摩擦垫。在运行中,激光器产生激光光束。主轴使激光器绕第一轴旋转来扫描所述激光光束。齿轮向主轴施加扭矩。滑动离合器摩擦垫将由所述齿轮施加的所述扭矩的至少一部分传送到主轴,最多为阈值扭矩,并且在扭矩大于所述阈值扭矩时允许所述齿轮相对于所述主轴滑动。在一些情况下,所述阈值扭矩作为温度和施加于所述主轴的力的函数保持恒定。
激光扫描***还包括壳体,其容纳所述主轴、所述齿轮、以及所述滑动离合器摩擦垫的至少一部分。另外,激光扫描***还可以包括编码器,与所述主轴机械地耦接,用于测量所述主轴相对于所述壳体的位置。在一些情况下,齿轮为蜗轮,其与蜗杆相啮合,蜗杆用于驱动所述蜗轮且与电动机耦接,电动机旋转所述蜗杆来驱动所述蜗轮。激光扫描***还包括顺应式电动机安装部,与所述电动机机械地耦接,用于允许电动机的轴向和径向的运动。激光扫描***还包括滑环,与所述主轴机械地相耦接并且能够与所述激光器和电源进行电气连通,电源通过所述滑环与所述激光器进行电气连通,用于为所述激光器提供电力。
本发明的又一实施例包括立体视觉***和方法。一个示例性的立体视觉***包括整体框架,其限定至少一个安装面,而且可以由一单件材料组成,安装于安装面上的第一成像器,和安装于安装面上的第二成像器。立体视觉***还可以包括处理器,与所述第一成像器和所述第二成像器可操作地耦接,以及柔性电缆,用于将所述第二成像器耦接到所述处理器。第一和第二成像器可以被设置在同一平面上,平行的平面上,或者相交的平面上。可以用一个或多个螺栓和销将第一和第二成像器固定到安装面上。
在运行中,第一成像器从第一视角获取环境的第一图像,第二成像器从不同于第一视角的第二视角获取所述环境的至少一个第二图像。处理器由第一图像和第二图像产生立体图像数据。
本发明的又一实施例包括传感器***和方法。在一个例子中,传感器***包括至少一个传感器,限定空腔和至少一个外部表面的壳体,被设置于所述空腔内的内壁且与所述至少一个外部表面热连通的内壁,被设置于所述空腔内且与所述至少一个传感器可操作地耦接的处理器,与所述内壁和所述处理器热连通的导热材料。传感器提供传感器数据,处理器处理该传感器数据。导热材料将由所述处理器产生的热量通过所述内壁传导至外部表面,从而耗散由处理器产生的热量。
传感器也可以被设置于所述空腔内,而且可以包括第一成像器和第二成像器,两者都被例如,使用销和/或螺栓,安装于安装面上。第一成像器从第一视角获取环境的第一图像,第二成像器从与第一视角不同的第二视角获取环境的第二图像。
在一可替代的实施例中,传感器***包括传感器、壳体以及处理器。壳体限定空腔和且包括限定至少一个外部表面的至少一个壁。处理器被设置于所述空腔内紧贴于所述至少一个壁上且与所述传感器可操作地耦接。在运行中,处理器产生热量,该热量通过与所述外部表面热连通的一个壁从而被耗散。
本发明的一实施例包括立体视觉***和方法。在一实例中,立体视觉***包括:壳体,被设置于所述壳体内的第一传感器阵列,被设置于所述壳体内的第二传感器阵列,以及被设置于所述壳体内的光源。在运行时,第一传感器阵列通过所述壳体内的第一开孔从第一视角获取所述环境的第一图像,第二传感器阵列通过所述壳体内的第二开孔从与第一视角不同的第二视角获取所述环境的第二图像。光源通过所述壳体内的第三开孔照明所述壳体外部的环境。在一些实施例中,立体视觉***还包括第一透镜,被设置于第一开孔内且与所述第一传感器阵列光学连通,用于在所述第一传感器阵列上成像所述环境的第一部分,以及第二透镜,被设置于第二开孔内且与所述第二传感器阵列光学连通,用于在所述第二传感器阵列上成像所述环境的第二部分。
应当注意的是前述概念以及将在下面更加具体讨论的另外的概念(这些概念互相不冲突的情况下)的所有组合都将被认为是在此公开的本发明主题的一部分。尤其是,出现在本公开的权利要求书中的主题的所有组合都将被认为是本公开的本发明主题的一部分。还应当注意的是在此明确使用的也可能出现在通过引用方式合并进来的任何公开中的术语都应该具有与在此公开的特定概念最为相符的意思。
附图说明
本专利或专利申请档案包括至少一幅用彩色绘制的附图。基于请求和支付必要的费用后专利局可以提供带有彩色附图的本专利或专利申请的公开文本。
本领域技术人员可以理解这些附图主要是用于说明的目的,不是为了限制在此描述的发明主题的范围。这些附图不需要是成比例的,在一些情况下,本公开的发明主题的不同方面在图中可能被夸大地或者放大地显示以便于理解不同的特征。在附图中,相似的参考字符一般指的是相似的特征(例如,功能上近似和/或结构上近似的部件)
图1A示出了根据本发明的实施例的多传感立体视觉***,其包括装配于框架上的立体视觉传感器和装配于激光扫描设备上的激光测距仪;
图1B是为图1A中示出的根据本发明的实施例的多传感立体视觉***的框图;
图2A为根据本发明的实施例的立体传感头的透视图,其示出了用于使立体传感头与多传感立体视觉***的激光测距仪和/或其它部件相对准的定位销;
图2B和2C为根据本发明的实施例的立体传感头的透视图,其不包括用于激光器组件的对准定位销或其它附件;
图3A-3D为根据本发明的实施例的立体传感头的剖视图,该立体传感头具有整体框架、用于光源和立体摄像机的分开的开孔和透镜、内导热壁以及用于将热量从电子器件导出的导热板;
图4A和4B为根据本发明的实施例的立体传感头内部的光学部件组和传感器组件的剖视图;
图5A-5D为用于根据本发明的实施例的立体传感头的与电子组件相配合的光学组件的透视图;
图6A和6B分别为根据本发明的实施例的用于立体传感头的电子组件的主视图和仰视图;
图7A和7B分别为根据本发明的实施例的适用于多传感立体视觉***的可选的立体传感头;
图8A-8D为根据本发明的实施例的激光扫描仪和动力传动***的图;
图9A-9C示出了根据本发明的实施例的处理器(例如,现场可编程门阵列),其被配置成利用全局或半全局块匹配算法来处理立体数据;
图10为用于说明立体传感器校准过程的流程图;
图11为用于说明激光传感器(LIDAR)校准过程的流程图;
图12为用于说明从激光到立体传感器的校准过程的流程图;
图13A-13D示出了通过立体成像***中的左和右摄像机获取的四幅图像:由左摄像机获取的第一图像(图13A);由右摄像机获取的第一图像(图13B);由左摄像机获取的第二图像(图13C);由右摄像机获取的第二图像(图13D);
图14A示出了基于图13A和13B所示出了的图像的视差图;
图14B示出了基于图13C和13D所示出了的图像的视差图;
图15示出了由左和右图像(分别为左上和右上)在有和无输入图像信息(分别为左下和右下)时得到的视差图的合成;
图16A和16B分别示出了重叠在图14A和14B的视差图之上的图像数据;
图17A和17B分别示出了图14A和14B所示出的视差数据的3D投影;
图18A和18B分别示出了在有和无烟雾使传感器模糊时由激光点云数据和立体图像数据合成而成的图像。
具体实施方式
迄今为止,对于许多应用而言,3D立体***和3DLIDAR***太大、太重、且过于耗电。本发明的实施例从多个途径来解决这些问题,在一些实例中,其结果为足够小、足够轻且足够低耗电的3D传感器,该3D传感器可用于小型机器人、车辆、类人机器人以及其它在传感器尺寸、重量和耗电量上有限制的环境。与传统的传感器相比,例示的3D传感***能够提供相似或者扩展的传感性能,而其包装尺寸差不多要小一个量级且仅消耗差不多十分之一的电量。在一些实施例中,降低的耗电量和减小的尺寸是通过使用嵌入式FPGA、集成式装配、紧凑且高效的散热设计、以及紧凑、低耗能和自保护的动力传动系
该发明的传感器的实例将LIDAR和立体数据融合为单一的数据流,其特别适用于大区域绘图(largeareamapping)。LIDAR数据通常是准确的,但在一些时候不够密集,从而在环境中没有激光器位置的连续姿态估计的情况下难以拼接起来。立体数据通常足够密集,而且具有足够的帧速率来提供连续的姿态估计,无论是通过视觉测程法还是3D特征匹配和跟踪。另外,立体数据可以被用来检验和纠正LIDAR数据,反之亦然,结果可以得到在几何上更加精确、更加稳定、且鲁棒性更强的***,其能够作为独立的设备存在。
多传感立体视觉***
图1A和1B示出了例示的多传感立体视觉***100,其包括通过紧凑的、质量轻的激光扫描机械装置300机械地耦接到LIDAR的立体传感头200。***100还包括可见光和/或红外(IR)发光二极管(LED)400。如图1A所示,立体传感头200包括分别装配于视窗202a和202b(一并称为视窗202)之后的摄像机210a和210b(一并称为摄像机210)。立体传感头200还包括一对垂直安装的LED400,每个LED400安装在其自身各自的视窗内。
图1B为如图1A所示的立体视觉***100的框图。除了摄像机210之外,立体视觉***100还包括LED驱动模块410和处理模块500,这些模块直接通过适当的总线彼此可操作地耦接,还通过连接器102或者其它适当的总线耦接到一个或多个外部部件。LED驱动模块410包括保险丝兼滤波器412和12伏DC-DC转换器414,它们共同向主板500提供电能。多个LED驱动器402抽取经保险丝保护且经滤波的电能来分别驱动LED400。处理模块500包括处理器510,其在图1B示为现场可编程门阵列(FPGA)、存储器(未图示)、数据连接512、辅助输入和输出514、惯性测量单元(IMU)元件516以及功率监控器518。如本领域技术人员已知的那样,处理模块500还包括其它元件,比如专用集成电路(ASIC),其用于取代FPGA或者作为FPGA的补充。
图1B还示出了各摄像机210还包括各自的成像器212a和212b(一并称为成像器212),比如CMOSISCMV2000/4000传感器;各自的成像器印刷电路板(PCB)214a和214b(一并称为成像器PCB214);以及各自的视窗216a和216b(一并称为视窗216)。如图1B所示,摄像机210分别通过触发器和信号线路与处理单元500中的处理器510可操作地耦接。
立体摄像机组件
将印刷电路板(PCB)与传感器和光学组件进行销连接和对准(统一的光学边框/子组件)
制作立体***的一项挑战是随着时间推移仍可以保证校正模型的精确性。透镜或成像器的任何移位都可能会导致光学畸变或偏移,那时校正模型将不再与该单元的属性相匹配。这将导致左右图像的特征匹配困难,并且使得到的视差图不具有准确性和完整性。
传统上,立体摄像机具有分别装配于同一外壳上的摄像机。两个摄像机之间的对准通过螺栓、定位销或两者并用来保持。各摄像机内部的透镜与成像器之间的对准也通过螺栓、定位销或两者并用来保持。在每个这些位置上,存在由于外部冲击而导致元件移位并失去校准准确性的可能。
所发明的立体摄像传感器单元包含多种设计手段来防止成像器和透镜的移位。首先,单个光学子框架被用来替代分立式的组件装配。这意味着两个成像器和两个透镜都被直接安装于单个的机械部件上。这将使得比传统的分立式装配更加准确地初始装配,且随着时间推移更加准确地对准。
例如,由于成像器都用螺栓直接地固定于光学子框架的单一表面上,因此成像器将保证彼此处于同一平面内。传统的分立式装配可能使得一成像器在另一成像器之前或之后,或者以轻微的角度倾斜。尽管这些装配误差可以被考虑到***的校准模型中,并且从结果数据中消除这些影响,但是可能最好还是具有准确的透镜和成像器对准。
此外,随着时间推移,与分立式装配相比,光学子框架将保持更好的校准准确性。这是由于减少了透镜与成像器之间以及左和右透镜/成像器对之间的螺栓或定位销的数量。由于连接数量的下降,***将变得更为坚固,并且随着时间推移装配和对准更加稳定。
图2A为立体传感头200的透视图,且示出了传感头的外部壳体204,壳体204可以用塑料、金属、或其它适当的材料制成。壳体204可以是模塑的或是由单件材料机械加工的或是由多件构成的。壳体204包括定位销206a和206b(一并称为定位销206),其***到位于激光扫描机构300上的接受器(未图示)之中,和/或其它的用于将立体传感头200对准到激光扫描机构300上的特征(图1A)。壳体204还可以限定密封通道208或其它的开孔,其用于从传感头200到外部电源、处理器、存储器、天线、通信接口、或者其它的电子和/或机械组件的布线。
图2B和2C示出了立体传感头250的视图,其不包括对准定位销或用于激光器组件的其它附件。像如图2A所示的立体传感头200那样,立体传感头250包括壳体254,其可以是模塑的或是由单件材料机械加工的或是由多件构成的。当装配好后,壳体254限定一空腔来容纳摄像机210、相连的电子器件(未图示)、摄像机210用的开孔、光源、电源/数据连接器102、以及LED连接器。
图7A和7B示出了一可选的立体视觉***700,其具有与如图2A所示的壳体204相比更宽大的壳体704。壳体704可以由静态O形环所密封,在其后面板上具有氮气吹扫阀和/或压力阀。壳体704包括托架706,其具有硬体的、键锁(keylocking)***接口(也可在图2C中从窄壳体204的左和右后边缘看到)和用于精确定位的定位销。该壳体704还包括一对视窗702a和702b(一并称为视窗702),其分别用于摄像机710a和710b(一并称为摄像机710)。这些摄像机710可以通过一个或多个柔性带状电线与处理器耦接,该柔性带状电缆连接到连接器720a和720b。如在其它的实施例中,视窗702可以由具有低光学畸变的抗冲击玻璃或塑料制成。然而在这种情况下,视窗702和摄像机710被分开得更开,以提供更宽的基线,这样反过来能够改进3D景深准确性和提高可用的范围。另外,壳体704容纳有四个LED阵列712,其位于视窗714之后,水平分布在摄像机710之间。这些LED阵列712可以提供可见光照明、IR照明、或可见光和IR组合照明用以改进成像保真度和精确聚焦调节。
导热板用于从现场可编程门阵列传导热量
***最大的热产生源为处理器510,其可以包括主处理现场可编程门阵列(FPGA)或专用集成电路(ASIC)。如果不进行适当的冷却,处理器510可能会过热,并且如果***在高环境温度下运行的话可能会导致实体损害。由于处理器510位于密封的壳体之内,因此从处理器510移除热量将具有挑战性。
图3A-3D示出了传感头200的剖视图。这些视图示出了电子装配600(在图6A和6B中示出了更具体的细节),其包括处理单元500、成像器212、以及成像器PCB214。如图3A和3C所示,整体框架240将成像器212保持相对于它们各自的光学***(图4A所示的透镜230)的适当位置。整体框架240可以是机械加工的、塑模的、或者由单件材料(例如,单件的塑料或金属)制造而成,该材料具有具对较低的导热系数以确保成像器212彼此对准,从而避免温度波动影响立体成像精度。框架240可以具有分散的在同一平面内的安装面260或者单一连续的安装面,其用于用螺栓固定成像器212和它们的附接PCB214。将成像器212和成像器PCB214用螺栓和销固定在单一整体框架240上同一平面的安装结构260上,能够改进成像器212的安装精度和安装稳定性,由于随着时间推移***的校准更加精确,从而可以得到更高质量的3D数据。在某一实施例中,为了使成像器212和光学***之间获得更高的对准精度,电子装配600被直接安装到整体框架240上。
图3A-3D也示出了在处理器510(例如ASIC或FPGA)和集成到壳体204内的导热壁280之间的导热板282。该内壁280不直接暴露于外部环境,而是壳体204的一部分,其中壳体204具有许多外部表面。这样,热量从处理器510通过板282而加热内壁280。热量流经该壁280传导至壳体204的其它部分,从而通过其许多外表面将热量耗散至外部环境中。在一些情况下,外部壁可以包括用于提高热量耗散的一个或多个散热片724(图7B)。总之,该设计在热量源(例如,处理器510)与外部环境之间创造了一条低阻抗的热通路。其不需要任何主动冷却手段如风扇,并且能够保持***的整体密封性。在其它的实施例中,壳体204可以被配置成使处理器510紧靠在外壁上,从而减小从处理器510到外部空气的热通路的长度。
用于立体视觉的光学组件
图4A、4B以及5A-5D示出了立体传感器200内的摄像机210中的一个光学组件220的多种视图。如图4A所示,光学子组件光学***220包括一个或多个透镜230和/或其它光学元件,其用于将景像成像到成像器212上。光学组件220还包括定制视窗(customwindow)202,通过使用O形环密封件222将定制视窗202相对于壳体204放置。泡沫226阻挡光线并且防止能够降低图像质量的反射,聚焦垫片228将透镜230保持在相对于壳体204和成像器212的适当位置。定位销262将各成像器212对准到整体框架240上,并用螺栓264将成像器212锁紧到整体框架240上。
用于光源和传感器透镜的分开的视窗
如图7A和7B所示,立体传感头700可具有分开的光学视窗,用于成像器光学***和***照明。向外的照明可能会部分地从视窗反射进容纳光源(例如,发光二极管)的空腔内,或者由视窗本身所吸收。这些在视窗内的照明损失将照亮灰尘、水汽、尘土、或任何其它碎屑——甚至是与光线的出射位置直线偏移的碎屑。因此,处于与成像光学***相同视窗之后的光照明将照亮***透镜的视场内的碎屑,这将导致与未被照明的碎屑相比更多的场景干扰。为了防止照明损失降低图像质量,该***使用了分开的视窗置于透镜和照明之前。
置于照明光源(LED712)之前的视窗714可以被毛玻璃化,以使光线扩散到一定角度。毛玻璃化可以减轻阴影的锐度并且导致发射的光线更加柔和不刺眼,还可以减少光线分布中的“热点”。通过提供更加均匀的照明和减小阴影,扩散光能够使立体算法更加容易地从左向右匹配各种特征。
光照
***照明的视场非常接近地匹配透镜和成像器的视场。这意味着***无需浪费能量去照亮用户或立体摄像机无法光学可见的场景。因此,***的能量效率更高。
***可以包括提供可见光照明、红外照明或兼具可见光和红外照明的光源。成像器是IR感光的,IR照明的选择能够允许***在没有可见光的夜间运行。
可分离的成像器基板允许各种基线(baseline)
图6A和6B示出了电子组件600的更加具体的细节。电子组件600包括成像传感器阵列212、成像传感器PCB214、以及处理单元500。这些元件都机械地、热地以及电气地耦接到主逻辑PCB290上,其还支持向有源电子元件提供电能的电源292以及名种数据和电源连接294。如图6A所示,PCB290可以相当小,长仅大约4英寸,高大约2英寸。
成像器印刷板(PCB)与主逻辑PCB290和处理器PCB(处理模块)500相分离,这将允许更加紧凑地***封装,以及更加容易适应新的***基线(几何尺寸)。与将成像PCB214直接插接到主逻辑PCB290上不同,如图6A和6B所示,一个或两个成像器PCB214可以通过柔性带状电缆或者其它合适弯曲的、可扩张的或可伸缩的连接器与主逻辑PCB290相连接。例如,图7B示出了用于通过柔性带状电缆将成像器(未标记)耦接至主逻辑PCB290的连接器720a和720b。这些电线可以被制成不同的长度,从而允许***基线从数英寸变换至数英尺(例如,6-10英尺)。处理器逻辑500基于处理器510与左和右摄像机210之间的电气长度的差异而略微变化。考虑到电气长度差异,处理器510可以在向稍近的摄像机(例如,摄像机210b)发送触发信号之前(例如,早数纳秒),向稍远的摄像机(例如,摄像机210a)发送触发信号,从而摄像机能够在同一时刻接收到各自的触发信号。另外,处理器(FPGA)510上的时钟恢复逻辑单元可以进行类似地调整以补偿左和右摄像机210之间的时钟偏差。在具有足够宽的基线来支持以下这种配置的立体传感头内,成像器212还可以被直接安装在主逻辑PCB290上而不使用柔性电缆和/或专用的成像器PCB。
激光测距仪和激光扫描机构
图8A-8D示出了紧凑且轻质的激光扫描机构300,其在低能耗(例如,大约2瓦至大约15瓦)、低转速(例如,0至60rpm)以及低主轴反冲(spindlebacklash)(例如,大约0.1度至大约0.5度)的状态下运行。在运行过程中,激光扫描机构300绕第一轴3摆动或连续转动激光器310,以扫过或扫描从激光器310发射的平面激光束(例如,最高至大约180或270度),从而由普通的2D激光距离传感器(rangesensor)创建3D距离(3Drange)的部分球体。激光束可以是对于眼睛安全的波长(例如,在光谱的近红外部分的波长,比如950nm)且功率足够高以产生可靠地可检测的回波,而又不产生危害。光斑尺寸和光束发散角可以选择为在光学领域所公知的能够确保准确测距的范围。
激光扫描机构300包括位于外部环境与机构空腔321之间的第一密封件380,和位于机构空腔321与电子装置空腔323之间的第二密封件337。其还可以提供连续的主轴旋转同时允许电气穿过(图8B中的电线通道360)。扫描机构300以及其齿轮组被保护而不受外部负载影响,特别是可能导致小齿轮齿损坏的震动或冲击。
在一实施例中,扫描机构300包括单级蜗杆减速齿轮。得益于在单一啮合中的高机械减速(例如,50:1),可以获得低反冲。悬浮式蜗杆330提供优于标准蜗杆动力传动***的改善的反冲,这是因为其允许在该组件被螺栓固定于恰当的位置之前对齿轮的位置进行调整,其中反冲是指机构的部件之间的活动度(degreeofplay)。该悬浮式蜗杆330包括具有电动机352、蜗杆轴331、密封轴承340的子组件332,以及容纳子组件332和其它部件的壳体370。子组件332被安装至传感器单元内,并且其蜗杆330与一大蜗轮324相啮合。反冲可以通过子组件332的左右、上下的微小移动来进行调整。一旦反冲被减小或最小化,子组件332将被一个或多个蜗轮安装螺栓334锁定。
扫描机构300包括顺应式电动机安装部350,轴331上的两个轴承,以及电动机轴上的两个轴承,该电机动轴被压入至轴331内。在运行时,顺应式电动机安装部350将防止轴331的过紧约束。该顺应式电动机安装部350允许电动机和电动机轴在轴向和径向移动,但是抗拒转动且允许扭矩传送至蜗杆轴331。该顺应式电动机安装部350可以由钢铁、塑料或其它适当的材料制成。
为了保持容纳蜗杆330和蜗轮324的机构空腔321与容纳电动机352的电子装置空腔323之间密封,扫描机构300包括:在主轴322上的密封轴承;在悬浮式蜗杆子组件332上的密封轴承;以及静态筒密封,该静态筒密封被设计于悬浮式蜗杆壳体336之内,用以密封主壳体370同时仍然允许悬浮式蜗杆装配332可以被轻微移动,以允许反冲调整。另外,滑环326被嵌入于***的空的主轴332内,以便能够进行连续的机械转动且使电气穿过。
在存在外部扭力的冲击或震动负荷的情况下,蜗轮324中的滑动离合器325能够保护蜗轮的齿和蜗杆的齿免于机械损害。滑动离合器325包括摩擦垫328,其如三明治那样被夹在主轴322与蜗轮330之间,一个或多个弹簧388,其将蜗轮324压向摩擦垫328,以及一系列的垫片(垫片组386)和轴承,其压缩弹簧388。摩擦垫328可以由玻璃纤维、G10Garolite热固性环氧树脂材料、刹车片材料、或任何其它具有高摩擦、低或不可压缩、高表面耐久性、以及强度(以防止磨损)的材料制成。小于蜗轮324、摩擦垫328和主轴322之间的旋转牵引的旋转负荷能够被传送通过该***,如同所有部件都被刚性地用螺栓固定在一起那样。但是较大旋转负荷会导致蜗轮324相对于主轴322开始滑动,因此蜗杆330和蜗轮324的齿将不会受到高负荷甚至冲击负荷。在***处于加电状态运动时和***断电时,该滑动离合器运行。一旦高负荷的情形消除,齿轮组将恢复正常转动,如同没有发生任何事情一样——无需更换、重置或修理任何部件。
图8C和8D示出了动力传动***还可以包括编码器安装部390和轴绝对位置编码器392,其用于测量主轴的位置以便准确的将激光数据投影到3D空间。定制(custom)编码器安装部390包括凸缘,其被用螺栓固定和装配于主轴322。轴绝对位置编码392包括穿孔的或被标记的环,其如三明治那样被夹在用户编码器安装部390和主轴322之间。在运行中,光电二极管或其它传感器感应到轴绝对位置编码器392上的标记,从而来提供主轴的角位置的指示。
处理器实现方式
图9A-9C示出了处理器510的实现方式,其使用适合用于本发明传感器单元的FPGA或ASIC。该处理器实现方式包括一个或多个成像器接口520a和520b(一并称为接口520),其耦接至立体摄像机200的成像传感器210。预处理模块522a和522b(一并称为预处理模块522)通过低压差分信号(LVDS)线从成像传感器210接收串行数据(serializeddata),并将此串行数据转换成标准的并行表示,其用于其它的处理通道(pipeline)。成像器接口520执行动态时钟/数据整。它们还负责锁定于输入串行数据的已知格式,并检测串行数据的错误。
如图9B所示,预处理模块522还可以被配置成执行各种预处理任务中的任何一个,包括但不限于:
-降噪:去除固定模式噪声(模块902)和滤除随机噪声(模块914);
-生成柱状图用于削波、黑电平检测、自动曝光、自动增益等(模块904);
-线性化:从高动态范围(HDR)空间(如果HDR被激活)转换成线性强度空间(模块906);
-晕影修正(vignettecorrection):修正由透镜引起的图像的昏暗边缘/角落(例如,基于存储于查询表的数据)(模块908);
-去马赛克:将拜尔彩色图像转换成全彩色图像,例如,利用(”使用基于预置的可变梯度数的插值”算法(VNG))"InterpolationusingaThreshold-basedvariablenumberofgradients"algorithm(VNG):http://scien.stanford.edu/pages/labsite/1999/psych221/projects/99/tingchen/algodep/vargra.html(其全文通过引用方式并入本申请)(模块910);
-色彩空间转换:将传感器的RGB色彩空间转换成标准色彩空间以用于流水线使用(例如,RGB或CIELAB)(模块912);
-白平衡:调整色彩来匹配场景照明(模块912);以及
-滤波/子采样:通过平滑处理降低图像分辨率然后进行子采样(例如,如果用户要求低于最高分辨率)(模块916)。
如图9C所示,处理器510还可以纠正来自摄像机210的数据,例如,使用用于各摄像机的单独的纠正模块,或者由左右立体摄像机共享的单个存储器-到-存储器(memory-to-memory)模块524。该纠正存储器-到-存储器模块524可以具有其自身的到直接存储器(DMA)总线590的连接(预处理还可以直接连接到DMA总线)。为了节约处理器资源,单个纠正模块524由左右图像路径所共享。
纠正模块524转换图像数据来消除任何由透镜引入的畸变。打包的指令流被用来对输入像素坐标进行高效编码,编码为夹杂有少量绝对坐标的相对坐标序列。指令编码器952通过DMA总线590从存储器514读取该指令流,并将其解码成全部是绝对像素坐标的序列。其它实施例可以直接由校准参数动态地产生,以便于通过移除指令流来节省存储带宽,并且允许调整校准而不需要重新生成全部的指令流(其为耗时的流程)。
如图9C所示的纠正模块524的实现方式使用双线性插值来对源图像进行采样,依靠缓存来改进存储器访问效率。一个多段的缓存964可以允许所有的四个输入像素(针对双线性插值所需)同时被读取。该设计是完全流水化的,并且能够支持接近1像素/周期的吞吐数据量。缓存标记查找与缓存数据读取之间的延迟线允许在数据被实际需要之前解决缓存遗漏。
在一些实施例中,延迟线可以是先进先出(FIFO)指令缓冲器960,其被设置于纠正模块524的前端954和后端958之间。前端954从指令解码器952接收像素坐标,为一给定的输出像素确定输入像素,然后检查纠正模块524的缓存标记956来确定那些输入像素是否已经在纠正模块的缓存964中。(缓存标记956跟踪当前在缓存961中的是什么,由此:1)前端954知道向DMA控制器962发送什么请求;2)DMA控制器962知道什么时候不再有未处理指令,该未处理指令参考特定的缓存表项,因此其可以安全的改写该表项;3)后端958知道DMA控制器962什么时候已经结束了向缓存964中调取新的表项。)如果那些输入像素不在纠正模块的缓存中,那么前端954将通过DMA总线590指令DMA控制器962来向主存储器514发出一个或多个读取请求以便调取缺失的像素。后端958使用该输入像素(它们中的四个用于双线性采样)来生成一个输出像素。由于主存储器可能比较慢(例如,其可能具有超过100周期的延迟),且不希望后端958失速(例如,因为所期望平均吞吐数据量可以接近1像素/周期以便保持通道平稳运行),因此期望对主存储器隐藏有关调取丢失像素的延迟。
在一些实施方式中,纠正是一个非常有序的处理,没有分支或象素间的依赖关系,因此隐藏存储延迟可以通过延迟从前端到后端的指令来实现。例如,指令可以用延迟线(FIFO缓冲器960)来延迟一段时间,该段时间可以等于或者大于最坏情况下的存储延迟,由此来确保在后端需要新数据之前已经完成存储器的读取。
处理器510还利用立体算法模块592实施适当的立体处理算法来将来自摄像机的经过预处理、纠正过的数据转换成立体图像。例如,处理器510可以利用开源核心实施立体块匹配(StereoBM)算法(详见,例如,http://danstrother.com/2011/06/10fpga-stereo-vision-core-released/,其全部内容通过引用方式并入本申请)。还可以实施半全局块匹配(SGBM)算法、半全局匹配(SGM)算法(详见,例如,http://www.dlr.de/rm/en/PortalData/3/Resources/papers/modeler/cvpr05hh.pdf,其全部内容通过引用方式并入本申请),或者任何其它适当的立体算法。
在一些情况下,立体处理模块592可以被动态地重新配置成允许其处理不同分辨率的图像输入(如期望或必须的,处理由图9B所示的预处理流水线所生成的未缩放的或经缩放的图像)。较高分辨率的输入产生较多的3D点和更高的景深精确度,但是需要更多的处理。立体处理模块592还可以被动态地重新配置成搜索不同的视差范围(空间)。较大的视差搜索范围可以导致较大的景深范围,但是要求更多的处理。立体处理模块592可以独立地补偿调整过的图像宽度、图像高度、以及视差搜索范围。能够动态地调整图像分辨率和视差搜索范围允许立体处理模块592执行分辨率、范围、以及帧速率之间的实时平衡。需要提醒的是立体处理模块592自身不需要负责缩放图像数据,图像缩放可以在图9B所示的预处理流水线中进行。
动态重新配置搜索了的视差范围的能力允许处理器510调整3D景深被搜索了多少。(大一些的视差搜索范围导致能够可靠地感测更接近于摄像机的物体,代价是计算量的增加)。搜索的景深/视差量一般从无限远延伸回到传感器(0视差代表无限远,增加的视差表示逐渐靠近的点)。随着视差搜索范围的增加,搜索的景深空间的近端变得更接近传感器。
另外,处理器510可以包括输出格式化模块572,在通过以太网连接(EthernetMAC560)传送之前,输出格式化模块572将标准通道格式转换成用户所要求的格式(例如,色彩空间、分辨率、字节格式)。处理器510还可以包括网络协议卸载模块570,其从中央处理单元(CPU)542卸载网络包的产生。处理器510可以包括特征检测模块(附加的算法模块594),其利用HarrisCorners算法或其它任何适当的算法在图像中检测“特征”(例如,相当独特且易于在多个帧中追踪的点)。并且它可以包括与特征检测模块相耦接的特征追踪模块,其接收被检测到的特征并试图在不同的帧之间对它们进行匹配。通过知道特征是如何在各帧之间移动的,能够估计出摄像机的动作。
正如那些本领域技术人员所知道的那样,固件可以设置并监测以FPGA逻辑中实现的图像处理通道。示例性的硬件可以在FPGA内的简单的软核CPU(XilinxMicroblaze)542上运行。标准Xilinx提供的***设备可以被用来建立***的其它部分,包括:DRAM控制器564、AXIDMA总线、以太网MACs560、以及低速输入/输出(I/O)驱动540,其耦接到辅助的I/O源(例如,I2C、RS232、等)。
传感器校准
校准误差的检测
可靠性的一个方面是能够检测***误差并恰当地应对。现场传感器的***误差源——尤其是在包括摄像机的传感器中——是校准漂移。冲击、震动以及热效应都可以影响内部部件的相对位置,从而导致(极有可能是不希望的)传感器的几何结构和成像参数的改变。为了补偿这些校准误差,***可以如下述那样恢复一个或多个下列的一组参数:描述立体摄像机的投影几何结构和透镜畸变的参数;描述激光扫描仪相对于主轴的位置和方向的参数;描述主轴相对于立体摄像机的位置和方向的参数。
图像一致性评估:立体摄像机的投影几何结构和透镜畸变
在本发明的传感器单元中的摄像机可以被校准来建立所观察的物体的3D位置和被投影在左右图像中的2D位置之间的已知关系。当物体的投影位置与所期望的不一致时,其指示校准出现了问题。例如,当摄像机被正确地校准时,场景中的物体将出现在左右图像中的相同扫描线上。通过观察图像在左右图像中出现在不同的扫描线上,***能够检测出校准漂移。类似地,当摄像机被正确地校准时,远距离的物体将出现在各个图像的相同的左-右位置上。随着物体向摄像机移近,它们将出现在两幅图像中的不断增加的不同左-右位置上。在左-右位置上的不同被称为立体视差。在校准准确性的一次检查中,用户可以被指示去用摄像机对准远距离的地方,那么远离0的视差将指示校准误差。如下文所述,由立体图像对测量得到的物***置(以及物***置上的不同)还可以与激光测距仪测量的物***置相关联。
图10示出了校准立体摄像机的过程1000。在模块1002中,一个或多个静止的基准点被放置或识别在特定的环境里。一旦基准点就位,***将被移动通过一系列的位置和方向,在模块1004中称为“姿态”,例如,使用一工业机械人的末端臂(endeffector)。在各姿态中,得到的摄像机图像将被检查以便确定静止基准点的图像位置(模块1010)。各姿态和观察到的图像位置的组合对应于投影方程1008。
在立体校准过程1000中收集到的数据可以被用来估计未知的参数,包括在世界坐标系(worldcoordinates)中的基准点位置,摄像机相对于机器人的末端臂的位置和方向,摄像机投影几何结构,以及透镜畸变。在立体校准过程1000中已知的参数为基准点在图像中被观察得到的位置,以及机器人末端臂在世界坐标系中的位置和方向。未知的参数可以被恢复,通过集合多个这样的投影方程并求解最接近于匹配观察的未知参数——例如,利用非线性最小二乘法或类似的优化。
激光器稳定性评价:激光扫描仪相对于主轴的位置和方向
如上所述并如图1A和8A-8D所示,本发明的一个示例性传感单元可以包括激光测距仪,其具有一激光器能够绕激光器主轴连续旋转。这意味着激光测距仪对场景的大多数部分测量两遍:一次是在激光束扫描过去时由激光束的左侧进行,而接着180度之后激光束的右侧通过时进行。如果激光器校准是正确的,这两组测量将会对齐。不对齐则意味着校准较差且可以被用于对传感器单元进行重新校准(修复)。
图11示出了LIDAR校准过程1100,其采用非线性优化来恢复激光扫描仪相对于主轴的位置和方向。在这种情况下,***在一固定场景中被保持静止,然后当主轴旋转时收集激光器数据。在主轴完整旋转一周期间,场景的大多数部分将被激光器观察两遍。为了明白这一点,考虑激光扫描场景中一特定物体的左侧。该扫描产生第一组激光距离和方位值1102。接着考虑将主轴向右旋转大约180度,由此激光器处理同一物体来产生第二组激光距离和方位值1112。每次激光器的观测都对应于一能够基于主轴角度(1104和1114)计算得到的3D点(1106和1116),以及激光扫描仪相对于主轴的位置和方向的估计。为了评估第一个180扫描(1102)和第二个180扫描(1112)的一致性,处理器定义了将本地平面拟合到第一观测的“校准误差”函数(步骤1108),然后计算第二次观测与适当的平面模型(1110)之间的距离(1118)来产生一致性测量结果(112)。该误差函数的值取决于校准参数,其可以通过使用非线性最小二乘法优化、模拟退火算法或类似方法来进行恢复,从而找到与观测的激光距离最为一致的值。
不同传感器之间的稳定性:主轴相对于立体摄像机的位置和方向
激光器和立体摄像机组件都能够生成场景的3D模型。如果通过良好的校准,之前的检查是前后一致的,那么这些模型能够被用来彼此对比以便核实传感器之间的几何关系是正确的。不幸的是,立体图像的测量误差投影到3D空间内,是以难以准确地进行这种对比的方式所进行的。这可以通过以下方式来解决,即,将激光模型(lasermodel)投影到图像中如同激光模型被摄像机观测那样,然后在图像空间对比结果。这种评价校准的方案可以使用自然场景或专门建立的校准目标来实现。
图12示出了相对于激光器主轴较准或记录(registering)立体传感器的过程。如果激光测距仪(LIDAR)和立体传感器已经被校准,例如,利用如图10和11所示的过程,那么激光器数据可以转换成3D激光点云1204,并且摄像机图像可以被用来在大量图像中的像素上计算立体视差图1202。处理器修整(1206)激光点云1204来匹配立体传感器的视场(FOV)。处理器利用LIDAR-到-立体转换参数1210将所得到的修整的点云1208转换到立体传感器坐标***中,以生成模拟的LIDAR视差图1212。接下来,处理器将模拟的LIDR视差图1212与立体视差图1202进行比较来生成相似度测量结果1216,其被用于非线性地优化(1218)LIDAR-到-立体转换参数1210。
本领域技术人员可以理解,立体视差对应于摄像机图像中物体的3D位置。这些3D位置反映在来自激光器的3D点云1204中。通过将3D激光器的观测转换到立体摄像机的坐标***中,能够建立预测的视差图像1212并且将其与来自立体摄像机的实际视差图像1202进行对比。该转换基于主轴相对于立体摄像机的位置和方向,并且处理器再次利用非线性优化以找到校准参数1208,其增加了预测的视差图像和观测的视差图像之间的相似度。
激光测距仪校准
本发明的传感器单元可以利用以下技术中的一个或两者并用来校准激光测距仪:(1)已知几何结构的校准目标被由激光测量,然后这些已知目标的观测结果被用于反推激光器校准参数;以及(2)未知几何结构或未知位置的校准目标被由激光观测,然后调整校准参数来提高激光稳定性(见上)。
本发明的传感器单元可以支持几种类型的摄像机校准,包括传统方式,其利用已知物体或校准目标的记录测量结果,并检索与观测最为一致的校准参数组。例如,立体摄像机可以在一系列未知位置和/或方向上检测校准目标的位置。所得到的图像被用于确定校准参数和未知位置。这种方式可以行得通是因为校准目标的已知形状提供了信息,即使在其位置是未知的情况下。这种方式可以被扩展,通过利用激光测距仪测量校准目标的位置和几何结构并利用激光距离数据来验证由立体图像数据确定的位置和/或校准参数的准确性的方式。
本发明的传感器单元的精准内部定时能够使另一摄像机校准方案可行。当摄像机没有安装红外滤光片时,来自场景中物体的激光束的反射可能会在图像中呈现为光斑。这个光斑可以利用图像处理技术检测出来。它的位置提供激光测量的3D点和在左右图像中的一对2D位置之间的对应关系。激光的旋转提供这些对应关系的集合,其正是用于计算摄像机校准的输入数据。
前述方案的一般化为使用3D激光测量结果和2D图像位置的对应关系,但并不要求激光光斑在图像中可见。这将允许该技术即使在摄像机安装有红外滤光片的时候,或者在场景被照射得过亮以至看不到激光点时也能够工作。在这种情况下,当激光器捕捉大量3D点的时候摄像机和场景是静止不动的。如果激光反射对摄像机是可见的,那么通过检测在左右图像中的激光光斑,每个3D点可以被匹配到2D图像位置中。可替代的,通过利用假设的校准参数将3D点投影到摄像机图像中并且假设投影的2D位置是正确的,也可以来确定匹配。如果假设的校准参数不正确,那么投影也将不正确,3D-到-2D对应关系也就不正确,并且——假定场景足够丰富——很多得到的配对将违反图像一致性量度。校准参数可以被调整来减小这样的违反。
视差图合成以及对比
图13A-13D示出了由立体成像***中的左右摄像机所获取的四幅图像:由左摄像机获取的第一图像(图13A);由右摄像机获取的第一图像(图13B);由左摄像机获取的第二图像(图13C);由右摄像机获取的第二图像(图13D)。由于摄像机从不同位置/角度拍摄场景(环境),因此它们从不同的视角获取图像。如本领域所周知的,处理器可以使用这些图像配对来生成立体图像和视差图。如果立体成像***在拍摄中运动或挪动了,那么立体图可以从多个视角显示场景的立体视野。
图14A示出了基于图13A和13B所示的左右图像的第一视差图。图14B示出了基于图13C和13D所示的左右图像的第二视差图。如本领域技术人员所周知的,视差指立体对的左右图像中的两个对应点之间的距离。该距离可以由两对坐标之间的矢量来表示,一对坐标用于左图像,另一对坐标用于右图像。该矢量的幅度有时被称为“视差值”。计算立体图像中每个像素的视差值可得到视差图,例如,如图16所示。
图16还示出了视差图可以被重叠到图像数据上以生成包括景深数据的合成图像。例如,图17A和17B分别示出了图13的图像数据重叠到图14A和图14B的视差图像上。景深数据由颜色呈现,用图像的灰色部分对应于无返回(没有找到匹配),红色/黄色代表场景的近点,绿色/蓝色代表场景的远点。
图17A和17B分别为图14A和14B所示的视差图的3D投影。利用立体传感器的校准数据分别将图14A和14B的每个像素投影到3D空间中,然后用源自图13A和13B的数据填充颜色。在此,源图像为单色的(黑和白),但是源图像也可以是彩色的,这产生彩色3D场景。图17A和17B所示的3D场景包括原始的3D数据(点云),数据没有被三角形化或网格化。但是处理器可以由原始3D点云确定许多关于场景和传感器的信息,包括物体在环境中的位置和方向的估计,包括立体传感器自己的位置和方向。
例如,如果图17A和17B重叠到彼此之上并通过匹配3D特征(如管道、地面、以及远处的建筑)来对准,那么两个场景之间的不同之处可以被检测并分析。一点不同为在拍摄图13所示的源图像时的立体摄像机的视角变化。这种向前的视角移位可以通过计算图17A和17B所示的管道在长度上的不同来测量。另外,传感器的轻微翻滚角(roll)变化可以通过将地面数据拟合到平面并测量地平面与各源图像的虚拟地平线之间的角度差来检测。传感器的偏航角(yaw)同样地可以通过确定建筑与各源图像的虚拟前向轴之间的角度差来测量。
一旦视差图和/或3D点云对准时,处理器可以检测视差图和3D点云之间的其它不同。例如,通过识别场景与场景3D匹配不那么准确或具有更多误差的区域,处理器可以检测目标或物体在场景中的移动。处理器可以利用该移动检测来感测3D失准(misalignment),该3D失准是由于人走动或车辆行驶引起。处理器可以从场景的其它部分(例如,场景的静止部分)将运动的3D特征隔离并提取出来。在一些情况下,处理器还可以计算运动物体的3D位置和3D轨迹(包括其自身的动作)。
图18A和18B分别示出了具有和不具有烟雾妨碍传感器时由激光点云和立体图像数据合成的图像。没有烟雾的话,激光点云是场景的准确表征。当激光束传播至目标和/或从模板传播回来时,烟雾或其它障碍,如灰尘,可以吸收或散射激光束,从而干扰激光测距仪数据。如果烟雾传播在可见光(或者可能是红外)波长的光,那么立体传感器仍然能够生成场景的准确表征。
总结
虽然在此对各种发明的实施例进行了描述和说明,但是那些本领域的普通技术人员将可以预见各种其它的手段和/或结构来实现这样的功能和/或获得这样的结果和/或一个或多个在此描述的优点,并且每个这样的变化和/或修改都将被认为是在发明的实施例的范围之内。更加一般地讲,本领域的技术人员能够领会在此描述的所有参数、尺度、材料和配置都意味着是示例性的,而实际的参数、尺度、材料和/或配置都将基于具体应用或可以利用该发明的教导的应用。本领域的技术人员会认识到,或者能够肯定仅进行正常的实验就能够得出许多该具体发明实施例的等同方案。因此,需要明白的是前述的实施例仅是做为示例而已,在所附权利要求的范围内或与其等同范围内,发明的实施例可以通过不同于在此具体描述或要求的方案来实现。本公开的发明实施例关注于在此描述的各独立的特征、***、物品、材料、工具、和/或方法。此外,任何两个或多个这样的特征、***、物品、材料、工具、和/或方法的结合,如果这些的特征、***、物品、材料、工具、和/或方法是相互不相同的,也将被包括在本公开的发明范围之内。
以上所述的实施例可以通过许多种方式实现。例如,实施例可以通过使用硬件、软件或它们的结合来实现。当在软件中实现时,软件代码可以在任何适当的处理器或处理器集上执行,无论是在单独的计算机上提供和分布在多个计算机上。
再者,应该理解计算机可以是任何形式的,比如安装在机架上的计算机、台式计算机、笔记本计算机、或平板计算机。另外,计算机可以被嵌入于通常不被认为是计算机但具有适当处理能力的装置上,包括个人数字处理(PDA)、智能手机、或任何其它适当的可携带或固定的电子装置。
还有,计算机可以具有一个或多个输入和输出装置。这些装置可以作为用户接口与其它装置一起使用。可以用来提供用户接口的输出装置的实例包括打印机或显示器,用于输出的视觉表示,以及用于输出的听觉表示的扬声器或其它声音产生装置。可以用于用户接口的输入装置的实例包括键盘和指示装置,比如鼠标、触摸板以及数字化平板。作为另一实例,计算机可以通过语音识别或其它可闻形式接收输入信息。
这些计算机可以通过一个或多个任何形式的网络相耦接,包括局域网或广域网,比如公司网络,智能网络或因特网。这些网络可以基于任何适当的技术并且可以根据任何适当的协议运行,可以包括无线网络、有线网络、或光纤网络。
在此概述的不同的方法或步骤可以编码成软件,在一个或多个使用任何一种操作***或平台的处理器上执行。另外,这些软件可以使用任何适当的编程语言和/或编程或脚本工具来编写,还可以被编绎成可执行的机器语言代码或在框架或虚拟机器上执行的中间码。
在这个方面,各种发明的概念可以实例化为计算机可读存储介质(或多个计算机可读存储介质)(例如,计算机存储器、一个或多个软盘、高密度磁盘、光盘、磁带、闪存、由现场可编程门阵列或其它半导体装置组成的电路配置、或者其它非暂时性介质或有形的计算机存储介质),其编码有一个或多个程序,当在一个或多个计算机或其它处理器上执行时,运行可以实现以上讨论的本发明的各种实施例的方法。计算机可读介质或媒体可以被传送,比如存储在其上的程序可以被加载到一个或多个不同的计算机或其它处理器上来实施以上讨论的本发明的各方面。
术语“程序”或“软件”在此被用作通用术语,涉及任何种类的计算机代码或计算机可执行指令组,其可以被用于编程计算机或其它处理器来实现以上讨论的实施例的各个方面。另外,应该注意的是根据一方面,在执行一个或多个计算机程序来实现本发明的方法时不需要仅限于使用一台计算机或处理器,可以以模块化方式分布到多个不同的计算机或处理上来实现本发明的各方面。
计算机可执行指令可以是许多形式,比如程序模块,由一个或多个计算机或其它装置来执行。一般来说,程序模块包括例行程序、程序、对象、组件、数据结构等,用于完成特定任务或实现特定抽象数据类型。代表性地,程序模块的功能可以以所描述的各种方式结合或分散。
还有,数据结构可以以任何适当的形式被存储在计算机可读介质内。为了说明方便,数据结构可以被示出了为具有与数据结构中的位置有关的域的形式。这种关系同样可以通过为域分配存储空间的方式来完成,存储空间具有在计算可读介质中的位置,其传达域之间的关系。然而,任何适当的机制都可以被用有来建立数据结构的域中的信息之间的关系,包括通过使用指针、标记或其它可以在数据元素之间建立关系的机制。
还有,不同的发明概念可以作为一个或多个方法来实现,其中的一个例子已经被提供了。作为该方法的一部份而被执行的动作可以是以任何适当的方式被排序。因此,实施例可以被构建成其中的动作以不同于以上说明的顺序被执行,可以包括同步地执行一些动作,即使在说明实施例中被示出为顺序动作。
在此定义或使用的所有的定义应该被理解成支配词典定义、在参考合并的资料中的定义、和/或所限定的术语的普通含义。
不定冠词“一”和“一个”,如在说明书和权利要求书中所使用的,除非是被清楚的指出相反的意思,否则应该被理解为“至少一个”。
短语“和/或”,如在说明书和权利要求书中所使用的,应该被理解为被连接的元素的“两者之一或两者全部”,例如,在一些实例中元素是接连出现的而在另一些实例中元素是分隔出现的。用“和/或”列出的多个元素应当用同样的样式来解释,例如,连接的元素中的“一个或多个”。除了由“和/或”从句特定区别的元素之外其它元素可以有选择性的出现,无论是与那些特定区别的元素相关还是不相关。因此,作为非限定性的例子,“A和/或B”的参考,当被用于连接开放式的语句比如“包括”时,在一个实施例中,可以是指仅有A(选择性地包括除了B之外的元素);在另一实施例中,是指仅有B(选择性地包括除了A之外的元素);在另一个实施例中,是指有A和B两者(选择性地包括其它元素);等等。
如在此用于说明书和权利要求书中那样,“或者”应该被理解为具有与以上定义的“和/或”同样的意思。例如,当分隔列表中的项目时,“或者”或“和/或”应该被解释成包括的,例如,包括至少一个,但也可以包括多于一个的多个或列表的元素,和,选择性的,另外的未列出的项目。除非术语清楚的指示了相反的意思,比如“仅一个”或“恰好一个”,或当用于权利要求中时,“由……构成”是指包括多个或列表的元素中仅一个元素。总的来说,在此使用的术语“或者”,当跟在排他性的术语比如“两者之中任一的”、“一个”、“仅一个”、或者“恰好一个”之后时,应该仅被解释为指示排他的二者选一(例如,“一个或者另一个但不是两者)。当用于权利要求书中时,“实质上由……构成”应该具有其用于专利法领域时的通常的含义。
如在此用于说明书和权利要求书中那样,短语“至少一个”关于列表的一个或多个元素,应该被理解为至少一个选择自任一或多个列表中的元素,但不必须包括至少一个的在列表元素中特别列出的每一个元素,并且不排除列表中的元素的任一的组合。该定义还允许,除了在列表的元素中涉及短语“至少一个的”特定区分的元素之外,其它元素可以选择性地出现,无论是与那些特定区分的元素相关还是不相关。因此,作为非限定性的例子,“A和B中的至少一个”(或者,等同的,“A或B中的至少一个”,或者,等同的,“A和/或B中的至少一个”),在一个实施例中,可以指至少一个,选择性地包括多于一个的A而没有B(选择性地包括除了B的元素);在另一个实施例中,指至少一个,选择性地包括多于一个的B而没有A(选择性地包括除了A的元素);在另一个实施例中,指至少一个,选择性地包括多于一个的A,且至少一个,选择性地包括多于一个的B(选择性地包括其它元素);等等。
在权利要求中,以及在以上的说明书中,所有的过渡短语比如“包括”、“带有”、“具有”、“涉及”、“组成为”,以及类似的词语应该被理解为开放式的,例如,意味着包括但不限定。如在美国专利局专利审查手册,2111.03所陈述的那样,仅过渡短语“由……构成”和“实质上由……构成”应该分别是封闭式或半封闭式的过渡短语。

Claims (45)

1.一种用于估计在环境中的至少一个物体的位置的***,其特征在于,所述***包括:
第一成像器,用于从第一视角获取所述环境的至少两幅参考图像;
第二成像器,用于从第二视角获取所述环境的至少两幅对比图像;以及
处理器,其与所述第一成像器和所述第二成像器可操作地耦接,来进行以下处理步骤:
(i)由所述至少两幅参考图像中的第一参考图像和所述至少两幅对比图像中的第一对比图像合成所述环境的第一视差图;
(ii)由所述至少两幅参考图像中的第二参考图像和所述至少两幅对比图像中的第二对比图像合成所述环境的第二视差图;
(iii)至少部分地基于所述第一视差图来确定所述至少一个物体的位置的第一位置估计;
(iv)至少部分地基于所述第二视差图来确定所述至少一个物体的位置的第二位置估计。
2.根据权利要求1所述的***,其特征在于,所述处理器还被配置成估计所述第一位置估计和所述第二位置估计之间的偏差。
3.根据权利要求2所述的***,其特征在于,所述处理器还被配置成纠正所述第一位置估计和所述第二位置估计之间的偏差。
4.根据权利要求3所述的***,所述***还包括:
激光器,用于使用激光照明所述环境中的所述至少一个物体;以及
传感器,用于检测由所述至少一个物体散射和/或反射的激光,并且基于检测到的激光提供表示至所述物体的距离的距离信号,
其中,所述处理器进一步被配置为通过将所述距离信号与所述第一位置估计和所述第二位置估计中的至少一个进行比较以确定所述第一位置估计和所述第二位置估计之间的偏差。
5.根据权利要求1所述的***,其特征在于,所述至少一个物体包括所述***。
6.根据权利要求1所述的***,其特征在于,所述至少一个物体包括除了所述***之外的物体。
7.一种用于校准多传感立体视觉***的方法,其特征在于,所述多传感立体视觉***包括立体成像器和测距仪,所述方法包括:
(A)通过所述立体成像器提供的视差图来确定出现在所述视差图中的至少一个物体的第一三维位置估计;
(B)通过所述测距仪的测量结果来确定所述至少一个物体的第二三维位置估计;
(C)确定在步骤(A)中确定的所述第一三维位置估计与在步骤(B)中确定的所述第二三维位置估计之间的偏差;以及
(D)基于在步骤(C)中确定的所述偏差校准所述多传感立体视觉***。
8.根据权利要求7所述的方法,其特征在于,所述步骤(A)还包括:
(A1)利用所述立体成像器获取从第一视角观察的场景的第一二维图像;
(A2)利用所述立体成像器获取从第二视角观察的所述场景的第二二维图像;以及
(A3)由所述第一二维图像和所述第二二维图像合成所述视差图。
9.根据权利要求7所述的方法,其特征在于,所述测距仪包括激光测距仪,并且所述步骤(B)还包括:
(B1)用激光照明所述至少一个物体;
(B2)检测由所述至少一个物体散射和/或反射的激光;
(B3)至少部分地基于在步骤(B2)中检测到的激光确定所述第二三维位置。
10.根据权利要求7所述的方法,其特征在于,所述步骤(C)还包括:
(C1)将所述第二三维位置估计的坐标投影到由所述视差图限定的空间上;
(C2)确定所述第二三维位置估计的坐标与所述第一三维位置估计的坐标之间的距离。
11.一种用于校准多传感立体视觉***的方法,其特征在于,所述多传感立体视觉***包括立体成像器和测距仪,所述方法包括:
(A)利用所述立体成像器获取从第一视角观察的场景的第一二维图像;
(B)利用所述立体成像器获取从第二视角观察的场景的第二二维图像;
(C)由在步骤(A)中获取的所述第一二维图像和在步骤(B)中获取的所述第二二维图像合成视差图;
(D)由在步骤(C)中合成的视差图确定在所述视差图中出现的至少一个物体的第一三维位置估计;
(E)用激光照明所述至少一个物体;
(F)检测由在步骤(E)中照明的所述至少一个物体散射和/或反射的激光;
(G)至少部分地基于在步骤(F)中检测到的激光来确定所述至少一个物体的第二三维位置估计;
(H)将在步骤(G)中确定的所述第二三维位置估计投影到由在步骤(C)中确定的所述视差图限定的空间内;
(I)确定在步骤(H)中投影得到的所述第二三维位置估计与所述第一三维位置估计之间的偏差;
(J)基于在步骤(I)中确定的偏差校准所述多传感立体视觉***。
12.一种用于对环境中至少一个特征进行成像的***,其特征在于,所述***包括:
第一成像器,用于从第一视角获取所述环境的至少两幅参考图像;
第二成像器,用于从第二视角获取所述环境的至少两幅对比图像;以及
处理器,其与所述第一成像器和所述第二成像器可操作地耦接,来进行以下处理步骤:
(i)由所述至少两幅参考图像中的第一参考图像和所述至少两幅对比图像中的第一对比图像合成所述环境的第一视差图;
(ii)由所述至少两幅参考图像中的第二参考图像和所述至少两幅对比图像中的第二对比图像合成所述环境的第二视差图;
(iii)在所述第一视差图中识别所述至少一个特征;
(iv)在所述第二视差图中识别所述至少一个特征;以及
(v)估计在所述第一视差图和所述第二视差图所述至少一个特征出现位置之间的偏差。
13.一种用于检测激光的扫描光束的失准的***,其特征在于,所述***包括:
激光器,用于提供激光光束;
扫描仪,与所述激光器光学连通和/或机械连接,用于扫描所述激光光束以提供所述激光的扫描光束;
传感器,用于检测由所述环境中的至少一个物体散射和/或反射的激光,并且提供表示所述被检测到的激光的第一测量结果的第一信号,以及表示所述被检测到的激光的第二测量结果的第二信号;以及
处理器,其与所述传感器可操作地耦接,来进行以下处理步骤:
(i)基于所述第一信号生成所述环境的第一表征;
(ii)基于所述第二信号生成所述环境的第二表征;
(iii)估计所述第一表征与第二表征之间的至少一个偏差;
(iv)基于所述第一表征与所述第二表征之间的所述至少一个偏差确定所述激光器、所述扫描仪以及传感器中至少一个的失准。
14.根据权利要求13所述的***,其特征在于,所述处理器进一步被配置成在确定所述激光器、所述扫描仪以及所述传感器中的至少一个的失准过程中,补偿所述激光器、所述扫描仪以及所述传感器中的至少一个在所述第一测量结果与所述第二测量结果之间的移动。
15.根据权利要求13所述的***,其特征在于,所述传感器包括立体成像传感器,并且所述处理器被配置成基于所述第一表征和/或所述第二表征来校准所述立体传感器。
16.根据权利要求15所述的***,其特征在于,所述处理器被配置成至少部分地基于所述第一表征来估计所述激光器、所述扫描仪以及所述立体成像传感器中的至少一个的第一三维位置。
17.根据权利要求16所述的***,其特征在于,所述处理器被进一步配置成确定所述激光器、所述扫描仪以及所述立体成像传感器中的至少一个的第二三维位置估计,并且基于所述第一三维位置估计和所述第二三维位置估计来估计至少一个偏差。
18.一种用于基于图像数据产生环境的视差图的处理单元,其特征在于,所述处理单元包括:
至少一个接口,用于从至少两个成像器接收图像数据;
至少一个纠正处理模块,其与所述至少一个接口可操作地耦接,用于纠正所述图像数据;
至少一个立体处理模块,其与所述至少一个纠正处理模块可操作地耦接,用于基于所述图像数据产生所述视差图。
19.根据权利要求18所述的处理单元,其特征在于,所述至少一个接口包括:
第一接口,用于将所述图像数据的第一部分的第一串行表征转换成所述图像数据的第一部分的第一并行表征;以及
第二接口,用于将所述图像数据的第二部分的第二串行表征转换成所述图像数据的第二部分的第二并行表征。
20.根据权利要求18所述的处理单元,其特征在于,所述纠正处理模块和/或所述立体处理模块在现场可编程门阵列中实现。
21.根据权利要求18所述的处理单元,其特征在于,所述至少一个立体处理模块被配置成基于半全局块匹配(SGBM)算法、半全局匹配(SGM)算法以及立体块匹配算法中的至少一个来产生所述视差图。
22.根据权利要求18所述的处理单元,其特征在于,所述纠正处理模块包括至少一个存储器-到-存储器模块。
23.根据权利要求22所述的处理单元,其特征在于,所述至少一个存储器-到-存储器模块包括:
前端,用于从存储器中取得所述图像数据的至少一部分;
延迟线,其与所述前端可操作地耦接,用于将至少一个图像处理指令存储等于或大于所述存储器的延迟的时间;
后端,其与所述延迟线可操作地耦接,用于至少部分地基于从所述存储器中取得的所述图像数据产生纠正的输出。
24.根据权利要求18所述的处理单元,其特征在于,所述处理单元还包括:
至少一个预处理模块,与所述至少一个接口可操作地耦接,用于预处理所述图像数据的并行表征。
25.根据权利要求24所述的处理单元,其特征在于,所述至少一个预处理模块被配置成对所述数据的并行表征进行滤波、柱状图生成、线性化、晕影修正、去马赛克、白平衡、以及色彩空间转换中的至少一个。
26.一种激光扫描***,其特征在于,包括:
激光器,用于产生激光光束;
主轴,其与所述激光器机械地耦接,用于绕第一轴旋转所述激光器来扫描所述激光光束;
齿轮,用于向所述主轴施加扭矩;以及
滑动离合器摩擦垫,其被压缩在所述齿轮与所述主轴之间,用于将最高为阈值扭矩的由所述齿轮施加的所述扭矩的至少一部分传送到所述主轴,并且在扭矩大于所述阈值扭矩时允许所述齿轮相对于所述主轴滑动。
27.如权利要求26所述的激光扫描***,其特征在于,所述阈值扭矩作为温度和施加于所述主轴的力的函数保持恒定。
28.如权利要求27所述的激光扫描***,其特征在于,还包括:
壳体,其容纳所述主轴、所述齿轮以及所述滑动离合器摩擦垫的至少一部分;以及
编码器,与所述主轴机械地耦接,用于测量所述主轴相对于所述壳体的位置。
29.如权利要求26所述的激光扫描***,其特征在于,所述齿轮为蜗轮并且还包括:
蜗杆,其与所述齿轮相啮合,用于驱动所述蜗轮;以及
电动机,其与所述蜗杆机械地耦接,用于旋转所述蜗杆来驱动所述蜗轮。
30.如权利要求29所述的激光扫描***,其特征在于,还包括:
顺应式电动机安装部,其与所述电动机机械地耦接,用于允许所述电动机轴向和径向运动。
31.如权利要求26所述的激光扫描***,其特征在于,还包括:
滑环,其与所述主轴机械地耦接,并且与所述激光器电气连通;以及
电源,其通过所述滑环与所述激光器电气连通,用于为所述激光器提供电力。
32.一种立体视觉***,其特征在于,包括:
整体框架,其限定至少一个安装面;
第一成像器,安装于所述至少一个安装面上,用于从第一视角获取环境的至少一个第一图像;以及
第二成像器,安装于所述至少一个安装面上,用于从不同于所述第一视角的第二视角获取所述环境的至少一个第二图像。
33.如权利要求32所述的立体视觉***,其特征在于,所述整体框架由一单件材料组成。
34.如权利要求32所述的立体视觉***,其特征在于,所述第一成像器和所述第二成像器被设置在同一平面上。
35.如权利要求32所述的立体视觉***,其特征在于,所述第一成像器被设置在第一平面上,所述第二成像器被设置在与所述第一平面平行的第二平面上。
36.如权利要求32所述的立体视觉***,其特征在于,所述第一成像器被设置在第一平面上,所述第二成像器被设置在与所述第一平面相交的第二平面上。
37.如权利要求32所述的立体视觉***,其特征在于,还包括:
至少一个销和至少一个螺栓中的至少一个,其将所述第一成像器和所述第二成像器中的至少一个固定到所述至少一个安装面。
38.如权利要求32所述的立体视觉***,其特征在于,还包括:
处理器,其与所述第一成像器和所述第二成像器可操作地耦接,用于由所述至少一个第一图像和所述至少一个第二图像产生立体图像数据;以及
柔性电缆,用于将所述第二成像器耦接到所述处理器。
39.一种传感器***,其特征在于,包括:
至少一个传感器,用于提供传感器数据;
壳体,其限定空腔和至少一个外部表面;
内壁,被设置于所述空腔内且与所述至少一个外部表面热连通;
处理器,被设置于所述空腔内且与所述至少一个传感器可操作地耦接,用于处理所述传感器数据;
导热材料,其与所述内壁和所述处理器热连通,用于将由所述处理器产生的热量通过所述内壁传导至所述至少一个外部表面,从而耗散由所述处理器产生的热量。
40.如权利要求39所述的传感器***,其特征在于,所述至少一个传感器被设置于所述空腔内。
41.如权利要求39所述的传感器***,其特征在于,所述至少一个传感器包括:
第一成像器,其被安装于所述至少一个安装面上,用于从第一视角获取环境的至少一个第一图像;以及
第二成像器,其被安装于所述至少一个安装面上,用于从与所述第一视角不同的第二视角获取环境的至少一个第二图像。
42.如权利要求41所述的传感器***,其特征在于,还包括至少一个销和/或至少一个螺栓,其将所述第一成像器和所述第二成像器中的至少一个固定到所述至少一个安装面。
43.一种传感器***,其特征在于,包括:
至少一个传感器,用于提供传感器数据;
壳体,其限定空腔,且包括限定至少一个外部表面的至少一个壁;
处理器,其被设置于所述空腔内紧贴所述至少一个壁上,并且与所述至少一个传感器可操作地耦接,用于处理所述传感器数据,
其中,所述处理器通过所述至少一个壁与所述外部表面热连通,从而耗散由所述处理器产生的热量。
44.一种立体视觉***,其特征在于,包括:
壳体;
第一传感器阵列,其被设置于所述壳体内,用于通过所述壳体内的第一开孔从第一视角获取所述环境的至少一个第一图像;
第二传感器阵列,其被设置于所述壳体内,用于通过所述壳体内的第二开孔从与所述第一视角不同的第二视角获取所述环境的至少一个第二图像;以及
光源,其被设置于所述壳体内,用于通过所述壳体内的第三开孔照明所述壳体外部的环境。
45.如权利要求44所述的立体视觉***,其特征在于,还包括:
第一透镜,其被设置于所述第一开孔内且与所述第一传感器阵列光学连通,用于在所述第一传感器阵列上成像所述环境的第一部分;以及
第二透镜,其被设置于所述第二开孔内且与所述第二传感器阵列光学连通,用于在所述第二传感器阵列上成像所述环境的第二部分。
CN201480022190.5A 2013-03-15 2014-03-14 用于机器人的多传感立体视觉的方法、***和设备 Active CN105164549B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361792468P 2013-03-15 2013-03-15
US61/792,468 2013-03-15
PCT/US2014/027126 WO2014152254A2 (en) 2013-03-15 2014-03-14 Methods, systems, and apparatus for multi-sensory stereo vision for robotics

Publications (2)

Publication Number Publication Date
CN105164549A true CN105164549A (zh) 2015-12-16
CN105164549B CN105164549B (zh) 2019-07-02

Family

ID=51581691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480022190.5A Active CN105164549B (zh) 2013-03-15 2014-03-14 用于机器人的多传感立体视觉的方法、***和设备

Country Status (8)

Country Link
US (1) US10412368B2 (zh)
EP (1) EP2972478B1 (zh)
JP (1) JP6514681B2 (zh)
KR (1) KR101803164B1 (zh)
CN (1) CN105164549B (zh)
AU (1) AU2014239979B2 (zh)
CA (1) CA2902430C (zh)
WO (1) WO2014152254A2 (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106043169A (zh) * 2016-07-01 2016-10-26 百度在线网络技术(北京)有限公司 环境感知设备和应用于环境感知设备的信息获取方法
CN106093710A (zh) * 2016-08-19 2016-11-09 江西师范大学 一种基于物联网技术的线管智能监控装置
CN106524906A (zh) * 2016-10-13 2017-03-22 深圳市速腾聚创科技有限公司 激光扫描仪归位方法及激光扫描仪
CN109141364A (zh) * 2018-08-01 2019-01-04 北京进化者机器人科技有限公司 障碍物检测方法、***及机器人
CN109690622A (zh) * 2016-06-29 2019-04-26 醒眸行有限公司 多相机***中的相机登记
CN109952488A (zh) * 2016-09-09 2019-06-28 优质视觉技术国际公司 用于测量机器的具有多个传感器的铰接头
CN109959939A (zh) * 2017-12-22 2019-07-02 北京万集科技股份有限公司 基于激光扫描的对象跟踪方法及装置
CN110050200A (zh) * 2016-11-10 2019-07-23 莱卡地球***公开股份有限公司 激光扫描仪
CN110385701A (zh) * 2018-04-19 2019-10-29 远大机器人有限公司 多节式致动的运动机构,优选机器人,特别优选关节型机器人
CN110603571A (zh) * 2017-04-26 2019-12-20 Abb瑞士股份有限公司 用于操作机器人的机器人***和方法
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质
CN110868582A (zh) * 2018-08-28 2020-03-06 钰立微电子股份有限公司 具有校正功能的图像获取***
CN111142315A (zh) * 2020-02-25 2020-05-12 北京工业大学 近地激光照明装置
CN112650298A (zh) * 2020-12-30 2021-04-13 广东工业大学 一种无人机追踪降落方法及***
CN112654841A (zh) * 2018-07-06 2021-04-13 云海智行股份有限公司 用于校准架置在设备上的传感器的***、方法和装置
CN112801225A (zh) * 2021-04-01 2021-05-14 中国人民解放军国防科技大学 极限工况下自动驾驶多传感器融合感知方法及***
CN112954217A (zh) * 2021-02-25 2021-06-11 维沃移动通信有限公司 电子设备及对焦方法
CN113703160A (zh) * 2020-05-08 2021-11-26 宏碁股份有限公司 虚拟现实定位装置及其制作方法、虚拟现实定位***

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068344B2 (en) 2014-03-05 2018-09-04 Smart Picture Technologies Inc. Method and system for 3D capture based on structure from motion with simplified pose detection
US9876954B2 (en) * 2014-10-10 2018-01-23 Iec Infrared Systems, Llc Calibrating panoramic imaging system in multiple dimensions
BE1022580A9 (fr) * 2014-10-22 2016-10-06 Parallaxter Méthode d'obtention de vidéos immersives avec parallaxe interactive et méthode de visualisation de vidéos immersives avec parallaxe interactive
US10445616B2 (en) 2015-01-22 2019-10-15 Bae Systems Information And Electronic Systems Integration Inc. Enhanced phase correlation for image registration
US10274958B2 (en) 2015-01-22 2019-04-30 Bae Systems Information And Electronic Systems Integration Inc. Method for vision-aided navigation for unmanned vehicles
US20160245641A1 (en) * 2015-02-19 2016-08-25 Microsoft Technology Licensing, Llc Projection transformations for depth estimation
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
EP3068125A1 (en) * 2015-03-09 2016-09-14 Delphi Technologies, Inc. A method of manufacturing a multiple view camera system and multiple view camera system
CN104835141B (zh) * 2015-03-09 2018-05-18 深圳市魔眼科技有限公司 一种激光测距建立立体模型的移动终端及方法
CN108271408B (zh) * 2015-04-01 2020-12-04 瓦亚视觉有限公司 使用被动和主动测量生成场景的三维地图
JP6503906B2 (ja) * 2015-06-10 2019-04-24 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10083522B2 (en) 2015-06-19 2018-09-25 Smart Picture Technologies, Inc. Image based measurement system
FR3039904B1 (fr) * 2015-08-07 2019-06-14 Institut De Recherche Technologique Jules Verne Dispositif et procede pour la detection d’obstacles adaptes a un robot mobile
CN105222724B (zh) * 2015-09-10 2018-09-18 北京天远三维科技股份有限公司 多线阵列激光三维扫描***及多线阵列激光三维扫描方法
EP3182157B1 (en) 2015-12-14 2020-04-15 Leica Geosystems AG Method for creating a spatial model with a hand-held distance measuring device
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10257394B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
WO2017161523A1 (zh) * 2016-03-23 2017-09-28 华为技术有限公司 一种终端的拍照对焦方法、装置及设备
US10255648B2 (en) 2016-04-14 2019-04-09 Eric John Wengreen Self-driving vehicle systems and methods
US9429947B1 (en) 2016-04-14 2016-08-30 Eric John Wengreen Self-driving vehicle systems and methods
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
EP3252713A1 (en) * 2016-06-01 2017-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
CN106060348B (zh) * 2016-06-02 2019-05-17 深圳市星昭晖光电科技有限公司 一种智能化军工红外夜视云镜
RU2623806C1 (ru) * 2016-06-07 2017-06-29 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ и устройство обработки стереоизображений
US10742878B2 (en) * 2016-06-21 2020-08-11 Symbol Technologies, Llc Stereo camera device with improved depth resolution
WO2018000037A1 (en) * 2016-06-29 2018-01-04 Seeing Machines Limited Systems and methods for identifying pose of cameras in a scene
DE202016004550U1 (de) * 2016-07-21 2016-08-05 Carl Zeiss Optotechnik GmbH 3D-Messgerät
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US10884127B2 (en) * 2016-08-02 2021-01-05 Samsung Electronics Co., Ltd. System and method for stereo triangulation
US10192311B2 (en) * 2016-08-05 2019-01-29 Qualcomm Incorporated Methods and apparatus for codeword boundary detection for generating depth maps
CA3033242A1 (en) 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control
JP6604934B2 (ja) * 2016-12-13 2019-11-13 日本電信電話株式会社 点群画素位置決定装置、方法、及びプログラム
US10061323B2 (en) 2016-12-22 2018-08-28 Advanced Construction Robotics, Inc. Autonomous apparatus and system for repetitive tasks in construction project
CN106791330B (zh) * 2017-01-11 2019-08-13 Oppo广东移动通信有限公司 摄像头模组及终端
CN110199175B (zh) * 2017-01-31 2021-03-02 富士胶片株式会社 3维信息检测装置
US10094916B1 (en) 2017-06-09 2018-10-09 Waymo Llc LIDAR optics alignment systems and methods
KR102350533B1 (ko) * 2017-06-13 2022-01-11 엘지전자 주식회사 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
WO2018236347A1 (en) 2017-06-20 2018-12-27 Hewlett-Packard Development Company, L.P. DETERMINATIONS OF SENSOR POSITIONS
US11460304B2 (en) * 2017-07-27 2022-10-04 Westinghouse Electric Company Llc Method of locating a remotely operated vehicle within a workspace and remote inspection system employing such method
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
CN109425365B (zh) * 2017-08-23 2022-03-11 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
US10616470B2 (en) * 2017-08-31 2020-04-07 Snap Inc. Wearable electronic device with hardware secured camera
CN109840448A (zh) * 2017-11-24 2019-06-04 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的信息输出方法和装置
US10299216B1 (en) 2018-01-06 2019-05-21 Eric John Wengreen Self-driving vehicle actions in response to a low battery
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10274950B1 (en) 2018-01-06 2019-04-30 Drivent Technologies Inc. Self-driving vehicle systems and methods
EP3788318B1 (en) * 2018-05-01 2023-06-07 Red Tuna Limited Optical vehicle diagnostic system
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
US20190387615A1 (en) * 2018-06-14 2019-12-19 Microsoft Technology Licensing, Llc Multi-layer interconnected electro-thermal system having a thermally non-expansive support for mounting positionally related sensor components
GB2576235B (en) * 2018-06-19 2021-06-09 Bae Systems Plc Workbench system
JP2020003256A (ja) * 2018-06-26 2020-01-09 株式会社デンソー 距離測定装置
US10466057B1 (en) 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
CN109146938B (zh) * 2018-08-30 2020-09-15 百度在线网络技术(北京)有限公司 动态障碍物的位置校准方法、装置、设备及存储介质
US10289922B1 (en) 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
US10223844B1 (en) 2018-09-18 2019-03-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
US11221622B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US11379788B1 (en) * 2018-10-09 2022-07-05 Fida, Llc Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency
US10240938B1 (en) 2018-10-22 2019-03-26 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10481606B1 (en) 2018-11-01 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10286908B1 (en) 2018-11-01 2019-05-14 Eric John Wengreen Self-driving vehicle systems and methods
US11346950B2 (en) 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
JP7372513B2 (ja) * 2018-12-05 2023-11-01 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
RU2697062C1 (ru) * 2018-12-10 2019-08-09 Закрытое акционерное общество "МНИТИ" (ЗАО "МНИТИ") Способ наблюдения объектов
JP7154120B2 (ja) * 2018-12-11 2022-10-17 日立Astemo株式会社 ステレオカメラ装置
DE102018221899B4 (de) 2018-12-17 2023-06-07 Robert Bosch Gmbh Baugruppe für einen Umgebungssensor, LiDAR-Sensor und Fortbewegungsmittel
US10597264B1 (en) * 2018-12-20 2020-03-24 Advanced Construction Robotics, Inc. Semi-autonomous system for carrying and placing elongate objects
CN113196139B (zh) 2018-12-20 2023-08-11 美国斯耐普公司 用于生成立体图像的具有双摄像头的柔性眼戴设备
WO2020132488A1 (en) 2018-12-21 2020-06-25 Waymo Llc Sensor clamping design for autonomous vehicle camera
CN111383256B (zh) * 2018-12-29 2024-05-17 北京市商汤科技开发有限公司 图像处理方法、电子设备及计算机可读存储介质
WO2020160388A1 (en) * 2019-01-31 2020-08-06 Brain Corporation Systems and methods for laser and imaging odometry for autonomous robots
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
MX2021011247A (es) * 2019-03-24 2021-10-01 Beijing Bytedance Network Tech Co Ltd Filtrado de bucle adaptativo no lineal en procesamiento de video.
JP7293814B2 (ja) 2019-04-01 2023-06-20 株式会社リコー 生体情報計測装置、生体情報計測方法およびプログラム
AU2020274025B2 (en) 2019-05-10 2022-10-20 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
US11494930B2 (en) * 2019-06-17 2022-11-08 SafeAI, Inc. Techniques for volumetric estimation
US10955241B2 (en) * 2019-06-26 2021-03-23 Aurora Flight Sciences Corporation Aircraft imaging system using projected patterns on featureless surfaces
CN110340893B (zh) * 2019-07-12 2022-06-17 哈尔滨工业大学(威海) 基于语义激光交互的机械臂抓取方法
WO2021015835A1 (en) * 2019-07-23 2021-01-28 R-Go Robotics Ltd. Techniques for co-optimization of motion and sensory control
EP4290878A3 (en) 2019-07-23 2024-03-06 R-Go Robotics Ltd Techniques for co-optimization of motion and sensory control
US11629835B2 (en) * 2019-07-31 2023-04-18 Toyota Jidosha Kabushiki Kaisha Auto-calibration of vehicle sensors
US11592820B2 (en) * 2019-09-13 2023-02-28 The Boeing Company Obstacle detection and vehicle navigation using resolution-adaptive fusion of point clouds
US11461867B2 (en) * 2019-09-19 2022-10-04 Sanctuary Cognitive Systems Corporation Visual interface and communications techniques for use with robots
WO2021108621A1 (en) * 2019-11-25 2021-06-03 Lunewave Inc. Automobile radars based on gradient-index lens
US10965931B1 (en) 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
WO2021119427A1 (en) * 2019-12-13 2021-06-17 Sony Group Corporation Multi-spectral volumetric capture
US10907960B1 (en) * 2020-01-06 2021-02-02 Outsight SA Calibration system for combined depth and texture sensor
CN111327860A (zh) * 2020-01-21 2020-06-23 成都纵横自动化技术股份有限公司 一种图数同步传输方法和电子设备
CA3170703A1 (en) * 2020-02-06 2021-08-12 Berkshire Grey Operating Company, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
TWI745924B (zh) 2020-04-10 2021-11-11 宏碁股份有限公司 虛擬實境定位裝置、虛擬實境定位系統以及虛擬實境定位裝置的製作方法
KR20210130478A (ko) 2020-04-22 2021-11-01 삼성전자주식회사 로봇 청소기 및 그 제어 방법
TWI755765B (zh) * 2020-06-22 2022-02-21 中強光電股份有限公司 視覺與深度座標系的校正系統、校正方法及校正裝置
EP4185888A1 (en) * 2020-07-21 2023-05-31 Leddartech Inc. Beam-steering device particularly for lidar systems
US11740078B2 (en) 2020-07-21 2023-08-29 Argo AI, LLC Enhanced sensor alignment
CA3198326A1 (en) 2020-07-21 2021-10-06 Leddartech Inc. Beam-steering device particularly for lidar systems
US11402510B2 (en) 2020-07-21 2022-08-02 Leddartech Inc. Systems and methods for wide-angle LiDAR using non-uniform magnification optics
US11691648B2 (en) 2020-07-24 2023-07-04 SafeAI, Inc. Drivable surface identification techniques
US11853845B2 (en) 2020-09-02 2023-12-26 Cognex Corporation Machine vision system and method with multi-aperture optics assembly
US11587260B2 (en) * 2020-10-05 2023-02-21 Zebra Technologies Corporation Method and apparatus for in-field stereo calibration
US20220179074A1 (en) * 2020-12-08 2022-06-09 Beijing Voyager Technology Co., Ltd. Lidar assembly with modularized components
US11810309B2 (en) 2020-12-22 2023-11-07 Bae Systems Information And Electronic Systems Integration Inc. Multi-camera system for altitude estimation
JP2022146480A (ja) * 2021-03-22 2022-10-05 リコーインダストリアルソリューションズ株式会社 ステレオカメラ装置
CN113329219B (zh) * 2021-05-07 2022-06-14 华南理工大学 多输出参数可动态配置深度相机
CN113269674B (zh) * 2021-05-12 2023-03-10 深圳群宾精密工业有限公司 一种利用机器人坐标对固定3d图像空间自动拼接的方法
KR102653192B1 (ko) * 2021-07-22 2024-04-01 한국생산기술연구원 도장 파이프 길이 인식 장치 및 방법
US20230128651A1 (en) * 2021-10-22 2023-04-27 Mobile Industrial Robots A/S Determining scanner error
US20230150151A1 (en) * 2021-11-10 2023-05-18 X Development Llc End of Arm Sensing Device
CA3239722A1 (en) * 2021-12-01 2023-06-08 9459-6467 Quebec Inc. Modular lidar system and related methods
CN114509012A (zh) * 2021-12-27 2022-05-17 中铁第一勘察设计院集团有限公司 一种用于高原环境下的机车车辆闸片成像检测设备
CN216673170U (zh) * 2022-01-07 2022-06-03 上海肇观电子科技有限公司 深度相机
CN114563795B (zh) * 2022-02-25 2023-01-17 湖南大学无锡智能控制研究院 基于激光里程计和标签融合算法的定位追踪方法及***
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
CN114877804A (zh) * 2022-05-18 2022-08-09 康佳集团股份有限公司 一种工件点位三维坐标获取装置、方法及***

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1086859A1 (en) * 1999-09-22 2001-03-28 Fuji Jukogyo Kabushiki Kaisha Structure for mounting cameras on a vehicle
JP2001242521A (ja) * 2000-02-28 2001-09-07 Fuji Heavy Ind Ltd カメラの組み立て構造、カメラの調整方法、および調整用治具
US20020135468A1 (en) * 1997-09-22 2002-09-26 Donnelly Corporation, A Corporation Of The State Of Michigan Vehicle imaging system with accessory control
JP2003084357A (ja) * 2001-09-14 2003-03-19 Kyocera Corp 大型ステレオカメラの取付構造
EP1473193A1 (de) * 2003-04-29 2004-11-03 Robert Bosch Gmbh Vorrichtung zur Kühlung einer Kamera
EP1816514A1 (en) * 2004-11-15 2007-08-08 Hitachi, Ltd. Stereo camera
CN100519029C (zh) * 2002-01-25 2009-07-29 创科实业有限公司 光束校准***
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
CN101959022A (zh) * 2009-07-17 2011-01-26 深圳泰山在线科技有限公司 一种同步电路和摄像装置及其同步曝光控制方法
CN102494609A (zh) * 2011-11-18 2012-06-13 李志扬 一种基于激光探针阵列的三维摄影方法及装置
DE102010062496A1 (de) * 2010-12-07 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
CN102710945A (zh) * 2011-10-24 2012-10-03 中山市中科微电子研究中心 变焦立体成像和显示***
CN102857592A (zh) * 2011-06-01 2013-01-02 Lg电子株式会社 移动终端及其3d图像显示方法
CN103001428A (zh) * 2012-12-26 2013-03-27 上海摩软通讯技术有限公司 扁平马达和移动终端
CN103152518A (zh) * 2011-12-01 2013-06-12 索尼公司 图像处理***和方法
CN103146355A (zh) * 2011-12-07 2013-06-12 北京中石伟业科技股份有限公司 一种吸热材料
CN103179339A (zh) * 2011-12-01 2013-06-26 索尼公司 图像处理***和方法
CN203353019U (zh) * 2013-05-28 2013-12-18 东莞劲胜精密组件股份有限公司 一种石墨烯金属散热片和电子产品散热结构

Family Cites Families (219)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3333519A (en) * 1965-03-01 1967-08-01 Graflex Inc Mounting means for camera accessories
US5357141A (en) 1988-04-02 1994-10-18 Robert Bosch Gmbh Electronic device
JPH0768797B2 (ja) 1989-03-08 1995-07-26 光洋自動機株式会社 回転テーブル装置
US5309522A (en) 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US5598783A (en) 1995-06-07 1997-02-04 Autran Corp. Integrated transportation system including transfer vehicles
US5590604A (en) 1995-06-07 1997-01-07 Autran Corp. Transportation system with high speed vehicles and automatic control
JPH09163197A (ja) * 1995-12-09 1997-06-20 Sony Corp ビデオカメラ装置
JP3866328B2 (ja) 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US7979173B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
JPH11142520A (ja) 1997-11-06 1999-05-28 Omron Corp 測距装置の軸調整方法及び軸ずれ検出方法並びに測距装置
US7755668B1 (en) * 1998-04-09 2010-07-13 Johnston Gregory E Mobile surveillance system
US6195648B1 (en) 1999-08-10 2001-02-27 Frank Simon Loan repay enforcement system
JP3349121B2 (ja) 1999-09-22 2002-11-20 富士重工業株式会社 ステレオカメラの取付構造
US6325759B1 (en) 1999-09-23 2001-12-04 Ultrasonix Medical Corporation Ultrasound imaging system
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
AU2001243285A1 (en) 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
CN1483105A (zh) 2000-07-20 2004-03-17 莫里斯・塞加尔 停车建筑物及***
JP4810763B2 (ja) 2001-06-20 2011-11-09 株式会社デンソー 距離測定装置
DE10162652A1 (de) 2001-12-20 2003-07-03 Bosch Gmbh Robert Stereo-Kamera-Anordnung in einem Kraftfahrzeug
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
US7085642B2 (en) 2002-08-05 2006-08-01 Ford Global Technologies, Llc Method and system for correcting sensor offsets
US7676062B2 (en) 2002-09-03 2010-03-09 Automotive Technologies International Inc. Image processing for vehicular applications applying image comparisons
JP2004125739A (ja) 2002-10-07 2004-04-22 Omron Corp 物体検知装置および方法
US6860350B2 (en) 2002-12-20 2005-03-01 Motorola, Inc. CMOS camera with integral laser ranging and velocity measurement
JP2004286724A (ja) 2003-01-27 2004-10-14 Denso Corp 車両挙動検出装置、車載処理システム、検出情報較正装置及び車載処理装置
US7248342B1 (en) 2003-02-14 2007-07-24 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three-dimension imaging lidar
JP2005024463A (ja) 2003-07-04 2005-01-27 Fuji Heavy Ind Ltd ステレオ広視野画像処理装置
US7276696B2 (en) * 2003-07-15 2007-10-02 Ford Global Technologies, Llc Active night vision thermal control system using wavelength-temperature characteristic of light source
US7636479B2 (en) * 2004-02-24 2009-12-22 Trw Automotive U.S. Llc Method and apparatus for controlling classification and classification switching in a vision system
US7471832B2 (en) * 2004-02-24 2008-12-30 Trw Automotive U.S. Llc Method and apparatus for arbitrating outputs from multiple pattern recognition classifiers
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US7609893B2 (en) * 2004-03-03 2009-10-27 Trw Automotive U.S. Llc Method and apparatus for producing classifier training images via construction and manipulation of a three-dimensional image model
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
CA2505715A1 (en) 2004-05-03 2005-11-03 Her Majesty In Right Of Canada As Represented By The Minister Of National Defence Volumetric sensor for mobile robotics
US8078338B2 (en) 2004-10-22 2011-12-13 Irobot Corporation System and method for behavior based control of an autonomous vehicle
JP4428208B2 (ja) 2004-11-16 2010-03-10 株式会社デンソー 車両用物体認識装置
US7561731B2 (en) * 2004-12-27 2009-07-14 Trw Automotive U.S. Llc Method and apparatus for enhancing the dynamic range of a stereo vision system
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US7283901B2 (en) * 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
US7860301B2 (en) 2005-02-11 2010-12-28 Macdonald Dettwiler And Associates Inc. 3D imaging system
CN101535087B (zh) * 2005-11-01 2013-05-15 唐纳利公司 具有显示装置的内部后视镜
US7624417B2 (en) 2006-01-27 2009-11-24 Robin Dua Method and system for accessing media content via the internet
US8050863B2 (en) 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US9373149B2 (en) 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US8108119B2 (en) 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
CZ307329B6 (cs) 2006-05-15 2018-06-13 Varroc Lighting Systems, s.r.o. Světelné zařízení pro motorové vozidlo, obsahující planární světlovod
US7969558B2 (en) 2006-07-13 2011-06-28 Velodyne Acoustics Inc. High definition lidar system
DE102006035232A1 (de) * 2006-07-26 2008-01-31 Robert Bosch Gmbh Optische Messeinrichtung mit einer Bildaufnahmeeinheit
US20080039991A1 (en) 2006-08-10 2008-02-14 May Reed R Methods and systems for providing accurate vehicle positioning
KR100775105B1 (ko) 2006-09-06 2007-11-08 이동욱 자동차 안전운전을 위한 전방 시선확보용 외부 모니터링시스템
CN101589316B (zh) 2006-10-30 2012-08-29 奥拓诺塞斯有限公司 用于激光雷达的扫描***
US8532862B2 (en) 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
KR100834577B1 (ko) 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
US8199975B2 (en) 2006-12-12 2012-06-12 Cognex Corporation System and method for side vision detection of obstacles for vehicles
DE102007001103A1 (de) 2007-01-04 2008-07-10 Siemens Ag Vertikale Ausrichtung eines Lidar-Sensors
US8983649B2 (en) 2007-02-16 2015-03-17 Boomerang Systems, Inc. Automated storage system and transport vehicle
JP5538667B2 (ja) 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US8411145B2 (en) 2007-04-27 2013-04-02 Honda Motor Co., Ltd. Vehicle periphery monitoring device, vehicle periphery monitoring program and vehicle periphery monitoring method
JP5160643B2 (ja) 2007-07-12 2013-03-13 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
KR100918480B1 (ko) 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
US7979174B2 (en) 2007-09-28 2011-07-12 Honeywell International Inc. Automatic planning and regulation of the speed of autonomous vehicles
US8027029B2 (en) 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
EP2062778B1 (en) 2007-11-23 2013-07-31 SMR Patents S.à.r.l. Lane Change Control System
WO2009089125A2 (en) * 2008-01-04 2009-07-16 3M Innovative Properties Company Navigating among images of an object in 3d space
US7961301B2 (en) 2008-05-09 2011-06-14 Ball Aerospace & Technologies Corp. Flash LADAR system
US9493149B2 (en) 2008-07-02 2016-11-15 Michael Phelan Driver authentication system and method for monitoring and controlling vehicle usage
US8010285B1 (en) 2008-09-30 2011-08-30 Denise Jason A Electronic navigation related technology
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8344940B2 (en) 2009-01-22 2013-01-01 Mando Corporation Apparatus and sensor for adjusting sensor vertical alignment
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras
US20100231715A1 (en) 2009-03-11 2010-09-16 Delphi Technologies, Inc. Sideview Vision System Displaying A View Dependent Upon Transmission Selector
JP5278819B2 (ja) 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
US8611604B2 (en) 2009-06-03 2013-12-17 Chubu University Educational Foundation Object detection device
SE534188C2 (sv) 2009-06-10 2011-05-24 Scania Cv Ab Metod och modul för bestämning av börvärden till ett fordons styrsystem
TWI401610B (zh) 2009-07-03 2013-07-11 Shih Pi Ta Technology Ltd 一種派遣車輛之裝置及其操作方法
JP5286180B2 (ja) * 2009-07-22 2013-09-11 株式会社ケーヒン 乗員保護制御装置
JP5462110B2 (ja) 2009-09-22 2014-04-02 日本車輌製造株式会社 鉄道車両の制振用ダンパ
US8131848B1 (en) 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US9230292B2 (en) 2012-11-08 2016-01-05 Uber Technologies, Inc. Providing on-demand services through use of portable computing devices
US8400511B2 (en) 2009-12-04 2013-03-19 Lockheed Martin Corporation Optical detection and ranging sensor system for sense and avoid, and related methods
US8332109B2 (en) 2010-01-04 2012-12-11 GM Global Technology Operations LLC Closed-loop feedback control and reduction of the torque converter clutch slip for enhanced drivability for heavy tip-in maneuvers
US8385630B2 (en) 2010-01-05 2013-02-26 Sri International System and method of processing stereo images
US9041807B2 (en) 2010-01-29 2015-05-26 Fujitsu Ten Limited Image processing device and image processing method
US8573363B2 (en) 2010-02-12 2013-11-05 Snap-On Incorporated Apparatus for guiding a vehicle onto a service lift using a machine vision wheel alignment system
US8797828B1 (en) 2010-02-15 2014-08-05 Soreq NRC Remote optical seismic surveying and detection and imaging of underground objects
WO2011104706A1 (en) * 2010-02-23 2011-09-01 Ben-Gurion University Of The Negev Research And Development Authority A system and method for providing 3d imaging
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US8494687B2 (en) 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
WO2011111076A2 (en) 2010-03-12 2011-09-15 Logica Private Limited Multi-purpose intelligent cradle for a vehicle
JP5604146B2 (ja) 2010-03-25 2014-10-08 富士通テン株式会社 車載照明装置、画像処理装置、画像表示システム及び照明方法
US20110245964A1 (en) 2010-04-06 2011-10-06 Sullivan Robert P Self Aligning Automated Material Handling System
US20110241845A1 (en) 2010-04-06 2011-10-06 Sullivan Robert P Automated Material Handling System with Identification Features
US8417448B1 (en) 2010-04-14 2013-04-09 Jason Adam Denise Electronic direction technology
GB2523484B (en) * 2010-05-12 2016-04-13 Irobot Corp Remote vehicle control system and method
US8899903B1 (en) 2010-05-18 2014-12-02 The Boeing Company Vehicle base station
US20110317993A1 (en) * 2010-06-23 2011-12-29 Outwest Systems, Inc. Apparatus for Mounting a Webcam to Another Optical Instrument
JP5343042B2 (ja) * 2010-06-25 2013-11-13 株式会社トプコン 点群データ処理装置および点群データ処理プログラム
US8447098B1 (en) 2010-08-20 2013-05-21 Adobe Systems Incorporated Model-based stereo matching
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8692980B2 (en) 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
JP2012118666A (ja) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
PT3255613T (pt) 2010-12-15 2022-12-02 Auto Telematics Ltd Método e sistema para registar o comportamento de veículos
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9146559B2 (en) 2011-03-18 2015-09-29 The Raymond Corporation System and method for gathering video data related to operation of an autonomous industrial vehicle
US8433469B2 (en) 2011-03-18 2013-04-30 The Raymond Corporation Communication technique by which an autonomous guidance system controls an industrial vehicle
GB201106555D0 (en) 2011-04-19 2011-06-01 Tomtom Int Bv Taxi dispatching system
WO2012145822A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
US8924240B2 (en) 2011-05-25 2014-12-30 Shailendra Depura System for monitoring vehicle and operator behavior
US9424645B2 (en) * 2011-06-06 2016-08-23 Panasonic Intellectual Property Management Co., Ltd. Calibration device and calibration method for a stereo camera without placing physical markers
US11313678B2 (en) 2011-06-30 2022-04-26 The Regents Of The University Of Colorado Remote measurement of shallow depths in semi-transparent media
US10684362B2 (en) 2011-06-30 2020-06-16 The Regents Of The University Of Colorado Remote measurement of shallow depths in semi-transparent media
JP5740241B2 (ja) 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
US20130041508A1 (en) 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
US9453914B2 (en) 2011-09-08 2016-09-27 Continental Advanced Lidar Solutions Us, Inc. Terrain mapping LADAR system
US9815410B2 (en) 2012-08-29 2017-11-14 Smr Patents S.A.R.L. Side mirror assembly with stationary camera and telescoping mirror head
US9328526B2 (en) 2011-09-22 2016-05-03 Unitronics Automated Solutions Ltd Vehicle positioning system
US20130095920A1 (en) * 2011-10-13 2013-04-18 Microsoft Corporation Generating free viewpoint video using stereo imaging
WO2013067082A1 (en) 2011-11-01 2013-05-10 Magna Mirrors Of America, Inc. Vision system with door mounted exterior mirror and display
US9604581B2 (en) 2011-11-07 2017-03-28 Magna Electronics Inc. Vehicle vision system with color correction
US8693730B2 (en) * 2011-11-15 2014-04-08 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
KR101697512B1 (ko) 2011-12-15 2017-01-19 한국전자통신연구원 영상 정합 장치 및 방법
US10273704B2 (en) 2011-12-22 2019-04-30 Park Plus, Inc. Automated parking garage/self-storage apparatus
US9530060B2 (en) * 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US20130197736A1 (en) 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US20140139669A1 (en) 2012-01-30 2014-05-22 Steven Petrillo System and method for providing front-oriented visual information to vehicle driver
US9180890B2 (en) 2012-02-27 2015-11-10 Ford Global Technologies Smart adaptive cruise control
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
US8909375B2 (en) 2012-05-25 2014-12-09 The United States Of America, As Represented By The Secretary Of The Navy Nodding mechanism for a single-scan sensor
DE102012012501B4 (de) 2012-06-21 2019-10-24 Volkswagen Aktiengesellschaft Kamerasystem für ein Kraftfahrzeug
US9492065B2 (en) * 2012-06-27 2016-11-15 Camplex, Inc. Surgical retractor with video cameras
US9228833B2 (en) * 2012-06-28 2016-01-05 GM Global Technology Operations LLC Wide baseline binocular object matching method using minimal cost flow network
KR101380888B1 (ko) 2012-07-24 2014-04-02 현대모비스 주식회사 차간 거리 산출 장치 및 방법
US20140067434A1 (en) 2012-08-30 2014-03-06 Agero, Inc. Methods and Systems for Providing Risk Profile Analytics
US9139135B2 (en) 2012-09-07 2015-09-22 Musaid A. ASSAF System and method that minimizes hazards of blind spots while driving
US8994581B1 (en) 2012-09-25 2015-03-31 Adam Brown Direction of arrival (DOA) estimation using multiple offset receive channels
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9633564B2 (en) 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
RU2571871C2 (ru) 2012-12-06 2015-12-27 Александр ГУРЕВИЧ Способ определения границ дороги, формы и положения объектов, находящихся на дороге, и устройство для его выполнения
JP5935999B2 (ja) 2012-12-29 2016-06-15 株式会社Zmp タクシーサービス支援システム
DE102013200427B4 (de) 2013-01-14 2021-02-04 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Rundumsichtbildes einer Fahrzeugumgebung eines Fahrzeugs, Verfahren zum Bereitstellen zumindest einer Fahrerassistenzfunktion für ein Fahrzeug, Rundumsichtsystem für ein Fahrzeug
US9789788B2 (en) 2013-01-18 2017-10-17 Ford Global Technologies, Llc Method and apparatus for primary driver verification
US20140320629A1 (en) 2013-01-24 2014-10-30 University Of Washington Through Its Center For Commericialization Haptically-Enabled Co-Robotics for Underwater Tasks
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9128190B1 (en) 2013-03-06 2015-09-08 Google Inc. Light steering device with an array of oscillating reflective slats
US9110169B2 (en) 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US8965561B2 (en) 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts
EP2968709B1 (en) 2013-03-15 2019-10-02 ClearMotion, Inc. Active vehicle suspension improvements
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US20140286744A1 (en) 2013-03-21 2014-09-25 Unitronics Parking Solutions Ltd. Vehicle centering system
KR101462034B1 (ko) 2013-04-16 2014-11-19 홍서현 콜택시 서비스 제공시스템 및 콜택시 서비스 제공방법
US9600768B1 (en) 2013-04-16 2017-03-21 Google Inc. Using behavior of objects to infer changes in a driving environment
US9674490B2 (en) 2013-04-18 2017-06-06 Magna Electronics Inc. Vision system for vehicle with adjustable cameras
US20140347440A1 (en) 2013-05-23 2014-11-27 Sylvester Hatcher Omnidirectional Vehicle Camera System
US9110163B2 (en) 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9487142B2 (en) 2013-06-25 2016-11-08 Magna Mirrors Of America, Inc. Rearview mirror assembly for vehicle
US9719801B1 (en) 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
US9224053B1 (en) 2013-07-31 2015-12-29 Google Inc. Combining multiple estimates of an environment into a consolidated estimate for an autonomous vehicle
US20150042640A1 (en) 2013-08-07 2015-02-12 Cherif Atia Algreatly Floating 3d image in midair
US9201424B1 (en) 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
US9578025B2 (en) 2013-10-14 2017-02-21 Zumigo, Inc. Mobile network-based multi-factor authentication
KR102184766B1 (ko) 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
US9517771B2 (en) 2013-11-22 2016-12-13 Ford Global Technologies, Llc Autonomous vehicle modes
US9509979B2 (en) 2013-11-26 2016-11-29 Mobileye Vision Technologies Ltd. Stereo auto-calibration from structure-from-motion
US20140327775A1 (en) 2013-12-04 2014-11-06 Kyu Hwang Cho Mirrorless Driving of Automotive Vehicle Using Digital Image Sensors and Touchscreen
US9231998B2 (en) 2014-01-22 2016-01-05 Ford Global Technologies, Llc Vehicle-specific computation management system for cloud computing
US9989967B2 (en) 2014-03-04 2018-06-05 Cybernet Systems Corporation All weather autonomously driven vehicles
JP6087858B2 (ja) 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
US9407896B2 (en) 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9933521B2 (en) 2014-04-14 2018-04-03 The Boeing Company Aerial positioning systems and methods
CN105025193B (zh) 2014-04-29 2020-02-07 钰立微电子股份有限公司 手提式立体扫描仪和产生对应对象的立体扫描结果的方法
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6260462B2 (ja) 2014-06-10 2018-01-17 株式会社デンソー 運転支援装置
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
US9403491B2 (en) 2014-08-28 2016-08-02 Nissan North America, Inc. Vehicle camera assembly
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US9639951B2 (en) 2014-10-23 2017-05-02 Khalifa University of Science, Technology & Research Object detection and tracking using depth data
US9804594B2 (en) 2014-11-07 2017-10-31 Clearpath Robotics, Inc. Self-calibrating sensors and actuators for unmanned vehicles
US20160129838A1 (en) 2014-11-11 2016-05-12 Garfield Ron Mingo Wide angle rear and side view monitor
US9892296B2 (en) 2014-11-12 2018-02-13 Joseph E. Kovarik Method and system for autonomous vehicles
US9278689B1 (en) 2014-11-13 2016-03-08 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to emergency vehicles
US10046703B2 (en) 2014-12-12 2018-08-14 Serge B. HOYDA System and process for viewing in blind spots
JP6769010B2 (ja) 2015-01-16 2020-10-14 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ ステレオカメラの自己調整
US9412034B1 (en) 2015-01-29 2016-08-09 Qualcomm Incorporated Occlusion handling for computer vision
US20160231746A1 (en) 2015-02-06 2016-08-11 Delphi Technologies, Inc. System And Method To Operate An Automated Vehicle
JP6337811B2 (ja) 2015-03-17 2018-06-06 トヨタ自動車株式会社 画像処理装置及び画像処理方法
US9625582B2 (en) 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
EP3147150B1 (en) 2015-03-27 2018-09-26 Panasonic Intellectual Property Management Co., Ltd. Method for adjusting position of vehicular display apparatus
US9555736B2 (en) 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
US9880263B2 (en) 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US10300804B2 (en) 2015-04-29 2019-05-28 General Electric Company Apparatus and method for automated positioning of a vehicle
US20160349746A1 (en) 2015-05-29 2016-12-01 Faro Technologies, Inc. Unmanned aerial vehicle having a projector and being tracked by a laser tracker
US9884631B2 (en) 2015-06-04 2018-02-06 Toyota Motor Engineering & Manufacturing North America, Inc. Transitioning between operational modes of an autonomous vehicle
US10373378B2 (en) 2015-06-26 2019-08-06 Paccar Inc Augmented reality system for vehicle blind spot prevention
US9937922B2 (en) 2015-10-06 2018-04-10 Ford Global Technologies, Llc Collision avoidance using auditory data augmented with map data
US9720415B2 (en) 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
CN108369274B (zh) 2015-11-05 2022-09-13 路明亮有限责任公司 用于高分辨率深度映射的具有经改进扫描速度的激光雷达***
EP3411660A4 (en) 2015-11-30 2019-11-27 Luminar Technologies, Inc. LIDAR SYSTEM WITH DISTRIBUTED LASER AND MULTIPLE SENSOR HEADS AND PULSED LASER FOR LIDAR SYSTEM
US9432929B1 (en) 2015-12-08 2016-08-30 Uber Technologies, Inc. Communication configuration system for a fleet of automated vehicles
US9785150B2 (en) 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US9841763B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9840256B1 (en) 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
US9752341B2 (en) 2016-02-09 2017-09-05 Space Maker International Inc. Vehicle parking with automated guided vehicles, vertically reciprocating conveyors and safety barriers
US9902311B2 (en) 2016-02-22 2018-02-27 Uber Technologies, Inc. Lighting device for a vehicle
US10114113B2 (en) 2016-03-02 2018-10-30 Ford Global Technologies, Llc Ultrasound range correction
US9902403B2 (en) 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
US9789880B2 (en) 2016-03-03 2017-10-17 Uber Technologies, Inc. Sensory stimulation system for an autonomous vehicle
US9616896B1 (en) 2016-03-15 2017-04-11 Uber Technologies, Inc. System for switching control of an autonomous vehicle
US9672446B1 (en) 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10372126B2 (en) 2016-05-27 2019-08-06 Cnh Industrial America Llc Dynamic in-cabin autonomous vehicle control systems
US10469821B2 (en) 2016-06-17 2019-11-05 Altek Semiconductor Corp. Stereo image generating method and electronic apparatus utilizing the method
US9881503B1 (en) 2016-09-08 2018-01-30 GM Global Technology Operations LLC Vehicle-to-pedestrian-communication systems and methods for using the same
US9869754B1 (en) 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
US9904375B1 (en) 2017-04-10 2018-02-27 Uber Technologies, Inc. LIDAR display systems and methods

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020135468A1 (en) * 1997-09-22 2002-09-26 Donnelly Corporation, A Corporation Of The State Of Michigan Vehicle imaging system with accessory control
EP1086859A1 (en) * 1999-09-22 2001-03-28 Fuji Jukogyo Kabushiki Kaisha Structure for mounting cameras on a vehicle
JP2001242521A (ja) * 2000-02-28 2001-09-07 Fuji Heavy Ind Ltd カメラの組み立て構造、カメラの調整方法、および調整用治具
JP2003084357A (ja) * 2001-09-14 2003-03-19 Kyocera Corp 大型ステレオカメラの取付構造
CN100519029C (zh) * 2002-01-25 2009-07-29 创科实业有限公司 光束校准***
EP1473193A1 (de) * 2003-04-29 2004-11-03 Robert Bosch Gmbh Vorrichtung zur Kühlung einer Kamera
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
EP1816514A1 (en) * 2004-11-15 2007-08-08 Hitachi, Ltd. Stereo camera
CN101959022A (zh) * 2009-07-17 2011-01-26 深圳泰山在线科技有限公司 一种同步电路和摄像装置及其同步曝光控制方法
DE102010062496A1 (de) * 2010-12-07 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
CN102857592A (zh) * 2011-06-01 2013-01-02 Lg电子株式会社 移动终端及其3d图像显示方法
CN102710945A (zh) * 2011-10-24 2012-10-03 中山市中科微电子研究中心 变焦立体成像和显示***
CN102494609A (zh) * 2011-11-18 2012-06-13 李志扬 一种基于激光探针阵列的三维摄影方法及装置
CN103152518A (zh) * 2011-12-01 2013-06-12 索尼公司 图像处理***和方法
CN103179339A (zh) * 2011-12-01 2013-06-26 索尼公司 图像处理***和方法
CN103146355A (zh) * 2011-12-07 2013-06-12 北京中石伟业科技股份有限公司 一种吸热材料
CN103001428A (zh) * 2012-12-26 2013-03-27 上海摩软通讯技术有限公司 扁平马达和移动终端
CN203353019U (zh) * 2013-05-28 2013-12-18 东莞劲胜精密组件股份有限公司 一种石墨烯金属散热片和电子产品散热结构

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
连晓峰: "《移动机器人及室内环境三维模型重建技术》", 31 August 2010 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109690622A (zh) * 2016-06-29 2019-04-26 醒眸行有限公司 多相机***中的相机登记
CN106043169A (zh) * 2016-07-01 2016-10-26 百度在线网络技术(北京)有限公司 环境感知设备和应用于环境感知设备的信息获取方法
CN106093710B (zh) * 2016-08-19 2018-12-18 江西师范大学 一种基于物联网技术的线管智能监控装置
CN106093710A (zh) * 2016-08-19 2016-11-09 江西师范大学 一种基于物联网技术的线管智能监控装置
CN109952488A (zh) * 2016-09-09 2019-06-28 优质视觉技术国际公司 用于测量机器的具有多个传感器的铰接头
CN109952488B (zh) * 2016-09-09 2021-02-02 优质视觉技术国际公司 用于测量机器的具有多个传感器的铰接头
CN106524906A (zh) * 2016-10-13 2017-03-22 深圳市速腾聚创科技有限公司 激光扫描仪归位方法及激光扫描仪
CN106524906B (zh) * 2016-10-13 2019-03-26 深圳市速腾聚创科技有限公司 激光扫描仪归位方法及激光扫描仪
US11703597B2 (en) 2016-11-10 2023-07-18 Leica Geosystems Ag Laser scanner
CN110050200A (zh) * 2016-11-10 2019-07-23 莱卡地球***公开股份有限公司 激光扫描仪
CN110603571B (zh) * 2017-04-26 2023-11-03 Abb瑞士股份有限公司 用于操作机器人的机器人***和方法
CN110603571A (zh) * 2017-04-26 2019-12-20 Abb瑞士股份有限公司 用于操作机器人的机器人***和方法
CN109959939A (zh) * 2017-12-22 2019-07-02 北京万集科技股份有限公司 基于激光扫描的对象跟踪方法及装置
CN109959939B (zh) * 2017-12-22 2021-04-06 北京万集科技股份有限公司 基于激光扫描的对象跟踪方法及装置
CN110385701A (zh) * 2018-04-19 2019-10-29 远大机器人有限公司 多节式致动的运动机构,优选机器人,特别优选关节型机器人
CN112654841A (zh) * 2018-07-06 2021-04-13 云海智行股份有限公司 用于校准架置在设备上的传感器的***、方法和装置
CN109141364B (zh) * 2018-08-01 2020-11-03 北京进化者机器人科技有限公司 障碍物检测方法、***及机器人
CN109141364A (zh) * 2018-08-01 2019-01-04 北京进化者机器人科技有限公司 障碍物检测方法、***及机器人
CN110868582A (zh) * 2018-08-28 2020-03-06 钰立微电子股份有限公司 具有校正功能的图像获取***
CN110868582B (zh) * 2018-08-28 2022-06-03 钰立微电子股份有限公司 具有校正功能的图像获取***
US11688102B2 (en) 2018-08-28 2023-06-27 Eys3D Microelectronics, Co. Image capture system with calibration function
CN110796242A (zh) * 2019-11-01 2020-02-14 广东三维家信息科技有限公司 神经网络模型推理方法、装置、电子设备及可读介质
CN111142315A (zh) * 2020-02-25 2020-05-12 北京工业大学 近地激光照明装置
CN113703160A (zh) * 2020-05-08 2021-11-26 宏碁股份有限公司 虚拟现实定位装置及其制作方法、虚拟现实定位***
CN112650298B (zh) * 2020-12-30 2021-08-17 广东工业大学 一种无人机追踪降落方法及***
CN112650298A (zh) * 2020-12-30 2021-04-13 广东工业大学 一种无人机追踪降落方法及***
CN112954217A (zh) * 2021-02-25 2021-06-11 维沃移动通信有限公司 电子设备及对焦方法
CN112801225B (zh) * 2021-04-01 2021-06-18 中国人民解放军国防科技大学 极限工况下自动驾驶多传感器融合感知方法及***
CN112801225A (zh) * 2021-04-01 2021-05-14 中国人民解放军国防科技大学 极限工况下自动驾驶多传感器融合感知方法及***

Also Published As

Publication number Publication date
JP2016513804A (ja) 2016-05-16
EP2972478A2 (en) 2016-01-20
AU2014239979B2 (en) 2017-06-22
CA2902430C (en) 2020-09-01
JP6514681B2 (ja) 2019-05-15
AU2014239979A1 (en) 2015-09-17
WO2014152254A2 (en) 2014-09-25
WO2014152254A3 (en) 2014-11-13
CN105164549B (zh) 2019-07-02
EP2972478A4 (en) 2016-11-09
US20160227193A1 (en) 2016-08-04
KR20150130511A (ko) 2015-11-23
US10412368B2 (en) 2019-09-10
CA2902430A1 (en) 2014-09-25
EP2972478B1 (en) 2020-12-16
KR101803164B1 (ko) 2017-12-28

Similar Documents

Publication Publication Date Title
CN105164549A (zh) 用于机器人的多传感立体视觉的方法、***和设备
Zhu et al. The multivehicle stereo event camera dataset: An event camera dataset for 3D perception
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
JP6552729B2 (ja) 異なる分解能を有するセンサーの出力を融合するシステム及び方法
CN108594245A (zh) 一种目标物运动监测***及方法
CN110517216A (zh) 一种基于多类型相机的slam融合方法及其***
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
CN108603933B (zh) 用于融合具有不同分辨率的传感器输出的***和方法
Albl et al. From two rolling shutters to one global shutter
CN101900552B (zh) 经纬摄像机摄像测量方法
US10992879B2 (en) Imaging system with multiple wide-angle optical elements arranged on a straight line and movable along the straight line
Bapat et al. Towards kilo-hertz 6-dof visual tracking using an egocentric cluster of rolling shutter cameras
CN113947134A (zh) 一种复杂地形下多传感器配准融合***及方法
Lemkens et al. Multi RGB-D camera setup for generating large 3D point clouds
Li et al. Durlar: A high-fidelity 128-channel lidar dataset with panoramic ambient and reflectivity imagery for multi-modal autonomous driving applications
US11039120B2 (en) Imaging apparatus
Johnson et al. A distributed cooperative framework for continuous multi-projector pose estimation
CN116027351A (zh) 一种手持/背包式slam装置及定位方法
Jaramillo et al. GUMS: A generalized unified model for stereo omnidirectional vision (demonstrated via a folded catadioptric system)
Agrawal et al. RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth
US20230141515A1 (en) System and method for stereoscopic image analysis
Fusiello Three-dimensional vision for structure and motion estimation
Wei et al. A semantic slam system based on visual-inertial information and around view images for underground parking lot
CN111300426B (zh) 一种高智能人型机器人感测头的控制***
Kaarre Hardware for Mobile Positioning: Considerations on Design and Development of Cost-Efficient Solutions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210331

Address after: American Delaware

Patentee after: Uatc Co.,Ltd.

Address before: California, USA

Patentee before: Uber Technologies, Inc.

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: Pennsylvania, USA

Patentee after: Uatc Co.,Ltd.

Country or region after: U.S.A.

Address before: Delaware USA

Patentee before: Uatc Co.,Ltd.

Country or region before: U.S.A.

CP03 Change of name, title or address
TR01 Transfer of patent right

Effective date of registration: 20240429

Address after: Pennsylvania, USA

Patentee after: Aurora operations

Country or region after: U.S.A.

Address before: Pennsylvania, USA

Patentee before: Uatc Co.,Ltd.

Country or region before: U.S.A.

TR01 Transfer of patent right