CN109961001A - 对空间成像数据的自适应处理 - Google Patents

对空间成像数据的自适应处理 Download PDF

Info

Publication number
CN109961001A
CN109961001A CN201811391595.2A CN201811391595A CN109961001A CN 109961001 A CN109961001 A CN 109961001A CN 201811391595 A CN201811391595 A CN 201811391595A CN 109961001 A CN109961001 A CN 109961001A
Authority
CN
China
Prior art keywords
value
adjustable parameters
range
visual field
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811391595.2A
Other languages
English (en)
Inventor
R·查托帕德亚
M·L·马丁内兹-卡纳莱斯
V·沙尔玛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN109961001A publication Critical patent/CN109961001A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

机器视觉处理包括:捕捉表示视场并且包括对视场内的各个点的测距测量的3D空间数据;将分段算法应用于3D空间数据以产生指示视场内的个体物体的存在的分段评估,其中分段算法基于至少一个可调整参数;以及基于测距测量调整至少一个可调整参数的值。分段评估基于对3D空间数据应用分段算法,且至少一个可调整参数值的不同值与视场内的各个点的测距测量的不同值相对应。

Description

对空间成像数据的自适应处理
技术领域
本文描述的实施例一般涉及感测、测量和数据处理,并且更具体地涉及可被用于机器视觉和物体检测中的三维空间测量的数据处理。
背景技术
各种三维(3D)空间测量技术是可用的,并且为促进机器视觉而不断发展。在众多应用中,自主车辆表示需要有效且稳健的机器视觉技术的快速成长的部分。
在自主车辆控制的情境中,期望让***识别可能遭遇的各种不同物体(诸如,其他车辆、行人、自行车、树、建筑物、桥和其他基础结构、以及诸如颠簸和坑洼、建筑栅栏、废墟、动物之类的障碍等)。当自主车辆识别不同类型的物体时,可预测它们的各种表现以增加自主车辆的安全性和舒适性。
在物体可被机器视觉***识别之前,必须先从其环境之中检测它们。此检测过程被称为分段。存在着改进分段操作的性能和计算效率的持续需要,以提供更高效、可靠和价格实惠的机器视觉解决方案。
附图说明
在附图中(这些附图不一定是按比例绘制的),相同的数字可以描述不同视图中的类似的组件。具有不同的字母后缀的相同的数字可以表示类似组件的不同实例。在附图中的图表中通过示例而非限制地图示一些实施例。
图1A是例示出其中存在各种物体的3D捕捉设备的示例视场的示图。
图1B是例示出来自给定经验场景的LiDAR返回的示例分布的图。
图2是例示出通用机器形式的计算机***的框图,该计算机***可被合并为便携、车载、固定或分布式计算***的部分。
图3A是例示出计算设备(诸如,图2中描绘的计算设备)的示例性硬件和软件架构的图,其中根据一些实施例示出硬件组件和软件组件之间的各种接口。
图3B是例示出根据一些实施例的可实现于计算设备上的处理设备的示例的框图。
图3C是例示出根据各种实施例的处理设备的示例组件的框图。
图4是例示出根据一些示例实施例的用于与自主车辆控制***一起使用的机器视觉***的部分的***框图。
图5是例示出根据一些实施例的执行自适应分段评估的示例过程的流程图。
图6是例示出用于选择分段算法的示例过程的流程图。
图7是例示出根据一些实施例的示例校准过程的流程图。
具体实施方式
以下的描述和附图充分示出了具体实施例,以使本领域技术人员能够实施。其他实施例可结合结构、逻辑、电气、过程、以及其他变化。一些实施例的多个部分和特征可被包括在其他实施例的多个部分和特征中,或者替换其他实施例的多个部分和特征。在权利要求中阐述的实施例涵盖了那些权利要求的所有可用等同。
实施例的方面可被实现为数据处理和计算平台的部分。数据处理和计算平台可以是一个物理机器,或者可分布于多个物理机器之中(诸如,依据角色或功能,或者依据云计算分布模型的情形中的进程线程)。在各种实施例中,本发明的方面可被配置成在虚拟机中运行,这些虚拟机进而在一个或多个物理机器上执行。本领域技术人员将理解本主题的方面的特征可通过不同的合适机器实现来实现。
实施例的方面涉及基于测量信号本身的内容来调整3D空间测量分析参数。对参数的调整可促进在进行测量的不同条件下对物体的检测或识别。例如,可变条件可以是与被测量物体的距离。另一可变条件可以是环境条件,诸如能见度,能见度进而可取决于天气或空气质量条件,诸如晴天、雨、雾、尘、污染、或其他颗粒物、雪等。可变环境条件的另一示例是环境光照、阴影、相对于观测场的太阳位置或月球位置、或(诸)其他照明源。
在各种实施例中,预期不同的3D空间测量形式。光检测和测距(LiDAR)是3D空间测量形式的示例。其经由通过用脉冲激光来照射物体并用传感器来测量反射脉冲来测量与物体的距离而起作用。激光返回时间和波长的的差异被用于物体的数字3D表示,包括物体与测量点的距离、其轮廓、以及表面轮廓。进而,数字3D表示的特征可被用于从已知物体的库中识别被测量物体。
可利用其他3D空间测量技术,不管是当前已知的还是在未来出现的。例如,配置成扫描表面和测量距离的3D捕捉设备可以是利用激光测距、立体视觉或其他合适技术而具有3D扫描能力的相机。在相关示例中,3D捕捉设备可包括技术的混合化,诸如与使用无线电检测和测距(RADAR)而超声地获得的3D距离测量协作地产生输出的图像捕捉设备(诸如,数字相机)等,其中所捕捉图像可被覆盖或以其他方式映射至3D距离测量。
下文描述的各种示例预期将LiDAR***用作实际的3D捕捉设备。然而,应该理解,可利用任何合适的3D捕捉形式,或者诸形式的组合。通常,来自3D捕捉设备的输出(不管是LiDAR还是另一类型)包括测距、或者距离、标记。例如,输出包括3D捕捉设备的视场内的被测量距离的点云。
分段作为信号处理的部分而在点云上执行以检测物体的存在。根据一些示例,如将在下文进一步详细描述的,分段操作标识点云数据中与3D捕捉设备的视场中的不同物体相对应的聚类(clusters)。点的聚类表示可检测物体。
图1A是例示出其中存在各种物体的3D捕捉设备的示例视场的示图。如所例示的,视场100是如可由自主车辆看到的透视图。附近物体包括行人102和车辆104。中间距离处的物体包括树108、自行车和人106、人110、以及车辆112。远处物体包括车辆114和人116。当被3D捕捉设备扫描时,视场100可被表示为具有位于各种物体的相应表面处的点的点云。每个点的位置可在笛卡尔、圆柱、球形或其他合适的三维坐标系中表示。
对点云数据进行分段或聚类的一个挑战在于:3D数据在视场100中的不均匀分布。这可归因于来自与测量点相距不同距离的物体的LiDAR返回信号的差异。例如,由于各种测量配置、环境和其他条件,来自远处物体的LiDAR返回信号可能太弱以至于无法检测,或者可能与点云中的少量点相对应。
图1B是例示出来自给定经验场景的LiDAR返回的分布152的图。在组合的高度和宽度维度上,沿水平轴的范围值表示从测量工具至点云的对应点的距离(例如,米),而垂直轴表示每个距离处的LiDAR返回的空间分布。分布152示出近距离处的LiDAR返回的较高密度,以及较远距离处的返回的总体较低密度。曲线154表示密度函数。曲线154的形状可为经验场景内的物体的相对定位、距离测量工具的类型所特有,以及取决于各种环境条件。
根据实施例的某些方面,响应于点云密度函数来动态地调整分段算法的参数。某些实施例主要基于与每个候选区段的测量距离来调整每个候选区段的分段函数参数。相应地,对于给定视场(诸如,视场100),可用不同的分段算法参数值来处理给定视场中的各种物体。
在相关类型的实施例中,用相同的分段参数值来处理相同或类似距离处的候选区段。可基于特定相似性标准(诸如例如,落入公共范围带内)来定义范围的相似性。
在实施例的相关方面中,响应于占优(prevailing)环境条件来进一步调整分段算法的参数,这些占优环境不同地影响不同距离处的点云分布。
各种算法被预期用于执行分段操作。在各种实施例中,可使用一个或多个聚类算法。在各种实施例中,可使用一个或多个分类算法。在各种实施例中,可使用一个或多个机器学习算法。这些类型的算法中的一个或多个自身可与其他类型的一个或多个算法组合。根据实施例的方面,每个算法具有其服从于调整的特定参数。下文更详细地提供各种实施例,但应该认识到,本主题的原理同样适用于未在本说明书中具体提及的其他分段算法以及其对应的可变参数,不管是已知的还是将在未来出现的。
根据各实施例的信号处理和计算平台可包括适用于执行其操作的计算架构。在各种应用中,对照执行那些操作所需的计算性能来平衡大小、重量和成本约束。如下文更全面详细描述的,预期多个实际实现,并且所要求保护的主题的范围不应限于本文描述的任何特定示例,除非在对应权利要求中明确指出。可用一个或多个超大规模集成(VLSI)电路中的专门制作的电子器件、用一个或多个现场可编程门阵列(FPGA)、用执行指令的基于处理器的***、或者用这些类型的设备的某些组合来实现信号处理和计算平台的部分。
作为合适计算平台的示例,图2是例示出通用机器形式的计算机***200的框图,该计算机***可被合并为便携、车载、固定或分布式计算***的部分。在某些实施例中,根据一个或多个特定算法对计算机***200的编程在执行此编程之际产生专用机器。在被联网的部署中,计算机***可在服务器-客户机网络环境中作为服务器或客户机来进行操作,或者可在对等(或分布式)网络环境中担当对等机器。如将在下文某些示例中讨论的,设备能以交替方式在客户机模式或服务器模式下操作,这取决于其对于事务或消息是发起者还是响应者。
示例计算机***200包括至少一个处理器202(例如,中央处理单元(CPU)、图形处理单元(GPU)或这两者、处理器核、计算节点等)、主存储器204和静态存储器206,这些组件经由链路208(例如,总线)彼此通信。计算机***200可进一步包括视频显示单元210、输入设备212(例如,成像传感器接口)、以及用户界面(UI)导航设备214(例如,鼠标)。根据各种实施例,视频显示单元可包括复杂的用户交互显示器,或者简单的数字或字母数字显示器。在一个实施例中,视频显示单元210、输入设备212和UI导航设备214被结合到触屏显示器中。计算机***200可附加地包括存储设备216(例如,驱动单元)、信号生成设备218(例如,扬声器)、网络接口设备(NID)220及一个或多个传感器(未示出),诸如全球定位***(GPS)传感器、罗盘、加速度计或其他传感器。
存储设备216包括机器可读介质222,在该机器可读介质222上储存有一组或多组数据结构和指令224(例如,软件),该一组或多组数据结构和指令224具体化本文所描述的方法或功能中的一者或多者,或者由本文中所描述的方法或功能中的一者或多者所利用。在由计算机***200执行指令224期间,该指令224也可完全地或至少部分地驻留在主存储器204、静态存储器206内,和/或处理器202内,主存储器204、静态存储器206和处理器202也构成机器可读介质。
虽然机器可读介质222在示例实施例中被例示为单个介质,但术语“机器可读介质”可包括存储一条或多条指令224的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“机器可读介质”也应当认为包括任何有形介质,该有形介质能够存储、编码或携带由机器执行并且使机器执行本公开的任何一种或多种方法的指令,或者能够储存、编码或携带由此类指令利用或与此类指令相关联的数据结构。术语“机器可读介质”应当相应地认为包括但不限于:固态存储器以及光和磁介质。机器可读介质的特定示例包括非易失性存储器,作为示例,包括但不限于:半导体存储器设备(例如,电可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM))和闪存设备;诸如内部硬盘及可移动盘之类的磁盘;磁光盘;以及CD-ROM和DVD-ROM盘。
根据各种实施例的NID 220可采用任何合适的形状因子。在一个此类实施例中,NID 220是经由链路208与处理器202接口的网络接口卡(NIC)的形式。在一个示例中,链路208包括PCI快速(PCIe)总线,包括NIC形状因子能可移动地接合到其中的插槽。在另一实施例中,NID 220是与本地链路电路***、处理器接口电路***、其他输入/输出电路***、存储器电路***、存储设备和***控制器电路***等一起布置于主板上的网络接口电路。在另一实施例中,NID 220是经由***输入/输出端口(诸如,通用串行总线(USB)端口)与链路208接口的***。NID 220通过传输介质226(其可以是有线或无线(例如,无线电频率、红外或可见光谱等)、光纤等)传送和接收数据,
图3A是例示出计算设备(诸如,图2中描绘的计算设备)的示例性硬件和软件架构的图,其中硬件组件和软件组件之间的各种接口被示出。如HW所指示的,硬件组件在分隔线下方被表示,而由SW表示的软件组件驻留在分隔线之上。在硬件侧,处理设备302(其可包括一个或多个微处理器、数字信号处理器等,每一个具有一个或多个处理器核)与存储器管理设备304和***互连306接口。存储器管理设备304提供正被执行的进程使用的虚拟存储器与物理存储器之间的映射。存储器管理设备304可以是中央处理单元的集成部分,该中央处理单元还包括处理设备302。
互连306包括背板(诸如,存储器、数据和控制线)以及与输入/输出设备(例如,PCI、USB等)的接口。存储器308(例如,动态随机存取存储器-DRAM)和诸如闪存(例如,电可擦除只读存储器-EEPROM、NAND闪存、NOR闪存等)之类的非易失性存储器309经由存储器控制器310与存储器管理设备304和互连306接口。在一些实施例中,此架构可支持由***设备进行的直接存储器访问(DMA)。I/O设备(包括视频和音频适配器、非易失性存储、外部***链路(诸如USB、蓝牙等)),以及网络接口设备(诸如经由Wi-Fi或LTE系列接口进行通信的那些)被共同表示为I/O设备和联网312,该I/O设备和联网312经由对应的I/O控制器314与互连306接口。
在软件侧,预操作***(pre-OS)环境316在初始***启动时被执行并且负责启动操作***的引导。Pre-OS环境316的一个传统示例是***基本输入/输出***(BIOS)。在当今的***中,已实现统一可扩展固件接口(UEFI)。Pre-OS环境316负责发起操作***的启动,但根据本发明的某些方面,其也为嵌入式应用提供执行环境。
操作***(OS)318提供内核,该内核控制硬件设备、管理存储器中程序的存储器访问、协调任务并促进多任务、组织要存储的数据、指派存储器空间和其他资源、将程序二进制代码加载到存储器、启动应用程序的执行而后与用户和硬件设备进行交互并且检测并响应各种定义的中断。同样,操作***318提供设备驱动程序以及各种公共服务(诸如促进与***设备和联网接口的那些服务),这些服务为应用程序提供抽象化,以便应用程序不需要负责处理此类公共操作的细节。操作***318附加地提供图形用户界面(GUI),该图形用户界面(GUI)经由***设备(诸如,监视器、键盘、鼠标、麦克风、视频相机、触摸屏等)来促进与用户的交互。
运行时***320实现执行模型的部分,包括诸如在函数调用之前将参数放入栈、盘输入/输出(I/O)的行为以及并行执行相关行为之类的操作。运行时***320还可执行支持服务,诸如类型检查、调试或者代码生成和优化。
库322包括为应用程序提供进一步抽象化的程序功能的集合。例如,这些包括共享库、动态链接库(DLL)。库322可集成至操作***318、运行时***320,或者可以是附加特征,或者甚至是远程主存的。库322定义了应用程序接口(API),应用程序324可通过该应用程序接口(API)进行各种功能调用以调用由操作***318提供的服务。应用程序324是执行对用户有用的任务的那些程序,这些任务超过协调计算设备本身的基础可操作性的较低级***程序所执行的任务。
图3B是例示出根据某些实施例的处理设备302的框图。在一个实施例中,所描绘的处理设备302中的两个或更多个形成于公共半导体衬底上。根据处理器的特定架构,CPU340可包含一个或多个处理核342,处理核342中的每一个具有一个或多个算术逻辑单元(ALU)、指令取出单元、指令解码单元、控制单元、寄存器、数据堆栈指针、程序计数器、以及其他必要组件。作为示例性示例,CPU 340可以是x86型处理器。处理设备302还可包括图形处理单元(GPU)344。在这些实施例中,GPU 344可以是从CPU 340卸载特定计算密集型操作,尤其是与图形渲染相关联的那些操作的专用协处理器。显然,CPU 340和GPU 344一般协同工作,共享对存储器资源、I/O通道的访问等。
在一些实施例中,处理设备302还可包括看守(caretaker)处理器346。看守处理器346一般不像CPU 340和GPU 344那样参与处理用于执行软件代码的工作。在一些实施例中,看守处理器346不与CPU 340和GPU 344共享存储器空间,并且因此不被布置成执行操作***或应用程序。替代地,看守处理器346可执行支持CPU 340、GPU 344或计算机***的其他组件的技术工作的专用固件。在一些实施例中,看守处理器被实现为微控制器设备,其可与CPU 340存在于同一集成电路管芯上,或者可存在于不同集成电路管芯上。看守处理器346还可包括用于使看守处理器346能够与外部实体通信的专用I/O设施集合。在一种类型的实施例中,使用易管理引擎(ME)或平台安全处理器(PSP)来实现看守处理器346。输入/输出(I/O)控制器348协调各种处理设备340、344、346之间,以及与外部电路***(诸如,***互连)的信息流。
图3C是例示出根据各种实施例的CPU 340的示例组件的框图。如所描绘的,CPU340包括一个或多个核352、高速缓存354、以及CPU控制器356,该CPU控制器356协调(诸)核352的互操作和任务,以及提供接口,该接口用于促进CPU 340的各种内部组件之间、以及与外部组件(诸如,存储器总线或***互连)的数据流。在一个实施例中,CPU 340的所有示例组件形成于共同半导体衬底上。
CPU 340包括非易失性存储器358(例如,闪存、EEPROM等),用于存储基本代码的特定部分(诸如,初始化引擎)和微代码。同样,CPU 340可与存储由初始化引擎启动的基本代码(诸如,***BIOS或UEFI代码)的外部(例如,形成于分开的IC上)非易失性存储器设备360接口。
图4是例示出根据一些示例实施例的用于与自主车辆控制***一起使用的机器视觉***400的部分的***框图。如所例示的,***400由许多子***、组件、电路、模块或引擎组成,虽然为了简便和一致性,上述各项都被称为引擎,但将理解这些术语可互换地使用。能以硬件、或者由软件或固件控制的硬件来实现引擎。如此,引擎是专用于执行指定操作的有形实体且可按特定方式来配置或布置。
在示例中,能以指定方式将电路(例如,内部地或者相对于诸如其他电路之类的外部实体)布置为引擎。在示例中,一个或多个硬件处理器的全部或部分可由固件或软件(例如,指令、应用部分、或者应用)配置为操作用于执行所指定操作的引擎。在示例中,软件可驻留在机器可读介质上。在示例中,软件在由引擎的底层硬件执行时,使此硬件执行指定的操作。因此,引擎被物理地构建、具体地配置(例如,硬连线)、或者临时地(例如,瞬态地)配置(例如,编程)从而以指定方式操作或者执行本文中所描述的任何操作的部分或全部。
考虑到其中临时配置引擎的示例,这些引擎中的每一个不需要在任何一个时刻被实例化。例如,在引擎包括使用软件而配置的通用硬件处理核器的情况下,通用硬件处理器核可在不同时间被配置为相应的不同引擎。软件可相应地配置硬件处理器核,例如以在一个时间实例处构成特定引擎,并且在不同的时间实例处构成不同引擎。
***400包括空间数据捕捉子***402。在一些示例实施例中,空间数据捕捉子***402可包括有源传感器,诸如LiDAR***、具有激光测距、SONAR(声纳)、RADAR(雷达)的视频图像捕捉***等。更具体地,空间数据捕捉子***403产生视场的点云(或等效物)空间表示,其包括贯穿视场的表面的范围信息。
在相关实施例中,***400可包括环境条件确定子***404,环境条件确定子***404可被配置成收集和处理指示一个或多个可变环境条件(诸如,影响能见度的那些(例如,天气、照明等))的数据。环境条件确定子***404可包括感测一个或多个环境条件的标记的测量布置,或者其可从外部源(诸如,气象站或服务)接收数据(例如,天气报告)。
根据示例性示例,***400进一步包括自适应分段子***401。自适应分段子***410包括空间数据解析器412、分段引擎414、参数调整器416、基于范围的调整函数数据存储418、(诸)基于环境的调整函数数据存储420、算法选择器422、以及校准器424。
空间数据解析器412是包括数据处理电路***的引擎,该数据处理电路***被构造、编程或以其他方式配置成处理传入空间数据信号以读取与空间测量相关联的位置(包括范围)信息,以及将位置和范围信息传递至分段引擎414和参数调整器416。
分段引擎414包括数据处理电路***,该数据处理电路***被构造、编程或以其他方式配置成将具有可变参数的分段算法应用于空间数据以便标识视场中的物体的存在。分段引擎414可应用一个或多个分段算法或者算法的组合以产生针对每个给定空间数据点子集的分段评估415。分段评估415可被认为是自动化物体检测决策,其中关于物体检测标准来处理所测量的空间数据,并且如果标准被满足,则决策标识物体的存在。
显然,分段引擎414被配置成基于空间数据的不同部分的所测量的测距值来将不同的分段算法参数值应用于空间数据的那些部分。具有可变参数值的分段算法所应用的空间数据的部分可以是点云中的点。例如,在对具有噪声的应用的基于密度的空间聚类(DBSCAN)算法被用作分段算法的情形中,可变参数可以是应该存在于点的邻域内的点的最小数量(典型地表示为k或者MinPts)、以及邻域的半径(典型地表示为Eps)。
可利用各种其他分段算法。这包括各类算法,诸如例如数据挖掘算法和机器学习算法。根据实施例的方面,每个算法利用可变化的一个或多个参数的对应集合。下文的表1提供可被分段引擎414单独或组合使用的已知算法的若干示例。应该理解,同样可利用具有可变参数的其他算法。
表1:具有可变参数的分段算法的示例
参数调整器416是一引擎,该引擎被构造、编程或以其他方式配置成为将用于由分段引擎414应用的分段算法的(诸)可变参数确定(诸)合适值。参数可如由基于范围的调整函数定义的基于与分段算法所应用的空间数据的部分相关联的范围而变化,该调整函数可被维持在数据存储418中。参数可进一步基于维持在数据存储420中的一个或多个基于环境的调整函数而变化。
参数调整器416将来自空间数据解析器412的测距信息用作基于范围的调整函数的输入以产生为驻留在其中存在数据点(诸如LiDAR返回)的每个特定范围(或范围带)处的数据点所特有的(诸)经调整参数值。显然,特定地针对其中3D空间数据指示一个或多个物体的潜在存在的多个范围中的每一个来调整影响分段算法的灵敏度和选择性的一个或多个参数。在3D空间数据的每个范围或范围带处,可利用(诸)公共参数值。
作为一个示例,基于范围的调整函数可被表示为范围作为其个体变量的代数函数。在另一示例中,基于范围的调整函数可被表示为查找表或其他合适的数据结构。在示例实施例中,针对DBSCAN算法的参数k的基于范围的调整函数可采取二阶多项式的形式,如下:
k=ax2+bx+c,(式1)
且系数值为a=0.000151、b=-0.03354、以及c=3.469367,其中x是以米为单位的范围。如果数据是均匀分布的,则参数Eps可被计算为包含k个点的n维超球体中的最小半径。
可针对环境条件对参数值的影响来执行类似计算。在示例中,由参数调整器416执行两级校正,且对参数值的主校正是基于测量范围以及基于范围的调整函数418针对范围来进行的,而对参数值的次校正是针对如经由环境条件404提供的一个或多个环境条件以及一个基于环境的调整函数420来进行的。
在另一相关实施例中,分段算法本身可基于环境条件中的一个或多个或者某些其他因素而变化。如所描绘的,算法选择器422是一引擎,该引擎被构造、编程或以其他方式配置成确定用于经评估测量场景的分段算法。测量场景评估可基于例如环境条件、所识别物体的性质、或者这些输入的某个组合。某些天气或光照条件可能有助于特定算法(或算法的组合)可能比其他算法更适合的场景。同样,被识别的物体的类型的倾向可指示某一类型的场景,诸如某些类型的物体(诸如,行人、骑自行车的人、以及固定的车量)的占优,其可指示密集的城市环境,相比之下,植被的占优、相对低密度的车辆以及开阔空间可指示乡村环境。某些算法或算法的组合可能更适用于一个环境而非另一环境中的分段。车量的当前位置也可被用作算法选择器422的输入。算法选择器422可存储能应用于环境条件、物体占优度或位置的标记的选择标准以确定要由分段引擎414使用的(诸)算法。指示所选择算法的输出还可被提供至参数调整器416使得可应用适当的参数。
校准器424是一引擎,该引擎被构造、编程或以其他方式配置成使用空间数据以及分段评估415来确定范围-调整函数。在示例中,校准器424被配置成稀疏地操作以限制其对由自适应分段子***施加的整体计算加载的贡献。校准器424可在各种距离处的一个或多个物体相对于空间捕捉设备402移动时获得表示它们的多个分段评估415,并应用回归函数或其他解析函数来估计分段算法的各参数值。作为校准的结果,范围-调整函数可被更新。
在相关实施例中,自适应分段子***410分布于多个处理平台上。在一个此类办法中,视场被空间数据解析器412划分成多个子空间,且每个子空间由在其上实现分段引擎414和参数调整器416的对应处理平台处理。
根据一些实施例,物体表示引擎430被构造、编程或以其他方式配置成将分段评估变换成由分段引擎414检测到的物体集合的表示,并且执行对物体的进一步的自动化评估,诸如物体识别、物体运动预测等。物体表示引擎430的输出被提供至车辆控制子***440,该车辆控制子***440可生成用于自动化车辆的方向和速度控制的运动控制信令。
图5是例示出根据一些实施例的执行自适应分段评估的示例过程的流程图。过程500可由包括自适应分段子***410的***400(图4)或者由具有不同架构的***执行。值得注意的是,过程500是自主操作的(例如,没有用户交互的)机器实现过程,然而过程的操作可以是用户启动的或自主启动的。在相关实施例中,自适应分段操作实时地、或接近实时地执行(为了简便,本文中简单地将其称为“实时”)。当前上下文中的实时分段以细微的或极小的处理延迟操作,使得以与扫描或捕捉视场的速率一致的速率检测遍及视场的物体。
此外,重要的是注意过程500是可如所描述的那样实现的特征丰富的实施例,此外,在各实施例中可实现过程的部分同时排除其他部分。以下附加注释和示例部分详细介绍了构想的各种组合,但不限于此。还应该注意的是,在各实施例中,某些处理操作能以与图5中所描绘的不同排序来执行。
在502处,捕捉包括与物体表面的测量距离的表示视场的3D空间数据。空间数据可被表示为点云,例如以直角坐标、球形坐标或圆柱坐标表示。可在各种相关实施例中利用3D空间数据的其他表示,诸如深度位图、光栅表示等。3D空间数据可例如由空间数据捕捉设备402捕捉,空间数据捕捉设备402可包括LiDAR或其他合适仪器。
在504处,从测量仪器或其他信息源(诸如,环境条件确定子***404)读取环境条件数据。如上所述,环境条件数据可指示当前能见度,以及提供其他有关的情境信息,诸如位置。
在506处,解析空间数据以标识或提取有关的位置和范围信息。根据一些示例,3D空间数据可被预处理以被转换成能够更易处理的另一格式。例如,被捕捉并被初始存储为光栅表示的3D空间数据可被转换成点云表示。
操作508开始根据范围来逐步通过经解析3D空间数据的自适应分段子例程。相应地,可选择第一范围值或带(例如,0-2米)。
在510处,执行对(诸)分段参数值的基于范围的调整。基于范围的调整可涉及对针对一个或多个参数值的范围-调整函数的估计(evaluation)。由于范围值或带可包括多个值接近的个体范围的集合(例如,落于0-2米的带内),因此可针对范围值的集合来确定代表性范围值。作为示例,可基于当前带内的个体范围值来计算平均范围值。作为另一示例,可简单地选择所选择范围带的中点(例如,针对0-2米带的1米)。所选择代表性范围值可被参数调整器416用于例如评估范围-调整函数。如上所述,可使用查找表或利用任何其他合适的计算技术来自动估计范围-调整函数。
在512处,基于对一个或多个环境条件的评估来进一步调整参数值。例如,在降低的能见度的条件下,可减小LiDAR返回幅值的阈值,并且可进一步降低分段聚类标准。此参数值细化可例如由参数调整器416执行。
在514处,分段引擎414执行对当前范围带的分段分析。已特别针对当前遍中被检查的范围调整了用于所应用分段算法的参数值。满足聚类或其他相关标准的候选数据点可通过分段算法的应用而被断定为是物体。在决策516处,如果检测到一个或多个不同物体,则过程前进至操作518,其中分段引擎414可将每个物体的表示添加至例如包含物体及其大小和在视场内的位置的场景表示数据结构。
如果在决策516处未检测到物体,则过程简单地前进至决策520,其测试是否已估计视场的全部深度(全部范围)。在其中一个或多个范围尚未被估计的情形中,过程循环至操作508,其中选择下一范围或带以供分析。例如,跟随在0-2米带之后,下一选择可以是2-5米的范围。如此简化示例例示的,范围带的大小划分可变化。例如,带的大小可根据对数标度(logarithmicscale)而增加。
针对包含数据点的经解析空间数据的剩余范围中的每一个重复操作510-520。因此,根据对应的范围,在执行分段算法的过程中应用了多个不同参数值,并且这是实时实现的。
当已分析视场的全部深度时,决策520分支至522,在那里将场景表示输出提供至车辆控制***的其他组件,诸如物体表示引擎430和车辆控制子***440,以分别进行物体识别处理和自驾驶操作。
图6是例示出用于选择分段算法的示例过程600的流程图。过程600可由包括自适应分段子***410的***400(图4)或者由具有不同架构的***执行。过程600可被稀疏地执行,诸如例如自预期环境条件不再频繁改变大约数十分钟的时间之后。在602处,从测量仪器或其他信息源(诸如,环境条件确定子***404)读取环境条件数据。如上所述,环境条件数据可指示当前能见度,以及提供其他有关的情境信息,诸如当前位置或者可推断位置类型的标记。
在604处,确定占优条件。此操作例如可由算法选择器422执行。对占优条件的分类可产生能见度的测量或者情境或背景的类型(例如,密集城市背景、乡村、森林、沙漠、越野等)的确定。可利用任何合适的决策算法,包括数据挖掘(例如,聚类、分类、规则挖掘等)、神经网络等。
在606处,响应于占优环境条件确定,从可用算法的集合之中选择分段算法。选择逻辑可由算法选择器422实现,并且可与例如将分段算法同占优环境条件相关联的查找表一样简单。
在608处,例如由参数调整器416基于测距数据来调整(诸)分段算法特定参数。上文关于操作510(图5)讨论了此操作的示例。在610处,基于对环境条件的一个或多个评估来进一步细化分段算法参数值。上文关于操作512(图5)讨论了此细化的示例。
在612处,利用所选择的对应参数值,将针对多个范围的所选择分段算法和相关联参数值连续地应用于每个范围或范围带。如上文关于图5的操作508-520更详细地讨论的,一般由分段算法使用(诸)可应用参数值的公共集合来评估每个范围或范围带,且不同的参数值应用于不同的范围或范围带。
图7是例示出根据一些实施例的示例校准过程的流程图。过程700可由包括具有校准器424的自适应分段子***410的***400(图4)或者由具有不同架构的***执行。根据示例,校准器424与自适应分段子***410的其他组件协同地执行过程700。
在702处,发起校准序列。可响应于例如定义的大约数十分钟或小时的时间、或者响应于满足或超出定义阈值的占优环境条件的实质性改变、所选择分段算法的改变、或校准的其他前置条件来发起。用于校准的相关标准要适合车辆的情境配置、其环境、以及视场内的物体。为此,车辆控制***440可向校准器424供给情景评估,操作702可在确定是否发起校准时计及该情景评估。根据示例办法,校准主要涉及在执行分段算法时测试多个范围处的可变分段算法参数值。
在704处,校准器424选择由分段引擎414检测到的一个或多个物体。物体可位于第一范围(例如,近处、中间或远处)。在706处,对表示物体以及其周围的3D空间数据执行(例如,由分段引擎414)多次分段,且每次分段操作以变化的参数值执行。
在708处,对照对应于相同范围的其他分段评估来比较源于每次分段操作的分段评估415,并且将(诸)参数值的最佳集合确定为对应于最佳分段性能的那些。可特定于给定***设计来定义分段性能,并且标准可基于环境条件或导航目标而变化。作为一般原理,根据示例,产生具有最高选择性灵敏度测量(例如,使用选择性-灵敏度乘积或其他合适的聚合)的分段评估的参数值可被确定为是最佳的。
在710处,作出是否存在附加范围处的物体的可用3D空间数据的决策。例如,如果物体与测量仪器之间的距离已改变,则可满足该决策。在肯定情形中,过程循环返回至704,其中再次选择同一物体用于分段算法参数变化和测试。否则决策710使过程前进至框712,其中可执行回归分析以根据范围确定参数值的(诸)曲线函数。在714处,保存针对每个可变参数的(诸)曲线函数以更新范围-调整函数418。
附加注释和示例:
示例1一种用于机器视觉***的装置,该装置包括:输入,被配置成访问表示视场并且包括对视场内的各个点的测距测量的捕捉到的三维(3D)空间数据;分段引擎,被配置成将分段算法应用于3D空间数据以产生指示视场内的个体物体的存在的分段评估,其中分段算法基于至少一个可调整参数;以及参数调整器,被配置成基于测距测量调整至少一个可调整参数的值;其中分段评估基于对3D空间数据应用分段算法,且至少一个可调整参数值的不同值与视场内的各点的测距测量的不同值相对应。
示例2中,示例1的主题包括,其中对至少一个可调整参数值的调整改变分段算法的灵敏度和选择性。
示例3中,示例1-2的主题包括,其中3D空间数据包括点云。
示例4中,示例1-3的主题包括,其中3D空间数据包括表示光检测和测距(LiDAR)返回的数据。
示例5中,示例1-4的主题包括,其中至少一个分段算法包括具有噪声的应用的基于密度的空间聚类(DBSCAN)算法,并且其中至少一个可调整参数包括预期存在于点的邻域内的点的最小数量、以及邻域大小指示符。
示例6中,示例1-5的主题包括,其中分类算法包括聚类算法。
示例7中,示例1-6的主题包括,其中参数调整器被配置成调整至少一个可调整参数的值使得视场内落于公共范围带内的点与至少一个可调整参数的公共的至少一个值相关联。
示例8中,示例1-7的主题包括,其中参数调整器被配置成应用基于范围的调整以根据范围调整至少一个可调整参数的值。
示例9中,示例8的主题包括,其中基于范围的调整函数是二阶多项式。
示例10中,示例8-9的主题包括校准器,被配置成响应于校准过程来调整基于范围的调整函数,其中至少一个可调整参数的最优化参数值是针对各种范围来确定的。
示例11中,示例1-10的主题包括,其中参数调整器被配置成基于环境条件确定来调整至少一个可调整参数的值。
示例12中,示例11的主题包括,其中环境条件确定包括对能见度的测量。
示例13中,示例1-12的主题包括算法选择器,被配置成基于经评估测量场景来从多个可用分段算法之中动态地选择分段算法。
示例14中,示例13的主题包括,其中经评估测量场景包括环境条件确定。
示例15中,示例13-14的主题包括,其中经评估测量场景包括物体类型占优确定。
示例16中,示例1-15的主题包括分段引擎的输出,该输出被配置成提供供车辆控制***使用的分段评估。
示例17中,示例1-16的主题包括计算平台,包括至少一个处理器核、存储器和输入/输出设施,其中存储器包括指令,该指令在经由存储器执行时,使计算平台实现分段引擎和参数调整器。
示例18是至少一种机器可读介质,包括指令,该指令在机器视觉***上执行时,使机器视觉***:捕捉表示视场并且包括对视场内的各个点的测距测量的三维(3D)空间数据;将分段算法应用于3D空间数据以产生指示视场内的个体物体的存在的分段评估,其中分段算法基于至少一个可调整参数;以及基于测距测量调整至少一个可调整参数的值;其中分段评估基于对3D空间数据应用分段算法,且至少一个可调整参数值的不同值与视场内的各点的测距测量的不同值相对应。
示例19中,示例18的主题包括,其中对至少一个可调整参数值的调整改变分段算法的灵敏度和选择性。
示例20中,示例18-19的主题包括,其中3D空间数据包括点云。
示例21中,示例18-20的主题包括,其中3D空间数据包括表示光检测和测距(LiDAR)返回的数据。
示例22中,示例18-21的主题包括,其中至少一个分段算法包括具有噪声的应用的基于密度的空间聚类(DBSCAN)算法,并且其中至少一个可调整参数包括预期存在于点的邻域内的点的最小数量、以及邻域大小指示符。
示例23中,示例18-22的主题包括,其中分类算法包括聚类算法。
示例24中,示例18-23的主题包括,其中将执行对至少一个可调整参数的值的调整使得视场内落于公共范围带内的点与至少一个可调整参数的公共的至少一个值相关联。
示例25中,示例18-24的主题包括,对至少一个可调整参数的值的调整将包括应用基于范围的调整函数以根据范围调整至少一个可调整参数的值。
示例26中,示例25的主题包括,其中基于范围的调整函数是二阶多项式。
示例27中,示例25-26的主题包括用于响应于校准过程来调整基于范围的调整函数的指令,其中至少一个可调整参数的最优化参数值是针对各种范围来确定的。
示例28中,示例18-27的主题包括,其中对基于范围的调整函数的调整基于环境条件确定来调整至少一个可调整参数的值。
示例29中,示例28的主题包括,其中环境条件确定包括对能见度的测量。
示例30中,示例18-29的主题包括用于基于经评估测量场景来从多个可用分段算法之中动态地选择分段算法的指令。
示例31中,示例30的主题包括,其中经评估测量场景包括环境条件确定。
示例32中,示例30-31的主题包括,其中经评估测量场景包括物体类型占优确定。
示例33是一种用于机器视觉处理的方法,该方法包括:捕捉表示视场并且包括对视场内的各个点的测距测量的三维(3D)空间数据;将分段算法应用于3D空间数据以产生指示视场内的个体物体的存在的分段评估,其中分段算法基于至少一个可调整参数;以及基于测距测量调整至少一个可调整参数的值;其中分段评估基于对3D空间数据应用分段算法,且至少一个可调整参数值的不同值与视场内的各点的测距测量的不同值相对应。
示例34中,示例33的主题包括,其中对至少一个可调整参数值的调整改变分段算法的灵敏度和选择性。
示例35中,示例33-34的主题包括,其中3D空间数据包括点云。
示例36中,示例33-35的主题包括,其中3D空间数据包括表示光检测和测距(LiDAR)返回的数据。
示例37中,示例33-36的主题包括,其中至少一个分段算法包括具有噪声的应用的基于密度的空间聚类(DBSCAN)算法,并且其中至少一个可调整参数包括预期存在于点的邻域内的点的最小数量、以及邻域大小指示符。
示例38中,示例33-37的主题包括,其中分类算法包括聚类算法。
示例39中,示例33-38的主题包括,其中执行调整至少一个可调整参数的值使得视场内落于公共范围带内的点与至少一个可调整参数的公共的至少一个值相关联。
示例40中,示例33-39的主题包括,其中调整至少一个可调整参数的值包括应用基于范围的调整函数以根据范围调整至少一个可调整参数的值。
示例41中,示例40的主题包括,其中基于范围的调整函数是二阶多项式。
示例42中,示例40-41的主题包括响应于校准过程来调整基于范围的调整函数,其中至少一个可调整参数的最优化参数值是针对各种范围来确定的。
示例43中,示例33-42的主题包括,其中调整基于范围的调整函数基于环境条件确定来调整至少一个可调整参数的值。
示例44中,示例43的主题包括,其中环境条件确定包括对能见度的测量。
示例45中,示例33-44的主题包括基于经评估测量场景来从多个可用分段算法之中动态地选择分段算法。
示例46中,示例45的主题包括,其中经评估测量场景包括环境条件确定。
示例47中,示例45-46的主题包括,其中经评估测量场景包括物体类型占优确定。
示例48是一种用于机器视觉处理的***,该***包括:用于捕捉表示视场并且包括与视场内的各点的测距测量的三维(3D)空间数据的装置;用于将分段算法应用于3D空间数据以产生指示视场内的个体物体的存在的分段评估的装置,其中分段算法基于至少一个可调整参数;以及用于基于测距测量调整至少一个可调整参数的值的装置;其中分段评估基于对3D空间数据的分段算法的应用,且至少一个可调整参数值的不同值与视场内的各点的测距测量的不同值相对应。
示例49中,示例48的主题包括,其中对至少一个可调整参数值的调整改变分段算法的灵敏度和选择性。
示例50中,示例48-49的主题包括,其中3D空间数据包括点云。
示例51中,示例48-50的主题包括,其中3D空间数据包括表示光检测和测距(LiDAR)返回的数据。
示例52中,示例48-51的主题包括,其中至少一个分段算法包括具有噪声的应用的基于密度的空间聚类(DBSCAN)算法,并且其中至少一个可调整参数包括预期存在于点的邻域内的点的最小数量、以及邻域大小指示符。
示例53中,示例48-52的主题包括,其中分类算法包括聚类算法。
示例54中,示例48-53的主题包括,其中用于调整至少一个可调整参数的值的装置被配置成调整至少一个可调整参数的值使得视场内落于公共范围带内的点与至少一个可调整参数的公共的至少一个值相关联。
示例55中,示例48-54的主题包括,其中用于调整至少一个可调整参数的值的装置被配置成应用基于范围的调整函数以根据范围调整至少一个可调整参数的值。
示例56中,示例55的主题包括,其中基于范围的调整函数是二阶多项式。
示例57中,示例55-56的主题包括用于响应于校准过程来调整基于范围的调整函数的装置,其中至少一个可调整参数的最优化参数值是针对各种范围来确定的。
示例58中,示例48-57的主题包括,其中用于调整基于范围的调整函数的装置基于环境条件确定来调整至少一个可调整参数的值。
示例59中,示例58的主题包括,其中环境条件确定包括对能见度的测量。
示例60中,示例48-59的主题包括用于基于经评估测量场景来从多个可用分段算法之中动态地选择分段算法的装置。
示例61中,示例60的主题包括,其中经评估测量场景包括环境条件确定。
示例62中,示例60-61的主题包括,其中经评估测量场景包括物体类型占优确定。
示例63中,示例48-62的主题包括计算平台,包括至少一个处理器核、存储器和输入/输出设施,其中存储器包括指令,该指令在被存储器执行时,使计算平台实现分段引擎和参数调整器。
示例64是至少一种机器可读介质,其包括指令,指令在被处理器电路***执行时,使得处理器电路***执行操作以便实现示例1-63中的任一示例。
示例65是一种设备,包括用于实现示例1-63中的任一示例的装置。
示例66是一种***,用于实现示例1-63中的任一示例。
示例67是一种方法,用于实现示例1-63中的任一示例。
上述详细描述包括参照附图,附图形成详细描述的一部分。附图通过图示方式示出可被实施的具体实施例。在本文中,这些实施例也被称为“示例”。此类示例可包括除所示或所述元件以外的元件。然而,也构想出包括所示和所述元件的示例。此外,还构想了使用所示出或所描述的那些元件(或其一个或多个方面)的任何组合或排列的示例,或参照本文中所示出或所描述的特定示例(或其一个或多个方面),或参照本文中所示出或所描述的其他示例(或其一个或多个方面)。
本文献中所涉及的公开、专利、和专利文献通过引用整体结合于此,好像通过引用单独地被结合进来一样。在本文献和通过引用所结合的那些文献之间存在不一致的用法的情况下,在所结合的引用中的用法应当被认为是对本文献的用法的补充;对于不可调和的不一致,以本文献中的用法为准。
在本文档中,术语“一”或“一个”正如在专利文件中常见的那样用于包括一个或一个以上,与“至少一个”或“一个或多个”的任何其它示例或使用无关。在本文献中,术语“或”用于指示非排他性的或,使得“A或B”包括“A而非B”、“非A”以及“A和B”,除非另外指示。在所附权利要求中,术语“包括(including)”和“其中(in which)”分别用作简明英语中术语“包括(comprising)”和“其中(wherein)”的等价词。并且,在一些权利要求书中,术语“包括”和“包含”是开放式的,即,***、设备、制品或过程包括除之后列出的那些元素之外的元素,在权利要求中的这种术语仍然被视为落在权利要求的范围之内。此外,在所附权利要求书中,术语“第一”、“第二”及“第三”等仅用作标记,而不旨在对他们的物体表明数值次序。
上述描述旨在是示例性而非限制性的。例如,上述示例(或其一个或多个方面)可彼此组合地使用。诸如由本领域普通技术人员在仔细阅读以上描述之后实施的其他实施例也可以被使用。摘要允许读者快速地确定本技术公开的性质。提交该摘要应当理解,该摘要将不用于解释或限制权利要求的范围或含义。此外,在以上具体实施方式中,各种特征可共同成组以使本公开流畅。然而,权利要求可以不陈述本文中所公开的每一特征,因为实施例可以表征所述特征的子集。进一步地,实施例可包括比特定示例中所公开的那些特征更少的特征。因此,所附权利要求书由此被结合到具体实施方式中,一项权利要求作为单独的实施例而独立存在。本文中所公开的实施例的范围应当参照所附权利要求书连同此类权利要求所赋予权利的等价方案的完整范围来确定。

Claims (25)

1.一种用于机器视觉***的装置,所述装置包括:
输入,被配置成访问捕捉到的三维3D空间数据,该三维3D空间数据表示视场并包括对所述视场内的各个点的测距测量;
分段引擎,被配置成将分段算法应用于所述3D空间数据以产生指示所述视场内的个体物体的存在的分段评估,其中所述分段算法基于至少一个可调整参数;以及
参数调整器,被配置成基于所述测距测量调整所述至少一个可调整参数的值;
其中所述分段评估基于对所述3D空间数据应用所述分段算法,且所述至少一个可调整参数值的不同值与所述视场内的所述各个点的所述测距测量的不同值相对应。
2.如权利要求1所述的装置,其特征在于,对所述至少一个可调整参数值的调整改变所述分段算法的灵敏度和选择性。
3.如权利要求1所述的装置,其特征在于,所述参数调整器被配置成调整所述至少一个可调整参数的值使得所述视场内落于公共范围带内的点与所述至少一个可调整参数的公共的至少一个值相关联。
4.如权利要求1所述的装置,其特征在于,所述参数调整器被配置成应用基于范围的调整函数以根据范围调整所述至少一个可调整参数的值。
5.如权利要求4所述的装置,其特征在于,所述基于范围的调整函数是二阶多项式。
6.如权利要求4所述的装置,其特征在于,进一步包括:
校准器,被配置成响应于校准过程来调整所述基于范围的调整函数,其中所述至少一个可调整参数的最优化参数值是针对各种范围来确定的。
7.如权利要求1所述的装置,其特征在于,所述参数调整器被配置成基于环境条件确定来调整所述至少一个可调整参数的值。
8.如权利要求7所述的装置,其特征在于,所述环境条件确定包括对能见度的测量。
9.如权利要求1所述的装置,其特征在于,进一步包括:
算法选择器,被配置成基于经评估测量场景来从多个可用分段算法之中动态地选择所述分段算法。
10.如权利要求9所述的装置,其特征在于,所述经评估测量场景包括环境条件确定。
11.如权利要求9所述的装置,其特征在于,所述经评估测量场景包括物体类型占优确定。
12.如权利要求1所述的装置,其特征在于,进一步包括:
所述分段引擎的输出,所述输出被配置成提供供车辆控制***使用的分段评估。
13.如权利要求1所述的装置,其特征在于,进一步包括:
计算平台,包括至少一个处理器核、存储器和输入/输出设施,其中所述存储器包括指令,所述指令在经由存储器执行时,使所述计算平台实现所述分段引擎和所述参数调整器。
14.一种用于机器视觉处理的方法,所述方法包括:
捕捉三维3D空间数据,该三维3D空间数据表示视场并包括对所述视场内的各个点的测距测量;
将分段算法应用于所述3D空间数据以产生指示所述视场内的个体物体的存在的分段评估,其中所述分段算法基于至少一个可调整参数;以及
基于所述测距测量调整所述至少一个可调整参数的值;
其中所述分段评估基于对所述3D空间数据应用所述分段算法,且所述至少一个可调整参数值的不同值与所述视场内的所述各个点的所述测距测量的不同值相对应。
15.如权利要求14所述的方法,其特征在于,执行调整所述至少一个可调整参数的值,使得所述视场内落于公共范围带内的点与所述至少一个可调整参数的公共的至少一个值相关联。
16.如权利要求14所述的方法,其特征在于,调整所述至少一个可调整参数的值包括应用基于范围的调整函数以根据范围调整所述至少一个可调整参数的值。
17.如权利要求16所述的方法,其特征在于,所述基于范围的调整函数是二阶多项式。
18.如权利要求16所述的方法,其特征在于,进一步包括:
响应于校准过程来调整所述基于范围的调整函数,其中所述至少一个可调整参数的最优化参数值是针对各种范围来确定的。
19.如权利要求14所述的方法,其特征在于,调整所述基于范围的调整函数基于环境条件确定来调整所述至少一个可调整参数的值。
20.如权利要求19所述的方法,其特征在于,所述环境条件确定包括对能见度的测量。
21.如权利要求14所述的方法,其特征在于,进一步包括:
基于经评估测量场景来从多个可用分段算法之中动态地选择所述分段算法。
22.如权利要求21所述的方法,其特征在于,所述经评估测量场景包括环境条件确定。
23.如权利要求21所述的方法,其特征在于,所述经评估测量场景包括物体类型占优确定。
24.一种用于机器视觉处理的***,所述***包括用于执行如权利要求14-23中任一项所述的方法的装置。
25.至少一种机器可读介质,包括指令,所述指令在被机器视觉处理***执行时,使所述***执行如权利要求14-23中任一项所述的方法。
CN201811391595.2A 2017-12-21 2018-11-21 对空间成像数据的自适应处理 Pending CN109961001A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/850,246 US10510154B2 (en) 2017-12-21 2017-12-21 Adaptive processing of spatial imaging data
US15/850,246 2017-12-21

Publications (1)

Publication Number Publication Date
CN109961001A true CN109961001A (zh) 2019-07-02

Family

ID=65274256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811391595.2A Pending CN109961001A (zh) 2017-12-21 2018-11-21 对空间成像数据的自适应处理

Country Status (3)

Country Link
US (1) US10510154B2 (zh)
CN (1) CN109961001A (zh)
DE (1) DE102018129251A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11747444B2 (en) 2018-08-14 2023-09-05 Intel Corporation LiDAR-based object detection and classification

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017120812A1 (en) * 2016-01-14 2017-07-20 Intel Corporation Secure communication channel for system management mode
US10884131B1 (en) 2018-08-03 2021-01-05 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
US11423570B2 (en) 2018-12-26 2022-08-23 Intel Corporation Technologies for fusing data from multiple sensors to improve object detection, identification, and localization
US11482011B2 (en) 2019-03-28 2022-10-25 Intel Corporation Acceleration of data processing for object detection
DE102019117387A1 (de) * 2019-06-27 2020-12-31 Connaught Electronics Ltd. Verfahren zur Steuerung einer Bildverarbeitungskette
DE102019212408A1 (de) * 2019-08-20 2021-02-25 Zf Friedrichshafen Ag Verfahren zum Ermitteln des Körpergewichts und/oder der Sitzposition, Steuergerät sowie Kraftfahrzeug
US11403482B2 (en) * 2020-01-15 2022-08-02 Aptiv Technologies Limited Adaptive search for LiDAR-based clustering
CN111291697B (zh) * 2020-02-19 2023-11-21 阿波罗智能技术(北京)有限公司 用于识别障碍物的方法和装置
CN113902910B (zh) * 2021-12-10 2022-04-08 中国科学院自动化研究所 一种视觉测量方法及***

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US9412271B2 (en) * 2013-01-30 2016-08-09 Wavetronix Llc Traffic flow through an intersection by reducing platoon interference
US11067996B2 (en) * 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10248874B2 (en) * 2016-11-22 2019-04-02 Ford Global Technologies, Llc Brake light detection
US20180189950A1 (en) * 2016-12-30 2018-07-05 Google Inc. Generating structured output predictions using neural networks
US10346695B2 (en) * 2017-05-25 2019-07-09 General Motors Llc Method and apparatus for classifying LIDAR data for object detection
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11747444B2 (en) 2018-08-14 2023-09-05 Intel Corporation LiDAR-based object detection and classification

Also Published As

Publication number Publication date
US20190051006A1 (en) 2019-02-14
DE102018129251A1 (de) 2019-06-27
US10510154B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
CN109961001A (zh) 对空间成像数据的自适应处理
CA2840436C (en) System for mapping and identification of plants using digital image processing and route generation
Panagiotidis et al. Determining tree height and crown diameter from high-resolution UAV imagery
Kalantar et al. Drone-based land-cover mapping using a fuzzy unordered rule induction algorithm integrated into object-based image analysis
Räsänen et al. What makes segmentation good? A case study in boreal forest habitat mapping
CN110008808B (zh) 全景分割方法、装置和***及存储介质
US10565721B2 (en) Information processing device and information processing method for specifying target point of an object
US20200250427A1 (en) Shadow and cloud masking for agriculture applications using convolutional neural networks
US20130101175A1 (en) Reimaging Based on Depthmap Information
KR20150124396A (ko) 크라우드소싱을 이용한 위치 결정, 매핑 및 데이터 관리 시스템 및 방법
US8416122B1 (en) Point-in-polygon target location
CN112634340A (zh) 基于点云数据确定bim模型的方法、装置、设备和介质
Torres et al. Integration of LiDAR and multispectral images for rapid exposure and earthquake vulnerability estimation. Application in Lorca, Spain
JP2008014742A (ja) 移動***置推定システム、及び、移動***置推定方法
US11829959B1 (en) System and methods for fully autonomous potholes detection and road repair determination
Tiwari et al. UAV remote sensing for campus monitoring: a comparative evaluation of nearest neighbor and rule-based classification
JP2007010932A (ja) 都市緑地における生息生物群の予測評価手法
Lorenzo et al. Landing sites detection using LiDAR data on manycore systems
US11754704B2 (en) Synthetic-aperture-radar image processing device and image processing method
CN112862730B (zh) 点云特征增强方法、装置、计算机设备和存储介质
Lemenkova Object based image segmentation algorithm of SAGA GIS for detecting urban spaces in yaoundé, Cameroon
US20220075059A1 (en) Learning data generation device, learning data generation method, learning data generation program, learning device, learning method, learning program, inference device, inference method, inference program, learning system, and inference system
US20210348938A1 (en) Sensor calibration for space translation
Costa et al. Integrating user needs on misclassification error sensitivity into image segmentation quality assessment
Santillan et al. Effects of flight plan parameters on the quality and usability of low-cost UAS photogrammetry data products for tree crown delineation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination