CN115201833A - 物件定位方法及物件定位*** - Google Patents

物件定位方法及物件定位*** Download PDF

Info

Publication number
CN115201833A
CN115201833A CN202110375309.9A CN202110375309A CN115201833A CN 115201833 A CN115201833 A CN 115201833A CN 202110375309 A CN202110375309 A CN 202110375309A CN 115201833 A CN115201833 A CN 115201833A
Authority
CN
China
Prior art keywords
scene
point cloud
processing device
cloud data
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110375309.9A
Other languages
English (en)
Inventor
李政昕
李佳桦
吴怀恩
姜皇成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Coretronic Corp
Original Assignee
Coretronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Coretronic Corp filed Critical Coretronic Corp
Priority to CN202110375309.9A priority Critical patent/CN115201833A/zh
Priority to US17/715,016 priority patent/US20220327729A1/en
Publication of CN115201833A publication Critical patent/CN115201833A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

一种物件定位方法及物件定位***。感测装置采集包括目标物件的场景所得到的点云资料。处理装置将以关键点为中心的周围区域资料以及预设特征描述子输入至神经网路,以计算场景的场景特征描述子。处理装置对场景特征描述子与预设特征描述子进行特征匹配,并计算目标物件在实际空间中的位置。本发明利用神经网路的特征提取能力有效提高目标物件辨识以及定位的准确度与稳定度。

Description

物件定位方法及物件定位***
技术领域
本发明是有关于一种电子装置,且特别是有关于一种物件定位方法及物件定位***。
背景技术
随着工厂自动化持续发展,运送货物也成为自动化重要的一环,在大型货物的搬运方面,叉车是首选的自动化对象。自动搬运叉车要能顺利搬货,除了要有自主导航的功能,在栈板歪斜的状况下如果有货物辨识的功能来自动调整叉车的行进过程会更有灵活度,且一般要让叉车运送的货物都会在栈板上,所以栈板辨识也成为发展自动搬运叉车的一个重要的技术环节。
栈板的辨识技术分成两块,包括栈板的辨识和栈板的定位,辨识是要在不确定的环境中找出栈板,定位则是要将栈板的空间位置和叉车做关连,才能顺利搬运货物。一般相机都是平面成像,属于二维空间的资讯,传统机器视觉的辨识方法也都是以二维平面当作基础,但栈板辨识除了辨识,还需要做定位,如果使用单相机做定位,容易有很大的误差。双相机依靠两个相机的视差和几何条件来推算出物***置,但计算量比较大。
“背景技术”段落只是用来帮助了解本发明内容,因此在“背景技术”段落所揭露的内容可能包含一些没有构成所属技术领域中的技术人员所知道的已知技术。在“背景技术”段落所揭露的内容,不代表该内容或者本发明一个或多个实施例所要解决的问题,也不代表在本发明申请前已被所属技术领域中的技术人员所知晓或认知。
发明内容
本发明提供一种物件定位方法及物件定位***,可提高目标物件的辨识与定位的准确度。
本发明的其他目的和优点可以从本发明所揭露的技术特征中得到进一步的了解。
为达上述之一或部分或全部目的或是其他目的,本发明之一实施例提供一种物件定位方法,包括下列步骤。借由感测装置,接收包括目标物件的场景所得到的点云资料。借由处理装置,对点云资料提取关键点。借由处理装置,将以关键点为中心的周围区域资料以及目标物件的预设特征描述子输入至神经网路,以计算场景的一场景特征描述子。借由处理装置,对场景特征描述子与预设特征描述子进行特征匹配。借由处理装置,计算目标物件在实际空间中的位置。
本发明还提供一种物件定位***,包括感测装置、储存装置以及处理装置。感测装置用以采集包括目标物件的场景所得到的点云资料。储存装置用以储存目标物件的预设特征描述子。处理装置耦接储存装置及该处理装置,用以接收点云资料,对点云资料提取一关键点,将以关键点为中心的周围区域资料以及预设特征描述子输入至神经网路,以计算场景的场景特征描述子,对场景特征描述子与预设特征描述子进行特征匹配,并计算目标物件在实际空间中的位置。
基于上述,本发明的实施例对三维点云资料提取关键点,将以关键点为中心的周围区域资料以及目标物件的预设特征描述子输入至神经网路,以计算场景的场景特征描述子,对场景特征描述子与预设特征描述子进行特征匹配,并计算目标物件在实际空间中的位置。如此借由将预设特征描述子与自三维点云资料提取包括关键点的周围区域资料输入至神经网路来计算场景的场景特征描述子,可利用神经网路的特征提取能力,有效提高目标物件辨识以及定位的准确度与稳定度。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合附图作详细说明如下。
附图说明
图1是依照本发明实施例的一种物件定位***的示意图。
图2是依照本发明实施例的一种物件定位方法的流程图。
图3是依照本发明另一实施例的物件定位方法的流程图。
具体实施方式
有关本发明之前述及其他技术内容、特点与功效,在以下配合参考附图之一较佳实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的方向用语,例如:上、下、左、右、前或后等,仅是参考附图的方向。因此,使用的方向用语是用来说明并非用来限制本发明。
图1是依照本发明的实施例的一种物件定位***的示意图,请参照图1。物件定位***100可包括感测装置102、处理装置104以及储存装置106,处理装置104耦接感测装置102与储存装置106。其中感测装置102可采集包括目标物件的场景所得到的点云资料。空间资讯使用点云资料来表示可以利用空间几何的方式取出目标物件的特征,再经过处理后确认是否为目标物件。于本实施例中,感测装置102可例如为TOF(Time-of-flight)相机,其可例如以红外线或激光为光源,透过计算光源反射回来的飞行时间,而计算出与物体的距离,以推导出三维坐标,产生包括目标物件的场景的三维点云资料,其中目标物件可例如为栈板,本申请不局限于此。储存装置106可例如是任意型式的固定式或可移动式随机存取存储器(Random Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、快闪存储器(Flash memory)、硬碟或其他类似装置或这些装置的组合,而可储存目标物件的预设特征描述子,预设特征描述子为对标准模板进行关键点与描述子提取后得到。标准模板为事先制作的栈板模板,为了降低计算时间,先将栈板模板经过坐标转换及关键点与描述子提取后储存。在本实施例中,关键点可选择在点云资料中具有低资料量,高稳定性与区别性而不易与其他特征点混淆的特征点,例如可检测点云资料中的角落(corner)作为关键点。关键点可例如采用均匀采样(Uniform sampling)的方式来提取,本案不局限于此,在其它实施例中也可例如以SIFT算法(Scale invariant feature transform)、Harris算法(Harriscorner detection)或NARF算法(Normal aligned radial feature)来提取关键点。描述子则可依据以关键点为中心的周围区域资料计算其特征描述而得到。在目标物件为栈板的例子中,可例如在离栈板一段预设距离(例如1公尺)利用TOF相机取得清晰且完整的点云资料,并在滤除杂讯后取栈板的前端部分作为标准模板。
处理装置104可为一般用途处理器、特殊用途处理器、传统的处理器、数字信号处理器、多个微处理器(microprocessor)、一个或多个结合数字信号处理器核心的微处理器、控制器、微控制器、特殊应用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程闸阵列电路(Field Programmable Gate Array,FPGA)、任何其他种类的集成电路、状态机或基于进阶精简指令集机器(Advanced RISC Machine,ARM)的处理器。处理装置104可接收感测装置102所提供的点云资料,对点云资料提取关键点,并将以关键点为中心的周围区域资料以及预设特征描述子输入至经训练的神经网路,以计算包括目标物件的场景的场景特征描述子。在部分实施例中,为了减少计算量,处理装置104可先剔除部分的点云资料。举例来说,处理装置104可先依据目标物件所在平面分割该点云资料,平面可例如为地板平面或置放栈板的货架平面,并利用欧几里得聚类算法(EuclideanCluster)来分割点云资料,亦即依据空间距离将点云资料分割为多个点群。处理装置104可选择仅对最大的N个点群进行关键点的提取,而可减少计算量,并防止误检测以及杂讯干扰,其中N为正整数。
进一步来说,由于空间点云具有方向性,在进行场景特征描述子的计算时,可先计算关键点的区域参考坐标,以进行坐标转换,确保每次计算出的场景特征描述子相同。此外,在部分实施例中,可先以高斯分布平滑化周围区域资料,以排除杂讯干扰,避免影响场景特征描述子的计算结果的正确性。
在本实施例中,神经网路可例如为孪生神经网路,孪生神经网路(SiamenseNetwork)可例如为包括的两个卷积神经网路(Convolutional neural network,CNN)的架构,本案不局限于此。在本实施例中,可利用3DMatch资料库进行神经网路的训练,其为RGBD(RGB-Depth)室内场景资料,每一个场景都由许多张分散的三维点云所组成,相邻的点云(point cloud)有重叠的部分。在利用孪生神经网络进行训练时,可将关键点以及关键点周围区域的点一起当作输入,训练架构是要让相同关键点的损失越小越好,较远的关键点则损失越大越好,此外还可使用栈板资料进行训练。
处理装置104可将计算出的场景特征描述子与预设特征描述子进行特征匹配,例如可将预设特征描述子与各个点群的场景特征描述子进行比对,判断各个点群是否具有相匹配的场景特征描述子。举例来说,可判断预设特征描述子与场景特征描述子的相似度是否高于阈值,若高于阈值,则匹配成功。在完成特征描述子的匹配后,处理装置104可依据匹配结果进行坐标转换,以计算目标物件在实际空间中的位置。在部分实施例中,在完成特征描述子的匹配后,处理装置104可去除错误匹配的例外点,然后再进行坐标转换,以避免错误匹配的例外点影响计算目标物件在实际空间中的位置的正确性。在部分实施例中,处理装置104依据计算出的目标物件在实际空间中的位置控制叉车进行栈板的搬运,或将目标物件在实际空间中的位置传送给叉车,使叉车据以搬运栈板。
图2是依照本发明实施例的一种物件定位方法的流程图,请同时参照图1及图2。由上述实施例可知,物件定位方法可至少包括下列步骤。首先,借由感测装置102,接收包括目标物件的场景所得到的点云资料(步骤S202),本案不局限于此。接着,借由处理装置104,对点云资料提取关键点(步骤S204),提取关键点的方式可例如采用均匀取样,本案不局限于此。然后,借由处理装置104,将以关键点为中心的周围区域资料以及目标物件的预设特征描述子输入至神经网路,以计算场景的场景特征描述子(步骤S206),其中神经网路可例如为孪生神经网路,其可为包括的两个卷积神经网路的架构,本案不局限于此。之后,借由处理装置104,对场景特征描述子与预设特征描述子进行特征匹配(步骤S208)。最后再借由处理装置104,计算目标物件在实际空间中的位置(步骤S210)。在部分实施例中,可先去除错误匹配的例外点,再计算目标物件在实际空间中的位置,以避免错误匹配的例外点影响计算目标物件在实际空间中的位置的正确性。
图3是依照本发明另一实施例的物件定位方法的流程图。本实施例与图2实施例的不同之处在于,本实施例在步骤S202之后,还可借由处理装置104,将点云资料分割为多个点群(步骤S302),分割点云资料的方式可例如依据目标物件所在平面进行分割,以及以欧几里德聚类方法进行分割,本案不局限于此。之后,并分别对最大的N个点群提取关键点(步骤S304),其中N为正整数。如此可减少计算量,并防止误检测以及杂讯干扰。然后,借由处理装置104,计算关键点的区域参考坐标,以进行坐标转换(步骤S306),如此可确保每次计算出的场景特征描述子相同。接着再借由处理装置104,以高斯分布平滑化周围区域资料(步骤S308),以进一步排除杂讯干扰,然后再进入步骤S206。由于步骤S206~S210已于图2实施例中说明,因此在此不再赘述。
综上所述,本发明的实施例对三维点云资料提取关键点,将以关键点为中心的周围区域资料以及目标物件的预设特征描述子输入至神经网路,以计算场景的场景特征描述子,对场景特征描述子与预设特征描述子进行特征匹配,并计算目标物件在实际空间中的位置。如此借由将预设特征描述子与自三维点云资料提取的包括关键点的周围区域资料输入至神经网路来计算场景的场景特征描述子,可利用神经网路的特征提取能力,有效提高目标物件辨识以及定位的准确度与稳定度。在部分实施例中,还可依据目标物件所在平面,以及利用欧几里得聚类算法来分割点云资料,借由选择仅对较大的点群进行关键点的提取,可减少计算量,并防止误检测以及杂讯干扰。
惟以上所述者,仅为本发明之较佳实施例而已,当不能以此限定本发明实施之范围,即凡依本发明权利要求书及发明内容所作之简单的等效变化与修改,皆仍属本发明专利涵盖之范围内。另外本发明的任一实施例或权利要求不须达成本发明所揭露之全部目的或优点或特点。此外,摘要和发明名称仅是用来辅助专利文件检索之用,并非用来限制本发明之权利范围。再者,说明书中提及的第一、第二等,仅用以表示元件的名称,并非用来限制元件数量上的上限或下限。

Claims (16)

1.一种物件定位方法,其特征在于,所述物件定位方法包括:
借由感测装置,接收包括目标物件的场景所得到的点云资料;
借由处理装置,对该点云资料提取关键点;
借由所述处理装置,将以所述关键点为中心的周围区域资料以及所述目标物件的预设特征描述子输入至神经网路,以计算所述场景的场景特征描述子;
借由所述处理装置,对所述场景特征描述子与所述预设特征描述子进行特征匹配;以及
借由所述处理装置,计算所述目标物件在实际空间中的位置。
2.根据权利要求1所述的物件定位方法,其特征在于,还包括:
去除错误匹配的例外点。
3.根据权利要求1所述的物件定位方法,其特征在于,还包括:
将所述点云资料分割为多个点群,并分别对最大的N个点群提取所述关键点,其中N为正整数。
4.根据权利要求3所述的物件定位方法,其特征在于,还包括:
依据所述目标物件所在平面分割所述点云资料。
5.根据权利要求3所述的物件定位方法,其特征在于,还包括:
以欧几里德聚类方法分割所述点云资料。
6.根据权利要求1所述的物件定位方法,其特征在于,还包括:
计算所述关键点的区域参考坐标,以进行坐标转换。
7.根据权利要求1所述的物件定位方法,其特征在于,还包括:
以高斯分布平滑化所述周围区域资料。
8.根据权利要求1所述的物件定位方法,其特征在于,所述神经网路为孪生神经网路。
9.一种物件定位***,其特征在于,所述物件定位***包括感测装置、储存装置以及处理装置,其中:
所述感测装置用以采集包括目标物件的场景所得到的点云资料;
所述储存装置用以储存所述目标物件的预设特征描述子;以及
所述处理装置耦接所述储存装置及所述处理装置,用以接收所述点云资料,对所述点云资料提取关键点,将以所述关键点为中心的周围区域资料以及所述预设特征描述子输入至神经网路,以计算所述场景的场景特征描述子,对所述场景特征描述子与所述预设特征描述子进行特征匹配,并计算所述目标物件在实际空间中的位置。
10.根据权利要求9所述的物件定位***,其特征在于,所述处理器还去除错误匹配的例外点。
11.根据权利要求9所述的物件定位***,其特征在于,所述处理装置还将所述点云资料分割为多个点群,并分别对最大的N个点群提取所述关键点,其中N为正整数。
12.根据权利要求11所述的物件定位***,其特征在于,所述处理装置依据所述目标物件所在平面分割所述点云资料。
13.根据权利要求11所述的物件定位***,其特征在于,所述处理装置以欧几里德聚类方法分割所述点云资料。
14.根据权利要求9所述的物件定位***,其特征在于,所述处理装置还计算所述关键点的区域参考坐标,以进行坐标转换。
15.根据权利要求9所述的物件定位***,其特征在于,所述处理装置还以高斯分布平滑化所述周围区域资料。
16.根据权利要求9所述的物件定位***,其特征在于,所述神经网路为孪生神经网路。
CN202110375309.9A 2021-04-08 2021-04-08 物件定位方法及物件定位*** Pending CN115201833A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110375309.9A CN115201833A (zh) 2021-04-08 2021-04-08 物件定位方法及物件定位***
US17/715,016 US20220327729A1 (en) 2021-04-08 2022-04-06 Object positioning method and object positioning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110375309.9A CN115201833A (zh) 2021-04-08 2021-04-08 物件定位方法及物件定位***

Publications (1)

Publication Number Publication Date
CN115201833A true CN115201833A (zh) 2022-10-18

Family

ID=83510825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110375309.9A Pending CN115201833A (zh) 2021-04-08 2021-04-08 物件定位方法及物件定位***

Country Status (2)

Country Link
US (1) US20220327729A1 (zh)
CN (1) CN115201833A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150003723A1 (en) * 2013-06-27 2015-01-01 Chevron U.S.A. Inc. System and method of detecting objects in scene point cloud
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN109754006A (zh) * 2018-12-26 2019-05-14 清华大学 一种视图及点云融合的立体视觉内容分类方法与***
CN110136175A (zh) * 2019-05-21 2019-08-16 杭州电子科技大学 一种基于神经网络的室内典型场景匹配定位方法
CN112017226A (zh) * 2020-08-26 2020-12-01 清华大学深圳国际研究生院 面向工业零件6d位姿估计的方法及计算机可读存储介质
CN112241010A (zh) * 2019-09-17 2021-01-19 北京新能源汽车技术创新中心有限公司 定位方法、装置、计算机设备和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10328578B2 (en) * 2017-04-21 2019-06-25 X Development Llc Methods and systems for detecting, recognizing, and localizing pallets
CN110942515A (zh) * 2019-11-26 2020-03-31 北京迈格威科技有限公司 基于点云的目标物体三维计算机建模方法和目标识别方法
CN110807461B (zh) * 2020-01-08 2020-06-02 深圳市越疆科技有限公司 一种目标位置检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150003723A1 (en) * 2013-06-27 2015-01-01 Chevron U.S.A. Inc. System and method of detecting objects in scene point cloud
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN109754006A (zh) * 2018-12-26 2019-05-14 清华大学 一种视图及点云融合的立体视觉内容分类方法与***
CN110136175A (zh) * 2019-05-21 2019-08-16 杭州电子科技大学 一种基于神经网络的室内典型场景匹配定位方法
CN112241010A (zh) * 2019-09-17 2021-01-19 北京新能源汽车技术创新中心有限公司 定位方法、装置、计算机设备和存储介质
CN112017226A (zh) * 2020-08-26 2020-12-01 清华大学深圳国际研究生院 面向工业零件6d位姿估计的方法及计算机可读存储介质

Also Published As

Publication number Publication date
US20220327729A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
Guo et al. Local descriptor for robust place recognition using lidar intensity
Lin et al. A fast, complete, point cloud based loop closure for LiDAR odometry and mapping
CN110807350B (zh) 用于面向扫描匹配的视觉slam的***和方法
Steder et al. Robust place recognition for 3D range data based on point features
US9741130B2 (en) Method and apparatus for detecting object
Ardeshir et al. GIS-assisted object detection and geospatial localization
Zhou et al. A fast and accurate segmentation method for ordered LiDAR point cloud of large-scale scenes
CN113936198A (zh) 低线束激光雷达与相机融合方法、存储介质及装置
CN109035207B (zh) 密度自适应的激光点云特征检测方法
Ji et al. RGB-D SLAM using vanishing point and door plate information in corridor environment
US11506755B2 (en) Recording medium recording information processing program, information processing apparatus, and information processing method
WO2021082380A1 (zh) 一种基于激光雷达的托盘识别方法、***和电子设备
CN111723724A (zh) 一种路面障碍物识别方法和相关装置
CN113776533A (zh) 可移动设备的重定位方法及装置
CN115599119A (zh) 一种无人机的避障***
CN116051822A (zh) 凹障碍的识别方法和装置、处理器及电子设备
CN111736167B (zh) 一种获取激光点云密度的方法和装置
CN114898321A (zh) 道路可行驶区域检测方法、装置、设备、介质及***
Goldman et al. Robust epipolar geometry estimation using noisy pose priors
CN113469195A (zh) 一种基于自适应颜色快速点特征直方图的目标识别方法
Zhou et al. 3D building change detection between current VHR images and past lidar data
US10430459B2 (en) Server and method for providing city street search service
CN115201833A (zh) 物件定位方法及物件定位***
TWI804845B (zh) 物件定位方法及物件定位系統
CN114882458A (zh) 一种目标跟踪方法、***、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination