CN107194332A - 一种基于四维空间平移及旋转的心理旋转机理实现模型 - Google Patents

一种基于四维空间平移及旋转的心理旋转机理实现模型 Download PDF

Info

Publication number
CN107194332A
CN107194332A CN201710322416.9A CN201710322416A CN107194332A CN 107194332 A CN107194332 A CN 107194332A CN 201710322416 A CN201710322416 A CN 201710322416A CN 107194332 A CN107194332 A CN 107194332A
Authority
CN
China
Prior art keywords
rotation
point cloud
cortex
mental
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710322416.9A
Other languages
English (en)
Inventor
李军
许阳
高杨建
沈广田
陈剑斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201710322416.9A priority Critical patent/CN107194332A/zh
Publication of CN107194332A publication Critical patent/CN107194332A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于四维空间平移及旋转的心理旋转机理实现模型,并探索其在移动机器人导航中的应用前景。该发明将灵长类动物心理旋转过程涉及的主要脑区功能量化表示,包括上顶叶皮层(SPC),前额皮层(PFC)和前运动皮层(PMC)。SPC模块进行地图构建和图像表示;PFC模块进行特征与位姿匹配,将上顶叶皮层所得图像特征与规定阈值比较,决定是否为同一物体和同一位姿;PMC模拟旋转当前物体,通过比较当前和目标物体的点云特征图,计算旋转矩阵,进而模拟旋转当前物体,重复多次使物体之间差异最小,得到时间相关的四维旋转算子,旋转算子用于指导移动机器人的导航任务;我们的模型克服了传统导航算法学习能力差,对环境依赖强和训练代价大的缺点。

Description

一种基于四维空间平移及旋转的心理旋转机理实现模型
技术领域
本发明涉及大脑认知过程中心理旋转机理的建模,特别涉及基于四维空间平移及旋转模型的实现及其在移动机器人导航中可能的应用。
背景技术
心理旋转(mental rotation)是灵长类动物的一种重要的空间认知能力,它能够帮助我们在大脑中模拟旋转所看物体的位置状态,以解决某一特定任务,比如辨别两个物体方向是否一致。上世纪70年代Shepard等人著名的三维物体心理学旋转实验得出:判断两个物体是否匹配的反应时间与它们的角度差异线性正相关。该实验被提出之后,一些新的方法也被用来研究心理旋转的生物神经学基础,比如:功能性核磁共振成像,正电子发射型计算机断层显像,TMS经颅磁刺激等。这些方法揭示了在进行心理旋转时,大脑中的上顶叶皮层(superior parietal cortex,SPC),前额皮层(prefrontal cortex,PFC)和中央前回皮层中的运动皮层(premotor cortex,PMC)这三个区域被持续激活。上顶叶皮层的功能包括空间构图、特定图形转换计算;前额皮层的功能包括运动控制及模仿;中央前回皮层的功能包括运动规划执行及运动模拟。这些发现也促使了一些心理旋转的神经学框架的产生,这些框架一般将心理学旋转分成四个认知过程:1)从各个方向上创建一个物体的心理图像(mental image);2)参照其他图像,对目前的物体进行心理旋转,直到可以做出比较;3)关联比较两个物体;4)报告比较结果。
心理旋转是通过连续时间内对目标场景或物体进行多次空间变换完成的,它需要有限的先验知识或动作指导以完成特定任务。因为心理旋转是模拟旋转,所以是一种运动预测方法,其工程实现较为复杂,涉及场景感知与记忆、关键目标提取、目标特征提取、特征变换与比较这一系列动作,所以目前并没有特别完善的心理旋转的计算模型可将其应用到实际的机器视觉领域。
移动机器人导航算法目前已经比较成熟了,而基于视觉的导航是最重要的研究内容。但传统的导航算法也有一些难以克服的弊端,比如自适应能力薄弱和学习能力差等。特定环境下,比如在意外频发,动作危险,环境陌生时,以意识认知能力为基础的自主控制是十分重要的。特别地,除人之外的灵长类动物和婴幼儿使用地图和实时构图的能力不强,他们是如何执行导航任务的?研究表明心理旋转在导航过程中发挥了重要作用,灵长类动物能通过心理旋转对比眼前场景与目标场景,进而完善地图,并想象当前视角旋转一定角度后所能看到的场景是否与目标场景一致,以此决定下一步运动策略。可见,将心理旋转机制用在移动机器人导航任务上是有前景的。
发明内容
有鉴于此,为了解决上述问题,本发明设计一种实用的基于四维空间平移和旋转的心理旋转机理模型,将复杂的心理旋转过程简化成一个易于实现的计算模型,四维包括三维空间和时间维。并进一步探索其在移动机器人导航任务中可能的应用前景,目的是降低机器人导航算法的训练代价,提高算法的迁移和适应能力。
本发明的目的是提出一种实用的基于四维空间平移和旋转的心理旋转机理模型。
为实现以上目的,通过以下技术方案来实现的:
本发明提供的一种基于梯度策略的激励学习方法,包括以下步骤:
S1:抽象表示上顶叶皮层的空间构图功能,输入当前物体的RGB图片和3D点云图,输出3幅颜色特征图,8幅形状特征图,4幅方向特征图和1幅点云关键点特征图;
S2:抽象表示前额皮层的特征和位姿匹配功能,输入为S1得到的16幅特征图,输出为特征和位置匹配结果;
S3:抽象表示运动皮层的模拟旋转功能,输入为S2的匹配结果和S1输出的点云关键点特征图,输出为一系列与时间相关的四维旋转算子;
S4:移动机器人根据S3得到的旋转算子规划下一步运动策略。
进一步,所述步骤S1中的上顶叶皮层对应模块主要功能是进行空间构图,因为场景过于复杂,我们将提取目标场景中的某个关键物体进行研究,依据是我们人类在记忆地图的时候一般会选择性记忆当前视角下地图中的标志性路标或建筑等。上顶叶皮层将物体的颜色、形状、方向和关键点特征量化,输入为当前物体的RGB图片和3D点云图,RGB图片用在前三个特征的提取,3D点云图用在关键点特征的提取。颜色采用“颜色双竞争”算法表示;形状采用8尺度高斯金字塔图片进行Sobel边缘提取表示;方向采用余弦光栅和二维高斯卷积描述;对3D点云图使用SIFT算子提取关键点,以简化数据量。所述上顶叶皮层模块输出为3个颜色特征图,8个形状特征图,和4个方向特征图和1个关键点3D点云图。
进一步,所述步骤S2中的前额皮层模块的主要功能是特征及位姿的比较匹配,其输入为上顶叶皮层模块得到的16幅当前物体特征图与16幅目标物体特征图,用欧式距离来描述颜色特征图、形状特征图,方向特征图,关键点3D点云图的差异,进而将这4大类特征图线性融合成一个值,用预先设置的阈值来与该值作比较,判断所见物体与目标物体是否是同一物体,并且位姿一致。若一致,心理旋转过程完成,移动机器人导航操作也完成,若不一致则将当前物体3D点云图反馈给前运动皮层,进行下一次的心理旋转规划。
进一步,所述步骤S3中的前运动皮层模块的主要工作是模拟旋转当前物体,输入是当前物体和目标物体的3D点云关键点图。实现借鉴机械臂空间描述和变换的方法,首先以目标物体点云图中心为原点构建三维空间坐标系,然后将当前物体投影到该空间中的任意位置,进而采用平移算子将当前物体的中心平移到坐标原点上。根据两幅点云关键点的角度差异均值,构建一个与当前状态相关的四维旋转算子,包括x,y,z,t(时间)的状态。用旋转算子模拟旋转当前物体,再次匹配关键点,如果存在较大差异,则在模拟旋转后的状态上再次计算一个旋转算子x,y,z,t+1,类似于马尔科夫链,t+1时刻的状态仅取决于t时刻的状态,直到匹配差异值在某一范围内,输出一系列的四维旋转算子。
进一步,所述步骤S4中移动机器人根据S3输出的旋转算子,规划接下来的轨迹,使得摄像头能够转过一定角度,然后使用Kinect运动相机采集移动过后的场景图,并通过目标物体的形状模板匹配当前场景中最相似的物体,分割该物体,将其RGB图和3D点云图反馈给上述的上顶叶皮层模块,进行下一次心理旋转过程。移动机器人不断地调整自己所在位置,最终尽可能使其视角下的场景与目标场景一致。
本发明将灵长类动物的心理旋转过程抽象成可量化表示的空间旋转过程,建立了一整套的心理旋转实现框架,并探索将其应用到移动机器人导航任务上的可能性。本发明的意义在于为心理旋转过程涉及复杂脑区功能进行数学建模,并组合成一个闭环的算法流程。同时,将该认知算法引入到移动机器人导航中也有有重要意义,能够克服传统导航算法训练麻烦和学习能力差的缺点。心理旋转启发的算法融合了场景记忆和运动预测的功能,能够在运动之前想象移动后所能看到的场景,可以避免传统算法在多次试错学习中造成的代价。更进一步,心理旋转启发的导航算法有更强的环境移植能力,能够适应复杂多变的场景。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或着可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书,权利要求书,以及附图中所特别指出的结构来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步的详细叙述,其中:
图1为灵长类动物心理旋转完整的脑区功能流程图;
图2为本发明提出的心理旋转功能框图。
具体实施方式
以下结合附图,对本发明所述的方法做进一步的详细说明;应当理解,优先实施例仅为了说明本发明,而不是为了限制本发明的保护范围。
图1为灵长类动物心理旋转完整的脑区功能流程图;图2为本发明提出的心理旋转功能框图,如图所示:本发明提供的基于四维空间平移和旋转的心理旋转机理模型,包括以下步骤:
S1:抽象表示上顶叶皮层的空间构图功能,输入当前物体的RGB图片和3D点云图,输出3幅颜色特征图,8幅形状特征图,4幅方向特征图和1幅点云关键点特征图;
S2:抽象表示前额皮层的特征和位姿匹配功能,输入为S1得到的16幅特征图,输出为特征和位置匹配结果;
S3:抽象表示运动皮层的模拟旋转功能,输入为S2的匹配结果和S1输出的点云关键点特征图,输出为一系列与时间相关的四维旋转算子;
S4:移动机器人根据S3得到的旋转算子规划下一步运动策略。
作为上述实施例的进一步改进,所述步骤S1中的上顶叶皮层对应模块主要功能是进行空间构图,因为场景过于复杂,我们将提取目标场景中的某个关键物体进行研究,依据是我们人类在记忆地图的时候一般会选择性记忆当前视角下地图中的标志性路标或建筑等。上顶叶皮层将物体的颜色、形状、方向和关键点特征量化,输入为当前物体的RGB图片和3D点云图,RGB图片用在前三个特征的提取,3D点云图用在关键点特征的提取。颜色采用“颜色双竞争”算法表示,即红-绿,黄-蓝,黑-白色彩对;形状采用8尺度高斯金字塔图片进行Sobel边缘提取表示;方向采用余弦光栅和二维高斯卷积描述,取四个方向;对3D点云图使用SIFT算子提取关键点,以简化数据量。所述上顶叶皮层模块输出为3个颜色特征图,8个形状特征图,和4个方向特征图和1个关键点3D点云图。
作为上述实施例的进一步改进,所述步骤S2中的前额皮层模块的主要功能是特征及位姿的比较匹配,其输入为上顶叶皮层模块得到的16幅当前物体特征图与16幅目标物体特征图,用欧式距离来描述颜色特征图、形状特征图,方向特征图,关键点3D点云图的差异,进而将这4大类特征图线性融合成一个值,用预先设置的阈值来与该值作比较,判断所见物体与目标物体是否是同一物体,并且位姿一致。若一致,心理旋转过程完成,移动机器人导航操作也完成,若不一致则将当前物体3D点云图反馈给前运动皮层,进行下一次的心理旋转规划。
作为上述实施例的进一步改进,所述步骤S3中的前运动皮层模块的主要工作是模拟旋转当前物体,输入是当前物体和目标物体的3D点云关键点图。实现借鉴机械臂空间描述和变换的方法,首先以目标物体点云图中心为原点构建三维空间坐标系,然后将当前物体投影到该空间中的任意位置,进而采用平移算子将当前物体的中心平移到坐标原点上。因为SIFT算法具有尺度无关性,所以能克服场景深度不同而带来的物体尺寸的差异,根据两幅点云关键点的角度差异均值,构建一个与当前状态相关的四维旋转算子,包括x,y,z,t(时间)的状态。用旋转算子模拟旋转当前物体,再次匹配关键点,如果存在较大差异,则在模拟旋转后的状态上再次计算一个旋转算子x,y,z,t+1,类似于马尔科夫链,t+1时刻的状态仅取决于t时刻的状态,直到匹配差异值在某一范围内,输出一系列的四维旋转算子。
作为上述实施例的进一步改进,所述步骤S4中移动机器人根据S3输出的旋转算子,规划接下来的轨迹,使得摄像头能够转过一定角度,然后使用Kinect运动相机采集移动过后的场景图,并通过目标物体的形状模板匹配当前场景中最相似的物体,分割该物体,将其RGB图和3D点云图反馈给上述的上顶叶皮层模块,进行下一次心理旋转过程。移动机器人不断地调整自己所在位置,最终尽可能使其视角下的场景与目标场景一致。
多次心理旋转后,移动机器人可以规划出一条通往目标场景的合理路径,整个过程与人类面对不熟悉环境时采取的导航方式十分相似,通过发现沿途的路标,不断回忆当初的视角,旋转匹配决定下一时刻应该到达的位置,而不是漫无目的地试错,所以本发明对移动机器人的认知导航方式具有启发性的意义。
以上所述仅为本发明的优选实施例,并不用于限制本发明,显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (5)

1.基于四维空间平移及旋转的心理旋转机理实现模型,其特征在于:包括以下步骤:
S1:抽象表示上顶叶皮层的空间构图功能,输入当前物体的RGB图片和3D点云图,输出3幅颜色特征图,8幅形状特征图,4幅方向特征图和1幅点云关键点特征图;
S2:抽象表示前额皮层的特征和位姿匹配功能,输入为S1得到的16幅特征图,输出为特征和位置的匹配结果;
S3:抽象表示运动皮层的模拟旋转功能,输入为S2的匹配结果和S1输出的点云关键点特征图,输出为一系列与时间相关的四维旋转算子;
S4:移动机器人根据S3得到的旋转算子规划下一步运动策略。
2.根据专利要求1所述的基于四维空间平移及旋转的心理旋转机理实现模型,其特征在于:所述步骤S1中的上顶叶皮层对应模块主要功能是进行空间构图,提取目标场景中的某个关键物体进行研究。上顶叶皮层将物体的颜色、形状、方向和关键点特征量化,输入为当前物体的RGB图片和3D点云图,RGB图片用在前三个特征的提取,3D点云图用在关键点特征的提取。颜色采用“颜色双竞争”算法表示;形状采用8尺度高斯金字塔图片进行Sobel边缘提取表示;方向采用余弦光栅和二维高斯卷积描述;对3D点云图使用SIFT算子提取关键点,以简化数据量。所述上顶叶皮层模块输出为3个颜色特征图,8个形状特征图,和4个方向特征图和1个关键点3D点云图。
3.根据专利要求1所述的基于四维空间平移及旋转的心理旋转机理实现模型,其特征在于:所述步骤S2中的前额皮层模块的主要功能是特征及位姿的比较匹配,其输入为上顶叶皮层模块得到的16幅当前物体特征图与16幅目标物体特征图,用欧式距离来描述颜色特征图、形状特征图,方向特征图,关键点3D点云图的差异,进而将这4大类特征图线性融合成一个值,用预先设置的阈值来与该值作比较,判断当前物体与目标物体是否是同一物体,并且位姿一致。若一致,心理旋转过程完成,移动机器人导航操作也完成,若不一致则将当前物体3D点云图反馈给前运动皮层,进行下一次的心理旋转规划。
4.根据专利要求1所述的基于四维空间平移及旋转的心理旋转机理实现模型,其特征在于:所述步骤S3中的前运动皮层模块的主要工作是模拟旋转当前物体,输入是当前物体和目标物体的3D点云关键点图。借鉴机械臂空间描述和变换的方法,首先以目标物体点云图中心为原点构建三维空间坐标系,然后将当前物体投影到该空间中的任意位置,进而采用平移算子将当前物体的中心平移到坐标原点上。根据两幅点云关键点的角度差异均值,构建一个与当前状态相关的四维旋转算子,包括x,y,z,t(时间)的状态。用旋转算子模拟旋转当前物体,再次匹配关键点,如果存在较大差异,则在模拟旋转后的状态上再次计算一个旋转算子x,y,z,t+1,类似于马尔科夫链,t+1时刻的状态仅取决于t时刻的状态,直到匹配差异值在某一范围内,输出一系列的四维旋转算子。
5.根据专利要求1所述的基于四维空间平移及旋转的心理旋转机理实现模型,其特征在于:所述步骤S4中移动机器人根据S3输出的旋转算子,规划接下来的轨迹,使得摄像头能够转过一定角度,然后使用Kinect运动相机采集移动过后的场景图,并通过目标物体的形状模板匹配当前场景中最相似的物体,分割该物体,将其RGB图和3D点云图反馈给上述的上顶叶皮层模块,进行下一次心理旋转过程。移动机器人不断地调整自己所在位置,最终尽可能使其视角下的场景与目标场景一致。
CN201710322416.9A 2017-05-09 2017-05-09 一种基于四维空间平移及旋转的心理旋转机理实现模型 Pending CN107194332A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710322416.9A CN107194332A (zh) 2017-05-09 2017-05-09 一种基于四维空间平移及旋转的心理旋转机理实现模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710322416.9A CN107194332A (zh) 2017-05-09 2017-05-09 一种基于四维空间平移及旋转的心理旋转机理实现模型

Publications (1)

Publication Number Publication Date
CN107194332A true CN107194332A (zh) 2017-09-22

Family

ID=59873668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710322416.9A Pending CN107194332A (zh) 2017-05-09 2017-05-09 一种基于四维空间平移及旋转的心理旋转机理实现模型

Country Status (1)

Country Link
CN (1) CN107194332A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101443817A (zh) * 2006-03-22 2009-05-27 皮尔茨公司 用于确定对应关系、优选用于场景的三维重建的方法和装置
US8437535B2 (en) * 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104457566A (zh) * 2014-11-10 2015-03-25 西北工业大学 一种无须示教机器人***的空间定位方法
CN104484522A (zh) * 2014-12-11 2015-04-01 西南科技大学 一种基于现实场景的机器人模拟演练***的构建方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106406338A (zh) * 2016-04-14 2017-02-15 中山大学 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101443817A (zh) * 2006-03-22 2009-05-27 皮尔茨公司 用于确定对应关系、优选用于场景的三维重建的方法和装置
US8437535B2 (en) * 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN104457566A (zh) * 2014-11-10 2015-03-25 西北工业大学 一种无须示教机器人***的空间定位方法
CN104484522A (zh) * 2014-12-11 2015-04-01 西南科技大学 一种基于现实场景的机器人模拟演练***的构建方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106406338A (zh) * 2016-04-14 2017-02-15 中山大学 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法

Similar Documents

Publication Publication Date Title
Soo Kim et al. Interpretable 3d human action analysis with temporal convolutional networks
CN108830150B (zh) 一种基于三维人体姿态估计方法及装置
CN108345869B (zh) 基于深度图像和虚拟数据的驾驶人姿态识别方法
Pishchulin et al. Learning people detection models from few training samples
Fang et al. An automatic road sign recognition system based on a computational model of human recognition processing
CN104063702B (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN107423730A (zh) 一种基于语义折叠的人体步态行为主动检测识别***和方法
CN108090403A (zh) 一种基于3d卷积神经网络的人脸动态识别方法及***
JP2019028876A (ja) 機械学習用教師データ生成装置及び生成方法
CN107194338A (zh) 基于人体树图模型的交通环境行人检测方法
CN110111289A (zh) 一种图像处理方法及装置
CN109241830A (zh) 基于光照生成对抗网络的课堂听课异常检测方法
CN107621880A (zh) 一种基于改进头姿估计方法的机器人轮椅交互控制方法
White et al. Vision processing for assistive vision: A deep reinforcement learning approach
CN106446833B (zh) 一种用于复杂场景图像识别的多通道仿生视觉方法
CN106846462A (zh) 基于三维模拟的昆虫识别装置及方法
CN116182875A (zh) 一种基于图神经网络的临时道路路径规划方法及***
CN114494594A (zh) 基于深度学习的航天员操作设备状态识别方法
Zhang 2D Computer Vision
CN107194332A (zh) 一种基于四维空间平移及旋转的心理旋转机理实现模型
Merkulova et al. Object detection and tracking basics: Student education
Thomsen et al. Predicting and steering performance in architectural materials
Jenkins et al. Interactive human pose and action recognition using dynamical motion primitives
Carlos et al. Simulation of near infrared sensor in unity for plant-weed segmentation classification
CN115661367A (zh) 基于照片采集的动态混合变形的建模方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170922

WD01 Invention patent application deemed withdrawn after publication