CN106780605A - 一种基于深度学习机器人的目标物抓取位置的检测方法 - Google Patents
一种基于深度学习机器人的目标物抓取位置的检测方法 Download PDFInfo
- Publication number
- CN106780605A CN106780605A CN201611181461.9A CN201611181461A CN106780605A CN 106780605 A CN106780605 A CN 106780605A CN 201611181461 A CN201611181461 A CN 201611181461A CN 106780605 A CN106780605 A CN 106780605A
- Authority
- CN
- China
- Prior art keywords
- capture area
- input
- crawl position
- candidate capture
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Image Analysis (AREA)
Abstract
本发明适用于机器人抓取领域,提供了一种基于深度学习机器人的目标物抓取位置的检测方法,该方法包括如下步骤:通过传感器采集包含目标物的RGB‑D图像;在RGB‑D图像的目标区域内划分候选抓取区域;保持候选抓取区域的长宽比不变,将候选抓取区域的尺寸放大至神经网络输入要求的尺寸;对放大后的候选抓取区域构建输入向量;对输入向量进行白化处理,将所述白化处理后的输入向量输入到训练好的神经网络;获取每个候选抓取区域的得分,将得分最高的候选抓取区域确定为抓取位置。通过获取的目标物的RGB‑D图像,即可确定该目标物的抓取位置,机器人通过该抓取位置可实现任何实现目标物的抓取,且不需要人工的参与。
Description
技术领域
本发明属于机器人抓取领域,尤其涉及一种基于深度学习机器人的目标物抓取位置的检测方法。
背景技术
为了护理老年人、残疾人等行动不便人士,对家庭环境中常见物体,例如茶杯饮料瓶、书籍等的抓取,成为家庭服务机器人不可或缺的重要功能需求。不同于工业机器人在结构化环境下对工件的抓取,服务机器人在家庭环境下的智能抓取面临着诸多挑战,例如动态化环境、光照变化、几十乃至上百种目标物体、复杂背景、物体间的相互遮挡等。
目前,机器人抓取检测技术包括以下几种:人工设计目标物的抓取特征,通过目标抓取特征建立抓取模型,检测抓取位置,现有的人工设计目标物的抓取特征的方法,既耗时又需要大量的人工参与,并且对于机器人未见过的目标物无法准确检测出抓取位置,无法执行抓取动作。
发明内容
本发明实施例提供一种基于深度学习机器人的目标物抓取位置的检测方法,旨在解决现有的人工设计目标物的抓取特征的方法,既耗时又需要大量的人工参与,并且对于机器人未见过的目标物无法准确检测出抓取位置,无法执行抓取动作问题。
本发明是这样实现的,一种基于深度学习机器人的目标物抓取位置的检测方法,所述方法包括如下步骤:
S1.通过传感器采集包含目标物的RGB-D图像;
S2.在RGB-D图像的目标区域内划分候选抓取区域;
S3.保持所述候选抓取区域的长宽比不变,将所述候选抓取区域的尺寸放大至神经网络输入要求的尺寸;
S4.对所述放大后的候选抓取区域构建输入向量;
S5.对所述输入向量进行白化处理,将所述白化处理后的输入向量输入到训练好的神经网络;
S6.获取每个候选抓取区域的得分,将所述得分最高的候选抓取区域确定为抓取位置。
本发明实施例通过获取目标物的RGB-D图像,对RGB-D图像的目标区域划分候选抓取区域,并放大至神经网络输入要求的尺寸,对放大后的候选抓取区域构建输入向量,将构建好的输入向量输入神经网络,获取个候选抓取区域的得分,得分最高的候选抓取区域确定为目标物的抓取位置,通过获取的目标物的RGB-D图像,即可确定该目标物的抓取位置,机器人通过该抓取位置可实现任何实现目标物的抓取,且不需要人工的参与。
附图说明
图1是本发明实施例提供的基于深度学习机器人的目标物抓取位置检测方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为本发明实施例提供的基于深度学习机器人的目标物抓取位置检测方法的流程图,该方法包括如下步骤:
S1.通过传感器采集包含目标物的RGB-D图像;
本发明实施例采用微软Kinect传感器获取抓取目标物的高分辨率的RGB图像和深度图像,RGB图像包含了抓取目标物表面颜色信息和纹理信息,深度图像包含了抓取目标物的空间形状信息,深度图像中的每个像素值表示了传感器到抓取目标物的距离,RGB图像和深度图像之间的像素点是一一对应的,组成了RGB-D图像。
S2.在RGB-D图像的目标区域内划分候选抓取区域;
在本发明实施例中,利用背景差分法提取RGB-D图像的目标区域,在目标区域内设定滑动窗口,通过滑动窗口的移动来提取候选抓取区域,该活动窗口的尺寸即为候选抓取区域的尺寸,本发明实施例采用baxter双臂机器人,机器人的末端执行器为夹爪,滑动窗口为矩形滑动窗口,滑动窗口的尺寸是根据抓爪的尺寸来确定,活动窗口设置为30像素×10像素的矩形活动窗口,因此候选抓取区域的尺寸为30像素×10像素的候选抓取矩形。
S3.保持候选抓取区域的长宽比不变,将候选抓取区域的尺寸放大至神经网络输入要求的尺寸;
在本发明实施例中,根据神经网络对输入样本尺寸的要求,在保持候选抓取区域的长宽比不变的情况下,通过0值填充,或边缘扩展将候选抓取区域的尺寸放大至神经网络输入要求的尺寸,在本发明实施例中,神经网络对输入样本尺寸的要求为32像素×32像素。
S4.对放大后的候选抓取区域构建输入向量;
在本发明实施例中,对候选抓取区域构建7个通道的输入向量,7个通道的输入向量包括:从深度图像中获取深度数据在x、y、z轴三个方向上的表面法向量、YUV数据转换成在Y、U、V三个通道上的向量、及将深度图像转换成向量。
在本发明实施例中,若步骤S3是通过0值填充将候选抓取区域的尺寸放大至神经网络输入要求的尺寸,由于填充之后的输入向量中会有大量的0值,且不同的候选抓取区域的输入向量中填充的0值得数量不同,最后会影响神经网络的输出得分,因此,为了消除填充的0值的影响,需要对候输入向量中的元素乘以一个缩放因子,对输入向量中元素的值进行缩放,缩放因子的计算公式如下:
其中,为第t个样本的输入向量中第i个元素的缩放因子,为通道r的放大因子,当输入向量中的第i个元素xi属于通道r时,Sr,i的值为1,否则Sr,i的值为0,当第xi不是0填充值时,的值为1,否则的值为0。
此外,作为本发明的优选实施例,考虑到缩放因子过大会导致输入数据的失真,缩放因子最大到某值C,即C的取值为4
S5.对构建的输入向量进行白化处理,将白化处理后的输入向量输入到训练好的神经网络;
在本发明实施例中,为了降低输入的冗余性,对构建好的输入向量进行白化处理,白化处理的过程包括:将输入每个通道的输入向量减去各自的平均值,再除以由7个通道的输入向量组成的组合向量的标准差。
S6.获取每个候选抓取区域的得分,将得分最高的候选区域确定为抓取位置。
本发明实施例通过获取目标物的RGB-D图像,对RGB-D图像的目标区域划分候选抓取区域,并放大至神经网络输入要求的尺寸,对放大后的候选抓取区域构建输入向量,将构建好的输入向量输入神经网络,获取个候选抓取区域的得分,得分最高的候选抓取区域确定为目标物的抓取位置,通过获取的目标物的RGB-D图像,即可确定该目标物的抓取位置,机器人通过该抓取位置可实现任何实现目标物的抓取,且不需要人工的参与。
在本发明实施例中,在所述步骤S1之前还包括:
S7.构建神经网络;
在本发明实施例中,构建的神经网络由7168个神经元输入层、200个神经元稀疏自编码器及sigmoid输出层组成。
S8.对构建好的神经网络进行离线训练。
在本发明实施例中,通过给定样本的输入和输出,通过训练得到最优时的W,再用W计算给定输入的预测输出。
在本发明实施例中,对构建好的神经网络进行离线训练具体包括如下步骤:
S81.采用步骤S1-S5对给定的样本进行预处理;
S82.将预处理好的给定样本输入神经网络,并给定样本的输出结果,采用无监督训练迭代200次,训练2个隐层稀疏自编码器来初始化隐层权值;
稀疏自编码器在代价函数最优时的初始化隐层权值W*公式如下:
其中,是输入向量x(t)的重建,g(h)为稀疏性惩罚函数,λ是稀疏性惩罚函数的系数,f(W)是正则化函数,β是正则化函数的系数,为第t个输入样本输入向量的第i个元素,Wi,j为第i个元素在第j个隐层神经元上的权值,为第t个输入样本向量在第j个隐层神经元上的输出,σ为sigmoid激活函数,W*是代价函数最优时稀疏自编码器来初始化隐层的权值。
本发明实施例中的稀疏自编码器包括第一层隐层的线性稀疏自编码器及第二层隐层的标准稀疏自编码器;
当所述稀疏自编码器为第一隐层线性稀疏自编码器时,采用L2和L1结合的正则化方法,正则函数为其中||W||1为L1对应的正则化函数,为L2对应的正则化函数,L1的正则化系数ε2=0.0003,L2正则化系数ε1=0.001,其中对f1(W)添加微小偏置量0.00001;其中通过添加微小偏置的方法来避免输入向量中0值得干扰,该层稀疏性惩罚系数为3,线性稀疏自编码器的输出是0到1之间的实数;
当所述稀疏自编码器为第二隐层标准稀疏自编码器时,采用L1正则化方法,正则函数为f2(W)=ε2||W||1,L1正则化系数,ε2=0.0003,该层稀疏性惩罚系数为3,标准稀疏自编码器的输出是0或者1。
S83.将预处理好的样本通过反向传播算法有监督训练迭代10次,对整个网络参数进行整体优化。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,所述方法包括如下步骤:
S1.通过传感器采集包含目标物的RGB-D图像;
S2.在所述RGB-D图像的目标区域内划分候选抓取区域;
S3.保持所述候选抓取区域的长宽比不变,将所述候选抓取区域的尺寸放大至神经网络输入要求的尺寸;
S4.对所述放大后的候选抓取区域构建输入向量;
S5.对所述输入向量进行白化处理,将所述白化处理后的输入向量输入到训练好的神经网络;
S6.获取每个候选抓取区域的得分,将所述得分最高的候选抓取区域确定为抓取位置。
2.如权利要求1所述的基于深度学习机器人的目标物抓取位置的检验方法,其特征在于,所述候选抓取区域是通过设定的滑动窗口在所述RGB-D图像的目标区域内移动来提取的;
所述活动窗口的尺寸即为所述候选抓取区域的尺寸。
3.如权利要求1所述的基于深度学习机器人的目标物抓取位置的检验方法,其特征在于,通过0值填充或边缘扩展将所述候选抓取区域的尺寸放大至神经网络输入要求的尺寸。
4.如权利要求3所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,通过所述0值填充将所述候选抓取区域的尺寸放大至神经网络输入要求的尺寸时,在步骤S4之后还包括:
将所述输入向量中的元素乘以一个缩放因子,对所述输入向量中元素的值进行缩放;
所述缩放因子的计算公式如下:
其中,为第t个样本的输入向量中第i个元素的缩放因子,为通道r的放大因子,当输入向量中的第i个元素xi属于通道r时,Sr,i的值为1,否则Sr,i的值为0,当第xi不是0填充值时,的值为1,否则的值为0。
5.如权利要求4所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,所述缩放因子C的取值为4。
6.如权利要求1所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,在步骤S1之前还包括:
S7.构建神经网络;
S8.对构建好的神经网络进行离线训练。
所述神经网络由7168个神经元输入层、200个神经元稀疏自编码器及sigmoid输出层组成。
7.如权利要求6所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,所述步骤S8具体包括如下步骤:
S81.采用步骤S1-S5对给定的样本进行预处理;
S82.将所述预处理好的给定样本输入神经网络,并给定样本的输出结果,采用无监督训练迭代200次,训练2个隐层稀疏自编码器来初始化隐层权值;
S83.将所述预处理好的样本通过反向传播算法有监督训练迭代10次,对整个网络参数进行整体优化。
8.如权利要求7所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,稀疏自编码器在代价函数最优时的初始化隐层权值W*计算公式如下:
其中,是输入向量x(t)的重建,g(h)为稀疏性惩罚函数,λ是稀疏性惩罚函数的系数,f(W)是正则化函数,β是正则化函数的系数,为第t个输入样本输入向量的第i个元素,Wi,j为第i个元素在第j个隐层神经元上的权值,为第t个输入样本向量在第j个隐层神经元上的输出,σ为sigmoid激活函数。
9.如权利要求8所述的基于深度学习机器人的目标物抓取位置的检测方法,其特征在于,当所述稀疏自编码器为第一隐层线性稀疏自编码器时,所述线性稀疏自编码器采用L2和L1结合的正则化方法,正则函数为其中||W||1为L1对应的正则化函数,为L2对应的正则化函数,L1的正则化系数ε2=0.0003,L2正则化系数ε1=0.001,其中对f1(W)添加微小偏置量0.00001,所述第一隐层线性稀疏自编码器的稀疏性惩罚函数的系数λ1=3;
当所述稀疏自编码器为第二隐层标准稀疏自编码器时,所述标准稀疏自编码器采用L1正则化方法,正则函数为f2(W)=ε2||W||1,L1正则化系数ε2=0.0003,所述第二隐层标准稀疏自编码器的稀疏性惩罚函数的系数λ2=3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611181461.9A CN106780605A (zh) | 2016-12-20 | 2016-12-20 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611181461.9A CN106780605A (zh) | 2016-12-20 | 2016-12-20 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106780605A true CN106780605A (zh) | 2017-05-31 |
Family
ID=58890864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611181461.9A Pending CN106780605A (zh) | 2016-12-20 | 2016-12-20 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106780605A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107479501A (zh) * | 2017-09-28 | 2017-12-15 | 广州智能装备研究院有限公司 | 基于深度学习的3d零部件吸取方法 |
CN107679477A (zh) * | 2017-09-27 | 2018-02-09 | 深圳市未来媒体技术研究院 | 基于空洞卷积神经网络的人脸深度和表面法向量预测方法 |
CN108126914A (zh) * | 2017-11-24 | 2018-06-08 | 上海发那科机器人有限公司 | 一种基于深度学习的料框内散乱多物体机器人分拣方法 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
CN108805004A (zh) * | 2018-04-12 | 2018-11-13 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质、程序 |
CN108908334A (zh) * | 2018-07-20 | 2018-11-30 | 汕头大学 | 一种基于深度学习的智能抓取***及方法 |
CN109508707A (zh) * | 2019-01-08 | 2019-03-22 | 中国科学院自动化研究所 | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 |
CN109531584A (zh) * | 2019-01-31 | 2019-03-29 | 北京无线电测量研究所 | 一种基于深度学习的机械臂控制方法和装置 |
CN110208211A (zh) * | 2019-07-03 | 2019-09-06 | 南京林业大学 | 一种用于农药残留检测的近红外光谱降噪方法 |
CN110691676A (zh) * | 2017-06-19 | 2020-01-14 | 谷歌有限责任公司 | 使用神经网络和几何感知对象表示的机器人抓取预测 |
CN111310637A (zh) * | 2020-02-11 | 2020-06-19 | 山西大学 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
CN111324095A (zh) * | 2020-02-27 | 2020-06-23 | 金陵科技学院 | 干散料智能工业机器人无人装运*** |
CN111428731A (zh) * | 2019-04-04 | 2020-07-17 | 深圳市联合视觉创新科技有限公司 | 基于机器视觉的多类目标识别定位方法、装置和设备 |
JP2021517681A (ja) * | 2018-12-12 | 2021-07-26 | 達闥机器人有限公司 | ロボットの目標物体把持位置の検出方法 |
CN116945210A (zh) * | 2023-07-12 | 2023-10-27 | 深圳市永顺创能技术有限公司 | 一种基于机器视觉的机器人智能控制*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105598965A (zh) * | 2015-11-26 | 2016-05-25 | 哈尔滨工业大学 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
CN105718959A (zh) * | 2016-01-27 | 2016-06-29 | 中国石油大学(华东) | 一种基于自编码的物体识别方法 |
CN106094516A (zh) * | 2016-06-08 | 2016-11-09 | 南京大学 | 一种基于深度强化学习的机器人自适应抓取方法 |
-
2016
- 2016-12-20 CN CN201611181461.9A patent/CN106780605A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105598965A (zh) * | 2015-11-26 | 2016-05-25 | 哈尔滨工业大学 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
CN105718959A (zh) * | 2016-01-27 | 2016-06-29 | 中国石油大学(华东) | 一种基于自编码的物体识别方法 |
CN106094516A (zh) * | 2016-06-08 | 2016-11-09 | 南京大学 | 一种基于深度强化学习的机器人自适应抓取方法 |
Non-Patent Citations (1)
Title |
---|
IAN LENZ 等: ""Deep Learning for Detecting Robotic Grasps"", 《百度学术》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110691676A (zh) * | 2017-06-19 | 2020-01-14 | 谷歌有限责任公司 | 使用神经网络和几何感知对象表示的机器人抓取预测 |
US11554483B2 (en) | 2017-06-19 | 2023-01-17 | Google Llc | Robotic grasping prediction using neural networks and geometry aware object representation |
CN107679477A (zh) * | 2017-09-27 | 2018-02-09 | 深圳市未来媒体技术研究院 | 基于空洞卷积神经网络的人脸深度和表面法向量预测方法 |
CN107479501A (zh) * | 2017-09-28 | 2017-12-15 | 广州智能装备研究院有限公司 | 基于深度学习的3d零部件吸取方法 |
CN108126914A (zh) * | 2017-11-24 | 2018-06-08 | 上海发那科机器人有限公司 | 一种基于深度学习的料框内散乱多物体机器人分拣方法 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
CN108280856B (zh) * | 2018-02-09 | 2021-05-07 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
CN108805004A (zh) * | 2018-04-12 | 2018-11-13 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质、程序 |
CN108805004B (zh) * | 2018-04-12 | 2021-09-14 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质 |
CN108908334A (zh) * | 2018-07-20 | 2018-11-30 | 汕头大学 | 一种基于深度学习的智能抓取***及方法 |
US11878433B2 (en) | 2018-12-12 | 2024-01-23 | Cloudminds Robotics Co., Ltd. | Method for detecting grasping position of robot in grasping object |
JP7085726B2 (ja) | 2018-12-12 | 2022-06-17 | 達闥機器人股▲分▼有限公司 | ロボットの目標物体把持位置の検出方法 |
JP2021517681A (ja) * | 2018-12-12 | 2021-07-26 | 達闥机器人有限公司 | ロボットの目標物体把持位置の検出方法 |
CN109508707A (zh) * | 2019-01-08 | 2019-03-22 | 中国科学院自动化研究所 | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 |
CN109531584A (zh) * | 2019-01-31 | 2019-03-29 | 北京无线电测量研究所 | 一种基于深度学习的机械臂控制方法和装置 |
CN111428731A (zh) * | 2019-04-04 | 2020-07-17 | 深圳市联合视觉创新科技有限公司 | 基于机器视觉的多类目标识别定位方法、装置和设备 |
CN111428731B (zh) * | 2019-04-04 | 2023-09-26 | 深圳市联合视觉创新科技有限公司 | 基于机器视觉的多类目标识别定位方法、装置和设备 |
CN110208211B (zh) * | 2019-07-03 | 2021-10-22 | 南京林业大学 | 一种用于农药残留检测的近红外光谱降噪方法 |
CN110208211A (zh) * | 2019-07-03 | 2019-09-06 | 南京林业大学 | 一种用于农药残留检测的近红外光谱降噪方法 |
CN111310637B (zh) * | 2020-02-11 | 2022-11-11 | 山西大学 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
CN111310637A (zh) * | 2020-02-11 | 2020-06-19 | 山西大学 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
CN111324095A (zh) * | 2020-02-27 | 2020-06-23 | 金陵科技学院 | 干散料智能工业机器人无人装运*** |
CN116945210A (zh) * | 2023-07-12 | 2023-10-27 | 深圳市永顺创能技术有限公司 | 一种基于机器视觉的机器人智能控制*** |
CN116945210B (zh) * | 2023-07-12 | 2024-03-15 | 深圳市永顺创能技术有限公司 | 一种基于机器视觉的机器人智能控制*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780605A (zh) | 一种基于深度学习机器人的目标物抓取位置的检测方法 | |
CN107886069A (zh) | 一种多目标人体2d姿态实时检测***及检测方法 | |
CN108280856B (zh) | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 | |
CN106097322B (zh) | 一种基于神经网络的视觉***标定方法 | |
CN104978580B (zh) | 一种用于无人机巡检输电线路的绝缘子识别方法 | |
CN106951923B (zh) | 一种基于多视角信息融合的机器人三维形状识别方法 | |
Browne et al. | Convolutional neural networks for image processing: an application in robot vision | |
CN107103277B (zh) | 一种基于深度相机和3d卷积神经网络的步态识别方法 | |
CN105447529A (zh) | 一种服饰检测及其属性值识别的方法和*** | |
CN110509273B (zh) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 | |
CN104320617B (zh) | 一种基于深度学习的全天候视频监控方法 | |
Shinzato et al. | Fast visual road recognition and horizon detection using multiple artificial neural networks | |
CN105205453A (zh) | 基于深度自编码器的人眼检测和定位方法 | |
CN104392228A (zh) | 基于条件随机场模型的无人机图像目标类检测方法 | |
Shinzato et al. | A road following approach using artificial neural networks combinations | |
He et al. | Integrated moment-based LGMD and deep reinforcement learning for UAV obstacle avoidance | |
CN107967474A (zh) | 一种基于卷积神经网络的海面目标显著性检测方法 | |
CN107424161A (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN106780546A (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
Saxena et al. | Garment recognition and grasping point detection for clothing assistance task using deep learning | |
CN107414830A (zh) | 一种运载机器人手臂操控多层映射智能控制方法及*** | |
CN1758283A (zh) | 模拟多尺度交叠感受野的神经网络及其建立方法和应用 | |
Zhang et al. | Learn to navigate maplessly with varied LiDAR configurations: A support point-based approach | |
Zhang et al. | Learning-based six-axis force/torque estimation using gelstereo fingertip visuotactile sensing | |
Komer et al. | BatSLAM: Neuromorphic spatial reasoning in 3D environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |