CN107895145A - 基于卷积神经网络结合超高斯去噪估测手指受力的方法 - Google Patents

基于卷积神经网络结合超高斯去噪估测手指受力的方法 Download PDF

Info

Publication number
CN107895145A
CN107895145A CN201711044262.8A CN201711044262A CN107895145A CN 107895145 A CN107895145 A CN 107895145A CN 201711044262 A CN201711044262 A CN 201711044262A CN 107895145 A CN107895145 A CN 107895145A
Authority
CN
China
Prior art keywords
mrow
finger
msup
gaussian
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711044262.8A
Other languages
English (en)
Inventor
张小瑞
吴韵清
孙伟
宋爱国
牛建伟
蔡青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201711044262.8A priority Critical patent/CN107895145A/zh
Publication of CN107895145A publication Critical patent/CN107895145A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于包含以下步骤:步骤一:利用固定的成像源相机拍摄手指的二维图像;步骤二:利用超高斯法对所摄图像去噪;步骤三:利用卷积神经网络预测去噪后的二维图像到三维手指模型的转化矩阵,构建三维手指模型;步骤四:利用高斯法基于手指及其周边皮肤的形变和颜色变化预测手指力。本方法使用一个静态的照相机从一定距离外观察获取手指的图像,使得手指力量的估算可以在没有任何对手的物理干扰下进行,力的估计全面而准确。

Description

基于卷积神经网络结合超高斯去噪估测手指受力的方法
技术领域
本发明涉及计算机视觉以及深度学习的研究领域,特别涉及一种基于卷积神经网络结合超高斯去噪估测手指受力的方法。
背景技术
为充分提高机器人手握力的稳定性、丰富其操作能力,人手经常被用作范例。而为达到估测人类的手指握力的目的,机器要理解人在抓握和操纵中的力度。对于人手抓握行为的分析和研究能够被用来发展基于阻力对抗的机器手在抓握过程中的操作技巧和力量。目前的研究多集中于手指的位置,这些研究为确定在抓握过程中手指的位置提供了关键信息,但很少有研究涉及估测手指力。目前已有的少量方法中,多使用只能简单估测表面力量的力敏电阻器,导致只能从一个预先定义的地方预测全力,所得数据非常有限;或者使用非自然的手套,该方法虽然可以得到相对全面的力学信息,但结果常常是受限的。
发明内容
本发明为了解决现有技术中存在的问题,提供一种基于卷积神经网络结合超高斯去噪估测手指受力的方法来全面准确估测手指力。
为了达到上述目的,本发明提出的技术方案为:一种基于卷积神经网络结合超高斯去噪估测手指受力的方法,包括以下步骤:
步骤一、利用固定的成像源相机拍摄手指的二维图像;
步骤二、利用超高斯法对步骤一中拍摄的图像进行去噪处理;
步骤三、对处理过的二维图像构建三维手指模型,其中二维图像到三维手指模型的转化矩阵利用卷积神经网络预测;
步骤四、利用高斯法基于手指及其周边皮肤的形变和颜色变化预测手指力。
对上述技术方案的进一步设计为:步骤一中用相机以15帧每秒的速度拍摄分辨率为 1024*768像素的图像。
步骤三中二维图像中手指位置用坐标数组a0,b0表示,三维图像中手指的位置用坐标数组 x,y,z表示,方向用角度α,β,γ表示,分别表示偏离角度、高出角度、转动角度;在三维模型的前视图中,x,y,z,α,β,γ全部初始化为0;手指表面一点C0的现实坐标C1是由公式C1=MC0给出的。其中,M是转换矩阵:
其中,H是角度参量,H=Rotz(α)·Roty(β)·Rotx(γ),Rotz(α)表示旋转矩阵关于z轴旋转α角度,Roty(β)表示旋转矩阵关于y轴旋转β角度,Rotx(γ)表示旋转矩阵关于x轴旋转γ角度;q是位置参量,q=(x y z)T,x,y,z是三维图像中手指的位置坐标。
步骤三中在得到三维图像后对图像进行纹理映射对齐。
步骤四中利用高斯法估测手指力时,将对齐后得到的图像重塑为n个一维矢量(d1,d2,d3,...,dn),并作为高斯法估测力的输入值,G=(G1,G2,G3,...,Gn)T是相应的目标,因此高斯法估测的力f(d*)和输入坐标矢量d的共轭转置矩阵d*的分布如下:
其中,E[f(d*)]是高斯法估测的力f(d*)的数学期望;Kij是第i个力di和第j个力dj的协方差,即Kij=k(di,dj);λn是n个噪声方差超参数组成的矩阵;I是单位矩阵;k是协方差运算,k*T表示求出共轭转置矩阵的协方差后转置;G=(G1,G2,G3,...,Gn)T是待估计的力组成的矩阵;Var[f(d*)]是高斯法估测的力f(d*)的方差;k(d*,d*)是输入d的共轭转置矩阵d*的协方差;噪声方差参数最优值的计算方法如下:
其中,p(G|d)是条件d下G的概率,原理上底数可取任意值,取2便于计算机运算;是n 个噪声方差超参数组成的矩阵的平方。
本发明的有益效果为:
本方法运用人手指的图片来重构握力和手指处的力。本方法不使用安装在手指上的设备,作为替代,使用一个静态的照相机从一定距离外观察获取手指的图像,这使得手指力量的估算可以在没有任何对手的物理的干扰的前提下进行,从而得到全面准确的力的估计。
具体实施方式
下面结合具体实施例对本发明进行详细说明。
本实施例采用的深度学习技术可以解决二维图像转化为三维模型的问题。深度学习技术中比较适合处理视觉信息的主要是深度卷积神经网络,它是一种监督学习的方法。本实施例中也设计了对图像进行去噪处理的环节;最后,结合目前已经比较成熟的高斯法从对齐的图像中来估测手指力。
本实施例的基于卷积神经网络结合超高斯去噪估测手指受力的方法的具体步骤为:
步骤一:前期拍摄
固定的成像源相机捕捉视频数据以15帧每秒的速度拍摄分辨率为1024*768像素的图像。
由于后期处理包含了方向的扭转和校正,本发明对于此步骤中拍摄距离、角度不作要求。
步骤二:利用超高斯法对步骤一中拍摄的图像进行去噪处理
本实施例对于图像去噪设计了DnCNN(去噪卷积神经网络),用前馈卷积神经网络、残差学习与批处理归一化相结合的方法,将噪声与噪声图像分离。
针对一个特定任务训练深度卷积网络模型一般涉及两个步骤:网络架构设计、从训练数据中学习。
(1)网络架构设计
本方法修改了VGG网络以使它适用于图像的去噪。首先确定网络深度。本文基于最先进的去噪方法中的有效补丁大小来设定网络的深度。设计卷积滤波器尺寸为3×3但删除所有池化层,故深度为D的DnCNN的接受域(卷积网络通过在相邻两层之间强制使用局部连接模式来利用图像的空间局部特性,这些局部区域被称为空间连续的接受域)应为 (2D+1)×(2D+1)。增加接受域大小可以在更大的图像区域中利用周边信息。通过固定的噪声水平η=25,分析了几个主要的去噪方法的去噪效果,选择深度D为17,对应接受域大小为35×35的DnCNN。对于其他一般的图像去噪任务,可采用更大的感受野,并设置深度D为 20。DnCNN的输入U是一个嘈杂的观察模型,表示为U=U0+V,U0为无噪声干净的模型, V为含有标准偏差的加性高斯白噪声。可以通过隐藏层从嘈杂的观察中分离出图像结构,这种机制类似于迭代去噪策略等方法,但此方法是一个端到端的方式训练。
(2)从训练数据中学习
对于模型学习,采用残差学习方法,并将其纳入批量正规化以达到快速训练和改进去噪性能的目的。采用剩余学习公式来训练剩余映射R(U)≈V,得到U0=U-R(U);剩余学习公式为:
Jt=g(W1f(W2lt+W3jt-1)) (4)
其中,Jt是t时刻的输出;W1,W2,W3是分别连接隐含层单元和输出层单元、输入单元和隐含层单元、隐含层单元之间的3个权重矩阵;lt是t时刻的输入,jt-1是t-1时刻的隐层输出;
平均所需的残差图像和从噪声中估计的输入之间的均方误差可以作为损失函数在 DnCNN中训练参数Θ,噪声输入估计与理想残差之间的平均均方误差计算公式如下:
其中,代表Q对嘈杂-纯净训练图片对,Ui是第i个嘈杂图片,U0i是第i个纯净图片;是Q对嘈杂-纯净训练图片的均方误差,|| ||符号是由线性赋范空间到非负实数的映射,用范数表示空间中的点与原点间的距离。
步骤三:利用卷积神经网络的三维建模以及图像对准
(1)三维建模(卷积神经网络的前期训练)
由于手指的位置和方向会随着时间变化,为了减小这些变化带来的影响,在估测力和力矩前,使用CNN来预测和修正手指的位置和方向,因此为训练CNN,需要在实际实验之前,从步骤一的图像中选取12-15幅手指图像,然后用AgisoftPhotoscan 0.9.1软件构建出3D模型,来训练卷积神经网络。
(2)手指检测与跟踪
由于视频流不仅包含了手指也包含了背景,故需要把手指从图像中提取出来,本发明选择常用于皮肤检测的非线性的RGB信号的YCbCr彩色空间的阈值来分割出手指,再用平均转化算法来跟踪视频中的手指。
(3)基于卷积神经网络的变换矩阵估计
原始的二维图像一旦倾斜,会导致数据的丢失,故用CNN来估计转化矩阵。
a、手指位置坐标表示
让三维图像中手指的位置用坐标数组x,y,z表示,方向用角度α,β,γ表示,分别表示偏离角度、高出角度、转动角度;在三维模型的前视图中,x,y,z,α,β,γ全部初始化为0;手指表面一点C0的现实坐标C1是由公式C1=MC0给出的。其中,M是转换矩阵:
其中,H是角度参量,H=Rotz(α)·Roty(β)·Rotx(γ),Rotz(α)表示旋转矩阵关于z轴旋转α角度,Roty(β)表示旋转矩阵关于y轴旋转β角度,Rotx(γ)表示旋转矩阵关于x轴旋转γ角度;q是位置参量,q=(x y z)T,x,y,z是三维图像中手指的位置坐标。
为简化校准的任务减少环境因素比如光、反射的干扰,本发明在手指上放了一个标记。这个方法对标记的位置不敏感,只要在训练和测试时,标记放在了同一个地方即可。该标记确定了四条线来识别指甲的方向,指甲的坐标可以通过定位二维图像中的红点来估计。左边的黑色线能明确地相互区分。
利用创建的三维模型使得40000幅二维训练图像有不同的位置z和角度α,β,γ; z∈[-2,3],模型坐标中以0.5虚拟距离为间隔;α∈[-25,30],β∈[-15,35],γ∈[-23,37],以 3.5度为间隔。虚拟距离是在z方向上的距离相对于3D模型的虚拟距离,单位取决于人手指的三维手指模型的尺寸比。
b、CNN估计转化矩阵
CNN是一种用于回归和分类的神经式网络结构,能够检测错误,相对稳健地实现转化。本发明提出的网络的组合输出方法体系结构包含六层。第一个卷积层在第一个最大池化层后,另一个卷积层在第二个最大池化层和两个全连接后,试验中使用5*5的滤波器,第一卷积层使用了8内核,第二卷积层使用了25内核。通常情况下,卷积神经网络是为了后续阶段的卷积和最大池化设计的。特征图r(a,b)的二维图像卷积计算方法如下:
其中,(a,b)是特征图上的像素位置;l1*l2是滤波器的尺寸;s是内核权重;u是权重矩阵第u 行;v是权重矩阵第v列;g是输入映射;bm是偏置;
最大池化激活计算方法如下:
其中,L是最大池化层中的特征映射,l3*l4是池化尺寸;
最大池化是一种非线性向下采样方法,可以降低计算复杂度。这些层采取卷积层的输出作为输入,降低了输入的分辨率。全连接的MLP(多层神经网络)包含50个隐藏单元。方向θ∈{α,β,γ}计算方法如下:
其中,O1,O2,...,O7是最后一层线性的7个输出,记为A=(O1,O2,...O7)T
首先确定输出的为Ofirst=O1,其余6个输出值贡献给三个方向。值得注意的是,由于这种形式的编码角度是可微的,可以使用链规则反向传播误差梯度回网络。
假设输出A与输入B是线性相关的,用条件概率密度,线性回归模型表示如下:
p(A|B,ξ)=N(A|μ(B),σ2) (9)
其中,A是线性回归的输出;B是线性回归的输入和MLP的输出;ξ=(W,σ2)是参数,W是权重矩阵,σ2是方差;N(A|μ(B),σ2)表示两者服从正态分布,μ(B)是B的期望;期望得到的输出是μ(WTB);
假设训练数据为独立同分布,为确定权重W的最优值,应尽量减少NLL(负对数似然),负对数似然计算方法如下:
平方误差的总和被定义为:
其中ALL是待优化的数据点的数量;Ai是第i个输入,Bi是第i个输出;ξ是参数;
由于方向是周期性的,选择von Mises分布计算对数似然函数。本发明使用一个简单的L2 范数,成本函数计算方法如下:
其中,是待计算成本的角度,TEST是用来训练的样本个数;
通过最小化α,β,γ的成本函数和Ofirst的负对数似然,更新卷积神经网络的权重。
观察组合输出卷积神经网络的训练过程,位置和方向变量开始时分别收敛,α,β,γ稳定后,Ofirst进行收敛,本方法用唯一的连接单独训练位置和方向,输出的取向被设置为线性回归层的偏置。因此预计的Ofirst的输出如下:
μ(d)=Wαα+Wββ+Wγγ+W1d1+...WndTEST (13)
c、纹理映射
从卷积神经网络估计的变换矩阵,图像可以使用纹理映射对齐。这是一个有效的没有繁琐的过程的从源图像到创建外观的方法,如建模或对每一个细节绘制三维曲线。它允许“粘合”源二维框架到3D手指表面的估计位置和方向。映射的三维模型手指然后通过参考位置和方位的透视投影,绘制到目标图像。源图像在纹理空间用a0,b0标记,在三维模型中用x,y,z标记,对准的图像在屏幕空间用(xp,yp)标记。
d、指甲和皮肤提取
由于不同图像在运动过程中可能有不同的遮挡区域,故对齐的手指图像边缘可能不同。然而常见的可见区域在对齐图像中具有相同的外观,这些图像包含以颜色变化形式的压力信息。为减少手指边缘和环境造成的噪声,提取整个视频流中所有可见区域的交集。
步骤四:高斯过程估测力
经过前面三个步骤得到了对齐图像,这些对齐图像将被划分成一个训练和测试集,约82%的图像数据被用于训练。一个高斯随机过程(GP)如下:
m(d)=E[f(d)] (14)
k(d,dT)=E[(f(d)-m(d))(f(dT)-m(dT))] (15)
其中,m(d)是输入训练集的均值,k(d,dT)是输入训练集的协方差;
假设GP有10个平均函数,平方指数协方差(SE)的推导如下:
其中,l是长度尺度;是信号方差超参数;|| ||符号是由线性赋范空间到非负实数的映射,用范数表示空间中的点与原点间的距离。
距离小于l的点可以被认为具有相似的值;训练点的输入为(d1,d2,d3,...,dn), di(i=1,2,3,...,n)是一个对齐后的图像,被重塑为一个一维矢量。此外,估计的力 G=(G1,G2,G3,...,Gn)T是相应的目标。因此目标值f(d*)、d的共轭转置矩阵d*分布如下:
其中,E[f(d*)]是高斯法估测的力f(d*)的数学期望;Kij是第i个力di和第j个力dj的协方差,即Kij=k(di,dj);λn是n个噪声方差超参数组成的矩阵;I是单位矩阵;k是协方差运算, k*T表示求出共轭转置矩阵的协方差后转置;G=(G1,G2,G3,...,Gn)T是待估计的力组成的矩阵; Var[f(d*)]是高斯法估测的力f(d*)的方差;k(d*,d*)是输入d的共轭转置矩阵d*的协方差;
最大化对数似然函数计算如下:
其中,p(G|d)是条件d下G的概率,原理上底数可取任意值,取2便于计算机运算;是n 个噪声方差超参数组成的矩阵的平方。
利用训练集得到三个超参数的最优值,以便得到较为准确的力的估计。
本发明的基于卷积神经网络结合超高斯去噪估测手指受力的方法不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。

Claims (7)

1.基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于,包括以下步骤:
步骤一、利用固定的成像源相机拍摄手指的二维图像;
步骤二、利用超高斯法对步骤一中拍摄的图像进行去噪处理;
步骤三、对处理过的二维图像构建三维手指模型,其中二维图像到三维手指模型的转化矩阵利用卷积神经网络预测;
步骤四、利用高斯法基于手指及其周边皮肤的形变和颜色变化预测手指力。
2.根据权利要求1所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:步骤一中用相机以15帧每秒的速度拍摄分辨率为1024*768像素的图像。
3.根据权利要求2所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:步骤三中二维图像中手指位置用坐标数组a0,b0表示,三维图像中手指的位置用坐标数组x,y,z表示,方向用角度α,β,γ表示,分别表示偏离角度、高出角度、转动角度;在三维模型的前视图中,x,y,z,α,β,γ全部初始化为0;手指表面一点C0的现实坐标C1是由公式C1=MC0给出的,其中,M是转换矩阵:
<mrow> <mi>M</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mi>H</mi> </mtd> <mtd> <mi>q</mi> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,H是角度参量,H=Rotz(α)·Roty(β)·Rotx(γ),Rotz(α)表示旋转矩阵关于z轴旋转α角度,Roty(β)表示旋转矩阵关于y轴旋转β角度,Rotx(γ)表示旋转矩阵关于x轴旋转γ角度;q是位置参量,q=(x y z)T,x,y,z是三维图像中手指的位置坐标。
4.根据权利要求3所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:步骤三中在得到三维图像后对图像进行纹理映射对齐。
5.根据权利要求4所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:步骤四中利用高斯法估测手指力时,将得到的三维图像的坐标进行对齐后得到的图像重塑为n个一维坐标矢量(d1,d2,d3,...,dn),并作为高斯法估测力的输入值。
6.根据权利要求5所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:高斯法估测的力f(d*)和输入d的共轭转置矩阵d*的分布如下:
<mrow> <mi>E</mi> <mo>&amp;lsqb;</mo> <mi>f</mi> <mrow> <mo>(</mo> <msup> <mi>d</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>=</mo> <msup> <mi>k</mi> <mrow> <mo>*</mo> <mi>T</mi> </mrow> </msup> <msup> <mrow> <mo>(</mo> <msub> <mi>K</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>&amp;lambda;</mi> <mi>n</mi> <mn>2</mn> </msubsup> <mi>I</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>G</mi> </mrow>
<mrow> <mi>V</mi> <mi>a</mi> <mi>r</mi> <mo>&amp;lsqb;</mo> <mi>f</mi> <mrow> <mo>(</mo> <msup> <mi>d</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>=</mo> <mi>k</mi> <mrow> <mo>(</mo> <msup> <mi>d</mi> <mo>*</mo> </msup> <mo>,</mo> <msup> <mi>d</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mi>k</mi> <mrow> <mo>*</mo> <mi>T</mi> </mrow> </msup> <msup> <mrow> <mo>(</mo> <msub> <mi>K</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>&amp;lambda;</mi> <mi>n</mi> <mn>2</mn> </msubsup> <mi>I</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <msup> <mi>k</mi> <mo>*</mo> </msup> </mrow>
其中,E[f(d*)]是高斯法估测的力f(d*)的数学期望;Kij是第i个力di和第j个力dj的协方差,即Kij=k(di,dj);λn是n个噪声方差超参数组成的矩阵;I是单位矩阵;k是协方差运算,k*T表示求出共轭转置矩阵的协方差后转置;G=(G1,G2,G3,...,Gn)T是待估计的力组成的矩阵;Var[f(d*)]是高斯法估测的力f(d*)的方差;k(d*,d*)是输入d的共轭转置矩阵d*的协方差。
7.根据权利要求6所述基于卷积神经网络结合超高斯去噪估测手指受力的方法,其特征在于:噪声方差超参数最优值的计算方法为:
<mrow> <mi>log</mi> <mi> </mi> <mi>p</mi> <mrow> <mo>(</mo> <mi>G</mi> <mo>|</mo> <mi>d</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mi>G</mi> <mi>T</mi> </msup> <msup> <mrow> <mo>(</mo> <msub> <mi>K</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>&amp;lambda;</mi> <mi>n</mi> <mn>2</mn> </msubsup> <mi>I</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mi>G</mi> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mo>|</mo> <msub> <mi>K</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>&amp;lambda;</mi> <mi>n</mi> <mn>2</mn> </msubsup> <mi>I</mi> <mo>|</mo> <mo>-</mo> <mfrac> <mi>n</mi> <mn>2</mn> </mfrac> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mn>2</mn> <mi>&amp;pi;</mi> </mrow>
其中,p(G|d)是条件d下G的概率;是n个噪声方差超参数组成的矩阵的平方。
CN201711044262.8A 2017-10-31 2017-10-31 基于卷积神经网络结合超高斯去噪估测手指受力的方法 Pending CN107895145A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711044262.8A CN107895145A (zh) 2017-10-31 2017-10-31 基于卷积神经网络结合超高斯去噪估测手指受力的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711044262.8A CN107895145A (zh) 2017-10-31 2017-10-31 基于卷积神经网络结合超高斯去噪估测手指受力的方法

Publications (1)

Publication Number Publication Date
CN107895145A true CN107895145A (zh) 2018-04-10

Family

ID=61802528

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711044262.8A Pending CN107895145A (zh) 2017-10-31 2017-10-31 基于卷积神经网络结合超高斯去噪估测手指受力的方法

Country Status (1)

Country Link
CN (1) CN107895145A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584507A (zh) * 2018-11-12 2019-04-05 深圳佑驾创新科技有限公司 驾驶行为监测方法、装置、***、交通工具和存储介质
CN110033419A (zh) * 2019-04-17 2019-07-19 山东超越数控电子股份有限公司 一种适应于舰基图像去雾的处理方法
CN110838088A (zh) * 2018-08-15 2020-02-25 Tcl集团股份有限公司 一种基于深度学习的多帧降噪方法、装置及终端设备
CN111207875A (zh) * 2020-02-25 2020-05-29 青岛理工大学 基于多粒度并联cnn模型的肌电信号-扭矩匹配方法
CN113544736A (zh) * 2019-04-09 2021-10-22 松下知识产权经营株式会社 下肢肌肉力量估计***、下肢肌肉力量估计方法及程序

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2218426A1 (en) * 2007-11-07 2010-08-18 Activelink Co., Ltd. Operation assist device
CN103745058A (zh) * 2014-01-09 2014-04-23 南京信息工程大学 一种任意形状软组织表皮上受拉力/变形的模拟方法
CN103886115A (zh) * 2012-12-20 2014-06-25 上海工程技术大学 一种基于不同体型的三维虚拟人台的建立及其调用方法
CN106067190A (zh) * 2016-05-27 2016-11-02 俞怡斐 一种基于单幅图像的快速人脸三维模型生成和变换方法
CN107248144A (zh) * 2017-04-27 2017-10-13 东南大学 一种基于压缩型卷积神经网络的图像去噪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2218426A1 (en) * 2007-11-07 2010-08-18 Activelink Co., Ltd. Operation assist device
CN103886115A (zh) * 2012-12-20 2014-06-25 上海工程技术大学 一种基于不同体型的三维虚拟人台的建立及其调用方法
CN103745058A (zh) * 2014-01-09 2014-04-23 南京信息工程大学 一种任意形状软组织表皮上受拉力/变形的模拟方法
CN106067190A (zh) * 2016-05-27 2016-11-02 俞怡斐 一种基于单幅图像的快速人脸三维模型生成和变换方法
CN107248144A (zh) * 2017-04-27 2017-10-13 东南大学 一种基于压缩型卷积神经网络的图像去噪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NUTAN CHEN 等: "Estimating finger grip force from an image of the hand using Convolutional Neural Networks and Gaussian Processes", 《2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 *
SEBASTIAN URBAN 等: "Computing grip force and torque from finger nail images using Gaussian processes", 《2013 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
王婷婷: "二维图像的触觉特征建模与提取技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110838088A (zh) * 2018-08-15 2020-02-25 Tcl集团股份有限公司 一种基于深度学习的多帧降噪方法、装置及终端设备
CN110838088B (zh) * 2018-08-15 2023-06-02 Tcl科技集团股份有限公司 一种基于深度学习的多帧降噪方法、装置及终端设备
CN109584507A (zh) * 2018-11-12 2019-04-05 深圳佑驾创新科技有限公司 驾驶行为监测方法、装置、***、交通工具和存储介质
CN113544736A (zh) * 2019-04-09 2021-10-22 松下知识产权经营株式会社 下肢肌肉力量估计***、下肢肌肉力量估计方法及程序
CN110033419A (zh) * 2019-04-17 2019-07-19 山东超越数控电子股份有限公司 一种适应于舰基图像去雾的处理方法
CN111207875A (zh) * 2020-02-25 2020-05-29 青岛理工大学 基于多粒度并联cnn模型的肌电信号-扭矩匹配方法
CN111207875B (zh) * 2020-02-25 2021-06-25 青岛理工大学 基于多粒度并联cnn模型的肌电信号-扭矩匹配方法

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN107895145A (zh) 基于卷积神经网络结合超高斯去噪估测手指受力的方法
CN111259850B (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
Chen et al. Underwater image enhancement based on deep learning and image formation model
CN106204638B (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN111819568B (zh) 人脸旋转图像的生成方法及装置
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
CN108010078B (zh) 一种基于三级卷积神经网络的物体抓取检测方法
CN107103613B (zh) 一种三维手势姿态估计方法
Yan et al. A factorization-based approach for articulated nonrigid shape, motion and kinematic chain recovery from video
CN111563878B (zh) 一种空间目标定位方法
CN107705322A (zh) 运动目标识别跟踪方法和***
CN110781736A (zh) 基于双流网络将姿态和注意力相结合的行人重识别方法
CN107146248A (zh) 一种基于双流卷积神经网络的立体匹配方法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法
Shah et al. Yoga pose detection using posenet and k-nn
CN108537822A (zh) 基于加权置信度估计的运动目标跟踪方法
CN112016454A (zh) 一种人脸对齐的检测方法
Faujdar et al. Human pose estimation using artificial intelligence with virtual gym tracker
CN109934283A (zh) 一种融合cnn和sift光流的自适应运动目标检测方法
CN110490165B (zh) 一种基于卷积神经网络的动态手势跟踪方法
CN115205750B (zh) 基于深度学习模型的运动实时计数方法和***
CN103345762B (zh) 基于流形学习的贝叶斯视觉跟踪方法
CN113298850B (zh) 一种基于注意力机制与特征融合的目标跟踪方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180410