CN114241179A - 一种基于自步学习的视线估计方法 - Google Patents
一种基于自步学习的视线估计方法 Download PDFInfo
- Publication number
- CN114241179A CN114241179A CN202111480164.5A CN202111480164A CN114241179A CN 114241179 A CN114241179 A CN 114241179A CN 202111480164 A CN202111480164 A CN 202111480164A CN 114241179 A CN114241179 A CN 114241179A
- Authority
- CN
- China
- Prior art keywords
- tree
- network
- probability
- leaf
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
该发明公开了一种基于自步学习的视线方法,属于计算机视觉领域。该方法首先选择使用深度回归森林作为基本框架,同时,引入了两个独立的子网络进行特征提取,并把提取的特征通过特征融合网络进行特征融合,提高了网络特征提取的能力,接着引入回归森林的结构做为回归模型,用以估计出输入图像视线方向的概率分布,并基于此概率分布计算预测结果和样本的熵,最终采用自步学习的方法训练整个网络模型,并利用样本的熵修正其在自步学习排序中的顺序,以完成整个模型的训练。通过上述方法,本发明充分利用了深度回归森林和自步学习训练方法的优势,提高了模型在视线估计任务上的精度和鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,主要涉及基于图像的视线估计问题;主要应用于影视娱乐产业,人机交互以及机器视觉理解等方面。
背景技术
视线估计是指给定包含眼部区域的图像输入,利用计算机技术对图像进行分析处理,进而估计出输入图像中眼睛的视线方向。目前影视娱乐、人机交互以及机器视觉理解等领域,对视线估计的需求越来越大。例如,通过摄像头可以实时计算出视线的方向,提升人机交互的效率;在公共场所的行为分析中,通过视线估计可以更好的辅助分析监测对象的视觉行为等。现有的视线估计方法,主要分为基于模型估计和基于外观估计的方法。
基于模型的视线估计方法是一种早期方法,其基本原理可以分为三个步骤。第一个步骤是使用分类器从图形中粗略地提取眼睛位置,并使用基于形状的方法定位眼睛的中心;第二个步骤是检测眼睛区域,并以角膜边缘为基础建模覆盖眼睛区域的二维椭圆轮廓;第三个步骤是将二维的椭圆轮廓反投影到三维空间来定位眼睛的光轴方向,然后结合光轴方向和屏幕的交点来估计视线的注视方向。这类方法依赖于对眼睛图像的精准建模,对输入图像质量要求较高,抗干扰能力差,估计精度也常常难以达到要求。参考文献:Wood E,Bulling A.Eyetab:Model-based gaze estimation on unmodified tablet computers,Proceedings of the Symposium on Eye Tracking Research and Applications.2014:207-210.
基于外观的视线估计方法则是直接通过眼睛图像计算得到视线方向,具体做法是通过大量带有标签的眼睛图像去训练模型,从而使模型学习到从眼睛图像直接估计出视线方向的映射函数。这种方法的好处在于能够避免复杂的眼睛几何形状建模的过程,降低了对输入眼睛图像的质量要求,提高了估计精度。但其缺点在于训练依赖大量精准的有标签的图像进行模型训练,并且模型的鲁棒性能不高,在跨人估计的任务场景中,视线估计精度可能会出现显著下降,无法进行有效的跨人迁移预测。参考文献:Fischer T,Chang H J,Demiris Y.Rt-gene:Real-time eye gaze estimation in natural environments,Proceedings of the European Conference on Computer Vision(ECCV).2018:334-352.
近年来,基于外观的视线估计方法越来越成熟,对视线估计的精度和鲁棒性也有了更高的要求。目前的方法在模型训练上还存在一定问题,不能达到足够的精度和鲁棒性。本发明针对该领域,并考虑以上不足之处,提出了一种基于自步学习的视线估计方法,在精度和鲁棒性上都取得了显著的提升。
发明内容
本发明是一种基于自步学习的视线估计方法,解决现有技术中视线估计精度不高且鲁棒性较差的问题。
该方法首先选择深度回归森林做为基本框架,训练图片由左眼和右眼的图像对构成,并且单眼图像被归一化至36*60*3的大小。针对左眼和右眼分别构建特征提取网络,并把左右眼提取到的特征做为特征融合网络的输入,进而获得融合特征向量,再把融合特征向量做为回归森林的输入特征,进而通过回归森林估计输入图像的视线方向。通过在模型训练的过程中引入自步学习的策略,并基于样本不确定性对样本的排序进行修正,逐步把训练样本加入训练过程,最终完成模型的训练。在训练好模型以后,只需要把左右眼图像分别输入到训练好的网络模型,就可以估计出视线方向。通过上述方法,本发明利用了深度回归森林和自步学习的优势,提出了基于自步学习的视线估计方法,提高了模型的估计精度和鲁棒性。算法的总体结构示意图参见图1。
为了方便描述本发明内容,首先对一些术语进行定义。
定义1:正态分布。也称常态分布,又名高斯分布,是一个在数学、物理及工程等领域都非常重要的概率分布,在统计学的许多方面有着重大的影响力。若随机变量x,其概率密度函数满足其中μ为正态分布的数学期望,σ2为正态分布的方差,则称其满足正态分布,常记作
定义2:Relu函数。又称修正线性单元,是一种人工神经网络中常用的激活函数,通常指代以斜坡函数及其变种为代表的非线性函数,表达式为f(x)=max(0,x)。
因而本发明技术方案为一种基于自步学习的视线估计方法,该方法包括:
步骤1:对数据集进行预处理;
获取数据集,数据集由图像及其对应的标注信息组成,根据标注信息提取每张图像的左右眼区域,并随机打乱左右眼图像对的顺序;最后对图片像素值进行归一化至范围[-1,1];
步骤2:构建卷积神经网络,卷积神经网络包括特征提取网络和特征融合网络;
1)构建特征提取网络;特征提取网络由两个结构完全一样的子网络组成,每个子网络接受单眼图像作为输入,输出特征向量;一个子网络由5个卷积块和1层标准全连接层构成,其中5个卷积块分别由2、2、3、3和3层标准卷积层构成,卷积块之间加入步长为2的最大池化层,第5个卷积块后也接一个步长为2的最大池化层,最后再连接一层标准全连接层,输出对应的特征向量;标准卷积层、标准全连接层、子网络和特征提取网络如图3所示。
2)构建特征融合网络;特征融合网络以左右眼对应的特征向量作为输入,输出融合特征向量;特征融合网络由2个标准全连接层和1个未经激活的全连接层构成,输入的两个特征向量首先进行级联,然后再通过特征融合网络输出融合特征向量;特征融合网络如图4所示。
步骤3:构建回归森林;回归森林由5棵完全二叉树构成,每棵树深度为6,对每棵树而言,由31个内部节点和32个叶子节点构成,每个内部节点拥有一个拆分函数,而每个叶子节点拥有一个高斯分布;根据第n个内部节点的拆分函数,计算出当前内部节点向左移动的概率sn,计算所有内部节点向左移动的概率以后,从根节点出发,根据内部节点的左移概率可以计算到达每一个叶子节点的到达概率wl,再根据到达每个叶子的概率和叶子的分布,计算出当前这棵树的预测结果;最后把5棵树预测结果的均值作为最终视线估计的结果;
步骤4:总神经网络;利用步骤2中特征提取网络分别提取左右眼图像的特征向量fl,fr;再把提取的特征向量fl,fr作为特征融合网络输入,进而得到融合特征向量f;最后基于融合特征向量和拆分函数计算回归森林中每棵树内部节点的左移概率,进而计算出在最终的预测结果;总神经网络结构示意图参见图1。
步骤5:设计损失函数;把步骤1中获得的第i对左右眼图像对记作xi,yi表示第i对图像的标签,vi表示第i对样本的权重,θ表示特征提取网络和特征融合网络的参数,Π表示回归森林叶子高斯分布的参数,则损失函数可以表示为:
步骤6:基于自步学习训练总神经网络;按照自步学习策略完成网络模型的训练;
步骤7:采用训练完成的总神经网络对实际图像中的视线进行估计。
进一步的,所述步骤3的具体方法为:
步骤3.1:计算每个内部节点的左移概率:拆分函数sn(xi;θ):xi→[0,1],拆分函数由网络参数θ决定,把输入样本xi映射到0到1之间的标量,表征样本到达当前节点后,应该以多大的概率划分到左子树;拆分函数的具体形式如下:
步骤3.2:计算达到叶子的概率:对于每一个样本对而言,根据拆分节点的左移概率,计算从根节点出发,到达各个叶子节点的概率,到达概率的计算由下式给出:
步骤3.3:计算单棵树的预测结果:用高斯分布表示叶子节点的分布状态,yi表示视线角度的取值,μ表示高斯分布的均值,表示高斯分布的方差,考虑到一棵树由多个叶子节点构成,最终的预测结果由所有叶子的按照其到达概率加权平均表示,其形式如下:
步骤3.4:计算回归森林的预测结果:样本最终的预测结果是多棵树预测结果的平均,由下式给出:
进一步的,所述步骤5中样本熵的计算方法为:
由于单棵树是由多个叶子分布加权求和得到,这样的混合高斯分布的积分是非平凡的,这里计算单棵树熵的下界来近似单棵树熵的真实值,下界由下式计算:
本发明的创新之处在于:
1)使用两个独立的子网络分别提取左右眼图像的特征,并对提取后的特征进行了特征融合。如图6所示。
2)引入了回归森林的结构做为回归模型,回归估计出输入图像视线方向的概率分布,并基于此概率分布计算预测结果和样本的熵。
3)引入自步学习的学习范式训练深度回归森林模型,并结合样本的不确定性,修正样本在自步学习中的排序顺序,提升模型的预测精度和鲁棒性。
附图说明
图1为本发明方法主要网络结构图
图2为本发明标准卷积块和标准全连接块示意图。
图3为本发明特征提取网络结构示意图。
图4为本发明特征融合网络示意图。
图5为本发明回归森林结构示意图。
图6为本发明自步学习的模型训练算法流程图。
具体实施方式
步骤1:对数据集进行预处理;
获取MPIIGaze数据集,MPIIGaze数据集由15个人的图像及其对应的标注信息的组成,其中每个人拥有1500张图像;根据标注信息提取每张图像的左右眼区域,使得单眼的图像大小为36*60*3,并随机打乱左右眼图像对的顺序;最后对图片像素值进行归一化至范围[-1,1];
步骤2:构建卷积神经网络和回归森林;
1)构建特征提取网络;特征提取网络由两个结构完全一样的子网络组成,每个子网络接受单眼图像作为输入,输出特征向量;一个子网络由5个卷积块和1层标准全连接层构成,其中5个卷积块分别由2、2、3、3和3层标准卷积层构成,卷积块之间加入步长为2的最大池化层,第5个卷积块后也接一个步长为2的最大池化层,最后再连接一层标准全连接层,输出对应的特征向量。标准卷积层、标准全连接层、子网络和特征提取网络如图2所示。
2)构建特征融合网络;特征融合网络以左右眼对应的特征向量作为输入,输出融合特征向量;特征融合网络由2个标准全连接层和1个未经激活的全连接层构成,输入的两个特征向量首先进行级联,然后再通过特征融合网络输出融合特征向量。特征融合网络如图2所示。
步骤3:构建回归森林;回归森林由5棵完全二叉树构成,每棵树深度为6。对每棵树而言,由31个内部节点和32个叶子节点构成,每个内部节点拥有一个拆分函数,而每个叶子节点拥有一个高斯分布。根据第n个内部节点的拆分函数,计算出当前内部节点向左移动的概率sn。计算所有内部节点向左移动的概率以后,从根节点出发,根据内部节点的左移概率可以计算到达每一个叶子节点的到达概率wl,再根据到达每个叶子的概率和叶子的分布,计算出当前这棵树的预测结果。最后把5棵树预测结果的均值作为最终视线估计的结果。
步骤4:总神经网络;利用步骤2中特征提取网络分别提取左右眼图像的特征向量fl,fr;再把提取的特征向量fl,fr作为特征融合网络输入,进而得到融合特征向量f;最后基于融合特征向量和拆分函数计算回归森林中每棵树内部节点的左移概率,进而计算出在最终的预测结果。总神经网络结构示意图参见图1。
步骤5:设计损失函数;把步骤1中获得的第i对左右眼图像对记作xi,yi表示第i对图像的标签,vi表示第i对样本的权重,θ表示特征提取网络和特征融合网络的参数,Π表示回归森林叶子高斯分布的参数,则损失函数可以表示为:
步骤6:基于自步学习训练网络模型;按照自步学习策略完成网络模型的训练,设置自步学习的总步数为6,以及从第1步到第6步使用的样本数量为总样本数量的50%、60%,70%、80%、90%、100%。初始化λ0,γ0保证有50%的数据加入到第1步训练中。在每一步训练时,最大化步骤5中的损失函数,更新网络参数和回归森林参数,并在训练结束后,调整λ,γ,确保对应比例的样本被加入到下一步的训练过程。基于自步学习的模型训练算法流程图参见图3。
步骤7:测试阶段,取待测试的图像,按照步骤1的方法进行预处理,然后把预处理后的图像对作为步骤6中训练好模型的输入,从而获得测试图像的视线估计结果。实验结果在MPIIGaze数据集上平均误差为4.45°;较之前方法提升了0.17°。
进一步的,所述步骤3的具体方法为:
步骤3.1:计算每个内部节点的左移概率:拆分函数sn(xi;θ):xi→[0,1],拆分函数由网络参数θ决定,把输入样本xi映射到0到1之间的标量,表征样本到达当前节点后,应该以多大的概率划分到左子树。拆分函数的具体形式如下:
步骤3.2:计算达到叶子的概率:对于每一个样本对而言,根据拆分节点的左移概率,计算从根节点出发,到达各个叶子节点的概率,到达概率的计算由下式给出:
步骤3.4:计算回归森林的预测结果:样本最终的预测结果是多棵树预测结果的平均,由下式给出:
进一步的,所述步骤5的具体方法为:
步骤5.2:计算样本的熵:由于单棵树是由多个叶子分布加权求和得到,这样的混合高斯分布的积分是非平凡的,这里计算单棵树熵的下界来近似单棵树熵的真实值,下界由下式计算:
Claims (3)
1.一种基于自步学习的视线估计方法,该方法包括:
步骤1:对数据集进行预处理;
获取数据集,数据集由图像及其对应的标注信息组成,根据标注信息提取每张图像的左右眼区域,并随机打乱左右眼图像对的顺序;最后对图片像素值进行归一化至范围[-1,1];
步骤2:构建卷积神经网络,卷积神经网络包括特征提取网络和特征融合网络;
1)构建特征提取网络;特征提取网络由两个结构完全一样的子网络组成,每个子网络接受单眼图像作为输入,输出特征向量;一个子网络由5个卷积块和1层标准全连接层构成,其中5个卷积块分别由2、2、3、3和3层标准卷积层构成,卷积块之间加入步长为2的最大池化层,第5个卷积块后也接一个步长为2的最大池化层,最后再连接一层标准全连接层,输出对应的特征向量;
2)构建特征融合网络;特征融合网络以左右眼对应的特征向量作为输入,输出融合特征向量;特征融合网络由2个标准全连接层和1个未经激活的全连接层构成,输入的两个特征向量首先进行级联,然后再通过特征融合网络输出融合特征向量;
步骤3:构建回归森林;回归森林由5棵完全二叉树构成,每棵树深度为6,对每棵树而言,由31个内部节点和32个叶子节点构成,每个内部节点拥有一个拆分函数,而每个叶子节点拥有一个高斯分布;根据第n个内部节点的拆分函数,计算出当前内部节点向左移动的概率sn,计算所有内部节点向左移动的概率以后,从根节点出发,根据内部节点的左移概率可以计算到达每一个叶子节点的到达概率wl,再根据到达每个叶子的概率和叶子的分布,计算出当前这棵树的预测结果;最后把5棵树预测结果的均值作为最终视线估计的结果;
步骤4:总神经网络;利用步骤2中特征提取网络分别提取左右眼图像的特征向量fl,fr;再把提取的特征向量fl,fr作为特征融合网络输入,进而得到融合特征向量f;最后基于融合特征向量和拆分函数计算回归森林中每棵树内部节点的左移概率,进而计算出在最终的预测结果;
步骤5:设计损失函数;把步骤1中获得的第i对左右眼图像对记作xi,yi表示第i对图像的标签,vi表示第i对样本的权重,θ表示特征提取网络和特征融合网络的参数,∏表示回归森林叶子高斯分布的参数,则损失函数可以表示为:
步骤6:基于自步学习训练总神经网络;按照自步学习策略完成网络模型的训练;
步骤7:采用训练完成的总神经网络对实际图像中的视线进行估计。
2.如权利要求1所述的一种基于自步学习的视线估计方法,其特征在于,所述步骤3的具体方法为:
步骤3.1:计算每个内部节点的左移概率:拆分函数sn(xi;θ):xi→[0,1],拆分函数由网络参数θ决定,把输入样本xi映射到0到1之间的标量,表征样本到达当前节点后,应该以多大的概率划分到左子树;拆分函数的具体形式如下:
步骤3.2:计算达到叶子的概率:对于每一个样本对而言,根据拆分节点的左移概率,计算从根节点出发,到达各个叶子节点的概率,到达概率的计算由下式给出:
步骤3.3:计算单棵树的预测结果:用高斯分布表示叶子节点的分布状态,yi表示视线角度的取值,μ表示高斯分布的均值,表示高斯分布的方差,考虑到一棵树由多个叶子节点构成,最终的预测结果由所有叶子的按照其到达概率加权平均表示,其形式如下:
步骤3.4:计算回归森林的预测结果:样本最终的预测结果是多棵树预测结果的平均,由下式给出:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111480164.5A CN114241179A (zh) | 2021-12-06 | 2021-12-06 | 一种基于自步学习的视线估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111480164.5A CN114241179A (zh) | 2021-12-06 | 2021-12-06 | 一种基于自步学习的视线估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114241179A true CN114241179A (zh) | 2022-03-25 |
Family
ID=80753446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111480164.5A Pending CN114241179A (zh) | 2021-12-06 | 2021-12-06 | 一种基于自步学习的视线估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114241179A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599994A (zh) * | 2016-11-23 | 2017-04-26 | 电子科技大学 | 一种基于深度回归网络的视线估计方法 |
CN108765409A (zh) * | 2018-06-01 | 2018-11-06 | 电子科技大学 | 一种基于ct图像的候选结节的筛选方法 |
CN110516537A (zh) * | 2019-07-15 | 2019-11-29 | 电子科技大学 | 一种基于自步学习的人脸年龄估计方法 |
CN111414875A (zh) * | 2020-03-26 | 2020-07-14 | 电子科技大学 | 基于深度回归森林的三维点云头部姿态估计*** |
WO2021022970A1 (zh) * | 2019-08-05 | 2021-02-11 | 青岛理工大学 | 一种基于多层随机森林的零部件识别方法及*** |
-
2021
- 2021-12-06 CN CN202111480164.5A patent/CN114241179A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599994A (zh) * | 2016-11-23 | 2017-04-26 | 电子科技大学 | 一种基于深度回归网络的视线估计方法 |
CN108765409A (zh) * | 2018-06-01 | 2018-11-06 | 电子科技大学 | 一种基于ct图像的候选结节的筛选方法 |
CN110516537A (zh) * | 2019-07-15 | 2019-11-29 | 电子科技大学 | 一种基于自步学习的人脸年龄估计方法 |
WO2021022970A1 (zh) * | 2019-08-05 | 2021-02-11 | 青岛理工大学 | 一种基于多层随机森林的零部件识别方法及*** |
CN111414875A (zh) * | 2020-03-26 | 2020-07-14 | 电子科技大学 | 基于深度回归森林的三维点云头部姿态估计*** |
Non-Patent Citations (3)
Title |
---|
LILI PAN等: ""self-paced deep regression forests with consideration on underrepresented examples"" * |
TOBIAS FISCHER等: ""RT-GENE: Real-time eye gaze estimation in natural environments"" * |
单兴华等: ""基于改进随机森林的架势员视线估计的方法"" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN110263912B (zh) | 一种基于多目标关联深度推理的图像问答方法 | |
CN110956111A (zh) | 人工智能cnn、lstm神经网络步态识别*** | |
CN111681178B (zh) | 一种基于知识蒸馏的图像去雾方法 | |
CN108288035A (zh) | 基于深度学习的多通道图像特征融合的人体动作识别方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN112926396A (zh) | 一种基于双流卷积注意力的动作识别方法 | |
CN109741268B (zh) | 一种针对壁画的破损图像补全方法 | |
CN110059616A (zh) | 基于融合损失函数的行人重识别模型优化方法 | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
CN108595558B (zh) | 一种数据均衡策略和多特征融合的图像标注方法 | |
CN110889450A (zh) | 超参数调优、模型构建方法和装置 | |
KR20200010672A (ko) | 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템 | |
CN116704079B (zh) | 图像生成方法、装置、设备及存储介质 | |
CN115966010A (zh) | 一种基于注意力和多尺度特征融合的表情识别方法 | |
CN112084895A (zh) | 一种基于深度学习的行人重识别方法 | |
CN113989405B (zh) | 一种基于小样本持续学习的图像生成方法 | |
CN113420289B (zh) | 面向深度学习模型的隐蔽中毒攻击防御方法及其装置 | |
CN114647752A (zh) | 基于双向可切分深度自注意力网络的轻量化视觉问答方法 | |
CN114783017A (zh) | 基于逆映射的生成对抗网络优化方法及装置 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及*** | |
CN111126155A (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN114170657A (zh) | 融合注意力机制与高阶特征表示的面部情感识别方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
CN117115911A (zh) | 一种基于注意力机制的超图学习动作识别*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |