CN109583450A - 基于前馈神经网络融合视觉注意先验的显著区域检测方法 - Google Patents
基于前馈神经网络融合视觉注意先验的显著区域检测方法 Download PDFInfo
- Publication number
- CN109583450A CN109583450A CN201811423906.9A CN201811423906A CN109583450A CN 109583450 A CN109583450 A CN 109583450A CN 201811423906 A CN201811423906 A CN 201811423906A CN 109583450 A CN109583450 A CN 109583450A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- characteristic
- priori
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,将输入图像分割成多个互不相交的超像素;根据视觉的低层次先验特性之稀有性,基于不同的上下文区域为每个超像素计算稀有性特征值;根据视觉的低层次先验特性之对比度特性,为每个超像素计算其与不同网格区域之间的对比度特征值;根据视觉的低层次先验特性之中央偏置特性,为每个超像素计算其与图像中心点之间的空间距离特征值;基于已有的深度网络模型建模每个超像素的高层次先验特性,获取对应的高层次先验特征值;使用多层前馈神经网络融合低层次先验特性和高层次先验特性,计算各个超像素属于显著类的可能性,从而求得最终的显著图。本发明有效检测图像中的显著目标。
Description
技术领域
本发明涉及图像处理技术领域,特别是一种基于前馈神经网络融合视觉注意先验的显著区域检测方法。
背景技术
由于视觉显著性检测起源于人眼的视觉注意机制,已有不少学者通过借鉴人眼的视觉注意特性提取图像中的显著区域。人眼的视觉注意机制存在很多有用的认知特性。早期对人眼视觉注意机制的建模大多受启发于一些低层次认知特性,比如对比度特性(Contrast)。
哈佛大学医学院的Jeremy Wolfe教授曾对影响视觉注意的因素进行过研究,表明物体间的对比度越大视觉注意越容易发生。现有许多学者基于颜色、方向、亮度或纹理等特征计算图像区域之间的对比度等特性来建模低层视觉注意先验特性。这些低层次先验特性有助于提高显著目标检测的性能。
近年来,有些学者开始关注视觉注意的高层次先验特性。近两年在计算机视觉领域顶级会议上,一部分学者基于深度卷积神经网络(DCNN)构造分层的视觉表示来提取图像中的高层次先验特征。高层次先验特征能够很好地描述图像中似物性(Objectness)这一高层视觉注意认知特性。这些研究工作表明,基于深度网络学习而得的高层次先验特征能够有效提高视觉注意建模的性能。但基于深度网络的高层次先验特性也具有一定的局限性,比如不能够精确定位物体的位置。原因是深度网络中包含多个卷积层和池化层,使得目标的边缘信息被模糊化。而手工提取的低层次先验特性能够很好地建模目标的边缘信息,对基于深度网络的高层次先验特性具有较好的补充作用。
发明内容
本发明所要解决的技术问题是克服现有技术的不足而提供一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,本发明将多种低层次先验特性和基于深度网络的高层次先验特性进行结合,并使用多层前馈神经网络融合这些先验特性,来检测图像中的显著区域。
本发明为解决上述技术问题采用以下技术方案:
根据本发明提出的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,包括以下步骤:
步骤S1、将输入图像分割成多个互不相交的超像素;
步骤S2、根据视觉的低层次先验特性之稀有性,基于不同的上下文区域为每个超像素计算稀有性特征值;
步骤S3、根据视觉的低层次先验特性之对比度特性,为每个超像素计算其与不同网格区域之间的对比度特征值;
步骤S4、根据视觉的低层次先验特性之中央偏置特性,为每个超像素计算其与图像中心点之间的空间距离特征值,空间距离特征值包括水平距离、垂直距离和综合距离;
步骤S5、基于已有的深度网络模型建模每个超像素的高层次先验特性,获取对应的高层次先验特征值;
步骤S6、使用多层前馈神经网络融合低层次先验特性和高层次先验特性,即融合步骤S2-S5中获取的稀有性特征值、对比度特征值、空间距离特征值和高层次先验特征值,计算各个超像素属于显著类的可能性,从而求得最终的显著图。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S1中,基于已有的SLIC算法,将w*h的输入图像分割成个数为n的互不相交的超像素,w为宽,h为高;各个超像素的空间位置特征FS定义为该超像素中各像素点空间位置特征的平均值,各个超像素的颜色特征FC定义为该超像素中各像素点颜色特征的平均值。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S2中,基于上下文区域为图像中第i个超像素计算其在不同区域内的稀有性特征值;
R(i)=-log(p(i))
其中,p(i)为第i个超像素特征出现的频率,R(i)为第i个超像素的稀有性特征值。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S2中,基于CIELab颜色特征计算第i个超像素特征出现的频率,从而获得各超像素的稀有性特征值。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S2中,以第i个超像素的位置为中心设置宽a*w高a*h的上下文区域;其中,a是上下文区域宽和高占原图宽和高的比例。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S3中,将原图划分成多个网格,其中各个网格的颜色特征和空间位置特征定义为离该网格空间最近的超像素的颜色特征和空间位置特征;基于颜色特征距离和空间相近度计算第i个超像素与第x个网格的对比度特征值D(i,x);
其中,Fi c和分别是第i个超像素和第x个网格的颜色特征,计算的是第i个超像素和第x个网格颜色特征之间的距离;Fi s和分别是第i个超像素和第x个网格的空间位置特征,计算的是第i个超像素和第x个网格的空间相近度;σ是控制空间距离对空间相近度影响的一个常数。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S4中,水平距离为超像素与图像中心点之间在图像水平方向上的空间位置距离,垂直距离为超像素与图像中心点之间在图像垂直方向上的空间位置距离,综合距离为超像素与图像中心点之间在整体的空间位置距离。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S5中,基于现有的16层VGG模型学***均值。
作为本发明所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法进一步优化方案,步骤S6中,使用具有3个隐层的前馈神经网络融合低层次先验特征和高层次先验特征,计算各个超像素属于显著类的可能性,从而求得最终的显著图;该前馈神经网络中3个隐层所包含的结点数分别为1000,500和200。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明针对目前复杂自然场景下显著区域检测存在的问题,通过提取和学习视觉注意的低层次先验特性和高层次先验特性,旨在克服因图像背景杂乱而导致检测率低的缺陷,从而抑制复杂场景中的背景区域并得到吸引人注意的图像区域;本发明将基于多层前馈神经网络融合视觉注意先验的显著区域检测方法应用于图像中的显著区域检测问题中,能够有效提高显著区域检测的S-measure值。
附图说明
图1是本发明的整体流程示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
如图1所示,本实施例的基于多层前馈神经网络融合视觉注意先验的显著区域检测方法,依次包含以下步骤:
S1:将输入图像分割成多个互不相交的超像素;基于已有的Simple LinearIterative Clustering(SLIC)算法,将w*h大小的输入图像过分割成n个互不相交的超像素,w为宽,h为高;在本发明中n设置为300;各个超像素的空间位置特征FS定义为该超像素中各像素点空间位置特征的平均值,各个超像素的颜色特征FC定义为该超像素中各像素点颜色特征的平均值。
S2:根据视觉的低层次先验特性之稀有性,基于不同的上下文区域为每个超像素计算稀有性特征值;稀有性表明人的注意力会被稀有的事物所吸引而自动忽略经常看到的事物。本发明基于上下文区域为图像中第i个超像素计算其在不同区域内的稀有性特征值。
R(i)=-log(p(i))
其中,p(i)为第i个超像素特征出现的频率,R(i)为第i个超像素的稀有性特征值。根据上述公式,第i个超像素特征出现的频率p(i)越高,该超像素的稀有性特征值R(i)越低。基于CIELab颜色特征计算第i个超像素特征出现的频率,从而获得各超像素的稀有性特征值。以第i个超像素的位置为中心设置宽a*w高a*h的上下文区域;a取不同的值将得到不同大小的上下文区域,a分别取0.3,0.5和1获得3个不同大小的区域。
S3:根据视觉的低层次先验特性之对比度特性,为每个超像素计算其与不同网格区域之间的对比度特征值;对比度特性表明人的注意力容易被不同于周边的事物所吸引。本项目将原图分成20行乘以20列,共400个网格;各个网格的颜色特征和空间位置特征定义为离该网格空间最近的超像素的颜色特征和空间位置特征;接着,基于颜色特征距离和空间相近度计算第i个超像素与第x个网格的对比度特征值D(i,x);
其中,Fi c和分别是第i个超像素和第x个网格的颜色特征,计算的是第i个超像素和第x个网格颜色特征之间的距离;Fi s和分别是第i个超像素和第x个网格的空间位置特征,计算的是第i个超像素和第x个网格的空间相近度;σ是控制空间距离对空间相近度影响的一个常数,设置为0.2。
S4:根据视觉的低层次先验特性之中央偏置特性,为每个超像素计算其与图像中心点之间的空间距离特征值,空间距离特征值包括水平距离、垂直距离和综合距离。水平距离为超像素与图像中心点之间在图像水平方向上的空间位置距离,垂直距离为超像素与图像中心点之间在图像垂直方向上的空间位置距离,综合距离为超像素与图像中心点之间在整体的空间位置距离。
S5:基于已有的深度网络模型建模每个超像素的高层次先验特性,获取对应的高层次先验特征值;基于现有的16层VGG模型学***均值。
S6:使用具有3个隐层的前馈神经网络融合低层次特征和高层次特征,计算各个超像素属于显著类的可能性,从而求得最终的显著图。该前馈神经网络中3个隐层所包含的结点数分别为1000,500和200。
为验证本发明提供的显著区域检测方法的有效性,下面将该方法与9种显著目标检测方法在SOD和ECSSD数据库上进行了比较。这9种显著目标检测方法分别是:SF方法、AM方法、GR方法、CL方法、GP方法、RRWR方法、PM方法、MST方法和GF方法。本发明的方法简称为Ours。
本方法与其他方法的S-measure指标性能比较如表1和表2所示。SOD和ECSSD数据库都是包含复杂图像的显著目标检测数据库。根据表中的性能比较可以发现,本发明充分利用多层前馈神经网络有效整合低层次和高层次视觉注意先验,更有利于在复杂自然场景图像中检测出显著目标。
表1多种显著目标检测方法在SOD数据库上的性能比较
方法名称 | SF | AM | GR | CL | GP |
S-measure | 0.420 | 0.606 | 0.586 | 0.563 | 0.620 |
方法名称 | RRWR | PM | MST | GF | Ours |
S-measure | 0.588 | 0.614 | 0.609 | 0.618 | 0.723 |
表2多种显著目标检测方法在ECSSD数据库上的性能比较
方法名称 | SF | AM | GR | CL | GP |
S-measure | 0.451 | 0.639 | 0.643 | 0.628 | 0.658 |
方法名称 | RRWR | PM | MST | GF | Ours |
S-measure | 0.645 | 0.667 | 0.648 | 0.661 | 0.752 |
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围内。
Claims (9)
1.一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,包括以下步骤:
步骤S1、将输入图像分割成多个互不相交的超像素;
步骤S2、根据视觉的低层次先验特性之稀有性,基于不同的上下文区域为每个超像素计算稀有性特征值;
步骤S3、根据视觉的低层次先验特性之对比度特性,为每个超像素计算其与不同网格区域之间的对比度特征值;
步骤S4、根据视觉的低层次先验特性之中央偏置特性,为每个超像素计算其与图像中心点之间的空间距离特征值,空间距离特征值包括水平距离、垂直距离和综合距离;
步骤S5、基于已有的深度网络模型建模每个超像素的高层次先验特性,获取对应的高层次先验特征值;
步骤S6、使用多层前馈神经网络融合低层次先验特性和高层次先验特性,即融合步骤S2-S5中获取的稀有性特征值、对比度特征值、空间距离特征值和高层次先验特征值,计算各个超像素属于显著类的可能性,从而求得最终的显著图。
2.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S1中,基于已有的SLIC算法,将w*h的输入图像分割成个数为n的互不相交的超像素,w为宽,h为高;各个超像素的空间位置特征FS定义为该超像素中各像素点空间位置特征的平均值,各个超像素的颜色特征FC定义为该超像素中各像素点颜色特征的平均值。
3.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S2中,基于上下文区域为图像中第i个超像素计算其在不同区域内的稀有性特征值;
R(i)=-log(p(i))
其中,p(i)为第i个超像素特征出现的频率,R(i)为第i个超像素的稀有性特征值。
4.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S2中,基于CIELab颜色特征计算第i个超像素特征出现的频率,从而获得各超像素的稀有性特征值。
5.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S2中,以第i个超像素的位置为中心设置宽a*w高a*h的上下文区域;其中,a是上下文区域宽和高占原图宽和高的比例。
6.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S3中,将原图划分成多个网格,其中各个网格的颜色特征和空间位置特征定义为离该网格空间最近的超像素的颜色特征和空间位置特征;基于颜色特征距离和空间相近度计算第i个超像素与第x个网格的对比度特征值D(i,x);
其中,Fi c和分别是第i个超像素和第x个网格的颜色特征,计算的是第i个超像素和第x个网格颜色特征之间的距离;Fi s和分别是第i个超像素和第x个网格的空间位置特征,计算的是第i个超像素和第x个网格的空间相近度;σ是控制空间距离对空间相近度影响的一个常数。
7.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S4中,水平距离为超像素与图像中心点之间在图像水平方向上的空间位置距离,垂直距离为超像素与图像中心点之间在图像垂直方向上的空间位置距离,综合距离为超像素与图像中心点之间在整体的空间位置距离。
8.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S5中,基于现有的16层VGG模型学***均值。
9.根据权利要求1所述的一种基于前馈神经网络融合视觉注意先验的显著区域检测方法,其特征在于,步骤S6中,使用具有3个隐层的前馈神经网络融合低层次先验特征和高层次先验特征,计算各个超像素属于显著类的可能性,从而求得最终的显著图;该前馈神经网络中3个隐层所包含的结点数分别为1000,500和200。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811423906.9A CN109583450A (zh) | 2018-11-27 | 2018-11-27 | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811423906.9A CN109583450A (zh) | 2018-11-27 | 2018-11-27 | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109583450A true CN109583450A (zh) | 2019-04-05 |
Family
ID=65924845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811423906.9A Pending CN109583450A (zh) | 2018-11-27 | 2018-11-27 | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583450A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427980A (zh) * | 2019-07-11 | 2019-11-08 | 东南大学 | 融合低层和高层特征的显著物体存在性判定方法 |
CN111815610A (zh) * | 2020-07-13 | 2020-10-23 | 广东工业大学 | 一种病变图像的病灶检测方法及装置 |
CN113298748A (zh) * | 2020-02-21 | 2021-08-24 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778776A (zh) * | 2016-11-30 | 2017-05-31 | 武汉大学深圳研究院 | 一种基于位置先验信息的时空域显著度检测方法 |
CN107833220A (zh) * | 2017-11-28 | 2018-03-23 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
-
2018
- 2018-11-27 CN CN201811423906.9A patent/CN109583450A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778776A (zh) * | 2016-11-30 | 2017-05-31 | 武汉大学深圳研究院 | 一种基于位置先验信息的时空域显著度检测方法 |
CN107833220A (zh) * | 2017-11-28 | 2018-03-23 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
Non-Patent Citations (2)
Title |
---|
GAYOUNG LEE 等: "ELD-Net: An Efficient Deep Learning Architecture for Accurate Saliency Detection", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
汪成 等: "基于SLIC超像素分割显著区域检测方法的研究", 《南京邮电大学学报(自然科学版)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427980A (zh) * | 2019-07-11 | 2019-11-08 | 东南大学 | 融合低层和高层特征的显著物体存在性判定方法 |
CN110427980B (zh) * | 2019-07-11 | 2022-06-03 | 东南大学 | 融合低层和高层特征的显著物体存在性判定方法 |
CN113298748A (zh) * | 2020-02-21 | 2021-08-24 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN113298748B (zh) * | 2020-02-21 | 2022-11-18 | 安徽大学 | 一种基于注意力机制的图像协同显著目标检测模型 |
CN111815610A (zh) * | 2020-07-13 | 2020-10-23 | 广东工业大学 | 一种病变图像的病灶检测方法及装置 |
CN111815610B (zh) * | 2020-07-13 | 2023-09-12 | 广东工业大学 | 一种病变图像的病灶检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102136142B (zh) | 基于自适应三角形网格的非刚性医学图像配准方法 | |
CN107133955B (zh) | 一种多层次结合的协同显著性检测方法 | |
CN103793708B (zh) | 一种基于仿射校正的多尺度车牌精准定位方法 | |
CN109145713A (zh) | 一种结合目标检测的小目标语义分割方法 | |
CN107679503A (zh) | 一种基于深度学习的人群计数算法 | |
CN109583450A (zh) | 基于前馈神经网络融合视觉注意先验的显著区域检测方法 | |
CN106326937A (zh) | 基于卷积神经网络的人群密度分布估计方法 | |
CN107093205A (zh) | 一种基于无人机图像的三维空间建筑物窗户检测重建方法 | |
CN107437092A (zh) | 基于三维卷积神经网络的视网膜oct图像的分类算法 | |
CN105957063A (zh) | 基于多尺度加权相似性测度的ct图像肝脏分割方法及*** | |
CN106570874B (zh) | 一种结合图像局部约束与对象全局约束的图像标记方法 | |
CN109753997A (zh) | 一种ct图像中的肝脏肿瘤自动精确鲁棒分割方法 | |
CN107392929A (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN108564120A (zh) | 基于深度神经网络的特征点提取方法 | |
CN108460833A (zh) | 一种基于bim构建传统建筑数字化保护与修复的信息平台 | |
CN107784308A (zh) | 基于链式多尺度全卷积网络的显著性目标检测方法 | |
CN108664994A (zh) | 一种遥感图像处理模型构建***和方法 | |
CN109360179A (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN108765409A (zh) | 一种基于ct图像的候选结节的筛选方法 | |
CN106709883A (zh) | 基于联合双边滤波和尖锐特征骨架提取的点云去噪方法 | |
CN107123130A (zh) | 一种基于超像素和混合哈希的核相关滤波目标跟踪方法 | |
CN107392244A (zh) | 基于深度神经网络与级联回归的图像美感增强方法 | |
CN106504239B (zh) | 一种提取超声图像中肝脏区域的方法 | |
CN109410133A (zh) | 一种基于3dmm的人脸纹理修复方法 | |
CN106295657A (zh) | 一种视频数据结构化过程中提取人体高度特征的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190405 |