CN109190707A - 一种基于对抗学习的域自适应图像语义分割方法 - Google Patents
一种基于对抗学习的域自适应图像语义分割方法 Download PDFInfo
- Publication number
- CN109190707A CN109190707A CN201811059300.1A CN201811059300A CN109190707A CN 109190707 A CN109190707 A CN 109190707A CN 201811059300 A CN201811059300 A CN 201811059300A CN 109190707 A CN109190707 A CN 109190707A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- confrontation
- source
- network
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于对抗学习的域自适应图像语义分割方法,其主要内容包括:领域适应、网络结构、输出空间适应,其过程为,首先输入源域和目标域的图像,传递到分割网络以预测源域和目标域得到分割输出;由源输出得到的源预测生成源域的分割损失;接着将两个分割输出作为鉴别器的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以满足要求的像素级语义分割图像。本发明开发了一种多层次对抗学习方法,在分割空间的自适应能够有效对齐源和目标图像间的场景布局和局部上下文,此外本发明简单方便易操作,能够很好解决适应高维特征复杂性的影响。
Description
技术领域
本发明涉及图形图像处理领域,尤其是涉及了一种基于对抗学习的域自适应图像语义分割方法。
背景技术
图像语义分割是指对图片的每个像素进行分类,从像素级别获得图像的内容以及图像中目标的位置。目前语义分割应用于水下物体检测、地理信息***、无人车驾驶、医疗影像分析、机器人等领域;可以通过训练神经网络让机器输入卫星遥感影像,自动识别道路、河流、庄稼及建筑物等;在智能医疗领域,语义分割可应用肿瘤图像分割、龋齿诊断等;语义分割也是无人车驾驶的核心算法技术,车载摄像头,或者激光雷达探查到图像后输入到神经网络中,后台计算机可以自动将图像分割归类,以避让行人和车辆等障碍。目前基于卷积神经网络的方法在语义分割方面取得了显著的进步,并应用于自主驱动和图像编辑,而这种方式不能很好推广到看不见的图像,特别是当训练和测试图像之间存在域间隙时;另一类有效方法是在两个域空间对其特征,使得适应的特征可以推广到两个域,而对于不同图像分类任务,语义分割的特征适应会受到高维特征复杂性的影响,高维特征需要对不同的视觉线索进行编码,包括外观、形状和上下文,导致低维特征不能很好适应,因此缺乏适应像素级的预测任务。
本发明提出了一种基于对抗学习的域自适应图像语义分割方法,首先,输入源域和目标域的图像,传递到分割网络以预测源域和目标域得到分割输出;由源输出得到的源预测生成源域的分割损失;接着将两个分割输出作为鉴别器的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以满足要求的像素级语义分割图像。本发明开发了一种多层次对抗学习方法,在分割空间的自适应能够有效对齐源和目标图像间的场景布局和局部上下文,本发明简单方便易操作,也能够很好的解决适应高维特征复杂性的影响。
发明内容
针对语义分割特征适应容易受到高维特征的复杂性影响、低维特征不能很好适应的问题,本发明的目的在于提供一种基于对抗学习的域自适应图像语义分割方法,首先,输入源域和目标域的图像,传递到分割网络以预测源域和目标域得到分割输出;由源输出得到的源预测生成源域的分割损失;接着将两个分割输出作为鉴别器的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以满足要求的像素级语义分割图像。
为解决上述问题,本发明提供一种基于对抗学习的域自适应图像语义分割方法,其主要内容包括:
(一)领域适应;
(二)网络结构;
(三)输出空间适应。
首先,输入源域和目标域的图像,传递到分割网络以预测源域和目标域得到分割输出;由源输出得到的源预测生成源域的分割损失;接着将两个分割输出作为鉴别器的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以满足要求的像素级语义分割图像。
其中,所述的领域适应,主要包括源域和目标域的图像,分别表示为Is和It,以及两个损失函数的适应任务,分别为和其中表示适应由目标域的预测分割对源域的预测分割的对抗损失,表示在源域中使用真实注释的分割损失;领域适应用于解决源域与目标域之间的域移位,注释只包含在源域图像中。
其中,所述的网络结构,主要包括分割网络G和鉴别器网络Di;源域和目标域图像经过分割网络得到特征,在输出空间具有高度相似性,基于对抗损失,分割模型旨在欺骗鉴别器,其目的是源图像和目标图像在输出空间产生相似分布。
进一步地,所述的分割网络,用于预测源域的输出结果和目标域的输出结果,即源预测Ps和目标预测Pt,经过分割网络获得不同层次的分割特征,包括高层次特征和低层次特征,特征在输出空间具有相似性;良好的基线模型是获得高质量的分割结果的前提,利用ImageNet的ReNet-101中DeepLab-v2框架作为分割基线模型,去除最后的分类层,将最后2个卷积层步幅由2改为1,Conv4和Conv5分别使用步幅为2和4的扩展卷积,添加暗黑空间金字塔池(ASPP)作为最终分类器,最后使用带有softmax输出的上采样层以便匹配输入图像的尺寸。
进一步地,所述的源预测Ps,将包含注释的源域图像Is传递到分割网络,以优化分割损失并生成Ps,其中,Ps=G(Is)表示来自源域的分割预测,如下所示:
其中,表示基于源域的分割损失,w∈W、h∈H表示输出图像的尺寸,c∈C表示类别的数目。
进一步地,所述的目标预测Pt,在目标预测上计算对抗损失,并将其传播到分割网络中;将目标域图像It传递到分割网络生成Pt,其中Pt=G(It)表示来自目标域的分割预测;为使目标预测与源预测更接近,优化对抗损失如下所示:
其中,对抗损失在于将目标预测作为源预测的可能性最大化,以此训练分割网络和欺骗鉴别器。
进一步地,所述的鉴别器网络Di,i表示在多级对抗学习中鉴别器的级别,利用所有完全卷积层保留空间信息,鉴别器网络由5个卷积层组成,步幅为2,将泄露整流函数添加在前4层卷积层上,最后一层添加上采样层以匹配输入图像的大小;给定分割softmax输出P=G(I)∈RH×W×C,此时使用包含源和目标两个类别的交叉熵损失将P传递到完全卷积鉴别器D中,优化如下所示:
其中,z为常数,当z=1时表示从目标域中抽取样本图像,z=0时表示从源域中抽取样本图像。
其中,所述的输出空间适应(三),分割输出包含丰富的信息,通过对抗学习,将相似性适应低维softmax输出的分割预测,最小化最大化对抗学习包含单层次对抗学习和多层次对抗学习。
进一步地,所述的多层次对抗学习,多层次对抗网络能够在不同特征层次实现输出空间的域自适应;分割输出在每个特征空间预测,然后通过个体鉴别器进行对抗学习;利用多级适应模型,低层次特征远离输出,在输出空间执行对抗学习时不能直接适应预测,因此在低层次特征空间附加对抗模块,在Conv4上提取特征映射,并添加ASPP模块作为辅助分类器,同时增加具有相同结构的鉴别器用于对抗学习;因此,基于和的领域适应目标如下所示:
其中,i表示用于预测分割输出的级别,λadv表示权重,用于平衡分割损失和对抗损失,优化分割模型时,必须平衡λadv。
附图说明
图1是本发明一种基于对抗学习的域自适应图像语义分割方法的***架构图。
图2是本发明一种基于对抗学习的域自适应图像语义分割方法的流程示意图。
图3是本发明一种基于对抗学习的域自适应图像语义分割方法的领域差距对比图。
图4是本发明一种基于对抗学习的域自适应图像语义分割方法的产品图像。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于对抗学习的域自适应图像语义分割方法的***架构图。主要包括领域适应,网络结构,输出空间适应。
域自适应图像语义分割方法,首先输入源域和目标域图像,传递到分割网络以预测源域和目标域的分割输出;由源输出得到的源预测生成源域的分割损失;接着将输出作为鉴别器网络的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以生成满足要求的像素级语义分割图像。
图3是本发明一种基于对抗学习的域自适应图像语义分割方法的领域差距对比图。本图显示了在输出空间学习适应性的动机,虽然图像在外观上不同,但是输出时结构化的且具有相似之处,例如空间布局和局部上下文。
领域适应,主要包括源域和目标域的图像,分别表示为Is和It,以及两个损失函数的适应任务,分别为和其中表示适应由目标域的预测分割对源域的预测分割的对抗损失,表示在源域中使用真实注释的分割损失;领域适应用于解决源域与目标域之间的域移位,注释只包含在源域图像中。
网络结构,主要包括分割网络G和鉴别器网络Di;源域和目标域图像经过分割网络得到特征,在输出空间具有高度相似性,基于对抗损失,分割模型旨在欺骗鉴别器,其目的是源图像和目标图像在输出空间产生相似分布。
输出空间适应,分割输出包含丰富的信息,通过对抗学习,将相似性适应低维softmax输出的分割预测,最小化最大化对抗学习包含单层次对抗学习和多层次对抗学习。
图2是本发明一种基于对抗学***采用两个自适应模块来说明本申请提出的多层次对抗学习。
分割网络,用于预测源域的输出结果和目标域的输出结果,即源预测Ps和目标预测Pt,经过分割网络获得不同层次的分割特征,包括高层次特征和低层次特征,特征在输出空间具有相似性;良好的基线模型是获得高质量的分割结果的前提,利用ImageNet的ReNet-101中DeepLab-v2框架作为分割基线模型,去除最后的分类层,将最后2个卷积层步幅由2改为1,Conv4和Conv5分别使用步幅为2和4的扩展卷积,添加暗黑空间金字塔池(ASPP)作为最终分类器,最后使用带有softmax输出的上采样层以便匹配输入图像的尺寸。
源预测Ps,将包含注释的源域图像Is传递到分割网络,以优化分割损失并生成Ps,其中,Ps=G(Is)表示来自源域的分割预测,如下所示:
其中,表示基于源域的分割损失,w∈W、h∈H表示输出图像的尺寸,c∈C表示类别的数目。
目标预测Pt,在目标预测上计算对抗损失,并将其传播到分割网络中;将目标域图像It传递到分割网络生成Pt,其中Pt=G(It)表示来自目标域的分割预测;为使目标预测与源预测更接近,优化对抗损失如下所示:
其中,对抗损失在于将目标预测作为源预测的可能性最大化,以此训练分割网络和欺骗鉴别器。
鉴别器网络Di,i表示在多级对抗学习中鉴别器的级别,利用所有完全卷积层保留空间信息,鉴别器网络由5个卷积层组成,步幅为2,将泄露整流函数添加在前4层卷积层上,最后一层添加上采样层以匹配输入图像的大小;给定分割softmax输出P=G(I)∈RH×W×C,此时使用包含源和目标两个类别的交叉熵损失将P传递到完全卷积鉴别器D中,优化如下所示:
其中,z为常数,当z=1时表示从目标域中抽取样本图像,z=0时表示从源域中抽取样本图像。
多层次对抗学习,多层次对抗网络能够在不同特征层次实现输出空间的域自适应;分割输出在每个特征空间预测,然后通过个体鉴别器进行对抗学习;利用多级适应模型,低层次特征远离输出,在输出空间执行对抗学习时不能直接适应预测,因此在低层次特征空间附加对抗模块,在Conv4上提取特征映射,并添加ASPP模块作为辅助分类器,同时增加具有相同结构的鉴别器用于对抗学习;因此,基于和的领域适应目标如下所示:
其中,i表示用于预测分割输出的级别,λadv表示权重,用于平衡分割损失和对抗损失,优化分割模型时,必须平衡λadv。
图4是本发明一种基于对抗学习的域自适应图像语义分割方法的产品图像。本图主要显示了不同情况下获得的图像语义分割结果,包括目标图片、真实情景、适应之前、特征适应以及本申请的自适应分割。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于对抗学习的域自适应图像语义分割方法,其特征在于,主要包括领域适应(一);网络结构(二);输出空间适应(三)。
2.基于权利要求书1所述的域自适应图像语义分割方法,其特征在于,首先输入源域和目标域图像,传递到分割网络以预测源域和目标域的分割输出;由源输出得到的源预测生成源域的分割损失;接着将输出作为鉴别器网络的输入,生成对抗损失,再将对抗损失传递到分割网络;最后通过最小化分割损失和最大化对抗损失,以生成满足要求的像素级语义分割图像。
3.基于权利要求书1所述的领域适应(一),其特征在于,主要包括源域和目标域的图像,分别表示为Is和It,以及两个损失函数的适应任务,分别为和其中表示适应由目标域的预测分割对源域的预测分割的对抗损失,表示在源域中使用真实注释的分割损失;领域适应用于解决源域与目标域之间的域移位,注释只包含在源域图像中。
4.基于权利要求1所述的网络结构(二),其特征在于,主要包括分割网络G和鉴别器网络Di;源域和目标域图像经过分割网络得到特征,在输出空间具有高度相似性,基于对抗损失,分割模型旨在欺骗鉴别器,其目的是源图像和目标图像在输出空间产生相似分布。
5.基于权利要求书4所述的分割网络,其特征在于,用于预测源域的输出结果和目标域的输出结果,即源预测Ps和目标预测Pt,经过分割网络获得不同层次的分割特征,包括高层次特征和低层次特征,特征在输出空间具有相似性;良好的基线模型是获得高质量的分割结果的前提,利用ImageNet的ReNet-101中DeepLab-v2框架作为分割基线模型,去除最后的分类层,将最后2个卷积层步幅由2改为1,Conv4和Conv5分别使用步幅为2和4的扩展卷积,添加暗黑空间金字塔池(ASPP)作为最终分类器,最后使用带有softmax输出的上采样层以便匹配输入图像的尺寸。
6.基于权利要求书5所述的源预测Ps,其特征在于,将包含注释的源域图像Is传递到分割网络,以优化分割损失并生成Ps,其中,Ps=G(Is)表示来自源域的分割预测,如下所示:
其中,表示基于源域的分割损失,w∈W、h∈H表示输出图像的尺寸,c∈C表示类别的数目。
7.基于权利要求书5所述的目标预测Pt,其特征在于,在目标预测上计算对抗损失,并将其传播到分割网络中;将目标域图像It传递到分割网络生成Pt,其中Pt=G(It)表示来自目标域的分割预测;为使目标预测与源预测更接近,优化对抗损失如下所示:
其中,对抗损失在于将目标预测作为源预测的可能性最大化,以此训练分割网络和欺骗鉴别器。
8.基于权利要求书4所述的鉴别器网络Di,其特征在于,i表示在多级对抗学习中鉴别器的级别,利用所有完全卷积层保留空间信息,鉴别器网络由5个卷积层组成,步幅为2,将泄露整流函数添加在前4层卷积层上,最后一层添加上采样层以匹配输入图像的大小;给定分割softmax输出P=G(I)∈RH×W×C,此时使用包含源和目标两个类别的交叉熵损失将P传递到完全卷积鉴别器D中,优化如下所示:
其中,z为常数,当z=1时表示从目标域中抽取样本图像,z=0时表示从源域中抽取样本图像。
9.基于权利要求1所述的输出空间适应(三),其特征在于,分割输出包含丰富的信息,通过对抗学习,将相似性适应低维softmax输出的分割预测,最小化最大化对抗学习包含单层次对抗学习和多层次对抗学习。
10.基于权利要求书9所述的多层次对抗学习,其特征在于,多层次对抗网络能够在不同特征层次实现输出空间的域自适应;分割输出在每个特征空间预测,然后通过个体鉴别器进行对抗学习;利用多级适应模型,低层次特征远离输出,在输出空间执行对抗学习时不能直接适应预测,因此在低层次特征空间附加对抗模块,在Conv4上提取特征映射,并添加ASPP模块作为辅助分类器,同时增加具有相同结构的鉴别器用于对抗学习;因此,基于和的领域适应目标如下所示:
其中,i表示用于预测分割输出的级别,λadv表示权重,用于平衡分割损失和对抗损失,优化分割模型时,必须平衡λadv。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811059300.1A CN109190707A (zh) | 2018-09-12 | 2018-09-12 | 一种基于对抗学习的域自适应图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811059300.1A CN109190707A (zh) | 2018-09-12 | 2018-09-12 | 一种基于对抗学习的域自适应图像语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109190707A true CN109190707A (zh) | 2019-01-11 |
Family
ID=64910146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811059300.1A Withdrawn CN109190707A (zh) | 2018-09-12 | 2018-09-12 | 一种基于对抗学习的域自适应图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109190707A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902809A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种利用生成对抗网络辅助语义分割模型 |
CN110111335A (zh) * | 2019-05-08 | 2019-08-09 | 南昌航空大学 | 一种自适应对抗学习的城市交通场景语义分割方法及*** |
CN110148142A (zh) * | 2019-05-27 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、设备和存储介质 |
CN110246145A (zh) * | 2019-06-21 | 2019-09-17 | 福州大学 | 一种腹部ct图像的分割方法 |
CN110322446A (zh) * | 2019-07-01 | 2019-10-11 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110414631A (zh) * | 2019-01-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN110414387A (zh) * | 2019-07-12 | 2019-11-05 | 武汉理工大学 | 一种基于道路分割的车道线多任务学习检测方法 |
CN110570433A (zh) * | 2019-08-30 | 2019-12-13 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110738663A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 双域适应模块金字塔型网络及无监督域适应图像分割方法 |
CN110738107A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 一种具备模型迁移功能的显微图像识别分割方法 |
CN111046760A (zh) * | 2019-11-29 | 2020-04-21 | 山东浪潮人工智能研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN111242134A (zh) * | 2020-01-15 | 2020-06-05 | 武汉科技大学 | 一种基于特征自适应学习的遥感影像地物分割方法 |
CN111523680A (zh) * | 2019-12-23 | 2020-08-11 | 中山大学 | 一种基于Fredholm学习和对抗学习的域适应方法 |
CN111582449A (zh) * | 2020-05-07 | 2020-08-25 | 广州视源电子科技股份有限公司 | 一种目标域检测网络的训练方法、装置、设备及存储介质 |
CN111832570A (zh) * | 2020-07-02 | 2020-10-27 | 北京工业大学 | 一种图像语义分割模型训练方法及*** |
CN111951220A (zh) * | 2020-07-10 | 2020-11-17 | 北京工业大学 | 一种基于多层面领域自适应技术的无监督脑出血分割方法 |
CN113221902A (zh) * | 2021-05-11 | 2021-08-06 | 中国科学院自动化研究所 | 基于数据分布扩充的跨域自适应语义分割方法及*** |
CN113627443A (zh) * | 2021-10-11 | 2021-11-09 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
CN114882220A (zh) * | 2022-05-20 | 2022-08-09 | 山东力聚机器人科技股份有限公司 | 基于域自适应先验知识引导gan的图像生成方法及*** |
CN115100491A (zh) * | 2022-08-25 | 2022-09-23 | 山东省凯麟环保设备股份有限公司 | 一种面向复杂自动驾驶场景的异常鲁棒分割方法与*** |
CN115222940A (zh) * | 2022-07-07 | 2022-10-21 | 北京邮电大学 | 一种语义分割方法和*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108230426A (zh) * | 2018-02-07 | 2018-06-29 | 深圳市唯特视科技有限公司 | 一种基于眼睛注视数据和图像数据集的图像生成方法 |
-
2018
- 2018-09-12 CN CN201811059300.1A patent/CN109190707A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108230426A (zh) * | 2018-02-07 | 2018-06-29 | 深圳市唯特视科技有限公司 | 一种基于眼睛注视数据和图像数据集的图像生成方法 |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414631B (zh) * | 2019-01-29 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN110414631A (zh) * | 2019-01-29 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 基于医学图像的病灶检测方法、模型训练的方法及装置 |
CN109902809A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种利用生成对抗网络辅助语义分割模型 |
CN110111335A (zh) * | 2019-05-08 | 2019-08-09 | 南昌航空大学 | 一种自适应对抗学习的城市交通场景语义分割方法及*** |
CN110148142A (zh) * | 2019-05-27 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、设备和存储介质 |
US11961233B2 (en) | 2019-05-27 | 2024-04-16 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for training image segmentation model, computer device, and storage medium |
CN110246145A (zh) * | 2019-06-21 | 2019-09-17 | 福州大学 | 一种腹部ct图像的分割方法 |
CN110246145B (zh) * | 2019-06-21 | 2023-02-21 | 福州大学 | 一种腹部ct图像的分割方法 |
CN110322446A (zh) * | 2019-07-01 | 2019-10-11 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110322446B (zh) * | 2019-07-01 | 2021-02-19 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110414387A (zh) * | 2019-07-12 | 2019-11-05 | 武汉理工大学 | 一种基于道路分割的车道线多任务学习检测方法 |
CN110414387B (zh) * | 2019-07-12 | 2021-10-15 | 武汉理工大学 | 一种基于道路分割的车道线多任务学习检测方法 |
CN110570433A (zh) * | 2019-08-30 | 2019-12-13 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110570433B (zh) * | 2019-08-30 | 2022-04-22 | 北京影谱科技股份有限公司 | 基于生成对抗网络的图像语义分割模型构建方法和装置 |
CN110738663A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 双域适应模块金字塔型网络及无监督域适应图像分割方法 |
CN110738107A (zh) * | 2019-09-06 | 2020-01-31 | 上海衡道医学病理诊断中心有限公司 | 一种具备模型迁移功能的显微图像识别分割方法 |
CN111046760A (zh) * | 2019-11-29 | 2020-04-21 | 山东浪潮人工智能研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN111046760B (zh) * | 2019-11-29 | 2023-08-08 | 山东浪潮科学研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN111523680A (zh) * | 2019-12-23 | 2020-08-11 | 中山大学 | 一种基于Fredholm学习和对抗学习的域适应方法 |
CN111523680B (zh) * | 2019-12-23 | 2023-05-12 | 中山大学 | 一种基于Fredholm学习和对抗学习的域适应方法 |
CN111242134A (zh) * | 2020-01-15 | 2020-06-05 | 武汉科技大学 | 一种基于特征自适应学习的遥感影像地物分割方法 |
CN111582449A (zh) * | 2020-05-07 | 2020-08-25 | 广州视源电子科技股份有限公司 | 一种目标域检测网络的训练方法、装置、设备及存储介质 |
CN111582449B (zh) * | 2020-05-07 | 2023-08-04 | 广州视源电子科技股份有限公司 | 一种目标域检测网络的训练方法、装置、设备及存储介质 |
CN111832570A (zh) * | 2020-07-02 | 2020-10-27 | 北京工业大学 | 一种图像语义分割模型训练方法及*** |
CN111951220A (zh) * | 2020-07-10 | 2020-11-17 | 北京工业大学 | 一种基于多层面领域自适应技术的无监督脑出血分割方法 |
CN113221902B (zh) * | 2021-05-11 | 2021-10-15 | 中国科学院自动化研究所 | 基于数据分布扩充的跨域自适应语义分割方法及*** |
CN113221902A (zh) * | 2021-05-11 | 2021-08-06 | 中国科学院自动化研究所 | 基于数据分布扩充的跨域自适应语义分割方法及*** |
CN113627443B (zh) * | 2021-10-11 | 2022-02-15 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
CN113627443A (zh) * | 2021-10-11 | 2021-11-09 | 南京码极客科技有限公司 | 一种增强特征空间对抗学习的域自适应语义分割方法 |
CN114882220A (zh) * | 2022-05-20 | 2022-08-09 | 山东力聚机器人科技股份有限公司 | 基于域自适应先验知识引导gan的图像生成方法及*** |
CN115222940A (zh) * | 2022-07-07 | 2022-10-21 | 北京邮电大学 | 一种语义分割方法和*** |
CN115100491B (zh) * | 2022-08-25 | 2022-11-18 | 山东省凯麟环保设备股份有限公司 | 一种面向复杂自动驾驶场景的异常鲁棒分割方法与*** |
CN115100491A (zh) * | 2022-08-25 | 2022-09-23 | 山东省凯麟环保设备股份有限公司 | 一种面向复杂自动驾驶场景的异常鲁棒分割方法与*** |
US11954917B2 (en) | 2022-08-25 | 2024-04-09 | Shandong Kailin Environmental Protection Equipment Co., Ltd. | Method of segmenting abnormal robust for complex autonomous driving scenes and system thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190707A (zh) | 一种基于对抗学习的域自适应图像语义分割方法 | |
Cui et al. | Semantic segmentation of remote sensing images using transfer learning and deep convolutional neural network with dense connection | |
WO2021147325A1 (zh) | 一种物体检测方法、装置以及存储介质 | |
CN112446398A (zh) | 图像分类方法以及装置 | |
CN109948663A (zh) | 一种基于模型抽取的步长自适应的对抗攻击方法 | |
CN107609460A (zh) | 一种融合时空双重网络流和attention机制的人体行为识别方法 | |
WO2021073311A1 (zh) | 图像识别方法、装置、计算机可读存储介质及芯片 | |
Suresha et al. | A study on deep learning spatiotemporal models and feature extraction techniques for video understanding | |
Dewangan et al. | Towards the design of vision-based intelligent vehicle system: methodologies and challenges | |
CN117157679A (zh) | 感知网络、感知网络的训练方法、物体识别方法及装置 | |
Le et al. | Bayesian gabor network with uncertainty estimation for pedestrian lane detection in assistive navigation | |
Pham et al. | Pencilnet: Zero-shot sim-to-real transfer learning for robust gate perception in autonomous drone racing | |
WO2022246612A1 (zh) | 活体检测方法、活体检测模型的训练方法及其装置和*** | |
Haris et al. | Lane lines detection under complex environment by fusion of detection and prediction models | |
Liu et al. | Li Zhang | |
Luo et al. | An improved gesture segmentation method for gesture recognition based on CNN and YCbCr | |
Wu et al. | Self-learning and explainable deep learning network toward the security of artificial intelligence of things | |
Yu | Deep learning methods for human action recognition | |
Veluchamy et al. | RBorderNet: Rider Border Collie Optimization-based Deep Convolutional Neural Network for road scene segmentation and road intersection classification | |
CN115546668A (zh) | 海洋生物的检测方法、装置及无人机 | |
Hosain et al. | Synchronizing Object Detection: Applications, Advancements and Existing Challenges | |
Choudhury et al. | Detection of One-horned Rhino from Green Environment Background using Deep Learning | |
Singh et al. | Traffic control enhancement with video camera images using AI | |
Garg et al. | Advanced Computing: 10th International Conference, IACC 2020, Panaji, Goa, India, December 5–6, 2020, Revised Selected Papers, Part I | |
Liu et al. | Vehicle attribute recognition for normal targets and small targets based on multitask cascaded network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190111 |
|
WW01 | Invention patent application withdrawn after publication |