CN107153822A - 一种基于深度学习的半自动图像精标注方法 - Google Patents
一种基于深度学习的半自动图像精标注方法 Download PDFInfo
- Publication number
- CN107153822A CN107153822A CN201710355628.7A CN201710355628A CN107153822A CN 107153822 A CN107153822 A CN 107153822A CN 201710355628 A CN201710355628 A CN 201710355628A CN 107153822 A CN107153822 A CN 107153822A
- Authority
- CN
- China
- Prior art keywords
- mark
- image
- deep learning
- classification
- semi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习的半自动图像精标注方法,其主要流程在于:利用深度神经网络模型对图像进行预标注,再对预标注图自动加工,去除大量噪声点,最后交由标注人员使用特定工具快速地发现和修正预标注图中的缺陷,从而达到缩减标注时间的目的。实践证明,该方法大大减轻了标注负担,加工效率较纯人工方法提升了3倍以上。
Description
技术领域
本发明属于智能交通和图像识别领域,特别涉及一种基于深度神经网络的半自动图像精标注方法。
背景技术
现有的像素级图像标注方法都是纯人工完成,从零开始对原始图像进行标注,这需要耗费大量的人力和财力。知名的交通场景数据集Cityscapes使用纯手动标注软件LabelMe进行像素级标注,效率极低,每张图像的标注、审核、修正等过程平均需要花费1.5小时,故尽管耗资巨大,Cityscapes也仅制作出了5000张精标注图像数据,其数量远未达到实际使用的标准。类似数据集如KITTI、CamVid等也用完全手动的方式进行建设,均面临着效率低、成本高的困境。
发明内容
本发明所要解决的技术问题:克服现有技术的不足,提供一种基于深度神经网络的半自动图像精标注方法,解决像素级图像精标注效率极低、成本极高的问题,大大减轻了标注负担,加工效率较纯人工方法提升了3倍以上。
本发明所要解决的技术方案:
1、一种基于深度学习的半自动图像精标注方法,其特征在于包括如下步骤:
(1)利用基于深度学习图像语义分割模型对图像进行预标注;
(2)对预标注图进行自动加工,去除噪声点;
(3)对原始图像运行基于深度学习的目标检测算法,得到目标类别和位置信息,根据检测得到的目标类别和位置信息,在目标位置范围内有对去除噪声点后的预标注图进一步修正分割错误;
(4)采用校正软件进行精细处理,在图像层叠、轮廓高亮、分割图半透明的辅助工具快速地发现并修正预标注图中的缺陷,得到最终的标注图。
其中,所述步骤(2)中,采用滑动窗口变参数过滤算法去除噪声点,具体实现如下:
(1)在0-255之间均匀地选取n个灰度值作为类别标签的定义,其中n为类别数;
(2)对预标注图进行腐蚀膨胀处理。最终每个像素点的最终类别由下式给定:
c=argmini|Pnew-P[i]|
其中,c是类别编号,Pnew代表腐蚀膨胀后的灰度值,P[i]代表第i个类别的灰度值。
其中,所述步骤(4)中给出了一系列辅助标注人员快速发现和修正缺陷的工具集,其一般工作流程如下:
(1)将原始图像与预标注图像进行层叠;
(2)将预标注图像设置为半透明状态,其透明度可调;
(3)根据预标注图像中提供的语义区域自动完成轮廓高亮;
(4)标注人员采用画笔、魔棒等工具修正各区域边缘,完成语义标注。
本发明运用到的方法有:
(1)图像语义分割模型SegNet
SegNet是基于全卷机神经网络(FCN)提出的一种端到端的编码-解码结构,编码网络将原始图像进行卷积和最大值池化等操作,形成1x1xh的特征表示,再从这一特征表示处罚,通过上池化和反卷积解码成与原图尺寸一致的语义分割图。
(2)滑动窗口变参过滤算法
首先,在0-255之间均匀地选取n个灰度值作为类别标签的定义(n为类别数量,如SegNet将交通场景图像中的目标分为12类)。然后,对分割图进行腐蚀膨胀处理。最后每个像素点的最终类别由下式给定:
c=argmini|Pnew-P[i]|
其中,c是类别编号,Pnew代表腐蚀膨胀后的灰度值,P[i]代表第i个类别的灰度值。使用同一种参数对全图进行腐蚀膨胀的效果不尽如人意,因为在不同的区域噪声的数量存在较大差异,所以应该对不同的情况使用不同的腐蚀膨胀参数进行处理。
(3)目标检测模型Faster R-CNN
Faster R-CNN基于深度卷积神经网络,是当下的主流目标检测框架。主要由区域选举网络(RPN)、ROI Pooling层、类别分支网络和box回归网络构成。Faster R-CNN首次实现了基于深度学习的端到端的目标检测模型训练和识别,准确率较高,速度达到了准实时。
(4)人工审核校正软件
道路行车场景的原图在经过自动标注部分处理后,还存在着以下三个主要问题:存在噪声点、目标轮廓不精确和存在未定义类别区域。针对这三个问题,开发了一套软件辅助人工进一步审核修正。
开发工具主要提供两方面的功能,一是提供有效的比对功能,使标注审核人员能够方便的对比原图和预加工图,快速发现和定位存在分割错误的地方;二是提供方便的修正工具,使标注审核人员在发现和定位分割错误之后,能以最简易的操作修正错误。标注审核人员利用工具提供的两类主要功能,针对粗标注结果中出现的具体问题来修正粗标注结果。
本发明与现有技术相比的优点在于:
(1)本发明提出了一系列实用的方法和工具来辅助标注人员完成复杂的像素级图像精标注。使用了现有的基于深度学习的图像语义分割模型SegNet对图像进行预标注。由于模型本身存在不足,预标注图像中产生了大量的噪声点,并且这些噪声点在图中分布不均,于是提出了一种滑动窗口变参数过滤算法,在去除噪声点的同时基本不影响正确分割的区域。至此,得到了一张准确率较高、整体性较强的预标注图,又提供了一套实用的工具集,使得标注人员能够对预标注图进行快速处理,完成标注任务。
(2)在数据集Cityscapes的建设过程中,完成一张图像的精标注、审核、修正等过程,平均花费了1.5小时,故尽管耗资巨大,Cityscapes也仅制作出了5000张精标注图像数据,其数据量远未达到实际使用的标准。利用本发明的系列方法,这一时间可缩短至20分钟左右。
附图说明
图1为本发明方法的实现流程图;
图2为SegNet网络结构;
图3为预加工图中的典型问题;
图4选中误识别噪声点,将噪声修改为正确的像素值;
图5为预标注的部分效果图。
具体实施方式
如图1所示,本发明基于深度学习的半自动图像精标注方法,由以下步骤实现:
1.SegNet粗标注
本发明使用的SegNet是Cambridge提出旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,开放源码,基于caffe框架。SegNet网络结构如图2所示,Input为输入图片,Output为输出分割的图像,不同颜色代表不同的分类。它是一个对称网络,由中间pooling层与upsampling层作为分割,通过卷积提取高维特征,并通过pooling使图片变小,再通过反卷积与upsampling,通过反卷积使得图像分类后特征得以重现,upsampling使图像变大,最后通过Softmax,输出不同分类的最大值。
2.基于滑动窗口的变参数离群点归并和腐蚀膨胀
SegNet输出的分割图用12种不同的颜色代表12个物体类别,例如路面、路标、人行道、建筑和骑车人员等,从分割图中可以发现大量离群点以及边缘参差不齐的情况,这很不利于人工的进一步处理,所以设计了一个基于滑动窗口的变参过滤算法。
首先,在0-255之间均匀地选取12个灰度值作为类别标签的定义。然后,对分割图进行腐蚀膨胀处理。最后每个像素点的最终类别由下式给定:
c=argmini|Pnew-P[i]|
其中,c是类别编号,Pnew代表腐蚀膨胀后的灰度值,P[i]代表第i个类别的灰度值,使用同一种参数对全图进行腐蚀膨胀的效果不尽如人意,因为在不同的区域噪声的数量存在较大差异,所以应该对不同的情况使用不同的腐蚀膨胀参数进行处理。
3.与目标检测的结合
对原始图像运行目标检测算法Faster R-CNN,得到标识物体的矩形框后,对矩形框范围内进行滤波去噪、直方均衡的传统方法进行预处理。
同时,有了目标检测网络的输出,可以辅助修正SegNet网络给出的预标注图。具体地,如果场景理解网络的输出图中,在除所给矩形框之外的区域出现了同一类别的物体,则视为错误分类,将其视为背景处理。这样做是很有意义的,例如在自动驾驶场景中,如果无人驾驶车前方存在误识别的车辆,那么它将不再前行或者做出非必要的避让决策。
另外,要达到这一效果,应尽可能地提高目标检测网络的召回率。为此,应将Faster RCNN最终输出的阈值尽可能调低,实验表明,调整为0.6比较合适。
4.人工审核校正软件
道路行车场景的原图在经过自动标注部分处理后,还存在着以下三个主要问题:存在噪声点、目标轮廓不精确和存在未定义类别区域。如图3所示,在图中可以很明显的观察到,路面部分存在误识别的噪声点;目标车辆的轮廓与原图相比不是十分精确;广告牌部分由于网络中并未做出定义,所以也并未识别。
针对粗标注结果中的这三个主要问题,设计开发了如下工具辅助人工进一步审核修正。
开发工具主要提供两方面的功能,一是提供有效的比对功能,使标注审核人员能够方便的对比原图和预加工图,快速发现和定位存在分割错误的地方;二是提供方便的修正工具,使标注审核人员在发现和定位分割错误之后,能以最简易的操作修正错误。标注审核人员利用工具提供的两类主要功能,针对粗标注结果中出现的具体问题来修正粗标注结果。
利用上述开发工具集的主要功能,针对粗标注结果中出现的具体问题做如图4的半透明化操作。原图与预加工图,在不同的图层内,以不同的透明度同时呈现。为了快速发现和定位分割问题的具***置,需要建立两个图层,同时呈现原图和对应的预加工图像,并调整透明度,使标注审核人员同时看到两张图,直观对比两张图的差异,快速定位问题所在。
针对预加工图中存在噪声点的情况:可以利用魔棒工具选中该噪声点部分,确定该噪声点对应的正确类别,通过变色工具,将误识别噪声点的像素值修改为正确类别对应的像素值。或者利用魔棒工具选中包含噪声点的一块区域,选择进行不同算子大小的腐蚀膨胀操作,去掉噪声点。
针对预加工图中目标轮廓不精确的情况:利用魔棒工具选中分割图中该部分整体区域,提取出区域轮廓,通过与原图对比,快速定位轮廓不精确的地方;利用加减工具,根据原图精确修正区域轮廓,使其符合原图实际情况。在修正过程中,将要删除的部分修改为背景目标的像素值,将要增加的部分修改为该区域目标对应的像素值。
针对出现语义分割网络中未定义的类别目标的情况:按照所处地域实际情况,可以由标注审核人员按照制定的类别标准,新定义类别和类别所对应的像素值,利用魔棒工具和素描笔描出目标物体轮廓,选中目标对应区域并修改为定义的实际像素值。
最后将审核修正完成后的分割结果保存,作为最终分割结果。
经过上述主要操作,预加工图中存在的噪声点问题,轮廓不精确问题,存在未定义的新类别问题都得到了解决,最后得到的精确分割结果,可以直接用于自动驾驶算法的研究也可以用于场景理解网络的进一步训练。
5.目标检测修正实验
首先,在最大程度保证召回率的前提下,使用KITTI数据集的训练/验证集,分别训练YOLO、SSD和Faster-RCNN,其结果如表1所示(此处仅作粗略对比,仅对比三个主要类别,且对于各个类别不再区分easy、moderate和hard)。
而后,使用在KITTI上训练好的Faster R-CNN参与到场景理解任务中,按照预先实现的算法流程,发现经过这步处理之后,分割结果的mIoU并未发生显著变化(变化在±0.1之间),但确能纠正某些明显的误分类情况。
表1YOLO、Faster R-CNN和SSD在KITTI train/validation上的表现,评价指标为MAP,实验GPU为NVIDIA TITAN X(12GB)。不难发现,Faster R-CNN的性能最优(在不考虑运行时间的情况下)。
6.粗标注结果结合目标检测的实验
将通过SegNet网络得到的分割结果直接计算平均准确率,得到结果1;
通过SegNet网络得到初步分割结果,进一步进行腐蚀膨胀和去离群点处理,然后结合目标检测网络结果,对同一张图像,若在给定的确切物体的矩形框之外,又出现了同一类别的物体,则将其视为错误的分类,将这部分像素修改为背景像素的值,最后得到结果2,计算平均准确率。三次操作得到的各类别的准确率如表2。
表2预标注实验结果
Class | SegNet | 3.5K dataset training | Our method |
Building | 88 | 73.8 | 78.7 |
Tree | 87.3 | 90.7 | 92.1 |
Sky | 92.3 | 90.1 | 93.8 |
Car | 80 | 83 | 86.8 |
Sign-symbol | 29.5 | 83.9 | 86.4 |
Road | 97.6 | 95.21 | 96.3 |
Pedestrian | 57.2 | 86.8 | 90.2 |
Fence | 49.4 | 68 | 70.1 |
Column-Pole | 27.8 | 74.6 | 80.2 |
Side-walk | 84.8 | 95.3 | 95.4 |
Bicyclist | 30.7 | 53 | 59 |
Class avg. | 65.9 | 81.3 | 86.2 |
Global avg. | 88.6 | 86.8 | 90.9 |
Mean I/U | 50.2 | 69.1 | 70.5 |
图5为预标注的部分效果图,从左到右分别为:原始图,SegNet结果,半自动加工后的结果,真实结果。
7.最终效率对比
为了对比人工标注与本文提出的半自动标注技术效率,设计如下简单实验验证。
准备两组数量相等的图像(各100张)。其中一组按照本文提出的半自动标注技术流程,首先用SegNet进行语义分割,再结合目标检测和传统图像处理方法,将得出的粗标注结果交付人工进一步校对,得到最终结果。另外一组直接交付人工标注。由于有了人的干预,两种标注方式在理论上的准确率都是100%,所以只比较标注时间。实验结果如下:
表3标注效率对比
总之,本发明利用深度神经网络模型对图像进行预标注,再对预标注图自动加工,去除大量噪声点,最后交由标注人员使用特定工具快速地发现和修正预标注图中的缺陷,从而达到缩减标注时间的目的。实践证明,本发明大大减轻了标注负担,加工效率较纯人工方法提升了3倍以上。
Claims (3)
1.一种基于深度学习的半自动图像精标注方法,其特征在于包括如下步骤:
(1)利用基于深度学习图像语义分割模型对图像进行预标注;
(2)对预标注图进行自动加工,去除噪声点;
(3)对原始图像运行基于深度学习的目标检测算法,得到目标类别和位置信息,根据检测得到的目标类别和位置信息,在目标位置范围内有对去除噪声点后的预标注图进一步修正分割错误;
(4)采用校正软件进行精细处理,在图像层叠、轮廓高亮、分割图半透明的辅助工具快速地发现并修正预标注图中的缺陷,得到最终的标注图。
2.根据权利要求1所述的一种基于深度学习的半自动图像精标注方法,其特征在于:所述步骤(2)中,采用滑动窗口变参数过滤算法去除噪声点,具体实现如下:
(1)在0-255之间均匀地选取n个灰度值作为类别标签的定义,其中n为类别数;
(2)对预标注图进行腐蚀膨胀处理,最终每个像素点的最终类别由下式给定:
c=argmini|Pnew-P[i]|
其中,c是类别编号,Pnew代表腐蚀膨胀后的灰度值,P[i]代表第i个类别的灰度值。
3.根据权利要求1所述的一种基于深度学习的半自动图像精标注方法,其特征在于:所述步骤(4)中给出了一系列辅助标注人员快速发现和修正缺陷的工具集,其一般工作流程如下:
(1)将原始图像与预标注图像进行层叠;
(2)将预标注图像设置为半透明状态,其透明度可调;
(3)根据预标注图像中提供的语义区域自动完成轮廓高亮;
(4)标注人员采用画笔、魔棒等工具修正各区域边缘,完成语义标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710355628.7A CN107153822A (zh) | 2017-05-19 | 2017-05-19 | 一种基于深度学习的半自动图像精标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710355628.7A CN107153822A (zh) | 2017-05-19 | 2017-05-19 | 一种基于深度学习的半自动图像精标注方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107153822A true CN107153822A (zh) | 2017-09-12 |
Family
ID=59794324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710355628.7A Pending CN107153822A (zh) | 2017-05-19 | 2017-05-19 | 一种基于深度学习的半自动图像精标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107153822A (zh) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022243A (zh) * | 2017-11-23 | 2018-05-11 | 浙江清华长三角研究院 | 一种基于深度学习的图像中纸张检测方法 |
CN108564587A (zh) * | 2018-03-07 | 2018-09-21 | 浙江大学 | 一种基于全卷积神经网络的大范围遥感影像语义分割方法 |
CN108573279A (zh) * | 2018-03-19 | 2018-09-25 | 精锐视觉智能科技(深圳)有限公司 | 图像标注方法及终端设备 |
CN108595544A (zh) * | 2018-04-09 | 2018-09-28 | 深源恒际科技有限公司 | 一种文档图片分类方法 |
CN108830466A (zh) * | 2018-05-31 | 2018-11-16 | 长春博立电子科技有限公司 | 一种基于云平台的图像内容语义标注***和方法 |
CN108875769A (zh) * | 2018-01-23 | 2018-11-23 | 北京迈格威科技有限公司 | 数据标注方法、装置和***及存储介质 |
CN108985186A (zh) * | 2018-06-27 | 2018-12-11 | 武汉理工大学 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
CN108985293A (zh) * | 2018-06-22 | 2018-12-11 | 深源恒际科技有限公司 | 一种基于深度学习的图像自动化标注方法及*** |
CN109190631A (zh) * | 2018-08-31 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 图片的目标对象标注方法及装置 |
CN109255044A (zh) * | 2018-08-31 | 2019-01-22 | 江苏大学 | 一种基于YOLOv3深度学习网络的图像智能标注方法 |
CN109255294A (zh) * | 2018-08-02 | 2019-01-22 | 中国地质大学(北京) | 一种基于深度学习的遥感图像云识别方法 |
CN109284779A (zh) * | 2018-09-04 | 2019-01-29 | 中国人民解放军陆军工程大学 | 基于深度全卷积网络的物体检测方法 |
CN109377509A (zh) * | 2018-09-26 | 2019-02-22 | 深圳前海达闼云端智能科技有限公司 | 图像语义分割标注的方法、装置、存储介质和设备 |
CN109377479A (zh) * | 2018-09-27 | 2019-02-22 | 中国电子科技集团公司第五十四研究所 | 基于遥感影像的蝶形卫星天线目标检测方法 |
CN109409248A (zh) * | 2018-09-30 | 2019-03-01 | 上海交通大学 | 基于深度语义网络的语义标注方法、装置及*** |
CN109446369A (zh) * | 2018-09-28 | 2019-03-08 | 武汉中海庭数据技术有限公司 | 图像半自动标注的交互方法及*** |
CN109670060A (zh) * | 2018-12-10 | 2019-04-23 | 北京航天泰坦科技股份有限公司 | 一种基于深度学习的遥感影像半自动化标注方法 |
CN109685870A (zh) * | 2018-11-21 | 2019-04-26 | 北京慧流科技有限公司 | 信息标注方法及装置、标注设备及存储介质 |
CN109902765A (zh) * | 2019-03-22 | 2019-06-18 | 北京滴普科技有限公司 | 一种支持人工智能的智能云标记方法 |
CN110110723A (zh) * | 2019-05-07 | 2019-08-09 | 艾瑞迈迪科技石家庄有限公司 | 一种图像中目标区域自动提取的方法及装置 |
CN110276343A (zh) * | 2018-03-14 | 2019-09-24 | 沃尔沃汽车公司 | 图像的分割和注释的方法 |
CN110298823A (zh) * | 2019-06-17 | 2019-10-01 | 天津大学 | 一种基于mser算法的红外图像辅助标注方法 |
CN110334772A (zh) * | 2019-07-11 | 2019-10-15 | 山东领能电子科技有限公司 | 一种扩充类别式数据快速标注方法 |
CN110570434A (zh) * | 2018-06-06 | 2019-12-13 | 杭州海康威视数字技术股份有限公司 | 一种图像分割标注方法和装置 |
CN110674807A (zh) * | 2019-08-06 | 2020-01-10 | 中国科学院信息工程研究所 | 一种基于半监督与弱监督学习的曲形场景文字检测方法 |
CN110866930A (zh) * | 2019-11-18 | 2020-03-06 | 北京云聚智慧科技有限公司 | 语义分割辅助标注方法与装置 |
CN111061901A (zh) * | 2019-11-28 | 2020-04-24 | 中国船舶重工集团公司第七0九研究所 | 一种图像智能标注方法、***及图像标注质量分析方法 |
CN111444746A (zh) * | 2019-01-16 | 2020-07-24 | 北京亮亮视野科技有限公司 | 一种基于神经网络模型的信息标注方法 |
CN111783783A (zh) * | 2020-06-18 | 2020-10-16 | 哈尔滨市科佳通用机电股份有限公司 | 一种用于图像分割的标注***及标注方法 |
CN111985394A (zh) * | 2020-08-19 | 2020-11-24 | 东南大学 | Kitti数据集的半自动实例标注方法及*** |
CN112308163A (zh) * | 2020-11-09 | 2021-02-02 | 复旦大学 | 一种基于深度学习的脑胶质瘤辅助标注方法及装置 |
CN112381840A (zh) * | 2020-11-27 | 2021-02-19 | 深源恒际科技有限公司 | 一种用于定损视频中车辆外观部件标注的方法及*** |
CN112561480A (zh) * | 2020-12-16 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 智能推动工作流方法、设备及计算机存储介质 |
CN112988733A (zh) * | 2021-04-16 | 2021-06-18 | 北京妙医佳健康科技集团有限公司 | 一种数据质量提升和增强的方法及装置 |
CN113111716A (zh) * | 2021-03-15 | 2021-07-13 | 中国科学院计算机网络信息中心 | 一种基于深度学习的遥感影像半自动标注方法和装置 |
CN113468350A (zh) * | 2020-03-31 | 2021-10-01 | 京东方科技集团股份有限公司 | 一种图像标注方法、装置及*** |
US11429472B1 (en) | 2021-03-26 | 2022-08-30 | International Business Machines Corporation | Automated cognitive software application error detection |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678297A (zh) * | 2015-12-29 | 2016-06-15 | 南京大学 | 一种基于标签转移及lstm模型的人像语义分析的方法及*** |
CN106530305A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 语义分割模型训练和图像分割方法及装置、计算设备 |
-
2017
- 2017-05-19 CN CN201710355628.7A patent/CN107153822A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678297A (zh) * | 2015-12-29 | 2016-06-15 | 南京大学 | 一种基于标签转移及lstm模型的人像语义分析的方法及*** |
CN106530305A (zh) * | 2016-09-23 | 2017-03-22 | 北京市商汤科技开发有限公司 | 语义分割模型训练和图像分割方法及装置、计算设备 |
Non-Patent Citations (1)
Title |
---|
YUNCHAO WEI ETC,: ""Learning to segment with image-level annotations"", 《PATTERN RECOGNITION》 * |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022243A (zh) * | 2017-11-23 | 2018-05-11 | 浙江清华长三角研究院 | 一种基于深度学习的图像中纸张检测方法 |
CN108875769A (zh) * | 2018-01-23 | 2018-11-23 | 北京迈格威科技有限公司 | 数据标注方法、装置和***及存储介质 |
CN108564587A (zh) * | 2018-03-07 | 2018-09-21 | 浙江大学 | 一种基于全卷积神经网络的大范围遥感影像语义分割方法 |
CN110276343A (zh) * | 2018-03-14 | 2019-09-24 | 沃尔沃汽车公司 | 图像的分割和注释的方法 |
CN110276343B (zh) * | 2018-03-14 | 2023-10-27 | 沃尔沃汽车公司 | 图像的分割和注释的方法 |
CN108573279A (zh) * | 2018-03-19 | 2018-09-25 | 精锐视觉智能科技(深圳)有限公司 | 图像标注方法及终端设备 |
CN108595544A (zh) * | 2018-04-09 | 2018-09-28 | 深源恒际科技有限公司 | 一种文档图片分类方法 |
CN108830466A (zh) * | 2018-05-31 | 2018-11-16 | 长春博立电子科技有限公司 | 一种基于云平台的图像内容语义标注***和方法 |
CN110570434B (zh) * | 2018-06-06 | 2022-09-30 | 杭州海康威视数字技术股份有限公司 | 一种图像分割标注方法和装置 |
CN110570434A (zh) * | 2018-06-06 | 2019-12-13 | 杭州海康威视数字技术股份有限公司 | 一种图像分割标注方法和装置 |
CN108985293A (zh) * | 2018-06-22 | 2018-12-11 | 深源恒际科技有限公司 | 一种基于深度学习的图像自动化标注方法及*** |
CN108985186B (zh) * | 2018-06-27 | 2022-03-01 | 武汉理工大学 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
CN108985186A (zh) * | 2018-06-27 | 2018-12-11 | 武汉理工大学 | 一种基于改进YOLOv2的无人驾驶中行人检测方法 |
CN109255294A (zh) * | 2018-08-02 | 2019-01-22 | 中国地质大学(北京) | 一种基于深度学习的遥感图像云识别方法 |
CN109190631A (zh) * | 2018-08-31 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 图片的目标对象标注方法及装置 |
CN109255044A (zh) * | 2018-08-31 | 2019-01-22 | 江苏大学 | 一种基于YOLOv3深度学习网络的图像智能标注方法 |
CN109284779A (zh) * | 2018-09-04 | 2019-01-29 | 中国人民解放军陆军工程大学 | 基于深度全卷积网络的物体检测方法 |
CN109377509A (zh) * | 2018-09-26 | 2019-02-22 | 深圳前海达闼云端智能科技有限公司 | 图像语义分割标注的方法、装置、存储介质和设备 |
CN109377479B (zh) * | 2018-09-27 | 2021-10-22 | 中国电子科技集团公司第五十四研究所 | 基于遥感影像的蝶形卫星天线目标检测方法 |
CN109377479A (zh) * | 2018-09-27 | 2019-02-22 | 中国电子科技集团公司第五十四研究所 | 基于遥感影像的蝶形卫星天线目标检测方法 |
CN109446369B (zh) * | 2018-09-28 | 2021-10-08 | 武汉中海庭数据技术有限公司 | 图像半自动标注的交互方法及*** |
CN109446369A (zh) * | 2018-09-28 | 2019-03-08 | 武汉中海庭数据技术有限公司 | 图像半自动标注的交互方法及*** |
CN109409248A (zh) * | 2018-09-30 | 2019-03-01 | 上海交通大学 | 基于深度语义网络的语义标注方法、装置及*** |
CN109685870B (zh) * | 2018-11-21 | 2023-10-31 | 北京慧流科技有限公司 | 信息标注方法及装置、标注设备及存储介质 |
CN109685870A (zh) * | 2018-11-21 | 2019-04-26 | 北京慧流科技有限公司 | 信息标注方法及装置、标注设备及存储介质 |
CN109670060A (zh) * | 2018-12-10 | 2019-04-23 | 北京航天泰坦科技股份有限公司 | 一种基于深度学习的遥感影像半自动化标注方法 |
CN111444746A (zh) * | 2019-01-16 | 2020-07-24 | 北京亮亮视野科技有限公司 | 一种基于神经网络模型的信息标注方法 |
CN111444746B (zh) * | 2019-01-16 | 2024-01-30 | 北京亮亮视野科技有限公司 | 一种基于神经网络模型的信息标注方法 |
CN109902765A (zh) * | 2019-03-22 | 2019-06-18 | 北京滴普科技有限公司 | 一种支持人工智能的智能云标记方法 |
CN110110723A (zh) * | 2019-05-07 | 2019-08-09 | 艾瑞迈迪科技石家庄有限公司 | 一种图像中目标区域自动提取的方法及装置 |
CN110298823A (zh) * | 2019-06-17 | 2019-10-01 | 天津大学 | 一种基于mser算法的红外图像辅助标注方法 |
CN110334772A (zh) * | 2019-07-11 | 2019-10-15 | 山东领能电子科技有限公司 | 一种扩充类别式数据快速标注方法 |
CN110674807A (zh) * | 2019-08-06 | 2020-01-10 | 中国科学院信息工程研究所 | 一种基于半监督与弱监督学习的曲形场景文字检测方法 |
CN110866930B (zh) * | 2019-11-18 | 2022-04-12 | 北京云聚智慧科技有限公司 | 语义分割辅助标注方法与装置 |
CN110866930A (zh) * | 2019-11-18 | 2020-03-06 | 北京云聚智慧科技有限公司 | 语义分割辅助标注方法与装置 |
CN111061901A (zh) * | 2019-11-28 | 2020-04-24 | 中国船舶重工集团公司第七0九研究所 | 一种图像智能标注方法、***及图像标注质量分析方法 |
CN113468350A (zh) * | 2020-03-31 | 2021-10-01 | 京东方科技集团股份有限公司 | 一种图像标注方法、装置及*** |
CN111783783A (zh) * | 2020-06-18 | 2020-10-16 | 哈尔滨市科佳通用机电股份有限公司 | 一种用于图像分割的标注***及标注方法 |
CN111783783B (zh) * | 2020-06-18 | 2021-06-04 | 哈尔滨市科佳通用机电股份有限公司 | 一种用于图像分割的标注***及标注方法 |
CN111985394B (zh) * | 2020-08-19 | 2021-05-28 | 东南大学 | Kitti数据集的半自动实例标注方法及*** |
CN111985394A (zh) * | 2020-08-19 | 2020-11-24 | 东南大学 | Kitti数据集的半自动实例标注方法及*** |
CN112308163A (zh) * | 2020-11-09 | 2021-02-02 | 复旦大学 | 一种基于深度学习的脑胶质瘤辅助标注方法及装置 |
CN112381840A (zh) * | 2020-11-27 | 2021-02-19 | 深源恒际科技有限公司 | 一种用于定损视频中车辆外观部件标注的方法及*** |
CN112381840B (zh) * | 2020-11-27 | 2024-07-09 | 深源恒际科技有限公司 | 一种用于定损视频中车辆外观部件标注的方法及*** |
CN112561480A (zh) * | 2020-12-16 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 智能推动工作流方法、设备及计算机存储介质 |
CN113111716A (zh) * | 2021-03-15 | 2021-07-13 | 中国科学院计算机网络信息中心 | 一种基于深度学习的遥感影像半自动标注方法和装置 |
CN113111716B (zh) * | 2021-03-15 | 2023-06-23 | 中国科学院计算机网络信息中心 | 一种基于深度学习的遥感影像半自动标注方法和装置 |
US11429472B1 (en) | 2021-03-26 | 2022-08-30 | International Business Machines Corporation | Automated cognitive software application error detection |
CN112988733A (zh) * | 2021-04-16 | 2021-06-18 | 北京妙医佳健康科技集团有限公司 | 一种数据质量提升和增强的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107153822A (zh) | 一种基于深度学习的半自动图像精标注方法 | |
CN103400151B (zh) | 一体化的光学遥感影像与gis自动配准与水体提取方法 | |
CN104778721B (zh) | 一种双目图像中显著性目标的距离测量方法 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN109389163B (zh) | 一种基于地形图的无人机影像分类***及方法 | |
CN112396128B (zh) | 一种铁路外部环境风险源样本自动标注方法 | |
CN112488046B (zh) | 一种基于无人机高分辨率影像的车道线提取方法 | |
CN105701483A (zh) | 一种融合多光谱遥感数据和夜间灯光遥感数据的城市边界提取方法 | |
CN106934455B (zh) | 基于cnn的遥感影像光学适配结构选取方法及*** | |
CN104598885A (zh) | 街景图像中的文字标牌检测与定位方法 | |
CN103942794A (zh) | 一种基于置信度的图像协同抠图方法 | |
CN111160328B (zh) | 一种基于语义分割技术的交通标线自动提取的方法 | |
CN112613097A (zh) | 一种基于计算机视觉的bim快速化建模方法 | |
CN104299009A (zh) | 基于多特征融合的车牌字符识别方法 | |
CN105574527A (zh) | 一种基于局部特征学习的快速物体检测方法 | |
CN108537782A (zh) | 一种基于轮廓提取的建筑物图像匹配与融合的方法 | |
CN113240623B (zh) | 一种路面病害检测方法及装置 | |
CN112819748B (zh) | 一种带钢表面缺陷识别模型的训练方法及装置 | |
CN111754538B (zh) | Usb表面缺陷检测的阈值分割方法 | |
CN101980317A (zh) | 基于改进c-v模型的遥感图路网提取的交通流量预测方法 | |
CN113409267A (zh) | 一种基于深度学习的路面裂缝检测与分割方法 | |
CN105809673A (zh) | 基于surf算法和合并最大相似区域的视频前景分割方法 | |
CN106228136A (zh) | 基于聚合通道特征的全景街景隐私保护方法 | |
CN107507202A (zh) | 一种面向高分辨率遥感影像的植被环岛自动化提取方法 | |
CN115661072A (zh) | 一种基于改进Faster RCNN算法的圆盘耙片表面缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170912 |
|
WD01 | Invention patent application deemed withdrawn after publication |