CN111783673A - 一种基于osvos的视频分割改进方法 - Google Patents
一种基于osvos的视频分割改进方法 Download PDFInfo
- Publication number
- CN111783673A CN111783673A CN202010628270.2A CN202010628270A CN111783673A CN 111783673 A CN111783673 A CN 111783673A CN 202010628270 A CN202010628270 A CN 202010628270A CN 111783673 A CN111783673 A CN 111783673A
- Authority
- CN
- China
- Prior art keywords
- similarity
- image
- color
- osvos
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
针对OSVOS中因光照、颜色等因素造成的分割目标缺失,目标标记不精确的问题,提出了一种基于OSVOS的视频分割改进方法,在形态学的理论下,通过计算出视频图像的颜色分量并将其与标准库进行对比,分为光强光弱两种情况。同时通过计算颜色相似度,将其与阈值相比较后分为相似和不相似两种情况,两种影响因素对应四种情况,再对这四种情况采用不同的处理方法,包括对OSVOS的分割结果的目标缺失部分进行孔洞填充,并去除非目标的连通区域等,从而提高分割结果的质量和准确度。
Description
技术领域
本发明涉及计算机视觉领域以及底层的视频分割技术,具体涉及一种基于OSVOS的视频分割改进方法。
背景技术
深度学习的发展促进了计算机视觉的发展,并成功提高了相关应用如目标识别、视频检测、视频分割等的发展,尤其是视频分割技术。视频分割在人们日常生活中被广泛应用于医学影像、智能交通管理、网络教育、视频监控等领域。同时神经网络的发展进一步提高目标分割技术的性能。视频分割技术大致可分为两类,根据初始化方式的不同,分为半监督和无监督的分割方法。半监督分割指的是标记第一帧或若干帧,并在视频帧序列中传递目标标记,经典算法有OSVOS,MaskTrack等。无监督分割则无需人工操作,根据视频序列本身的特征属性完成目标的分割,经典算法有同时考虑视频分割和光流估计的VSVOF(videosegmentation via object flow)算法等。根据使用方法的不同,分为传统方法和深度学习方法。在本发明中,我们主要工作是提高半监督的视频分割方法OSVOS的分割性能,在一定程度上降低其受光照色彩等因素的影响。
OSVOS是一种基于全卷积神经网络,对目标对象进行分割的算法。OSVOS将视频当做静止的图像进行一帧一帧的单独分割这一特点决定了它在光照正常,目标与背景色差明显的情况下能够完成很好的分割,但当光线过强时,会出现大范围颜色失真,局部出现亮斑;当光线过弱时,整体会偏暗,导致目标对象与背景模糊,易产生部分区域缺失。另一方面,当目标对象的颜色与背景图像的颜色相近时,OSVOS算法会误将部分背景图像判断为目标,从而使结果图多出了非目标连通区域,这些情况都会造成分割质量的下降。
发明内容
针对上述情况,本发明提出一种改进方法,在形态学的理论下,判断出视频图像所存在的问题,对OSVOS的分割结果的目标缺失部分进行孔洞填充,并去除非目标的连通区域,从而提高分割结果的质量和准确度。
一种基于OSVOS的视频分割改进方法,包括如下方法:
步骤1,对视频帧图像进行光照强度判断,色彩相似度分析的预处理;
步骤2,将视频帧图像按光照强度以及色彩相似度的情况进行归类,并根据情况类型进入后续步骤进行后续处理;
步骤3,输入视频帧图像及其标记图,执行OSVOS算法,输出二值图;
步骤4,基于二值图判断并删除非目标连通区域,输出处理后的图像;
步骤5,对图像执行基于孔洞算法的目标缺失区域填充,得到处理后的图像。
进一步地,步骤1中,根据两种不同的光照情况,建立对应的光照强度类型的标准库,即拍摄n组光强条件下的视频和n组光弱条件下的视频,分别计算两类视频的颜色特征值分量平均值(Rq,Gq,Bq)和(Rr,Gr,Br)作为标准数据,之后计算出视频帧图像的颜色特征分量(Rs,Gs,Bs),通过最小欧氏距离法分别计算出该视频帧图像颜色特征值分量与(Rq,Gq,Bq),(Rr,Gr,Br)的欧式距离d1,d2,若d1<d2,则为光强情况,若d1>d2,则为光弱的情况。
进一步地,步骤1中,设输入的视频帧中选定的目标对象的平均颜色为(R1,G1,B1),设输入的视频帧中除去目标对象后的背景的平均颜色为(R2,G2,B2),根据下列公式计算出(R0,G0,B0):
上面式子得到的(R0,G0,B0)是计算相似度s的必要条件;相似度s是判断两组颜色相似程度的一个参数,相似度s的取值范围是0≤s<1,s最大值为1,证明两组色彩完全一致,相似度越小,证明颜色越不相近;如果相似度大于百分之50,即相似度s大于0.5,则定义为相似,其他情况则定义为不相似;
相似度的计算公式如下:
进一步地,步骤2具体如下:
如果光强且色彩相近,则依次进入步骤3和步骤4,步骤4执行后结束并输出最终分割结果;
如果光强且色彩不相近,则进入步骤3,步骤3执行后结束并输出最终分割结果;
如果光弱且色彩相近,则依次进入步骤3、步骤4和步骤5,步骤5执行后结束并输出最终分割结果;
如果光弱且色彩不相近,则依次进入步骤3和步骤5,步骤5执行后结束并输出最终分割结果。
进一步地,步骤4中,基于步骤3得到的二值图,通过二值图与其图像质心之间的距离进行判断连通域的个数,之后生成一个与连通域个数相同的空数组来记录需要删除的区域,计算各个区域的面积,将面积从大到小排序,再找出连通域的各种属性,进行比较,最后保留面积最大的连通图,其他区域全部删除。
进一步地,步骤5中,步骤5具体操作如下:
步骤5-1,判断视频帧图像左上角第一个像素点[0,0]是否属于目标缺失区域,若不是则可将此像素点作为初始种子点,执行步骤5-3;若[0,0]像素点属于目标缺失区域,则执行步骤5-2;
步骤5-2,若判断出[0,0]像素点属于目标缺失区域,则采用扩充图像的方法,在原图像的上下左右分别增加一行或一列像素,使原图像尺寸产生相应变化:
将增加的像素左上角第一个像素点[0,0]作为种子点,进入步骤5-3;
步骤5-3,以种子点为起点,在其上下左右四个方向进行膨胀操作,膨胀是将与该像素点接触的所有非目标缺失区域合并在一起,使边界向外部扩张,将非目标缺失区域全部填充完;
步骤5-4,非目标缺失区域填充结束后,对步骤5-3得到的二值图像取反得到新的二值图像;
步骤5-5,将步骤5-3得到的二值图像与原二值图像相融合得到填充目标缺失区域的结果;
步骤5-6,得到处理后的图像。
本发明达到的有益效果为:提出一种改进方法,在形态学的理论下,判断出视频图像所存在的问题,对OSVOS的分割结果的目标缺失部分进行孔洞填充,并去除非目标的连通区域,从而提高分割结果的质量和准确度。
附图说明
图1是本发明实施例中所述方法的整体实现流程图。
图2是本发明实施例中步骤5的算法流程图。
图3是本发明实施例中视频中的一帧进行OSVOS算法后的分割结果示意图。
图4是本发明实施例中采用本方法后的分割结果。
图5是本发明实施例中孔洞及非目标连通区域的标识图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
本发明方法的总体流程图如图1所示。具体实施步骤如下:
步骤1,计算行驶汽车第一帧的颜色特征分量平均值标准值,将视频帧图像进行光照强度,色彩相似度分析等预处理。
RGB颜色空间模型是众多颜色模型中最具代表性的颜色模型,其中R,G,B分别代表颜色空间红色、绿色和蓝色数值。通过分析图像的颜色特征,可以发现在不同的光照条件下,R,G,B这些颜色分量会产生明显变化。R,G,B颜色分量计算公式如下:
根据两种不同的光照情况,建立对应的光照类型(光强和光弱)的标准库,即拍摄n组光强条件下的视频和n组光弱条件下的视频,分别计算两类视频的颜色特征值分量平均值(Rq,Gq,Bq)和(Rr,Gr,Br)作为标准数据。之后计算出视频帧图像的颜色特征分量(Rs,Gs,Bs),通过最小欧氏距离法分别计算出该视频帧图像颜色特征值分量与(Rq,Gq,Bq),(Rr,Gr,Br)的欧式距离d1,d2,若d1<d2,则为光强情况,若d1>d2,则为光弱的情况。
设目标对象的平均颜色为(R1,G1,B1),设背景的平均颜色为(R2,G2,B2),然后根据下列公式计算出(R0,G0,B0):
上面式子得到的(R0,G0,B0)是计算相似度s的必要条件。相似度s是判断两组颜色相似程度的一个参数,相似度s的取值范围是0≤s<1,s最大值为1,证明两组色彩完全一致,相似度越小,证明颜色越不相近。如果相似度大于百分之50,即相似度s大于0.5,则定义为相似,其他情况则定义为不相似。
相似度的计算公式如下:
计算出s=0.745>0.5,判断为颜色相似。
步骤2,根据步骤1,发现汽车行驶视频属于光弱且色彩相近的情况,采用发明说明中的第三种情况,即如果光弱且色彩相近,则进入步骤3,步骤4,步骤5,完成执行步骤。
步骤3,执行OSVOS算法。配置好相关环境,输入视频帧图像及其标记图,执行OSVOS算法,输出二值图。
步骤4,删除非目标连通区域。基于步骤3得到的二值图,通过图像与质心之间的距离进行判断连通域的个数,之后生成一个与连通域个数相同的空数组来记录需要删除的区域,计算各个区域的面积,将面积从大到小排序,再找出连通域的各种属性,进行比较,最后保留面积最大的连通图,其他区域全部删除;。
步骤5,基于孔洞算法执行目标缺失区域填充,具体操作如下:方法判断出,汽车行驶的左上角的第一个像素点[0,0]不属于目标缺失区域。将此像素点作为初始种子点。以种子点为起点,之后使用形态学膨胀算法,此次膨胀采取四连通结构元,即膨胀方向为该像素点的上下左右四个方向,该步骤可以将非目标缺失区域全部填充完。非目标缺失区域填充结束后,对得到的二值图像取反得到新的二值图像。将新的二值图像与原二值图像相融合得到填充目标缺失区域的结果,最后得到处理后的结果。
图3为OSVOS处理后的结果,图4为采用本方法后得到的行驶车的结果中的某一帧。实践表明,通过以上5个步骤可以解决OSVOS算法在光照强度,色彩差异造成的视频分割结果与正确标注有较大差距的问题,提高了视频分割的的正确率,改善了分割效果。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。
Claims (6)
1.一种基于OSVOS的视频分割改进方法,其特征在于:包括如下方法:
步骤1,对视频帧图像进行光照强度判断,色彩相似度分析的预处理;
步骤2,将视频帧图像按光照强度以及色彩相似度的情况进行归类,并根据情况类型进入后续步骤进行后续处理;
步骤3,输入视频帧图像及其标记图,执行OSVOS算法,输出二值图;
步骤4,基于二值图判断并删除非目标连通区域,输出处理后的图像;
步骤5,对图像执行基于孔洞算法的目标缺失区域填充,得到处理后的图像。
2.根据权利要求1所述的一种基于OSVOS的视频分割改进方法,其特征在于:步骤1中,根据两种不同的光照情况,建立对应的光照强度类型的标准库,即拍摄n组光强条件下的视频和n组光弱条件下的视频,分别计算两类视频的颜色特征值分量平均值(Rq,Gq,Bq)和(Rr,Gr,Br)作为标准数据,之后计算出视频帧图像的颜色特征分量(Rs,Gs,Bs),通过最小欧氏距离法分别计算出该视频帧图像颜色特征值分量与(Rq,Gq,Bq),(Rr,Gr,Br)的欧式距离d1,d2,若d1<d2,则为光强情况,若d1>d2,则为光弱的情况。
4.根据权利要求1所述的一种基于OSVOS的视频分割改进方法,其特征在于:步骤2具体如下:
如果光强且色彩相近,则依次进入步骤3和步骤4,步骤4执行后结束并输出最终分割结果;
如果光强且色彩不相近,则进入步骤3,步骤3执行后结束并输出最终分割结果;
如果光弱且色彩相近,则依次进入步骤3、步骤4和步骤5,步骤5执行后结束并输出最终分割结果;
如果光弱且色彩不相近,则依次进入步骤3和步骤5,步骤5执行后结束并输出最终分割结果。
5.根据权利要求1所述的一种基于OSVOS的视频分割改进方法,其特征在于:步骤4中,基于步骤3得到的二值图,通过二值图与其图像质心之间的距离进行判断连通域的个数,之后生成一个与连通域个数相同的空数组来记录需要删除的区域,计算各个区域的面积,将面积从大到小排序,再找出连通域的各种属性,进行比较,最后保留面积最大的连通图,其他区域全部删除。
6.根据权利要求1所述的一种基于OSVOS的视频分割改进方法,其特征在于:步骤5中,步骤5具体操作如下:
步骤5-1,判断视频帧图像左上角第一个像素点[0,0]是否属于目标缺失区域,若不是则可将此像素点作为初始种子点,执行步骤5-3;若[0,0]像素点属于目标缺失区域,则执行步骤5-2;
步骤5-2,若判断出[0,0]像素点属于目标缺失区域,则采用扩充图像的方法,在原图像的上下左右分别增加一行或一列像素,使原图像尺寸产生相应变化:
将增加的像素左上角第一个像素点[0,0]作为种子点,进入步骤5-3;
步骤5-3,以种子点为起点,在其上下左右四个方向进行膨胀操作,膨胀是将与该像素点接触的所有非目标缺失区域合并在一起,使边界向外部扩张,将非目标缺失区域全部填充完;
步骤5-4,非目标缺失区域填充结束后,对步骤5-3得到的二值图像取反得到新的二值图像;
步骤5-5,将步骤5-3得到的二值图像与原二值图像相融合得到填充目标缺失区域的结果;
步骤5-6,得到处理后的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010628270.2A CN111783673B (zh) | 2020-07-02 | 2020-07-02 | 一种基于osvos的视频分割改进方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010628270.2A CN111783673B (zh) | 2020-07-02 | 2020-07-02 | 一种基于osvos的视频分割改进方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783673A true CN111783673A (zh) | 2020-10-16 |
CN111783673B CN111783673B (zh) | 2022-07-26 |
Family
ID=72758106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010628270.2A Active CN111783673B (zh) | 2020-07-02 | 2020-07-02 | 一种基于osvos的视频分割改进方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783673B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888655A (zh) * | 2021-09-27 | 2022-01-04 | 广域铭岛数字科技有限公司 | 一种色差预警方法、***、电子设备及介质 |
CN115482216A (zh) * | 2022-09-20 | 2022-12-16 | 河南大学第一附属医院 | 一种腹腔镜图像增强方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385753A (zh) * | 2011-11-17 | 2012-03-21 | 江苏大学 | 一种基于光照分类的自适应图像分割方法 |
CN106997599A (zh) * | 2017-04-17 | 2017-08-01 | 华东理工大学 | 一种光照敏感的视频运动目标分割方法 |
-
2020
- 2020-07-02 CN CN202010628270.2A patent/CN111783673B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385753A (zh) * | 2011-11-17 | 2012-03-21 | 江苏大学 | 一种基于光照分类的自适应图像分割方法 |
CN106997599A (zh) * | 2017-04-17 | 2017-08-01 | 华东理工大学 | 一种光照敏感的视频运动目标分割方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888655A (zh) * | 2021-09-27 | 2022-01-04 | 广域铭岛数字科技有限公司 | 一种色差预警方法、***、电子设备及介质 |
CN115482216A (zh) * | 2022-09-20 | 2022-12-16 | 河南大学第一附属医院 | 一种腹腔镜图像增强方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN111783673B (zh) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107578035B (zh) | 基于超像素-多色彩空间的人体轮廓提取方法 | |
US6766055B2 (en) | Method of extracting image from input image using reference image | |
CN113160192B (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
US8280165B2 (en) | System and method for segmenting foreground and background in a video | |
CN113658132B (zh) | 基于计算机视觉的结构件焊缝检测方法 | |
CN111340824B (zh) | 一种基于数据挖掘的图像特征分割方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN111310768B (zh) | 基于鲁棒性背景先验和全局信息的显著性目标检测方法 | |
CN111783673B (zh) | 一种基于osvos的视频分割改进方法 | |
CN112750106A (zh) | 一种基于非完备标记的深度学习的核染色细胞计数方法、计算机设备、存储介质 | |
WO2020038312A1 (zh) | 多通道舌体边缘检测装置、方法及存储介质 | |
CN109740553B (zh) | 一种基于识别的图像语义分割数据筛选方法及*** | |
Zhu et al. | Automatic object detection and segmentation from underwater images via saliency-based region merging | |
CN117611590A (zh) | 一种缺陷轮廓复合检测方法、装置、设备及存储介质 | |
CN112446417B (zh) | 基于多层超像素分割的纺锤形果实图像分割方法及*** | |
CN111046866B (zh) | 一种结合ctpn和svm的人民币冠字号区域检测方法 | |
CN112348762A (zh) | 一种基于多尺度融合生成对抗网络的单幅图像去雨方法 | |
CN109241865B (zh) | 一种弱对比度交通场景下的车辆检测分割算法 | |
CN110599518B (zh) | 一种基于视觉显著度的超像素分割与条件数分块的目标跟踪方法 | |
CN109086774B (zh) | 基于朴素贝叶斯的彩色图像二值化方法和*** | |
CN112949389A (zh) | 一种基于改进目标检测网络的雾霾图像目标检测方法 | |
CN112712541A (zh) | 一种图像形状描述子生成方法 | |
CN110599517A (zh) | 一种基于局部特征和全局hsv特征组合的目标特征描述方法 | |
CN117934973B (zh) | 智能摄像机图像处理方法、装置、设备及存储介质 | |
CN113850827B (zh) | 地线与水平铁磨损导致断股图像检测处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |