CN109544694A - 一种基于深度学习的增强现实***虚实混合建模方法 - Google Patents
一种基于深度学习的增强现实***虚实混合建模方法 Download PDFInfo
- Publication number
- CN109544694A CN109544694A CN201811366602.3A CN201811366602A CN109544694A CN 109544694 A CN109544694 A CN 109544694A CN 201811366602 A CN201811366602 A CN 201811366602A CN 109544694 A CN109544694 A CN 109544694A
- Authority
- CN
- China
- Prior art keywords
- background
- model
- foreground
- actual situation
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims description 20
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 6
- 230000008030 elimination Effects 0.000 claims description 5
- 238000003379 elimination reaction Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 230000007306 turnover Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 239000000284 extract Substances 0.000 abstract description 3
- 230000008859 change Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000009123 feedback regulation Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明请求保护一种基于深度学习的增强现实***虚实混合建模方法,针对增强现实***虚实混合建模问题,该方法首先将相邻帧的虚拟模型视图和实际物体图片有差异的区域全部提取出来,输入的图像首先经过PBAS算法进行检测,完成对前景目标的分割,然后将分割得到的疑似目标区域送入VGGNet‑16模型进行二次判断,将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。利用本发明提出的虚实混合建模方案,既能够大幅度降低算法整体的运算量,有效地降低算法对硬件的需求,又能够充分利用深度卷积神经网络模型VGGNET‑16的高图像分类准确率保证目标检测效果,有效提高建模精确度。
Description
技术领域
本发明属于增强现实技术领域,具体涉及一种基于深度学习的增强现实***虚实混合建模方法。
背景技术
增强现实(Augmented Reality,AR)技术作为一门新兴技术,可将计算机生成的二维或三维虚拟物体与真实场景实时叠加;并利用交互技术实现真实场景与虚拟物体之间的互动,从视听感觉上给人带来超越现实的体验,其通过附加虚拟的数字信息以提升用户与真实环境的交互体验。增强现实的大致流程为:首先在真实场景中定位摄像机位姿,然后采用计算机图形渲染技术将虚拟物体注册到真实场景中生成虚实融合的应用视图。但是由于单摄像机透视关系进行虚实合成的图像不能根据所摄物体深度关系进行识别和优化显示,所合成的虚实结合模型常常存在真实感差,结合较为粗糙等问题。
针对增强现实***虚实混合建模问题,由于现存深度识别配准方法不能满运动目标足较长时间跨度的虚实建模对准,长间隔图像序列会导致帧间背景的较大变化,帧差法、高斯混合模型等方法对背景变化较大时的适应性不足,VIBE方法也采用了恒定的背景更新阈值,均难以用于强现实***虚实混合建模。PBAS算法是近年提出的一种有效运动目标检测方法,其利用了背景建模的方法,背景更新阈值与前景分割阈值都可以随背景复杂度自适应改变,同时对于光照具有一定的鲁棒性。基于深度学习的分类器进行二次判断,可以有效提高建模精确度。本发明融合以上几种方案的优点,提出一种基于深度学习的增强现实***虚实混合建模方法。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种既能够大幅度降低算法整体的运算量,有效地降低算法对硬件的需求,又能够充分利用深度卷积神经网络模型VGGNET-16的高图像分类准确率保证目标检测效果,有效提高建模精确度的基于深度学习的增强现实***虚实混合建模方法。本发明的技术方案如下:
一种基于深度学习的增强现实***虚实混合建模方法,其包括以下步骤:
1)、输入虚拟模型视图和实际物体图像,首先基于目标先验知识对相邻帧的虚拟模型视图和实际物体图片进行了初步筛选,去除掉显著地虚假目标有差异的区域;
2)、完成第一步之后的虚拟模型视图和实际物体图像经过PBAS算法进行检测,完成对前景目标的分割,得到疑似目标区域;其中,PBAS算法中融合了SACON算法的背景建模部分和VIBE算法的前景检测部分;
3)、然后将分割得到的疑似目标区域送入VGGNet-16模型进行二次判断,将判断出的前景图像坐标输出;
4)、结合模型贴图与初始图像,得到虚实混合的模型结果。
进一步的,所述步骤1)是基于目标先验知识对结果进行了初步筛选,去除掉显著虚假目标。
进一步的,所述步骤2)经过PBAS算法进行检测,完成对前景目标的分割,得到疑似目标区域具体包括:
A1、采用类似SACON算法的背景建模方法,收集前N帧像素作为背景建模,得到背景模型;
A2、在步骤A1背景模型下,当前像素属于前景还是背景通过比较当前帧I(xi)与背景模型B(xi)来决定,通过比较样本集合中的像素值与当前帧像素值在颜色空间的欧氏距离,若距离小于距离阈值R(xi)的样本个数比当前帧像素值在颜色空间的欧氏距离样本个数Sdmin少,则判定当前像素点为前景点,否则为背景点;
A3、背景模型的更新和背景复杂度的计算;
A4、前景分割阈值的自适应调整及更新策略;
A5、空洞填充与非目标区域消除步骤。
进一步的,所述步骤A1具体包括:对于每个像素来说,其背景模型表示为:
B(xi)={B1(xi),…,Bk(xi),…,BN(xi)}
其中,xi代表第i帧图像的第一个像素,B(xi)表示第i帧时的背景模型,Bk(xi)代表背景模型B(xi)中的一个样本的像素值,对于彩色图像来说,Bk(xi)=(ri,gi,bi),对应其在RGB空间的值;针对灰度图像,则为灰度值。
进一步的,所述步骤A2的前景检测结果为:
F(xi)为前景图像像素点xi的集合,其中若距离小于距离阈值R(xi)的样本个数比当前帧像素值在颜色空间的欧氏距离样本个数Sdmin少则为前景点,数值为1,否则为背景点,数值为0,dist表示像素点与其在背景模型对应的点在颜色空间上的欧氏距离。
进一步的,所述步骤A3模型的更新和背景复杂度的计算具体包括:
背景模型更新过程中,随机选择需要被替换的样本,随机选择像素邻域的样本集合更新,具体来说前景区域不进行更新,背景区域以当前的背景更新概率随机选取背景模型中的一个样本像素值Bk(xi),与当前像素值I(xi)进行替换,每个背景像素被替换的概率是与此同时,在随机选定的xi的邻域内,再随机选取一个像素点yi,采取相同的方式用当前的像素值V(yi)替换背景像素点Bk(yi);
采用样本集合中样本更新时最小距离的平均值作为背景复杂度的度量,背景复杂度的计算过程如下:构建背景模型B(xi)的同时,也构建一个最小距离模型D(xi):
D(xi)={D1(xi),…,DN(xi)}
当前最小距离值为dmin(xi)=minkdist(I(xi),Bk(xi)),按照以上步骤即可构建出最小距离模型,对应关系为dmin(xi)→Dk(xi),通过最小距离的均值来确定此时背景的复杂程度:N为最小距离样本数。
进一步的,所述步骤A4前景分割阈值的自适应调整及更新策略,具体包括:
R(xi)为前景检测结果,Rinc\dec与Rscale是恒定常数;
背景模型更新速率的自适应调整当前像素点xi为背景点时,更新其对应的背景模型,如果xi的邻域点yi为前景像素点,同样也会发生背景模型的更新,引入参数T(xi)动态控制这一进程的速度,使其在像素点被判定为背景时,更新速率提高,被判定为前景时,更新速率降低;当场景变化比较剧烈的时候,背景复杂度比较高,前景分割比较容易发生误判,此时更新速率的提高或者降低可以适当减慢;反之,场景比较稳定的时候,更新速率的提高或者降低应适当加快,其更新策略具体如下
F(xi)为前景检测结果,Tinc和Tdec分别表示更新率的增加、减小的幅度。
进一步的,所述步骤A5空洞填充与非目标区域消除步骤,具体包括:
首先,使用形态学开运算来进行空洞消除;
提取前景图像上的联通区域的面积,丢弃像素面积小于100的区域;
计算留下的区域的外接矩形的长宽比,将长宽比大于4:3的区域丢弃。
进一步的,所述步骤3)将VGGNET-16模型的输出层分类类别数设置为2,网络其余部分结构保持不变,即解决实景图片及模型图片的两类分类问题,在微调过程中,使用经ImageNet数据集训练的原始VGGNET-16网络模型参数初始化整个调整后的卷积神经网络,然后利用增强现实***采集到的样本对参数进行微调,得到用于二次判断的新的卷积神经网络,若输出的前景图像坐标精度未达标则返回,否则将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。
本发明的优点及有益效果如下:
本发明的目的在于提供一种基于深度学习的增强现实***虚实混合建模方法,针对增强现实***虚实混合建模问题,该方法首先将相邻帧的虚拟模型视图和实际物体图片有差异的区域全部提取出来,输入的图像首先经过PBAS算法进行检测,完成对前景目标的分割,然后将分割得到的疑似目标区域送入VGGNet-16模型进行二次判断,将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。利用本发明提出的虚实混合建模方案,既能够大幅度降低算法整体的运算量,有效地降低算法对硬件的需求,又能够充分利用深度卷积神经网络模型VGGNET-16的高图像分类准确率保证目标检测效果,有效提高建模精确度。
附图说明
图1是本发明提供优选实施例提供的一种基于深度学习的增强现实***虚实混合建模方法流程示意图。
图2是本发明提供的基于PBAS算法的初步检测示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
一种基于深度学习的增强现实***虚实混合建模方法,主要包括以下步骤:
1.图像输入,并且基于目标先验知识对结果进行了初步筛选,去除掉显著地虚假目标。
2.基于PBAS算法的初步检测。采用综合性能较好的PBAS算法进行目标检测,PBAS算法中的背景建模部分借鉴了SACON算法,前景检测部分借鉴了VIBE算法,使得算法能够根据背景的复杂程度自适应地改变背景模型的更新速率以及前景分割的判断阈值,从而适应场景的变化。
1)PBAS算法采用类似SACON算法的背景建模方法,收集前N帧像素作为背景建模,则对于每个像素来说,其背景模型可以表示为:
B(xi)={B1(xi),…,Bk(xi),…,BN(xi)}
其中,xi代表第i帧图像的第一个像素,B(xi)表示第i帧时的背景模型。Bk(xi)代表背景模型B(xi)中的一个样本的像素值。对于彩色图像来说,Bk(xi)=(ri,gi,bi),对应其在RGB空间的值;针对灰度图像,则为灰度值。
2)前一步骤所建立的模型是一种基于采样统计的背景模型,在此类背景模型下,当前像素属于前景还是背景可以通过比较当前帧I(xi)与背景模型B(xi)来决定。通过比较样本集合中的像素值与当前帧像素值在颜色空间的欧氏距离,若距离小于距离阈值R(xi)的样本个数比Sdmin少,则判定当前像素点为前景点,否则为背景点。前景检测结果:
3)模型的更新和背景复杂度的计算。
a)背景模型更新过程中,随机选择需要被替换的样本,随机选择像素邻域的样本集合更新。具体来说前景区域不进行更新,背景区域以当前的背景更新概率随机选取背景模型中的一个样本像素值Bk(xi),与当前像素值I(xi)进行替换。每个背景像素被替换的概率是与此同时,在随机选定的xi的邻域内,再随机选取一个像素点yi,采取相同的方式用当前的像素值V(yi)替换背景像素点Bk(yi)。
b)采用样本集合中样本更新时最小距离的平均值作为背景复杂度的度量。背景复杂度的计算过程如下:构建背景模型B(xi)的同时,也构建一个最小距离模型D(xi):
D(xi)={D1(xi),…,DN(xi)}
当前最小距离值为dmin(xi)=minkdist(I(xi),Bk(xi))。按照以上步骤即可构建出最小距离模型,对应关系为dmin(xi)→Dk(xi)。通过最小距离的均值来确定此时背景的复杂程度:
4)前景分割阈值的自适应调整及更新策略。
a)前景分割阈值的调整过程中,场景变化越剧烈,背景复杂度越高,背景像素点越容易被误判断为前景,所以此时分割阈值应该相应增大,用以保证背景像素不被误判为前景;反之场景越稳定,背景复杂度越低,分割阈值应该越小,用以保证对前景分割完整,具体的调整策略如下:
R(xi)为前景检测结果,Rinc\dec与Rscale是恒定常数。
b)背景模型更新速率的自适应调整当前像素点xi为背景点时,会更新其对应的背景模型,如果xi的邻域点yi为前景像素点,同样也会发生背景模型的更新,这表明长时间静止的前景区域的边缘会逐渐被判断为背景。本算法引入参数T(xi)动态控制这一进程的速度,使其在像素点被判定为背景时,更新速率提高,被判定为前景时,更新速率降低。当场景变化比较剧烈的时候,背景复杂度比较高,前景分割比较容易发生误判,此时更新速率的提高或者降低可以适当减慢;反之,场景比较稳定的时候,更新速率的提高或者降低应适当加快,其更新策略具体如下
F(xi)为前景检测结果,Tinc和Tdec分别表示更新率的增加、减小的幅度。
5)空洞填充与非目标区域消除
经过前景分割处理后,在前景区域可能产生空洞现象,而且原始检测结果也有可能本身存在残缺,这会对检测的精确性产生影响。同时也需要减少送入卷积神经网络进行二次判断的区域数量,进而减少整体计算量。综上所述,需要对于分割出的前景区域进行以下处理:
a)首先,使用形态学开运算来进行空洞消除。本算法采用的是3像素宽度的膨胀与腐蚀;
b)提取前景图像上的联通区域的面积,丢弃像素面积小于100的区域;
c)计算留下的区域的外接矩形的长宽比,将长宽比大于4:3的区域丢弃。以上步骤中的3像素宽度,前景面积区域阈值100与长宽比4:3都是通过反复试验得到。
3.基于深度学习算法的二次分类判断
用上述方法所筛选出来的前景图像坐标中仍然包含大量虚假数据,需要通过分类精度较高的卷积神经网络模型进行进一步分类判断。
对于卷积神经网络进行迁移学习,本发明主要是对于整个卷积神经网络的全部参数或者某一部分层的参数进行微调,修改最后一层的输出类别数并利用目标场景的样本微调VGGNET-16网络模型。
将VGGNET-16模型的输出层分类类别数设置为2,网络其余部分结构保持不变,即解决实景图片及模型图片的两类分类问题。在微调过程中,使用经ImageNet数据集训练的原始VGGNET-16网络模型参数初始化整个调整后的卷积神经网络,然后利用增强现实***采集到的样本对参数进行微调,得到用于二次判断的新的卷积神经网络。
4.若输出的前景图像坐标精度未达标则返回步骤3,否则将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。
具体的,如图1所示,一种基于深度学习的增强现实***虚实混合建模方法具体运行流程如下:
步骤1、图像输入,采用并且基于目标先验知识对结果进行了初步筛选,去除掉显著地虚假目标。
步骤2、基于PBAS算法的初步检测如图2所示。步骤3、基于深度学习算法的二次分类判断。
步骤4、若输出的前景图像坐标精度未达标则返回步骤3,否则将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。
1、本发明针对增强现实***虚实混合建模问题,该方法首先将相邻帧的虚拟模型视图和实际物体图片有差异的区域全部提取出来,输入的图像首先经过PBAS算法进行检测,完成对前景目标的分割,然后将分割得到的疑似目标区域送入VGGNet-16模型进行二次判断,将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。利用本发明提出的虚实混合建模方案,既能够大幅度降低算法整体的运算量,有效地降低算法对硬件的需求,又能够充分利用深度卷积神经网络模型VGGNET-16的高图像分类准确率保证目标检测效果,有效提高建模精确度。
2、采用综合性能较好的PBAS算法进行目标检测,PBAS算法中的背景建模部分借鉴了SACON算法,前景检测部分借鉴了VIBE算法,使得算法能够根据背景的复杂程度自适应地改变背景模型的更新速率以及前景分割的判断阈值,从而适应场景的变化。特别地,PBAS算法采用类似SACON算法的背景建模方法,收集前N帧像素作为背景建模,则对于每个像素来说,其背景模型可以表示为:
B(xi)={B1(xi),…,Bk(xi),…,BN(xi)}
3、通过比较样本集合中的像素值与当前帧像素值在颜色空间的欧氏距离,若距离小于距离阈值R(xi)的样本个数比Sdmin少,则判定当前像素点为前景点,否则为背景点。前景检测结果:
4、前景区域不进行更新,背景区域以当前的背景更新概率随机选取背景模型中的一个样本像素值Bk(xi),与当前像素值I(xi)进行替换。每个背景像素被替换的概率是与此同时,在随机选定的xi的邻域内,再随机选取一个像素点yi,采取相同的方式用当前的像素值V(yi)替换背景像素点Bk(yi)。
5、构建背景模型B(xi)的同时,也构建一个最小距离模型D(xi):
D(xi)={D1(xi),…,DN(xi)}
6、前景分割阈值的自适应调整策略如下:
7、更新策略具体如下
8、空洞填充与非目标区域消除中对于分割出的前景区域进行以下处理:
a)首先,使用形态学开运算来进行空洞消除。本算法采用的是3像素宽度的膨胀与腐蚀;
b)提取前景图像上的联通区域的面积,丢弃像素面积小于100的区域;
c)计算留下的区域的外接矩形的长宽比,将长宽比大于4:3的区域丢弃。以上步骤中的3像素宽度,前景面积区域阈值100与长宽比4:3都是通过反复试验得到。
9、将VGGNET-16模型的输出层分类类别数设置为2,网络其余部分结构保持不变,即解决实景图片及模型图片的两类分类问题。在微调过程中,使用经ImageNet数据集训练的原始VGGNET-16网络模型参数初始化整个调整后的卷积神经网络,然后利用增强现实***采集到的样本对参数进行微调,得到用于二次判断的新的卷积神经网络。
10、若输出的前景图像坐标精度未达标则返回上一步骤,否则将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。达到了良好的反馈调节作用。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (9)
1.一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,包括以下步骤:
1)、输入虚拟模型视图和实际物体图像,首先基于目标先验知识对相邻帧的虚拟模型视图和实际物体图片进行了初步筛选,去除掉显著地虚假目标有差异的区域;
2)、完成第一步之后的虚拟模型视图和实际物体图像经过PBAS算法进行检测,完成对前景目标的分割,得到疑似目标区域;其中,PBAS算法中融合了SACON算法的背景建模部分和VIBE算法的前景检测部分;
3)、然后将分割得到的疑似目标区域送入VGGNet-16模型进行二次判断,将判断出的前景图像坐标输出;
4)、结合模型贴图与初始图像,得到虚实混合的模型结果。
2.根据权利要求1所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤1)是基于目标先验知识对结果进行了初步筛选,去除掉显著虚假目标。
3.根据权利要求1所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤2)经过PBAS算法进行检测,完成对前景目标的分割,得到疑似目标区域具体包括:
A1、采用类似SACON算法的背景建模方法,收集前N帧像素作为背景建模,得到背景模型;
A2、在步骤A1背景模型下,当前像素属于前景还是背景通过比较当前帧I(xi)与背景模型B(xi)来决定,通过比较样本集合中的像素值与当前帧像素值在颜色空间的欧氏距离,若距离小于距离阈值R(xi)的样本个数比当前帧像素值在颜色空间的欧氏距离样本个数Sdmin少,则判定当前像素点为前景点,否则为背景点;
A3、背景模型的更新和背景复杂度的计算;
A4、前景分割阈值的自适应调整及更新策略;
A5、空洞填充与非目标区域消除步骤。
4.根据权利要求3所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤A1具体包括:对于每个像素来说,其背景模型表示为:
B(xi)={B1(xi),…,Bk(xi),…,BN(xi)}
其中,xi代表第i帧图像的第一个像素,B(xi)表示第i帧时的背景模型,Bk(xi)代表背景模型B(xi)中的一个样本的像素值,对于彩色图像来说,Bk(xi)=(ri,gi,bi),对应其在RGB空间的值;针对灰度图像,则为灰度值。
5.根据权利要求4所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤A2的前景检测结果为:
F(xi)为前景图像像素点xi的集合,其中若距离小于距离阈值R(xi)的样本个数比当前帧像素值在颜色空间的欧氏距离样本个数Sdmin少则为前景点,数值为1,否则为背景点,数值为0,dist表示像素点与其在背景模型对应的点在颜色空间上的欧氏距离。
6.根据权利要求5所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤A3模型的更新和背景复杂度的计算具体包括:
背景模型更新过程中,随机选择需要被替换的样本,随机选择像素邻域的样本集合更新,具体来说前景区域不进行更新,背景区域以当前的背景更新概率随机选取背景模型中的一个样本像素值Bk(xi),与当前像素值I(xi)进行替换,每个背景像素被替换的概率是与此同时,在随机选定的xi的邻域内,再随机选取一个像素点yi,采取相同的方式用当前的像素值V(yi)替换背景像素点Bk(yi);
采用样本集合中样本更新时最小距离的平均值作为背景复杂度的度量,背景复杂度的计算过程如下:构建背景模型B(xi)的同时,也构建一个最小距离模型D(xi):
D(xi)={D1(xi),…,DN(xi)}
当前最小距离值为dmin(xi)=minkdist(I(xi),Bk(xi)),按照以上步骤即可构建出最小距离模型,对应关系为dmin(xi)→Dk(xi),通过最小距离的均值来确定此时背景的复杂程度:N为最小距离样本数。
7.根据权利要求6所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤A4前景分割阈值的自适应调整及更新策略,具体包括:
R(xi)为前景检测结果,Rinc\dec与Rscale是恒定常数;
背景模型更新速率的自适应调整当前像素点xi为背景点时,更新其对应的背景模型,如果xi的邻域点yi为前景像素点,同样也会发生背景模型的更新,引入参数T(xi)动态控制这一进程的速度,使其在像素点被判定为背景时,更新速率提高,被判定为前景时,更新速率降低;当场景变化比较剧烈的时候,背景复杂度比较高,前景分割比较容易发生误判,此时更新速率的提高或者降低可以适当减慢;反之,场景比较稳定的时候,更新速率的提高或者降低应适当加快,其更新策略具体如下
F(xi)为前景检测结果,Tinc和Tdec分别表示更新率的增加、减小的幅度。
8.根据权利要求7所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤A5空洞填充与非目标区域消除步骤,具体包括:
首先,使用形态学开运算来进行空洞消除;
提取前景图像上的联通区域的面积,丢弃像素面积小于100的区域;
计算留下的区域的外接矩形的长宽比,将长宽比大于4:3的区域丢弃。
9.根据权利要求6所述的一种基于深度学习的增强现实***虚实混合建模方法,其特征在于,所述步骤3)将VGGNET-16模型的输出层分类类别数设置为2,网络其余部分结构保持不变,即解决实景图片及模型图片的两类分类问题,在微调过程中,使用经ImageNet数据集训练的原始VGGNET-16网络模型参数初始化整个调整后的卷积神经网络,然后利用增强现实***采集到的样本对参数进行微调,得到用于二次判断的新的卷积神经网络,若输出的前景图像坐标精度未达标则返回,否则将判断出的前景图像坐标输出,结合模型贴图与初始图像,得到虚实混合的模型结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811366602.3A CN109544694A (zh) | 2018-11-16 | 2018-11-16 | 一种基于深度学习的增强现实***虚实混合建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811366602.3A CN109544694A (zh) | 2018-11-16 | 2018-11-16 | 一种基于深度学习的增强现实***虚实混合建模方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109544694A true CN109544694A (zh) | 2019-03-29 |
Family
ID=65848028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811366602.3A Pending CN109544694A (zh) | 2018-11-16 | 2018-11-16 | 一种基于深度学习的增强现实***虚实混合建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544694A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110503664A (zh) * | 2019-08-07 | 2019-11-26 | 江苏大学 | 一种基于改进的局部自适应灵敏度背景建模方法 |
CN110888535A (zh) * | 2019-12-05 | 2020-03-17 | 上海工程技术大学 | 一种可以提高现场真实感的ar*** |
CN111178291A (zh) * | 2019-12-31 | 2020-05-19 | 北京筑梦园科技有限公司 | 一种停车支付***以及停车支付方法 |
CN112003999A (zh) * | 2020-09-15 | 2020-11-27 | 东北大学 | 基于Unity 3D的三维虚拟现实合成算法 |
CN112101232A (zh) * | 2020-09-16 | 2020-12-18 | 国网上海市电力公司 | 一种基于多分类器的火焰检测方法 |
CN114327341A (zh) * | 2021-12-31 | 2022-04-12 | 江苏龙冠影视文化科技有限公司 | 远程交互式虚拟展示*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020084974A1 (en) * | 1997-09-01 | 2002-07-04 | Toshikazu Ohshima | Apparatus for presenting mixed reality shared among operators |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
WO2015144209A1 (en) * | 2014-03-25 | 2015-10-01 | Metaio Gmbh | Method and system for representing a virtual object in a view of a real environment |
US20170361216A1 (en) * | 2015-03-26 | 2017-12-21 | Bei Jing Xiao Xiao Niu Creative Technologies Ltd. | Method and system incorporating real environment for virtuality and reality combined interaction |
-
2018
- 2018-11-16 CN CN201811366602.3A patent/CN109544694A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020084974A1 (en) * | 1997-09-01 | 2002-07-04 | Toshikazu Ohshima | Apparatus for presenting mixed reality shared among operators |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
WO2015144209A1 (en) * | 2014-03-25 | 2015-10-01 | Metaio Gmbh | Method and system for representing a virtual object in a view of a real environment |
US20170361216A1 (en) * | 2015-03-26 | 2017-12-21 | Bei Jing Xiao Xiao Niu Creative Technologies Ltd. | Method and system incorporating real environment for virtuality and reality combined interaction |
Non-Patent Citations (3)
Title |
---|
万剑等: "自适应邻域相关性的背景建模", 《中国图象图形学报》 * |
侯畅等: "基于深度编解码网络的运动目标检测算法", 《计算机***应用》 * |
闫春江等: "基于深度学习的输电线路工程车辆入侵检测", 《信息技术》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110503664A (zh) * | 2019-08-07 | 2019-11-26 | 江苏大学 | 一种基于改进的局部自适应灵敏度背景建模方法 |
CN110888535A (zh) * | 2019-12-05 | 2020-03-17 | 上海工程技术大学 | 一种可以提高现场真实感的ar*** |
CN111178291A (zh) * | 2019-12-31 | 2020-05-19 | 北京筑梦园科技有限公司 | 一种停车支付***以及停车支付方法 |
CN112003999A (zh) * | 2020-09-15 | 2020-11-27 | 东北大学 | 基于Unity 3D的三维虚拟现实合成算法 |
CN112101232A (zh) * | 2020-09-16 | 2020-12-18 | 国网上海市电力公司 | 一种基于多分类器的火焰检测方法 |
CN114327341A (zh) * | 2021-12-31 | 2022-04-12 | 江苏龙冠影视文化科技有限公司 | 远程交互式虚拟展示*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544694A (zh) | 一种基于深度学习的增强现实***虚实混合建模方法 | |
CN104392468B (zh) | 基于改进视觉背景提取的运动目标检测方法 | |
CN109460754B (zh) | 一种水面异物检测方法、装置、设备及存储介质 | |
CN103577793B (zh) | 手势识别方法及装置 | |
CN110119728A (zh) | 基于多尺度融合语义分割网络的遥感图像云检测方法 | |
CN105894484B (zh) | 一种基于直方图归一化与超像素分割的hdr重建算法 | |
CN111539273A (zh) | 一种交通视频背景建模方法及*** | |
CN111553837B (zh) | 一种基于神经风格迁移的艺术文本图像生成方法 | |
CN108364272A (zh) | 一种高性能红外-可见光融合探测方法 | |
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及*** | |
CN101371273A (zh) | 视频序列的分割 | |
CN111462027B (zh) | 基于多尺度梯度和抠图的多聚焦图像融合方法 | |
CN107730526A (zh) | 一种鱼群数量的统计方法 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN108564120A (zh) | 基于深度神经网络的特征点提取方法 | |
CN110766058A (zh) | 一种基于优化rpn网络的战场目标检测方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN111161313A (zh) | 一种视频流中的多目标追踪方法及装置 | |
CN110633727A (zh) | 基于选择性搜索的深度神经网络舰船目标细粒度识别方法 | |
CN112686276A (zh) | 一种基于改进RetinaNet网络的火焰检测方法 | |
CN107578039A (zh) | 基于数字图像处理技术的字迹轮廓比对方法 | |
Liu et al. | Image edge recognition of virtual reality scene based on multi-operator dynamic weight detection | |
CN114241372A (zh) | 一种应用于扇扫拼接的目标识别方法 | |
CN102074017A (zh) | 一种杠铃中心点检测及跟踪的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190329 |
|
RJ01 | Rejection of invention patent application after publication |