CN112822470A - 基于人体图像跟踪的投影互动***及方法 - Google Patents
基于人体图像跟踪的投影互动***及方法 Download PDFInfo
- Publication number
- CN112822470A CN112822470A CN202011639843.8A CN202011639843A CN112822470A CN 112822470 A CN112822470 A CN 112822470A CN 202011639843 A CN202011639843 A CN 202011639843A CN 112822470 A CN112822470 A CN 112822470A
- Authority
- CN
- China
- Prior art keywords
- image
- characteristic curve
- human body
- target human
- image characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像处理技术领域,具体涉及基于人体图像跟踪的投影互动***及方法。***包括:实时图像获取装置,配置用于获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,持续获取目标人体图像;图像去噪装置,配置用于对实时获取的目标人体图像进行图像去噪,获得去噪图像。其利用实时跟踪目标人体图像,在目标人体图像进行移动后也能跟随移动,然后对目标人体图像进行图像去噪后,进行图像合成,再进行投影,其实现了对运动目标的投影,具有投影效果好,智能化程度高和投影图像质量高的优点。
Description
技术领域
本发明属于图像处理技术领域,具体涉及基于人体图像跟踪的投影互动***及方法。
背景技术
“图像跟踪”技术,是指通过某种方式(如图像识别、红外、超声波等)将摄像头中拍摄到的物体进行定位,狭义的“图像跟踪”技术就是我们日常所常谈到的,通过“图像识别”的方式来进行跟踪和拍摄。
投影***即将物体照明后成像于投影屏上的光学***,该***基于动作跟踪技术,适合任何投影机,液晶屏,LED大屏幕,等离子,数字视频墙等。投影***将互动参与者的动作转换成图形图像互动反馈。自带实用的24套互动效果和可定制的高分辨率内容,并且可以实现同行业中无与伦比的投影面积以此来满足不同用户的互动需求。简而言之,互动投影***通过创建身临其境的互动体验,让用户感受前所未有的流畅互动体验。
专利号为CN201310249924.0A的专利公开了投影机及其控制方法、图像显示***。提供能够简易地校正相互组合的多个投影图像彼此间的偏离的技术。当第1投影机在投影屏幕投影显示有测定图形时,第2投影机相对于投影屏幕投影显示测定图形。第2投影机通过拍摄部取得拍摄到2个测定图形的投影图像的拍摄图像,并根据拍摄图像对示出于测定图形的测定点的坐标进行检测。第2投影机基于该坐标,以使得第1投影机的投影图像和自身的投影图像成为预期的关系的方式对作为投影对象的图像进行校正。
其通过获取多个投影图像,以在堆叠投影中,使形成的投影图像的像质提高,使多个投影图像彼此以高的精度重合,但其无法针对移动图像进行图像跟踪和投影。
发明内容
有鉴于此,本发明的主要目的在于提供基于人体图像跟踪的投影互动***及方法,其利用实时跟踪目标人体图像,在目标人体图像进行移动后也能跟随移动,然后对目标人体图像进行图像去噪后,进行图像合成,再进行投影,其实现了对运动目标的投影,具有投影效果好,智能化程度高和投影图像质量高的优点。
为达到上述目的,本发明的技术方案是这样实现的:
基于人体图像跟踪的投影互动***,所述***包括:实时图像获取装置,配置用于获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;图像去噪装置,配置用于对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;图像合成装置,配置用于基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
进一步的,所述实时图像获取装置包括:目标监测单元,用于在由通过连续地对目标人体进行成像获得的图像数据所表示的目标人体图像的监测区域内,监测被跟踪的目标人体;监测区域更新单元,响应于所述目标监测单元监测到目标,用于以监测到的目标将占据监测区域的中心的方式来更新监测区域;移动监测单元,响应于所述目标监测单元不再监测到目标,用于监测在其中不再监测到目标的整个目标人体图像的移动的幅度和方向;监测区域设置单元,如果所述移动监测单元所监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域;以及控制单元,用于控制所述目标监测单元、所述监测区域更新单元、所述移动监测单元、以及所述监测区域设置单元,以重复用于监测目标的处理、用于更新监测区域的处理、用于监测移动的幅度和方向的处理、以及用于设置监测区域的处理。
进一步的,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
进一步的,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
进一步的,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为:由此计算得到图像特征曲线级差:图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
一种基于人体图像跟踪的投影互动方法,所述方法执行以下步骤:步骤1:获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;步骤2:对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;步骤3:基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
进一步的,所述步骤2中将合成后的立体图像进行投影时,将以每秒一幅图像的时间间隔进行投影。
进一步的,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
进一步的,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
进一步的,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为:由此计算得到图像特征曲线级差:图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
本发明的基于人体图像跟踪的投影互动***及方法,具有如下有益效果:其利用实时跟踪目标人体图像,在目标人体图像进行移动后也能跟随移动,然后对目标人体图像进行图像去噪后,进行图像合成,再进行投影,其实现了对运动目标的投影,具有投影效果好,智能化程度高和投影图像质量高的优点。主要通过以下过程实现:
1.图像跟踪:本发明能够对目标人体进行跟踪,通过设定检测区域实现,如果监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域,通过该方法对目标人体的移动的监测,以实现图像跟踪;
2.图像去噪:对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像,使得后续的图像质量更高,投影后的图像效果也更好;
3.图像合成:基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影,这样做可以使得每24帧图像构建一幅图像,以此去除图像因为移动后,或者因为图像获取装置的位置的因素导致的图像偏差得以校正,最终的图像质量更高。
附图说明
图1为本发明实施例提供的基于人体图像跟踪的投影互动方法的方法流程示意图;
图2为本发明实施例提供的基于人体图像跟踪的投影互动***的***结构示意图。
具体实施方式
下面结合附图及本发明的实施例对本发明的方法作进一步详细的说明。
实施例1
如图1所示,基于人体图像跟踪的投影互动***,所述***包括:实时图像获取装置,配置用于获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;图像去噪装置,配置用于对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;图像合成装置,配置用于基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
采用上述技术方案,本发明利用实时跟踪目标人体图像,在目标人体图像进行移动后也能跟随移动,然后对目标人体图像进行图像去噪后,进行图像合成,再进行投影,其实现了对运动目标的投影,具有投影效果好,智能化程度高和投影图像质量高的优点。主要通过以下过程实现:
1.图像跟踪:本发明能够对目标人体进行跟踪,通过设定检测区域实现,如果监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域,通过该方法对目标人体的移动的监测,以实现图像跟踪;
2.图像去噪:对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像,使得后续的图像质量更高,投影后的图像效果也更好;
3.图像合成:基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影,这样做可以使得每24帧图像构建一幅图像,以此去除图像因为移动后,或者因为图像获取装置的位置的因素导致的图像偏差得以校正,最终的图像质量更高
实施例2
在上一实施例的基础上,所述实时图像获取装置包括:目标监测单元,用于在由通过连续地对目标人体进行成像获得的图像数据所表示的目标人体图像的监测区域内,监测被跟踪的目标人体;监测区域更新单元,响应于所述目标监测单元监测到目标,用于以监测到的目标将占据监测区域的中心的方式来更新监测区域;移动监测单元,响应于所述目标监测单元不再监测到目标,用于监测在其中不再监测到目标的整个目标人体图像的移动的幅度和方向;监测区域设置单元,如果所述移动监测单元所监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域;以及控制单元,用于控制所述目标监测单元、所述监测区域更新单元、所述移动监测单元、以及所述监测区域设置单元,以重复用于监测目标的处理、用于更新监测区域的处理、用于监测移动的幅度和方向的处理、以及用于设置监测区域的处理。
具体的,视觉目标(单目标)跟踪任务就是在给定某视频序列初始帧的目标大小与位置的情况下,预测后续帧中该目标的大小与位置。
输入初始化目标框,在下一帧中产生众多候选框(Motion Model),提取这些候选框的特征(Feature Extractor),然后对这些候选框评分(Observation Model),最后在这些评分中找一个得分最高的候选框作为预测的目标(Prediction A),或者对多个预测值进行融合(Ensemble)得到更优的预测目标。
运动模型(Motion Model):生成候选样本的速度与质量直接决定了跟踪***表现的优劣。常用的有两种方法:粒子滤波(Particle Filter)和滑动窗口(Sliding Window)。粒子滤波是一种序贯贝叶斯推断方法,通过递归的方式推断目标的隐含状态。而滑动窗口是一种穷举搜索方法,它列出目标附近的所有可能的样本作为候选样本。
特征提取(Feature Extractor):鉴别性的特征表示是目标跟踪的关键之一。常用的特征被分为两种类型:手工设计的特征(Hand-crafted feature)和深度特征(Deepfeature)。常用的手工设计的特征有灰度特征(Gray),方向梯度直方图(HOG),哈尔特征(Haar-like),尺度不变特征(SIFT)等。与人为设计的特征不同,深度特征是通过大量的训练样本学习出来的特征,它比手工设计的特征更具有鉴别性。因此,利用深度特征的跟踪方法通常很轻松就能获得一个不错的效果。
观测模型(Observation Model):大多数的跟踪方法主要集中在这一块的设计上。根据不同的思路,观测模型可分为两类:生成式模型(Generative Model)和判别式模型(Discriminative Model).生成式模型通常寻找与目标模板最相似的候选作为跟踪结果,这一过程可以视为模板匹配。常用的理论方法包括:子空间,稀疏表示,字典学习等。而判别式模型通过训练一个分类器去区分目标与背景,选择置信度最高的候选样本作为预测结果。判别式方法已经成为目标跟踪中的主流方法,因为有大量的机器学习方法可以利用。常用的理论方法包括:逻辑回归,岭回归,支持向量机,多示例学习,相关滤波等。
模型更新(Model Update):模型更新主要是更新观测模型,以适应目标表观的变化,防止跟踪过程发生漂移。模型更新没有一个统一的标准,通常认为目标的表观连续变化,所以常常会每一帧都更新一次模型。但也有人认为目标过去的表观对跟踪很重要,连续更新可能会丢失过去的表观信息,引入过多的噪音,因此利用长短期更新相结合的方式来解决这一问题。
集成方法(Ensemble Method):集成方法有利于提高模型的预测精度,也常常被视为一种提高跟踪准确率的有效手段。可以把集成方法笼统的划分为两类:在多个预测结果中选一个最好的,或是利用所有的预测加权平均。
实施例3
在上一实施例的基础上,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
具体的,视差图是以图像对中任一幅图像为基准,其大小为该基准图像的大小,元素值为视差值的图像。
由于视差图包含了场景的距离信息,因此从立体图像对中提取视差图的图像匹配。
实施例4
在上一实施例的基础上,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
实施例5
在上一实施例的基础上,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为:由此计算得到图像特征曲线级差:图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
实施例6
一种基于人体图像跟踪的投影互动方法,所述方法执行以下步骤:步骤1:获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;步骤2:对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;步骤3:基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
具体的,本发明利用实时跟踪目标人体图像,在目标人体图像进行移动后也能跟随移动,然后对目标人体图像进行图像去噪后,进行图像合成,再进行投影,其实现了对运动目标的投影,具有投影效果好,智能化程度高和投影图像质量高的优点。
实施例7
在上一实施例的基础上,所述步骤2中将合成后的立体图像进行投影时,将以每秒一幅图像的时间间隔进行投影。
具体的,本发明能够对目标人体进行跟踪,通过设定检测区域实现,如果监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域,通过该方法对目标人体的移动的监测,以实现图像跟踪。
实施例8
在上一实施例的基础上,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
具体的,本发明对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像,使得后续的图像质量更高,投影后的图像效果也更好。
实施例9
在上一实施例的基础上,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
具体的,基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影,这样做可以使得每24帧图像构建一幅图像,以此去除图像因为移动后,或者因为图像获取装置的位置的因素导致的图像偏差得以校正,最终的图像质量更高。
实施例10
在上一实施例的基础上,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为:由此计算得到图像特征曲线级差:图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的***,仅以上述各功能单元的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能单元来完成,即将本发明实施例中的单元或者步骤再分解或者组合,例如,上述实施例的单元可以合并为一个单元,也可以进一步拆分成多个子单元,以完成以上描述的全部或者单元功能。对于本发明实施例中涉及的单元、步骤的名称,仅仅是为了区分各个单元或者步骤,不视为对本发明的不当限定。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应能够意识到,结合本文中所公开的实施例描述的各示例的单元、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件单元、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“另一部分”等是配置用于区别类似的对象,而不是配置用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者单元/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者单元/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术标记作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
以上所述,仅为本发明的较佳实施例而已,并非配置用于限定本发明的保护范围。
Claims (10)
1.基于人体图像跟踪的投影互动***,其特征在于,所述***包括:实时图像获取装置,配置用于获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;图像去噪装置,配置用于对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;图像合成装置,配置用于基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
2.如权利要求1所述的***,其特征在于,所述实时图像获取装置包括:目标监测单元,用于在由通过连续地对目标人体进行成像获得的图像数据所表示的目标人体图像的监测区域内,监测被跟踪的目标人体;监测区域更新单元,响应于所述目标监测单元监测到目标,用于以监测到的目标将占据监测区域的中心的方式来更新监测区域;移动监测单元,响应于所述目标监测单元不再监测到目标,用于监测在其中不再监测到目标的整个目标人体图像的移动的幅度和方向;监测区域设置单元,如果所述移动监测单元所监测到的整个目标人体图像的移动等于或大于指定的幅度,则在目标人体图像的中心部分设置监测区域,而如果所述移动监测单元所监测到的整个目标人体图像的移动小于指定的幅度,则在与所述移动监测单元监测到的整个目标人体图像的移动方向相反的方向上的目标人体图像的边缘处设置监测区域;以及控制单元,用于控制所述目标监测单元、所述监测区域更新单元、所述移动监测单元、以及所述监测区域设置单元,以重复用于监测目标的处理、用于更新监测区域的处理、用于监测移动的幅度和方向的处理、以及用于设置监测区域的处理。
3.如权利要求2所述的***,其特征在于,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
4.如权利要求3所述的***,且特征在于,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
5.如权利要求4所述的***,其特征在于,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为: 由此计算得到图像特征曲线级差: 图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
6.一种基于权利要求1至5之一所述***的基于人体图像跟踪的投影互动方法,其特征在于,所述方法执行以下步骤:步骤1:获取目标人体图像,同时,实时跟踪目标人体的位置,监测目标人体是否进行移动,以及是否移动出区域,若移动出监测区域,则实时调整自身位置,以对目标人体进行跟踪,持续获取目标人体图像;步骤2:对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像;步骤3:基于每3帧去噪图像,合成一个立体图像,然后将每8个立体图像进行图像重叠校正,以获得合成后的立体图像,将合成后的立体图像进行投影。
7.如权利要求1所述的***,其特征在于,所述步骤2中将合成后的立体图像进行投影时,将以每秒一幅图像的时间间隔进行投影。
8.如权利要求1所述的***,其特征在于,所述图像合成装置,基于每3帧去噪图像,合成一个立体图像的方法包括:将3帧图像分别作为第一视角的第一图像、第二视角的第二图像和第三视角的第三图像;取得对应于第一图像、第二图像和第三图像的视差图,并且根据视差图判断零视差区域,其中视差图包括对应于第一图像、第二图像和第三图像的多个视差值;对应零视差区域调整视差图为已位移视差图;根据已位移视差图以及预设最大范围线性或非线性地调整已位移视差图得到已调整视差图;根据已调整视差图、第一图像、第二图像和第三图像产生多个虚拟视角图像;以及根据已调整视差图加强虚拟视角图像的一二维深度线索。
9.如权利要求8所述的方法,且特征在于,所述图像合成装置将每8个立体图像进行图像重叠校正,以获得合成后的立体图像的方法包括:将8个立体图像中的每个像素点对应像素的像素值进行叠加后,取平均值,然后将平均值作为该像素的最终值。
10.如权利要求1所述的***,其特征在于,所述图像去噪装置对实时获取的目标人体图像进行图像去噪,降低获取目标人体图像过程中的噪声干扰,获得去噪图像的方法包括:将目标人体图像用如下公式表示:PP=Bsin(wt+kx+1);其图像特征曲线密度为:其中,B为图像特征曲线幅度;w为图像特征曲线的相位;t为图像特征曲线时间参数;k为修正系数,为任意正整数;x为修正幅度,为任意正小数;ρ为能量密度常数;c为图像特征曲线传播速度常数;图像特征曲线调整单元根据接收到的图像特征曲线,将接收到的图像特征曲线分为三个部分,分别为:噪声图像特征曲线部分、图像特征曲线部分和误差图像特征曲线部分;根据噪声图像特征曲线部分产生的噪声图像特征曲线和误差图像特征曲线部分产生的误差图像特征曲线,调整输出图像特征曲线,使得输出图像特征曲线的输出为:PS=βBsin(wt-kx+α);其中,β为输出图像特征曲线的幅度增强系数,为小于1的任意正数;α为相位修正值,设定范围为0~180;使得输出图像特征曲线的图像特征曲线能密度为: 由此计算得到图像特征曲线级差: 图像特征曲线输出单元最终根据图像特征曲线级差,调整输出图像特征曲线的参数,使得β为1,α为π,得到最终的输出图像特征曲线,将最终的输出图像特征曲线进行滤波后,输出最终的图像特征曲线,完成图像特征曲线的降噪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011639843.8A CN112822470A (zh) | 2020-12-31 | 2020-12-31 | 基于人体图像跟踪的投影互动***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011639843.8A CN112822470A (zh) | 2020-12-31 | 2020-12-31 | 基于人体图像跟踪的投影互动***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112822470A true CN112822470A (zh) | 2021-05-18 |
Family
ID=75858062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011639843.8A Pending CN112822470A (zh) | 2020-12-31 | 2020-12-31 | 基于人体图像跟踪的投影互动***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112822470A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101776952A (zh) * | 2010-01-29 | 2010-07-14 | 联动天下科技(大连)有限公司 | 一种新型互动投影*** |
CN101931753A (zh) * | 2009-06-18 | 2010-12-29 | 富士胶片株式会社 | 目标跟踪和图像跟踪设备、操作控制方法及数字摄像机 |
CN105306919A (zh) * | 2014-06-03 | 2016-02-03 | 宏碁股份有限公司 | 立体图像合成方法及装置 |
CN107105193A (zh) * | 2016-02-23 | 2017-08-29 | 芋头科技(杭州)有限公司 | 基于人体信息的机器人监控*** |
CN112152567A (zh) * | 2020-08-21 | 2020-12-29 | 杭州伍暨通信设备有限公司 | 高效率高谐波抑制功率放大装置及方法 |
-
2020
- 2020-12-31 CN CN202011639843.8A patent/CN112822470A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101931753A (zh) * | 2009-06-18 | 2010-12-29 | 富士胶片株式会社 | 目标跟踪和图像跟踪设备、操作控制方法及数字摄像机 |
CN101776952A (zh) * | 2010-01-29 | 2010-07-14 | 联动天下科技(大连)有限公司 | 一种新型互动投影*** |
CN105306919A (zh) * | 2014-06-03 | 2016-02-03 | 宏碁股份有限公司 | 立体图像合成方法及装置 |
CN107105193A (zh) * | 2016-02-23 | 2017-08-29 | 芋头科技(杭州)有限公司 | 基于人体信息的机器人监控*** |
CN112152567A (zh) * | 2020-08-21 | 2020-12-29 | 杭州伍暨通信设备有限公司 | 高效率高谐波抑制功率放大装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fischer et al. | Rt-gene: Real-time eye gaze estimation in natural environments | |
WO2021139484A1 (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN109871760B (zh) | 一种人脸定位方法、装置、终端设备及存储介质 | |
US20170045950A1 (en) | Gesture Recognition Systems | |
CN109087261B (zh) | 基于非受限采集场景的人脸矫正方法 | |
JP5438601B2 (ja) | 人物動作判定装置およびそのプログラム | |
CN108268864A (zh) | 人脸识别方法、***、电子设备和计算机程序产品 | |
JP2009070314A (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
KR960035351A (ko) | 3차원 표시 화상 생성 방법, 깊이 정보를 이용한 화상 처리 방법, 깊이 정보 생성 방법 | |
JP2015527625A (ja) | 身体測定 | |
CN111127668B (zh) | 一种角色模型生成方法、装置、电子设备和存储介质 | |
US11159717B2 (en) | Systems and methods for real time screen display coordinate and shape detection | |
CN111127519A (zh) | 一种双模型融合的目标跟踪控制***及其方法 | |
CN111898571A (zh) | 动作识别***及方法 | |
CN109978908B (zh) | 一种适应大尺度形变的单目标快速跟踪定位方法 | |
JP6272071B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
CN113065506B (zh) | 一种人体姿态识别方法及*** | |
CN112396694B (zh) | 一种基于单目摄像头的3d人脸视频生成方法 | |
CN112822470A (zh) | 基于人体图像跟踪的投影互动***及方法 | |
CN113688680B (zh) | 一种智能识别与追踪*** | |
CN106934818B (zh) | 一种手部运动跟踪方法及*** | |
CN112132864A (zh) | 基于视觉的机器人跟随方法及跟随机器人 | |
Jian et al. | Realistic face animation generation from videos | |
US10671881B2 (en) | Image processing system with discriminative control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210518 |
|
RJ01 | Rejection of invention patent application after publication |