CN114245096A - 一种智能摄影的3d模拟成像*** - Google Patents

一种智能摄影的3d模拟成像*** Download PDF

Info

Publication number
CN114245096A
CN114245096A CN202111491515.2A CN202111491515A CN114245096A CN 114245096 A CN114245096 A CN 114245096A CN 202111491515 A CN202111491515 A CN 202111491515A CN 114245096 A CN114245096 A CN 114245096A
Authority
CN
China
Prior art keywords
image
module
eye image
set value
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111491515.2A
Other languages
English (en)
Other versions
CN114245096B (zh
Inventor
何传柱
田昶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Xinhua Media Co ltd
Original Assignee
Anhui Xinhua Media Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Xinhua Media Co ltd filed Critical Anhui Xinhua Media Co ltd
Priority to CN202111491515.2A priority Critical patent/CN114245096B/zh
Publication of CN114245096A publication Critical patent/CN114245096A/zh
Application granted granted Critical
Publication of CN114245096B publication Critical patent/CN114245096B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

本发明涉及一种智能摄影的3D模拟成像***,包括用来进行3D拍摄的3D摄影机、剪筛标定模块、3D合成模块、3D目标特征提取模块、影像修整模块、对比模块、2D图像筛选模块、2D图像修整模块、三维投影模块,所述3D摄影机包括左镜头和右镜头,所述左镜头和右镜头的中间安装有用来进行2D拍摄的2D摄影镜头。所述智能摄影的3D模拟成像***,能够对基于国内标准拍摄的3D影像和基于国外标准拍摄的3D影像进行影片互转,数据处理量小,实施效果好;利用深度学习算法进一步优化,进一步降低数据处理量。所述智能摄影的3D模拟成像***利用3D模拟成像技术进行智能摄影,智能化程度高,应用范围广。

Description

一种智能摄影的3D模拟成像***
技术领域
本发明涉及一种智能摄影的3D模拟成像***,属于3D摄影技术领域。
背景技术
在3D立体行业中,目前国外的技术是按照外国人的人体生理特征来制定的标准,比如外国人的双眼距离大约是4厘米;国内的技术是按照中国人的人体生理特征来制定的标准,中国人的双眼距离大约是4.5厘米。而双眼距离这个参数会决定3D摄影机的左镜头和右镜头之间的间距,在拍摄时,基于拍摄成本以及拍摄客观条件,只能选择一个固定间距的3D摄影机;即使采用两台不同间距的3D摄影机同时拍摄,其拍摄的内容也是会存在较大差异。
由于不同间距的3D摄影机,导致拍摄出来的3D影片会存在一定的差异,这就造成了中国人看国外的3D影片很轻松,但立体感并不是很强;外国人看国产的3D影片通常就会觉得立体感过强,容易引起疲劳。
这就导致国产3D影片和国外3D影片之间存在一些适应性偏差,通常基于最大限度优化影片考虑。由于基于国内标准拍摄的“国产3D影像”如何与基于国外标准拍摄的“国外3D影像”进行3D互转,这是业界难题。目前通常是将“国产/国外3D影像”转化为多角度的二维影像图片(即传统的2D影像),然后进行三维合成,三维合成的方法主要有三种:1)、三维软件建模;2)、利用仪器设备建模;3)、根据图像建模;这三种建模方式从各方面对比来看,第三种图像建模方式更具有发展优势。基于图像的建模方法只需要提供物体几组不同角度的照片,通过三维合成软件即可自动生成三维立体图像。基于图像的三维合成方法,由于需要针对每一帧图像进行合成,处理量巨大,耗时耗力,成本高。
发明内容
本发明针对现有技术存在的不足,提供了一种智能摄影的3D模拟成像***,具体技术方案如下:
一种智能摄影的3D模拟成像***,包括:用来进行3D拍摄的3D摄影机、剪筛标定模块、3D合成模块、3D目标特征提取模块、影像修整模块、对比模块、2D图像筛选模块、2D图像修整模块、三维投影模块,所述3D 摄影机包括左镜头和右镜头,所述左镜头和右镜头的中间安装有用来进行 2D拍摄的2D摄影镜头。
作为上述技术方案的改进,所述3D摄影机的左镜头对目标实物拍摄生成第一左眼影像,所述3D摄影机的右镜头对目标实物拍摄生成第一右眼影像,所述2D摄影镜头对目标实物拍摄生成第一2D影像;
通过剪筛标定模块对第一左眼影像进行剪辑、筛选和标记得到第二左眼影像,通过剪筛标定模块对第一右眼影像进行剪辑、筛选和标记得到第二右眼影像,通过剪筛标定模块对第一2D影像进行剪辑、筛选和标记得到第二2D影像;
通过3D合成模块将第二左眼影像和第二右眼影像合成得到第一3D影像,通过3D目标特征提取模块对第一3D影像中的3D目标进行特征提取、建模生成三维目标矢量图一;
所述第二左眼影像通过影像修整模块按照第一设定值进行修整得到第三左眼影像,所述第二右眼影像通过影像修整模块按照第二设定值进行修整得到第三右眼影像;通过3D合成模块对第三左眼影像和第三右眼影像进行合成得到第二3D影像,对第二3D影像的3D目标进行特征提取、建模生成三维目标矢量图二;
将三维目标矢量图二与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第一设定值和第二设定值并生成设定值集合一;
当相似度比对结果小于设定阙值,删除第一设定值和第二设定值,进行深度学习运算;
利用深度学习算法在第一设定值的基础上生成第三设定值,利用深度学习算法在第二设定值的基础上生成第四设定值,所述第二左眼影像通过影像修整模块按照第三设定值进行修整得到第四左眼影像,所述第二右眼影像通过影像修整模块按照第四设定值进行修整得到第四右眼影像;通过 3D合成模块对第四左眼影像和第四右眼影像进行合成得到第三3D影像,对第三3D影像的3D目标进行特征提取、建模生成三维目标矢量图三;将三维目标矢量图三与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第三设定值和第四设定值并生成设定值集合二;
通过三维投影模块将三维目标矢量图一按照六视图规则生成对应投影的二维目标投影图集合;
通过2D图像筛选模块从第二2D影像中筛选出与三维目标矢量图一所对应的2D目标并截取生成二维目标矢量图一,通过2D图像修整模块将二维目标矢量图一修整成目标的投影视图,通过对比模块对目标的投影视图与二维目标投影图集合中的二维目标投影图进行相似度比对,
当比对结果符合预设阙值,则保留设定值集合一或设定值集合二;否则,重新生成设定值集合一或设定值集合二;
当选择结果为设定值集合一时,第二3D影像即为成品3D影像;
当选择结果为设定值集合二时,第三3D影像即为成品3D影像。
作为上述技术方案的改进,利用深度学习算法进行深度学习运算,所述深度学习算法包括以下步骤:
构建卷积神经网络,输入对抗样本、测试用例集,输入对抗样本后获取对抗样本的神经元输出行为的行为模式,输入测试用例集获取测试用例集中每一条测试用例的神经元输出行为,计算每一条测试用例的神经元输出行为与对抗样本神经元输出行为的行为模式的距离,判断行为模式的距离是否符合运行阙值;若符合运行阙值,则结束;若不符合运行阙值,则返回起始阶段,重新输入对抗样本、测试用例集。
作为上述技术方案的改进,所述2D摄影镜头与左镜头之间的间距等于 2D摄影镜头与右镜头之间的间距。
作为上述技术方案的改进,所述第一2D影像的时间轴与第一左眼影像 /第一右眼影像的时间轴同步。
作为上述技术方案的改进,所述二维目标投影图集合是3D目标的主视图、俯视图、左视图、右视图、仰视图、后视图的集合。
作为上述技术方案的改进,所述目标的投影视图是指2D目标在主视、俯视、左视、右视、仰视或后视情况下所对应的视图。
作为上述技术方案的改进,所述3D摄影机的左镜头、所述3D摄影机的右镜头和所述2D摄影镜头对目标实物进行拍摄是同时开始并同时结束。
本发明的有益效果:
本发明所述智能摄影的3D模拟成像***,能够对基于国内标准拍摄的3D影像和基于国外标准拍摄的3D影像进行影片互转,该方法相对于现有基于图像的三维合成方法来说,无需针对每一帧图像进行处理、运算,数据处理量小,实施效果好;利用深度学习算法进一步优化,进一步降低数据处理量。所述智能摄影的3D模拟成像***利用3D模拟成像技术进行智能摄影,智能化程度高,应用范围广。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
所述智能摄影的3D模拟成像***,包括:用来进行3D拍摄的3D摄影机、剪筛标定模块、3D合成模块、3D目标特征提取模块、影像修整模块、对比模块、2D图像筛选模块、2D图像修整模块、三维投影模块,所述3D 摄影机包括左镜头和右镜头,所述左镜头和右镜头的中间安装有用来进行 2D拍摄的2D摄影镜头。
其中,所述3D摄影机的左镜头对目标实物拍摄生成第一左眼影像,所述3D摄影机的右镜头对目标实物拍摄生成第一右眼影像,所述2D摄影镜头对目标实物拍摄生成第一2D影像。
通过剪筛标定模块对第一左眼影像进行剪辑、筛选和标记得到第二左眼影像,通过剪筛标定模块对第一右眼影像进行剪辑、筛选和标记得到第二右眼影像,通过剪筛标定模块对第一2D影像进行剪辑、筛选和标记得到第二2D影像。
剪筛标定模块对第一左眼影像进行剪辑、筛选,进行标记是为了后续进行比对;同理,剪筛标定模块对第一右眼影像进行剪辑、筛选,进行标记是为了后续进行比对;剪筛标定模块对第一2D影像进行剪辑、筛选,进行标记是为了后续进行比对。
通过3D合成模块将第二左眼影像和第二右眼影像合成得到第一3D影像,通过3D目标特征提取模块对第一3D影像中的3D目标进行特征提取、建模生成三维目标矢量图一。
应用场景:对目标实物(如茶杯)进行3D拍摄得到第一3D影像,第一3D影像中的3D目标(茶杯的影像)进行特征提取、建模生成三维目标矢量图一(茶杯的矢量图)。在本实施例中,3D摄影机的左镜头与右镜头之间的间距设定为对应4.5厘米人眼间距。
所述第二左眼影像通过影像修整模块按照第一设定值进行修整得到第三左眼影像,所述第二右眼影像通过影像修整模块按照第二设定值进行修整得到第三右眼影像;通过3D合成模块对第三左眼影像和第三右眼影像进行合成得到第二3D影像,对第二3D影像的3D目标进行特征提取、建模生成三维目标矢量图二;
将三维目标矢量图二与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第一设定值和第二设定值并生成设定值集合一;
当相似度比对结果小于设定阙值,删除第一设定值和第二设定值,进行深度学习运算;
利用深度学习算法在第一设定值的基础上生成第三设定值,利用深度学习算法在第二设定值的基础上生成第四设定值,所述第二左眼影像通过影像修整模块按照第三设定值进行修整得到第四左眼影像,所述第二右眼影像通过影像修整模块按照第四设定值进行修整得到第四右眼影像;通过 3D合成模块对第四左眼影像和第四右眼影像进行合成得到第三3D影像,对第三3D影像的3D目标进行特征提取、建模生成三维目标矢量图三;将三维目标矢量图三与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第三设定值和第四设定值并生成设定值集合二;
通过三维投影模块将三维目标矢量图一按照六视图规则生成对应投影的二维目标投影图集合;
通过2D图像筛选模块从第二2D影像中筛选出与三维目标矢量图一所对应的2D目标并截取生成二维目标矢量图一,通过2D图像修整模块将二维目标矢量图一修整成目标的投影视图,通过对比模块对目标的投影视图与二维目标投影图集合中的二维目标投影图进行相似度比对,
当比对结果符合预设阙值,则保留设定值集合一或设定值集合二;否则,重新生成设定值集合一或设定值集合二;
当选择结果为设定值集合一时,第二3D影像即为成品3D影像;
当选择结果为设定值集合二时,第三3D影像即为成品3D影像。
应用场景:由于本实施例中3D摄影机的左镜头与右镜头之间的间距设定为对应4.5厘米人眼间距,因此拍摄出来的第一3D影像简称“国产3D 影像”,那么如何将“国产3D影像”转化为“国外3D影像”?“国外3D 影像”是指将左镜头与右镜头之间的间距设定为对应4厘米人眼间距的3D 摄影机所拍摄出来的3D影像。
第一设定值和第二设定值是通过理论计算得到,例如,所述第二左眼影像通过影像修整模块按照第一设定值(如旋转指定角度所对应的投影关系)进行修整得到第三左眼影像,所述第二右眼影像通过影像修整模块按照第二设定值(如旋转指定角度所对应的投影关系)进行修整得到第三右眼影像;如果第一设定值和第二设定值的设置,导致合成后的第二3D影像不失真,那么第二3D影像即为成品3D影像。
如果第一设定值和第二设定值的设置,导致合成后的第二3D影像失真;说明第一设定值和第二设定值的设置存在偏差,也就是需要对第一设定值和第二设定值进行校正。利用深度学习算法来对第一设定值和第二设定值进行校正。
与常规的整段影像比对不同,本发明是采用对一段影像中的某一个3D 目标(茶杯的立体影像)制成对应的矢量图,与第一3D影像中茶杯的立体影像进行比对,如果比对结果符合预期,那么说明本次校正成功。
如果,比对结果不符合预期,那么利用深度学习算法重新修改第一设定值使其为第三设定值,利用深度学习算法重新修改第二设定值使其为第四设定值,按照第三设定值和第四设定值的设置,判断再次合成后的第三 3D影像是否失真;如果不失真,说明校正后的第三3D影像即为成品3D影像。如果失真,说明第三设定值和第四设定值的设置存在偏差,也就是需要重新校正,利用深度学习算法来将第一设定值和第二设定值重新生成新的第三设定值和第四设定值,直至新生成的第三3D影像不失真为止。
校正3D影像是否失真采用两种方式,是与拍摄好的“国产3D影像”中某一个特定目标(如茶杯)进行矢量图对比;在矢量图对比过程中,为提高比对精准度,将矢量图二维化,生成对应的六视图或六视图之一,如此进行比对,精准度更高。在将矢量图二维化的过程中,如果特定目标的角度不适合进行比对,需要2D图像修整模块对其进行修整,方便后续比对,提高对比准确度。采用两种对比方式同时验证的方式,能够显著提高对比结果的准确性,最大限度还原影片,防止出现失真。在对比过程中,由于采用特定几个三维目标,不是全影片进行比对,比对数据量显著降低。由于目前现有的3D影像,不是通篇全部呈现三维立体效果,通常都是某些特定三维目标穿插在影片中,除某些特定三维目标之外,其余内容更近似二维化,因此,本发明只选用特定几个三维目标来进行是否失真比对,能够满足全影片的比对需求。
在本实施例中,所述2D摄影镜头与左镜头之间的间距等于2D摄影镜头与右镜头之间的间距。
所述第一2D影像的时间轴与第一左眼影像/第一右眼影像的时间轴同步。进一步地,所述3D摄影机的左镜头、所述3D摄影机的右镜头和所述 2D摄影镜头对目标实物进行拍摄是同时开始并同时结束。
在本实施例中,所述二维目标投影图集合是3D目标的主视图、俯视图、左视图、右视图、仰视图、后视图的集合。
在本实施例中,所述目标的投影视图是指2D目标在主视、俯视、左视、右视、仰视或后视情况下所对应的视图。
在本实施例中,所述成品3D影像即是“国外3D影像”。
在本发明中,采用符合国内标准的3D摄影机拍摄出符合国人观看习惯的“国产3D影像”,利用深度学习算法和智能模拟成像技术将“国产3D影像”转化为符合国外观看习惯的“国外3D影像”,实施效果好,数据处理量小。
实施例2
利用深度学习算法进行深度学习运算,所述深度学习算法包括以下步骤:
构建卷积神经网络,输入对抗样本、测试用例集,输入对抗样本后获取对抗样本的神经元输出行为的行为模式,输入测试用例集获取测试用例集中每一条测试用例的神经元输出行为,计算每一条测试用例的神经元输出行为与对抗样本神经元输出行为的行为模式的距离,判断行为模式的距离是否符合运行阙值;若符合运行阙值,则结束;若不符合运行阙值,则返回起始阶段,重新输入对抗样本、测试用例集。
在本实施例中,第三设定值和第四设定值可以为测试用例集,第一设定值和第二设定值可以为对抗样本。在本实施例中,可以尽早的在测试用例集中找到对抗本,有助于测试人员尽早的找到对抗本,在深度学习算法中,有助于提高测试效率。
在上述实施例中,本发明所述智能摄影的3D模拟成像***,能够对基于国内标准拍摄的3D影像和基于国外标准拍摄的3D影像进行影片互转,该方法相对于现有基于图像的三维合成方法来说,无需针对每一帧图像进行处理、运算,数据处理量小,实施效果好;利用深度学习算法进一步优化,进一步降低数据处理量。所述智能摄影的3D模拟成像***利用3D模拟成像技术进行智能摄影,智能化程度高,应用范围广。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种智能摄影的3D模拟成像***,其特征在于包括:用来进行3D拍摄的3D摄影机、剪筛标定模块、3D合成模块、3D目标特征提取模块、影像修整模块、对比模块、2D图像筛选模块、2D图像修整模块、三维投影模块,所述3D摄影机包括左镜头和右镜头,所述左镜头和右镜头的中间安装有用来进行2D拍摄的2D摄影镜头。
2.根据权利要求1所述的一种智能摄影的3D模拟成像***,其特征在于:所述3D摄影机的左镜头对目标实物拍摄生成第一左眼影像,所述3D摄影机的右镜头对目标实物拍摄生成第一右眼影像,所述2D摄影镜头对目标实物拍摄生成第一2D影像;
通过剪筛标定模块对第一左眼影像进行剪辑、筛选和标记得到第二左眼影像,通过剪筛标定模块对第一右眼影像进行剪辑、筛选和标记得到第二右眼影像,通过剪筛标定模块对第一2D影像进行剪辑、筛选和标记得到第二2D影像;
通过3D合成模块将第二左眼影像和第二右眼影像合成得到第一3D影像,通过3D目标特征提取模块对第一3D影像中的3D目标进行特征提取、建模生成三维目标矢量图一;
所述第二左眼影像通过影像修整模块按照第一设定值进行修整得到第三左眼影像,所述第二右眼影像通过影像修整模块按照第二设定值进行修整得到第三右眼影像;通过3D合成模块对第三左眼影像和第三右眼影像进行合成得到第二3D影像,对第二3D影像的3D目标进行特征提取、建模生成三维目标矢量图二;
将三维目标矢量图二与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第一设定值和第二设定值并生成设定值集合一;
当相似度比对结果小于设定阙值,删除第一设定值和第二设定值,进行深度学习运算;
利用深度学习算法在第一设定值的基础上生成第三设定值,利用深度学习算法在第二设定值的基础上生成第四设定值,所述第二左眼影像通过影像修整模块按照第三设定值进行修整得到第四左眼影像,所述第二右眼影像通过影像修整模块按照第四设定值进行修整得到第四右眼影像;通过3D合成模块对第四左眼影像和第四右眼影像进行合成得到第三3D影像,对第三3D影像的3D目标进行特征提取、建模生成三维目标矢量图三;将三维目标矢量图三与三维目标矢量图一通过对比模块进行相似度比对,当相似度比对结果大于或等于设定阙值,保留第三设定值和第四设定值并生成设定值集合二;
通过三维投影模块将三维目标矢量图一按照六视图规则生成对应投影的二维目标投影图集合;
通过2D图像筛选模块从第二2D影像中筛选出与三维目标矢量图一所对应的2D目标并截取生成二维目标矢量图一,通过2D图像修整模块将二维目标矢量图一修整成目标的投影视图,通过对比模块对目标的投影视图与二维目标投影图集合中的二维目标投影图进行相似度比对,
当比对结果符合预设阙值,则保留设定值集合一或设定值集合二;否则,重新生成设定值集合一或设定值集合二;
当选择结果为设定值集合一时,第二3D影像即为成品3D影像;
当选择结果为设定值集合二时,第三3D影像即为成品3D影像。
3.根据权利要求2所述的一种智能摄影的3D模拟成像***,其特征在于,利用深度学习算法进行深度学习运算,所述深度学习算法包括以下步骤:
构建卷积神经网络,输入对抗样本、测试用例集,输入对抗样本后获取对抗样本的神经元输出行为的行为模式,输入测试用例集获取测试用例集中每一条测试用例的神经元输出行为,计算每一条测试用例的神经元输出行为与对抗样本神经元输出行为的行为模式的距离,判断行为模式的距离是否符合运行阙值;若符合运行阙值,则结束;若不符合运行阙值,则返回起始阶段,重新输入对抗样本、测试用例集。
4.根据权利要求1所述的一种智能摄影的3D模拟成像***,其特征在于:所述2D摄影镜头与左镜头之间的间距等于2D摄影镜头与右镜头之间的间距。
5.根据权利要求2所述的一种智能摄影的3D模拟成像***,其特征在于:所述第一2D影像的时间轴与第一左眼影像/第一右眼影像的时间轴同步。
6.根据权利要求2所述的一种智能摄影的3D模拟成像***,其特征在于:所述二维目标投影图集合是3D目标的主视图、俯视图、左视图、右视图、仰视图、后视图的集合。
7.根据权利要求2所述的一种智能摄影的3D模拟成像***,其特征在于:所述目标的投影视图是指2D目标在主视、俯视、左视、右视、仰视或后视情况下所对应的视图。
8.根据权利要求5所述的一种智能摄影的3D模拟成像***,其特征在于:所述3D摄影机的左镜头、所述3D摄影机的右镜头和所述2D摄影镜头对目标实物进行拍摄是同时开始并同时结束。
CN202111491515.2A 2021-12-08 2021-12-08 一种智能摄影的3d模拟成像*** Active CN114245096B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111491515.2A CN114245096B (zh) 2021-12-08 2021-12-08 一种智能摄影的3d模拟成像***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111491515.2A CN114245096B (zh) 2021-12-08 2021-12-08 一种智能摄影的3d模拟成像***

Publications (2)

Publication Number Publication Date
CN114245096A true CN114245096A (zh) 2022-03-25
CN114245096B CN114245096B (zh) 2023-09-15

Family

ID=80753934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111491515.2A Active CN114245096B (zh) 2021-12-08 2021-12-08 一种智能摄影的3d模拟成像***

Country Status (1)

Country Link
CN (1) CN114245096B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008126201A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体映像処理装置並びにそのプログラム
CN103400380A (zh) * 2013-07-25 2013-11-20 河海大学 融合图像矩阵偏移的单摄像机水下目标三维轨迹模拟方法
CN109644259A (zh) * 2017-06-21 2019-04-16 深圳市柔宇科技有限公司 三维影像预处理方法、装置及头戴显示设备
CN110428501A (zh) * 2019-08-01 2019-11-08 北京优艺康光学技术有限公司 全景影像生成方法、装置、电子设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008126201A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体映像処理装置並びにそのプログラム
CN103400380A (zh) * 2013-07-25 2013-11-20 河海大学 融合图像矩阵偏移的单摄像机水下目标三维轨迹模拟方法
CN109644259A (zh) * 2017-06-21 2019-04-16 深圳市柔宇科技有限公司 三维影像预处理方法、装置及头戴显示设备
CN110428501A (zh) * 2019-08-01 2019-11-08 北京优艺康光学技术有限公司 全景影像生成方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN114245096B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
JP6929047B2 (ja) 画像処理装置、情報処理方法及びプログラム
JP5197279B2 (ja) コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法
CN103608847B (zh) 一种用于图像模型构建的方法和装置
CN101516040B (zh) 视频匹配方法、装置及***
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
CN108648264B (zh) 基于运动恢复的水下场景重建方法及存储介质
US9807372B2 (en) Focused image generation single depth information from multiple images from multiple sensors
CN107277491A (zh) 生成图像的深度图的方法及相关存储介质
RU2009110511A (ru) Система и способ формирования и воспроизведения трехмерного видеоизображения
CN113507627B (zh) 视频生成方法、装置、电子设备及存储介质
US11415935B2 (en) System and method for holographic communication
JP7479729B2 (ja) 三次元表現方法及び表現装置
CN110245549A (zh) 实时面部和对象操纵
KR100915039B1 (ko) 다중 초점 2차원 영상을 이용한 3차원 입체 영상 변환 방법및 변환 장치와 이를 위한 기록매체
GB2585197A (en) Method and system for obtaining depth data
CN111161399B (zh) 基于二维影像生成三维模型的数据处理方法及组件
Köppel et al. Filling disocclusions in extrapolated virtual views using hybrid texture synthesis
CN114245096B (zh) 一种智能摄影的3d模拟成像***
JPH0981746A (ja) 二次元表示画像生成方法
CN113225484B (zh) 快速获取屏蔽非目标前景的高清图片的方法及装置
Gurbuz et al. Color calibration for multi-camera imaging systems
CN113344997B (zh) 快速获取只含有目标对象的高清前景图的方法及***
CN112085653B (zh) 基于景深补偿的视差图像拼接方法
KR100719400B1 (ko) 영상 시점 합성 방법
JP2003101690A (ja) 画像処理方法及びデジタルカメラ並びに記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant