CN114359396B - 一种立体图像获取及显示方法 - Google Patents

一种立体图像获取及显示方法 Download PDF

Info

Publication number
CN114359396B
CN114359396B CN202210269146.0A CN202210269146A CN114359396B CN 114359396 B CN114359396 B CN 114359396B CN 202210269146 A CN202210269146 A CN 202210269146A CN 114359396 B CN114359396 B CN 114359396B
Authority
CN
China
Prior art keywords
stereoscopic display
display
stereoscopic
characteristic parameters
parallax image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210269146.0A
Other languages
English (en)
Other versions
CN114359396A (zh
Inventor
吕国皎
赵百川
廖源渤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Technological University CDTU
Original Assignee
Chengdu Technological University CDTU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Technological University CDTU filed Critical Chengdu Technological University CDTU
Priority to CN202210269146.0A priority Critical patent/CN114359396B/zh
Publication of CN114359396A publication Critical patent/CN114359396A/zh
Application granted granted Critical
Publication of CN114359396B publication Critical patent/CN114359396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisions for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0025Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisions for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

立体显示领域中,立体显示器需要与之匹配的视差图像才能进行显示。而在立体显示器参数未知情况下,拍摄者难以拍摄获得与之匹配的视差图像。为此,本发明提出了一种立体图像获取及显示方法。该方法在硬件设置上包含立体显示器、服务器及智能移动设备。立体显示器上设置有二维码及网络适配器;智能移动设备上设置有二维码识别装置,并安装有视差图像获取及显示应用;服务器上记录有各立体显示器特性参数,该特性参数包含立体显示器视点位置。本方法结合互联网及计算机应用技术,自动获取立体显示器相关参数,并通过虚拟拍摄及AI辅助等技术手段,获得适应于立体显示器参数需求的视差图像,从而大大降低用户门槛,以便于立体显示器的应用推广。

Description

一种立体图像获取及显示方法
技术领域
本发明属于投影光场立体显示技术领域,更具体地说,本发明涉及一种立体图像获取及显示方法。
背景技术
通常立体显示器需要若干视差图像才能进行立体显示。而视差图像通常由相机阵列对立体物体进行拍摄获得,此外相机阵列的排布应当与立体显示器的视点分布匹配,才能使得视差图像具有正确的视差。若立体显示器参数未知,则拍摄者难以拍摄获得适应于该立体显示器的视差图像,从而导致视差图像的拍摄具有较高的技术门槛。因此,视差图像的获取成为了限制立体显示应用发展的一道门槛。为降低视差图像获取难度,本发明提出了一种立体图像获取及显示方法,本立体图像获取及显示方法结合互联网及计算机应用技术,使得拍摄过程自动获取立体显示器相关参数,并通过虚拟拍摄及AI辅助等技术手段,获得适应于立体显示器参数需求的视差图像。具体而言,本发明可以使未接触过立体显示的用户也可以进行视差图像获取,从而大大降低用户门槛,以便于立体显示器的应用推广。
发明内容
为解决在立体显示器参数未知情况下,拍摄者难以拍摄获得适应于该立体显示器的视差图像的问题,本发明提出了一种立体图像获取及显示方法。
该方法在硬件设置上包含立体显示器、服务器及智能移动设备。立体显示器上设置有二维码及网络适配器;任意二维码对应于唯一一台立体显示器;智能移动设备上设置有二维码识别装置,并安装有视差图像获取及显示应用;服务器上记录有各立体显示器特性参数,该特性参数包含立体显示器视点位置。
立体显示器可使用的种类包含但不限于狭缝光栅3D显示器、柱透镜光栅3D显示器、逆反射投影阵列立体显示器、集成成像立体显示器、光场立体显示器。
本方法按照下列步骤进行立体图像获取及显示。
第一步:用户使用智能移动设备上的视差图像获取及显示应用,调用二维码识别装置扫描立体显示器上的二维码,对需要使用的立体显示器进行选择。
第二步:智能移动设备与服务器进行通信,按照所选择的立体显示器进行视差图像获取。视差图像获取至少包含以下三种模式之一。
(1)二次渲染模式
用户输入需要显示的立体物体模型;服务器通过其记录的立体显示器特性参数设置虚拟相机阵列;虚拟相机阵列对用户输入的立体物体模型进行拍摄,获得与立体显示器特性参数匹配的视差图像。
(2)AI辅助模式
用户输入两视点视差图像,并设置该视差图像对匹配的视点间距;服务器通过立体显示领域中传统的两视点转多视点方法,按照其记录的立体显示器特性参数获得与立体显示器特性参数匹配的视差图像。
(3)高级模式
服务器反馈其记录的立体显示器特性参数到智能移动设备端,用户自行按照立体显示器特性参数进行立体场景拍摄以获得视差图像。
可选的,二次渲染模式下,服务器反馈其记录的立体显示器特性参数到智能移动设备端,并由智能移动设备按照立体显示器特性参数设置虚拟相机阵列;虚拟相机阵列对用户输入的立体显示模型进行拍摄,获得与立体显示器特性参数匹配的视差图像。
可选的,AI辅助模式下,服务器反馈其记录的立体显示器特性参数到智能移动设备端,并由智能移动设备端通过立体显示领域中的两视点转多视点方法,按照立体显示器特性参数获得与立体显示器特性参数匹配的视差图像。
第三步:通过立体显示器的网络适配器,智能移动设备及服务器发送视差图像至立体显示器,立体显示器根据自身特性参数完成视差图像后期处理,输出立体图像并完成显示。
由此可见,在二次渲染模式下,用户不需要具备立体显示专门知识,其仅需要提供立体物体模型,如3Ds Max建模等,即可获得视差图像;在AI辅助模式下,用户也不需要具备立体显示专门知识,其只需要提供一对视差图像对及视点间距,即可获得适用于立体显示器的视差图像;最后在高级模式下,对非常熟悉立体显示的高级用户,其可以按照自身需求上传其拍摄的视差图像。因此,本发明可以使得没有立体显示专门知识的用户获得与立体显示器特性参数匹配的视差图像,从而大大降低用户门槛,以便于立体显示器的应用推广。
附图说明
图1为本发明的硬件设置示意图。
图2为本发明的二次渲染模式工作示意图。
图3为本发明的二次渲染设置示意图。
图4为本发明的AI辅助模式工作示意图。
图5为本发明的高级模式工作示意图。
图标:100-立体显示器;110-二维码;120-网络适配器;200-智能移动设备;300-服务器;400-立体物体模型;500-视差图像;600-立体图像;700-虚拟相机阵列;800-两视点视差图像。
应该理解上述附图只是示意性的,并没有按比例绘制。
具体实施方式
实施例1:图1为本实施例提供的一种立体图像获取及显示方法。
该方法在硬件设置上包含立体显示器100、服务器300及智能移动设备200。
立体显示器100上设置有二维码110及网络适配器120;任意二维码110对应于唯一一台立体显示器100;智能移动设备200采用智能手机,其上具有摄像头,用于对二维码110进行识别;智能移动设备200上安装有视差图像获取及显示应用;服务器300上记录有各立体显示器100的特性参数,该特性参数包含立体显示器100的视点位置。
立体显示器100采用柱透镜光栅3D显示器。
本方法按照下列步骤进行立体图像获取及显示。
第一步:用户使用智能移动设备200上的视差图像获取及显示应用,调用摄像头扫描立体显示器100上的二维码110,对需要使用的立体显示器100进行选择。
第二步:智能移动设备200与服务器300进行通信,按照所选择的立体显示器100进行视差图像获取。视差图像获取包含以下两种模式。
(1)二次渲染模式
请参考图2,用户输入需要显示的立体物体模型400。请参考图2和图3,服务器300通过其记录的立体显示器100的特性参数设置虚拟相机阵列700;虚拟相机阵列700对用户输入的立体物体模型400进行拍摄,从而获得与立体显示器100特性参数匹配的视差图像500。
(2)高级模式
服务器300反馈其记录的立体显示器100的特性参数到智能移动设备200,用户自行按照立体显示器100的特性参数进行立体场景拍摄以获得视差图像500。
第三步:请参考图1、图2及图5,通过立体显示器100的网络适配器120,服务器300发送视差图像500至立体显示器100,立体显示器100根据自身特性参数完成视差图像后期处理,输出立体图像600并完成显示。
具体的,本实施例中的立体显示器100采用柱透镜光栅3D显示器,则视差图像500中的每幅图像应按像素列进行交替排列,从而形成视差合成图像,并进行显示。
由此可见,在二次渲染模式下,用户不需要具备立体显示专门知识,其仅需要提供立体物体模型400,如3Ds Max建模等,即可获得视差图像500;在高级模式下,对非常熟悉立体显示的高级用户,其可以按照自身需求上传其拍摄的视差图像500。因此,本发明可以使得没有立体显示专门知识的用户获得与立体显示器100特性参数匹配的视差图像500,从而大大降低用户门槛,以便于立体显示器的应用推广。
实施例2:图1为本实施例提供的一种立体图像获取及显示方法。
该方法在硬件设置上包含立体显示器100、服务器300及智能移动设备200。
立体显示器100上设置有二维码110及网络适配器120;任意二维码110对应于唯一一台立体显示器100;智能移动设备200采用智能手机,其上具有摄像头,用于对二维码110进行识别;智能移动设备200上安装有视差图像获取及显示应用;服务器300上记录有各立体显示器100的特性参数,该特性参数包含立体显示器100的视点位置。
立体显示器100采用投影立体显示器。
本方法按照下列步骤进行立体图像获取及显示。
第一步:用户使用智能移动设备200上的视差图像获取及显示应用,调用摄像头扫描立体显示器100上的二维码110,对需要使用的立体显示器100进行选择。
第二步:智能移动设备200与服务器300进行通信,按照所选择的立体显示器100进行视差图像获取。视差图像获取包含以下两种模式。
(1)AI辅助模式
请参考图4,用户输入两视点视差图像800,并设置该视差图像对匹配的视点间距;服务器300通过立体显示领域中传统的两视点转多视点方法,按照其记录的立体显示器100的特性参数获得与立体显示器100特性参数匹配的视差图像500。
具体的,本实施例中的传统两视点转多视点方法是指对两视点视差图像800中的两幅视差图像进行点匹配,并通过视点间距计算获得物体的立体物体模型400的方法;获得立体物体模型400后,其参照图3所述的方式设置虚拟相机阵列700,对立体物体模型400进行拍摄,从而获得与立体显示器100特性参数匹配的视差图像500。
(2)高级模式
服务器300反馈其记录的立体显示器100的特性参数到智能移动设备200,用户自行按照立体显示器100的特性参数进行立体场景拍摄以获得视差图像500。
第三步:请参考图1、图4及图5,通过立体显示器100的网络适配器120,服务器300发送视差图像500至立体显示器100,立体显示器100根据自身特性参数完成视差图像后期处理,输出立体图像600并完成显示。
具体的,本实施例中的立体显示器100采用逆反射投影阵列立体显示器,则视差图像500的各幅图像被分别送至各投影机进行投影,从而输出立体图像600并完成显示。
由此可见,在AI辅助模式下,用户也不需要具备立体显示专门知识,其只需要提供两视点视差图像800对及视点间距,即可获得适用于立体显示器100的视差图像500;在高级模式下,对非常熟悉立体显示的高级用户,其可以按照自身需求上传其拍摄的视差图像500。因此,本发明可以使得没有立体显示专门知识的用户获得与立体显示器100特性参数匹配的视差图像500,从而大大降低用户门槛,以便于立体显示器的应用推广。

Claims (3)

1.一种立体图像获取及显示方法,其特征在于: 该方法在硬件设置上包含立体显示器、服务器及智能移动设备;立体显示器上设置有二维码及网络适配器;任意二维码对应于唯一一台立体显示器;智能移动设备上设置有二维码识别装置,并安装有视差图像获取及显示应用;服务器上记录有各立体显示器特性参数,该特性参数包含立体显示器视点位置;
本方法按照下列步骤进行立体图像获取及显示:
第一步:用户使用智能移动设备上的视差图像获取及显示应用,调用二维码识别装置扫描立体显示器上的二维码,对需要使用的立体显示器进行选择;
第二步:智能移动设备与服务器进行通信,按照所选择的立体显示器进行视差图像获取;视差图像获取至少包含以下三种模式之一:
(1)二次渲染模式 用户输入需要显示的立体物体模型;服务器通过其记录的立体显示器特性参数设置虚拟相机阵列;虚拟相机阵列对用户输入的立体物体模型进行拍摄,获得与立体显示器特性参数匹配的视差图像;
(2)AI辅助模式 用户输入两视点视差图像,并设置该视差图像对匹配的视点间距;服务器通过立体显示领域中传统的两视点转多视点方法,按照其记录的立体显示器特性参数获得与立体显示器特性参数匹配的视差图像;
(3)高级模式 服务器反馈其记录的立体显示器特性参数到智能移动设备端,用户自行按照立体显示器特性参数进行立体场景拍摄以获得视差图像; 第三步:通过立体显示器的网络适配器,智能移动设备及服务器发送视差图像至立体显示器,立体显示器根据自身特性参数完成视差图像后期处理,输出立体图像并完成显示。
2.如权利要求1所述的一种立体图像获取及显示方法,其特征在于:
二次渲染模式下,服务器反馈其记录的立体显示器特性参数到智能移动设备端,并由智能移动设备按照立体显示器特性参数设置虚拟相机阵列;虚拟相机阵列对用户输入的立体显示模型进行拍摄,获得与立体显示器特性参数匹配的视差图像。
3.如权利要求1所述的一种立体图像获取及显示方法,其特征在于:
AI辅助模式下,服务器反馈其记录的立体显示器特性参数到智能移动设备端,并由智能移动设备端通过立体显示领域中的两视点转多视点方法,按照立体显示器特性参数获得与立体显示器特性参数匹配的视差图像。
CN202210269146.0A 2022-03-18 2022-03-18 一种立体图像获取及显示方法 Active CN114359396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210269146.0A CN114359396B (zh) 2022-03-18 2022-03-18 一种立体图像获取及显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210269146.0A CN114359396B (zh) 2022-03-18 2022-03-18 一种立体图像获取及显示方法

Publications (2)

Publication Number Publication Date
CN114359396A CN114359396A (zh) 2022-04-15
CN114359396B true CN114359396B (zh) 2022-05-17

Family

ID=81094447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210269146.0A Active CN114359396B (zh) 2022-03-18 2022-03-18 一种立体图像获取及显示方法

Country Status (1)

Country Link
CN (1) CN114359396B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115198A (ja) * 2004-10-14 2006-04-27 Canon Inc 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
CN102263977A (zh) * 2011-08-01 2011-11-30 清华大学 一种用于移动终端的立体视频获取的方法和装置
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法
CN103155572A (zh) * 2010-10-04 2013-06-12 高通股份有限公司 用于基于用户偏好调节3d视频渲染的3d视频控制***
CN103636200A (zh) * 2011-06-20 2014-03-12 松下电器产业株式会社 多视点图像生成装置、多视点图像生成方法
CN105704478A (zh) * 2015-08-31 2016-06-22 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备
CN106215418A (zh) * 2016-07-06 2016-12-14 深圳超多维科技有限公司 一种应用的显示控制方法及其装置、终端
CN206348807U (zh) * 2016-12-29 2017-07-21 浙江理工大学 多功能手持式物体扫描仪
CN107181939A (zh) * 2017-05-10 2017-09-19 廖治文 基于摄像头的裸眼三维成像方法及***
CN107349604A (zh) * 2017-07-06 2017-11-17 苏州蜗牛数字科技股份有限公司 一种云配置游戏3d模式参数的***及方法
CN112633442A (zh) * 2020-12-30 2021-04-09 中国人民解放军32181部队 一种基于视觉感知技术的弹药识别***
CN114007057A (zh) * 2020-07-28 2022-02-01 北京小米移动软件有限公司 终端、拍摄方法、拍摄装置及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115198A (ja) * 2004-10-14 2006-04-27 Canon Inc 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
CN103155572A (zh) * 2010-10-04 2013-06-12 高通股份有限公司 用于基于用户偏好调节3d视频渲染的3d视频控制***
CN103636200A (zh) * 2011-06-20 2014-03-12 松下电器产业株式会社 多视点图像生成装置、多视点图像生成方法
CN102263977A (zh) * 2011-08-01 2011-11-30 清华大学 一种用于移动终端的立体视频获取的方法和装置
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法
CN105704478A (zh) * 2015-08-31 2016-06-22 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备
CN106215418A (zh) * 2016-07-06 2016-12-14 深圳超多维科技有限公司 一种应用的显示控制方法及其装置、终端
CN206348807U (zh) * 2016-12-29 2017-07-21 浙江理工大学 多功能手持式物体扫描仪
CN107181939A (zh) * 2017-05-10 2017-09-19 廖治文 基于摄像头的裸眼三维成像方法及***
CN107349604A (zh) * 2017-07-06 2017-11-17 苏州蜗牛数字科技股份有限公司 一种云配置游戏3d模式参数的***及方法
CN114007057A (zh) * 2020-07-28 2022-02-01 北京小米移动软件有限公司 终端、拍摄方法、拍摄装置及计算机可读存储介质
CN112633442A (zh) * 2020-12-30 2021-04-09 中国人民解放军32181部队 一种基于视觉感知技术的弹药识别***

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Natural exploration of 3D massive models on large-scale light field displays using the FOX proximal navigation technique;Fabio Marton等;《Computers &Graphics》;20120711;第36卷(第8期);第893-903页 *
View Synthesis for Advanced 3D Video Systems;Karsten Müller等;《EURASIP Journal on Image and Video Processing》;20081231;第1-11页 *
基于微透镜阵列的立体图像再现研究;李梦宇;《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》;20170215(第2期);第B024-1574页 *
平面视频的立体化技术研究;方佳鹰等;《电视技术》;20091231;第33卷(第9期);第38-41页 *
立体图像视差调整算法及全景立体成像技术研究;张丞;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315(第3期);第I138-4456页 *

Also Published As

Publication number Publication date
CN114359396A (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN110335343B (zh) 基于rgbd单视角图像人体三维重建方法及装置
CN108154058B (zh) 图形码展示、位置区域确定方法及装置
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
EP2852161A1 (en) Method and device for implementing stereo imaging
EP3221851A1 (en) Systems and methods for 3d capture of objects using multiple range cameras and multiple rgb cameras
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
WO2012153447A1 (ja) 画像処理装置、映像処理方法、プログラム、集積回路
CN106023307B (zh) 基于现场环境的快速重建三维模型方法及***
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
CN111047678A (zh) 一种三维人脸采集装置和方法
CN111405270A (zh) 基于3d实景克隆技术的vr沉浸式应用***
KR20150095301A (ko) 깊이 지도를 생성하는 방법 및 장치
CN113348489A (zh) 图像处理方法和装置
US20180342075A1 (en) Multi-view back-projection to a light-field
CN114359396B (zh) 一种立体图像获取及显示方法
CN117196955A (zh) 一种全景图像拼接方法及终端
CN116952191A (zh) 一种基于同轴摄影的视觉测距方法
CN111402392A (zh) 光照模型计算方法、材质参数的处理方法及其处理装置
CN106791782A (zh) 基于单摄像头的立体图像的拍摄方法、装置和电子设备
CN114793276A (zh) 一种拟真现实元宇宙平台3d全景拍摄方法
CN104616287A (zh) 一种用于3d图像采集与3d打印的移动终端及方法
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
CN107220986A (zh) 一种基于智能终端的图像抠图方法及抠图***
CN106331672A (zh) 视点图像的获得方法、装置及***
CN111757083A (zh) 一种基于三维可视化的自动化控制数据通信方式

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant