CN110312123A - 利用彩色图像和深度图像的集成成像显示内容生成方法 - Google Patents

利用彩色图像和深度图像的集成成像显示内容生成方法 Download PDF

Info

Publication number
CN110312123A
CN110312123A CN201910559297.8A CN201910559297A CN110312123A CN 110312123 A CN110312123 A CN 110312123A CN 201910559297 A CN201910559297 A CN 201910559297A CN 110312123 A CN110312123 A CN 110312123A
Authority
CN
China
Prior art keywords
depth
micro
pixel
mapping
lenticule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910559297.8A
Other languages
English (en)
Other versions
CN110312123B (zh
Inventor
王宇
朴燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201910559297.8A priority Critical patent/CN110312123B/zh
Publication of CN110312123A publication Critical patent/CN110312123A/zh
Application granted granted Critical
Publication of CN110312123B publication Critical patent/CN110312123B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种利用彩色图像和深度图像生成集成成像***微图像集合的方法,用于集成成像显示,主要包括整体映射和映射坐标校正两个步骤。本发明的微图像集合生成过程中,对于每个微透镜所对应的物体图像区域,首先根据中心深度进行整体映射;然后判断微图像单元中的映射像素是否需要校正;接下来只需要对真实深度与中心深度差值较大的物体像素重新计算其在微图像单元中的映射坐标,完成校正。本方法可以降低运算量,提高微图像集合的生成速度,有利于实现集成成像的实时采集与显示。

Description

利用彩色图像和深度图像的集成成像显示内容生成方法
技术领域
本发明属于图像处理技术领域,涉及三维图像处理,是一种集成成像***显示内容的生成方法,即微图像集合的生成方法,可以用于集成成像中目标场景的三维立体显示。
背景技术
集成成像(IntegralImaging,简称II),是一种用微透镜阵列来记录和显示空间场景信息的全真三维显示技术,典型的集成成像***包括采集和显示两部分,如图1所示。图1(a)的采集部分包括微透镜阵列和采集设备如CCD相机,3D物空间场景通过微透镜阵列被CCD相机采集形成微图像集合。图1(b)的显示部分中,把2D微图像集合放在具有同样参数的显示微透镜阵列后,即可还原出原来的3D空间。
集成成像是一种具有全彩色、全视差、连续视点、无需辅助设备、没有观看视疲劳等众多优点的裸眼3D显示技术,具有广阔的应用前景和巨大的研究价值。
集成成像***可以利用深度相机进行三维场景信息的采集,把深度相机获取的深度图像和彩色图像结合使用,通过计算机虚拟微透镜阵列,生成集成成像***显示所需要的微图像集合。在传统的基于深度图像和彩色图像的微图像集合生成过程中,对于每个微透镜对应的彩色图像及深度图像区域,都需要逐个像素点计算其在微图像单元中的映射位置,计算量较大,微图像集合生成时间较长,不利于实现集成成像的实时采集与显示。
发明内容
本发明提出了一种利用彩色图像和深度图像的集成成像显示内容生成方法。在3D物体的彩色图像和深度图像中,如果物体像素的深度差异比较小,映射到微图像单元的坐标位置差异也比较小,坐标值取整以后,将对应于微图像单元的同一个像素点。根据这一规律,本发明提出的微图像集合生成方法中,对不能产生微图像单元映射计算误差的深度差异值进行近似,从而减少计算量。首先,确定每个微透镜对应的物体图像子区域,按照中心深度进行微图像单元的整体映射;然后判断微图像单元中的映射像素是否需要校正;对需要校正的物体像素利用其实际深度值重新计算映射坐标,完成微图像单元的修正。
本发明采取的技术方案包括下列步骤:
(一)根据集成成像显示***参数计算其中心深度和深度范围;
设显示微透镜阵列由M×N个微透镜单元组成,微透镜焦距为f,每个微透镜方形排列,宽度为P,显示微透镜阵列与显示器之间的距离为g,显示器的像素尺寸为PD,则中心深度dc根据式(1)计算:
深度范围D根据式(2)计算:
D=2×Smax×dc/P (2)
其中,Smax是集成成像***能接受的最大再现像点光斑直径。
(二)完成深度图像数据Id到集成成像显示***再现像深度值Rd的转换。设深度图像数据最小值为Idmin,最大值为Idmax
集成成像显示***再现像的深度范围在dc-D/2至dc+D/2之间。根据集成成像原理,深度图像数据到集成成像***深度值的转换过程中,需要进行深度反转,即Idmin转换为dc+D/2,Idmax转换为dc-D/2。按照式(3)进行转换:
(三)根据每个微透镜对应的彩色图像区域和深度图像区域,利用光线追踪原理,完成物体像素到微图像平面的映射过程,生成每个微透镜对应的微图像单元。详细步骤如下:
(1)将每个微透镜在中心深度dc处对应的彩色图像区域CI,按照g/dc的比例缩小,并沿着图像中心旋转180度,完成整体映射过程,生成微图像单元EI,如图2所示;
(2)判断微图像单元EI中的映射像素是否需要校正。当彩色图像区域CI中的物体像素深度值d与中心深度dc的差值较小时,按照d计算的映射坐标与步骤1整体映射计算的坐标差值也较小,坐标值取整以后,对应微图像单元EI中的同一个像素点,因此不需要校正。当某物体像素的深度值d与dc的差值较大时,步骤1整体映射计算的坐标不准确,需要根据d重新计算其映射到微图像单元EI的坐标。如图3所示,以一维情况为例。
设彩色图像区域CI中的物体像素Q,其深度值为d。利用光线追踪原理,分别按照真实深度d、中心深度dc计算物体像素Q映射到EI的位置,设物体像素Q与微透镜光轴的垂直距离为yQ,利用两个深度值计算的映射点与微透镜光轴的垂直距离分别为y2、y1,根据图3中几何关系,可得:
用式(4)减去式(5),可得:
当y2与y1的差值小于显示器的像素尺寸时,两个映射点为同一像素,无需校正。当y2与y1的差值大于等于显示器的像素尺寸时,需要校正,即:
考虑d<dc和d>dc两种情况,在二维情况下,当物体像素Q的位置坐标与真实深度d满足下式条件时,需要对该物体像素的映射坐标进行校正。
(3)对微图像单元EI中需要坐标校正的物体像素,根据式(4),利用实际深度值d计算出其在微图像单元EI的映射坐标,完成校正。
本发明提出一种利用彩色图像和深度图像生成集成成像***微图像集合的方法,用于集成成像显示,主要包括整体映射和映射坐标校正两个步骤。传统的利用彩色图像和深度图像生成微图像集合的方法中,对于每个微透镜所对应的物体图像区域,需要逐像素计算映射到微图像单元EI的坐标,计算量较大,微图像集合的生成时间较长。与传统生成方式相比,本发明的微图像集合生成中,每个微透镜所对应的物体图像区域,首先根据中心深度进行整体映射,然后只需要对真实深度与中心深度差值较大的物体像素重新计算映射坐标,进行校正。因为集成成像显示***再现像的深度范围较小,需要进行校正计算的像素数有限,因此可以降低运算量,提高微图像集合的生成速度,有利于实现集成成像的实时采集与显示。
附图说明
图1a是集成成像***的采集部分示意图;
图1b是集成成像***的显示部分示意图;
图2是物体图像子区域整体映射示意图;
图3是物体像素映射到微图像单元示意图;
图4a是空间场景的彩色图像;
图4b是空间场景的深度图像;
图5是本方明方法生成的微图像集合;
图6是微透镜阵列显示的不同视点图像。
具体实施方式
本发明实例中,采用的3D空间场景的彩色图像和深度图像如图4所示。集成成像显示***参数如下:显示微透镜阵列由90×63个微透镜单元组成,微透镜焦距f=3.5mm,每个微透镜方形排列,宽度P=1mm,利用手机和微透镜阵列进行集成成像显示,手机屏幕的像素尺寸PD=0.058mm,显示微透镜阵列与手机屏幕之间的距离g=4mm。
(一)根据集成成像显示***参数计算其中心深度和深度范围;
中心深度dc根据式(1)计算得到,dc=28mm。
深度范围D根据式(2)计算,以人眼在明视距离处的分辨率作为集成成像三维显示***能接受的最大再现像点光斑直径,即Smax=0.09mm,所以,D=2×0.09×28/1=5.04mm。
(二)完成深度图像数据Id到集成成像显示***再现像深度值Rd的转换。本实例中深度图像数据最小值为100,最大值为200,根据式(3),得到由深度图像数据Id到集成成像***深度值Rd的转换公式如下:
Rd=35.56-0.0504·Id
(三)根据每个微透镜对应的彩色图像区域和深度图像区域,利用光线追踪原理,完成物体像素到微图像集合平面的映射过程,生成每个微透镜对应的微图像单元。
(1)将每个微透镜在中心深度dc=28mm处对应的彩色图像区域CI,按照1/7的比例缩小,并沿着图像中心旋转180度,完成整体映射过程,生成微图像单元EI;
(2)判断微图像单元EI中的像素点是否需要校正。根据式(8),当微透镜对应的空间场景彩色图像区域CI中,物体像素的位置坐标(x,y)和真实深度d满足下式条件时,需要校正。
(3)对微图像单元EI中需要坐标校正的物体像素点,根据式(4),利用其实际深度值d计算出映射坐标,完成EI的校正。
对于集成成像显示***的每个微透镜,都按照步骤(三)生成微图像单元,从而获得微图像集合,如图5所示。用手机和微透镜阵列搭建的集成成像显示***进行显示,即可观看到3D图像,如图6所示。

Claims (1)

1.利用彩色图像和深度图像的集成成像显示内容生成方法,其特征在于包括下列步骤:
(一)根据集成成像显示***参数计算其中心深度和深度范围;
设显示微透镜阵列由M×N个微透镜单元组成,微透镜焦距为f,每个微透镜方形排列,宽度为P,显示微透镜阵列与显示器之间的距离为g,显示器的像素尺寸为PD,则中心深度dc根据式(1)计算:
深度范围D根据式(2)计算:
D=2×Smax×dc/P (2)
其中,Smax是集成成像***能接受的最大再现像点光斑直径。
(二)完成深度图像数据Id到集成成像显示***再现像深度值Rd的转换。设深度图像数据最小值为Idmin,最大值为Idmax
集成成像显示***再现像的深度范围在dc-D/2至dc+D/2之间。根据集成成像原理,深度图像数据到集成成像***深度值的转换过程中,需要进行深度反转,即Idmin转换为dc+D/2,Idmax转换为dc-D/2。按照式(3)进行转换:
(三)根据每个微透镜对应的彩色图像区域和深度图像区域,利用光线追踪原理,完成物体像素到微图像平面的映射过程,生成每个微透镜对应的微图像单元。详细步骤如下:
(1)将每个微透镜在中心深度dc处对应的彩色图像区域CI,按照g/dc的比例缩小,并沿着图像中心旋转180度,完成整体映射过程,生成微图像单元EI,如图2所示;
(2)判断微图像单元EI中的映射像素是否需要校正。当彩色图像区域CI中的物体像素深度值d与中心深度dc的差值较小时,按照d计算的映射坐标与步骤1整体映射计算的坐标差值也较小,坐标值取整以后,对应微图像单元EI中的同一个像素点,因此不需要校正。当某物体像素的深度值d与dc的差值较大时,步骤1整体映射计算的坐标不准确,需要根据d重新计算其映射到微图像单元EI的坐标。如图3所示,以一维情况为例。
设彩色图像区域CI中的物体像素Q,其深度值为d。利用光线追踪原理,分别按照真实深度d、中心深度dc计算物体像素Q映射到EI的位置,设物体像素Q与微透镜光轴的垂直距离为yQ,利用两个深度值计算的映射点与微透镜光轴的垂直距离分别为y2、y1,根据图3中几何关系,可得:
用式(4)减去式(5),可得:
当y2与y1的差值小于显示器的像素尺寸时,两个映射点为同一像素,无需校正。当y2与y1的差值大于等于显示器的像素尺寸时,需要校正,即:
考虑d<dc和d>dc两种情况,在二维情况下,当物体像素Q的位置坐标与真实深度d满足下式条件时,需要对该物体像素的映射坐标进行校正。
(3)对微图像单元EI中需要坐标校正的物体像素,根据式(4),利用实际深度值d计算出其在微图像单元EI的映射坐标,完成校正。
CN201910559297.8A 2019-06-28 2019-06-28 利用彩色图像和深度图像的集成成像显示内容生成方法 Expired - Fee Related CN110312123B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910559297.8A CN110312123B (zh) 2019-06-28 2019-06-28 利用彩色图像和深度图像的集成成像显示内容生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910559297.8A CN110312123B (zh) 2019-06-28 2019-06-28 利用彩色图像和深度图像的集成成像显示内容生成方法

Publications (2)

Publication Number Publication Date
CN110312123A true CN110312123A (zh) 2019-10-08
CN110312123B CN110312123B (zh) 2020-12-08

Family

ID=68076597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910559297.8A Expired - Fee Related CN110312123B (zh) 2019-06-28 2019-06-28 利用彩色图像和深度图像的集成成像显示内容生成方法

Country Status (1)

Country Link
CN (1) CN110312123B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734825A (zh) * 2020-12-31 2021-04-30 深兰人工智能(深圳)有限公司 3d点云数据的深度补全方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002080579A2 (en) * 2001-03-28 2002-10-10 Dimensional Developments Aps Self-aligning autostereoscopic 3d display
CN104954779A (zh) * 2015-06-23 2015-09-30 四川大学 一种集成成像三维显示中心深度平面的调节方法
CN105959669A (zh) * 2016-06-06 2016-09-21 四川大学 一种基于重映射的集成成像微图像阵列快速生成方法
CN106920263A (zh) * 2017-03-10 2017-07-04 大连理工大学 基于Kinect的无畸变集成成像三维显示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002080579A2 (en) * 2001-03-28 2002-10-10 Dimensional Developments Aps Self-aligning autostereoscopic 3d display
CN104954779A (zh) * 2015-06-23 2015-09-30 四川大学 一种集成成像三维显示中心深度平面的调节方法
CN105959669A (zh) * 2016-06-06 2016-09-21 四川大学 一种基于重映射的集成成像微图像阵列快速生成方法
CN106920263A (zh) * 2017-03-10 2017-07-04 大连理工大学 基于Kinect的无畸变集成成像三维显示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王宇等: "《基于元素图像阵列采样的集成成像重构方法》", 《光学学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734825A (zh) * 2020-12-31 2021-04-30 深兰人工智能(深圳)有限公司 3d点云数据的深度补全方法和装置

Also Published As

Publication number Publication date
CN110312123B (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
TWI555378B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
CN105243637B (zh) 一种基于三维激光点云进行全景影像拼接方法
CN103345736B (zh) 一种虚拟视点绘制方法
CN103974055B (zh) 3d照片生成***及方法
CN103903222B (zh) 三维感测方法与三维感测装置
CN109961401A (zh) 一种双目相机的图像校正方法和存储介质
CN104537707B (zh) 像方型立体视觉在线移动实时测量***
CN106651794A (zh) 一种基于虚拟相机的投影散斑校正方法
CN105959669B (zh) 一种基于重映射的集成成像微图像阵列快速生成方法
CN105654547B (zh) 三维重建方法
WO2017156905A1 (zh) 一种将二维图像转化为多视点图像的显示方法及***
US10560683B2 (en) System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects
CN111047709B (zh) 一种双目视觉裸眼3d图像生成方法
JP2003209858A (ja) 立体画像生成方法及び記録媒体
TWI482121B (zh) The method of correcting the color of the image
CN109769110B (zh) 一种3d小行星动态图的生成方法、装置及便携式终端
CN206563985U (zh) 三维成像***
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN104867113A (zh) 图像透视畸变校正的方法及***
CN113360964A (zh) 一种高动态范围下汇聚式双目视觉引导的机器人定位方法
TWI820246B (zh) 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品
CN111064945B (zh) 一种裸眼3d图像采集及生成方法
CN108269234A (zh) 一种全景相机镜头姿态估计方法及全景相机
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201208