CN114040184A - 图像显示方法、***、存储介质及计算机程序产品 - Google Patents
图像显示方法、***、存储介质及计算机程序产品 Download PDFInfo
- Publication number
- CN114040184A CN114040184A CN202111423175.XA CN202111423175A CN114040184A CN 114040184 A CN114040184 A CN 114040184A CN 202111423175 A CN202111423175 A CN 202111423175A CN 114040184 A CN114040184 A CN 114040184A
- Authority
- CN
- China
- Prior art keywords
- predicted
- image
- prediction
- viewpoint
- eyeball position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000004590 computer program Methods 0.000 title claims abstract description 14
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 281
- 238000012545 processing Methods 0.000 claims abstract description 101
- 210000001508 eye Anatomy 0.000 claims description 91
- 230000033001 locomotion Effects 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 29
- 210000001747 pupil Anatomy 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 abstract description 21
- 238000005516 engineering process Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000004424 eye movement Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开提供一种图像显示方法、***、存储介质及计算机程序产品。所述图像显示***,包括:服务器,被配置为:获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取第一预测视点;从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端;显示终端,被配置为:采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;以及,接收所述第二图像集合,基于所述第二图像集合进行显示。本公开所述图像显示方法、***、存储介质及计算机程序产品,可以减少图像数据的传输量和处理量。
Description
技术领域
本公开涉及显示技术领域,尤其涉及一种图像显示方法、***、存储介质及计算机程序产品。
背景技术
随着显示技术的不断发展,三维(three dimensional,3D)显示技术越来越备受关注。三维显示技术可以使显示画面变得立体逼真。其原理在于:利用人的左右眼分别接收具有一定视差的左眼图像和右眼图像,当两幅视差图像分别被人的左右眼接收后,经过大脑对图像信息进行叠加融合,可以构建出3D的视觉显示效果。
目前,3D显示设备可实现多视点图像显示。这种实现方式在内容采集和传输环节,需要同时处理多路视频的数据量,这对网络带宽造成了极大的负担。
发明内容
有鉴于此,本公开的目的在于提出一种图像显示方法、***、存储介质及计算机程序产品。
基于上述目的,本公开提供了一种图像显示***,应用于裸眼3D显示,包括:
服务器,被配置为:获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取第一预测视点;从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端;
显示终端,被配置为:采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;以及,接收所述第二图像集合,基于所述第二图像集合进行显示。
可选的,所述显示终端,还被配置为:获取所述眼球位置坐标和第二预测时长;基于所述眼球位置坐标和第二预测时长确定第二预测视点;从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;
其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
可选的,还包括:
图像处理平台,被配置为:获取第三图像集合、所述眼球位置坐标和第三预测时长;基于眼球位置坐标和所述第三预测时长确定第三预测视点;从所述第三图像集合中选择与所述第三预测视点匹配的图像数据进行编码以生成所述第一图像集合,将所述第一图像集合发送至所述服务器;
其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
可选的,图像处理平台,还被配置为:获取第四图像集合和第四预测时长;基于所述眼球位置坐标和第四预测时长确定第四预测视点;从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;
其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
可选的,还包括:
图像采集装置,包括用于采集多视点图像数据的图像采集单元;被配置为:获取所述眼球位置坐标和第五预测时长,基于所述眼球位置坐标和所述第五预测时长确定第五预测视点;控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第四图像集合,并将所述第四图像集合发送至所述图像处理平台;
其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
可选的,所述显示终端,还被配置为:实时获取用户的所述眼球位置坐标;基于所述眼球位置坐标中的当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标确定眼球运动矢量;
所述服务器,还被配置为:接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量;根据当前采集时刻的眼球位置坐标、第一预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第一眼球位置预测坐标,并根据所述第一眼球位置预测坐标确定所述第一预测视点。
可选的,还包括:
所述服务器,还被配置为:根据所述眼球位置坐标确定单眼眼球位置预测坐标,根据所述单眼眼球位置预测坐标获取单眼预测视点;获取双眼瞳孔距离并根据所述双眼瞳孔距离和所述单眼预测视点确定另一眼的预测视点,根据所述单眼预测视点和另一眼的预测视点确定所述第一预测视点。
可选的,所述服务器,还被配置为:根据当前采集时刻的眼球位置坐标和眼球位置预测坐标确定眼球运动轨迹,获取与所述眼球运动轨迹重合的视点作为所述第一预测视点。
可选的,所述显示终端,还被配置为:从所述第二图像集合中选择与所述第一预测视点匹配的图像数据建立帧缓存;以及,检测所述帧缓存中每一帧图像数据的时间戳以确定待显示的图像数据。
本公开还提供了一种图像显示方法,包括:
显示终端采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;
服务器获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;
所述服务器获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取与预测显示时刻匹配的第一预测视点;
所述从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端;
所述显示终端接收所述第二图像集合,并基于所述第二图像集合进行显示。
可选的,还包括:
所述播放设备获取所述眼球位置坐标和第二预测时长;
所述播放设备基于所述眼球位置坐标和第二预测时长确定第二预测视点;
所述播放设备从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;
其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
可选的,还包括:
图像处理平台获取第三图像集合、所述眼球位置坐标和第三预测时长;
所述图像处理平台基于眼球位置坐标和所述第三预测时长确定第三预测视点;
所述图像处理平台从所述第三图像集合中选择与所述第三预测时长匹配的图像数据进行编码以生成所述第一图像集合,并将所述第一图像集合发送至所述服务器;
其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
可选的,还包括:
所述图像处理平台获取第四图像集合和第四预测时长;
所述图像处理平台基于所述眼球位置坐标和第四预测时长确定第四预测视点;
所述图像处理平台从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;
其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
可选的,还包括:
图像采集装置获取所述眼球位置坐标和第五预测时长,并基于所述眼球位置坐标和所述第五预测时长确定第五预测视点;
图像采集装置控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第五图像集合;
其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
本公开提供了一种包含计算机程序的非易失性计算机可读存储介质,当所述计算机程序被一个或多个处理器执行时,使得所述处理器执行如上述任一项所述的方法。
本公开提供了一种计算机程序产品,包括计算机程序指令,当所述计算机程序指令在计算机上运行时,使得计算机执行如上述任一项所述的方法。
从上面所述可以看出,本公开提供的图像显示方法、***、存储介质及计算机程序产品,通过显示终端采集眼球位置坐标,并将眼球位置坐标发送至所述服务器;服务器基于眼球位置坐标预测待显示图像的显示时刻时所对应的第一预测视点;之后服务器基于该第一预测视点从第一图像集合中选择出与该第一预测视点匹配的图像数据生成第二图像集合发送至显示终端,显示终端仅需基于第二图像集合中的图像进行显示,而无需将第一图像集合中的全部图像数据均拉流至显示终端上再进行像素点亮、图像渲染、排图显示等操作,从而可以减少图像数据的传输量和处理量。
附图说明
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例柱状透镜裸眼3D显示原理示意图;
图2为相关技术中所述图像显示***的结构框图;
图3为本公开实施例所述图像显示***的结构框图;
图4为本公开实施例所述图像显示***应用于直播领域的结构框图;
图5为本公开实施例所述图像显示***的另一结构框图;
图6为本公开实施例所述图像显示***的又一结构框图;
图7为本公开实施例各预测时长示意图;
图8为本公开实施例所述眼球位置预测示意图;
图9为本公开实施例图像同步传输示意图;
图10为本公开实施例所述图像显示方法的流程示意图;
图11为本公开实施例所述图像显示方法的另一流程示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
裸眼3D显示技术能够不借助偏振光眼镜等外部工具,实现立体视觉效果。目前裸眼3D显示技术的代表主要有光屏障技术、柱状透镜技术以及分布式光学矩阵技术。其中,柱状透镜技术对显示屏的亮度无影响,成像立体度较佳,是目前应用较为广泛的裸眼3D显示技术。
如图1所示为柱状透镜裸眼3D显示原理示意图,显示面板上不同位置的像素经过柱状透镜的折射分光,光线路径发生变化从而在空间中形成不同的视区,当人的双眼位于正确的视区中(即左眼接收到左视点图像的同时右眼也接收右视点图像)就能感受到立体感。
传统的柱状透镜立体显示器拥有几十个(40-60)视点,在内容采集制作和传输环节,需要同时处理几十路视频的数据量。当应用于直播和视频通话应用场景中时,如图2所示,从图像采集装置的视频图像拍摄、处理平台对图像的处理以及编码、服务器或直播平台的存储以及播放设备的拉流显示,几十路的视频流数据对***和网络带宽造成了极大的负担。而且,目前的家用网络环境也不足以支持60个视点的拉流。
眼球追踪技术(Eye Tracking)是一项应用于近眼显示装置中研究眼球运动信息的科学应用技术,通过采集人眼的图像,来分析出眼球运动信息,并基于该眼球运动信息确定出人眼注视方向,进而确定人眼在显示屏上的视点;当用户双眼观看到两个不同视点对应的图像数据时,就能感受到立体感。当用户头部或眼球移动时,瞳孔位置相对于显示装置的发生变化,因此人眼对应的视点也会相应发生变化。
有鉴于此,本公开实施例提供一种应用于裸眼3D显示的图像显示***,该***将柱状透镜裸眼3D显示与眼球追踪技术结合,能够减少视频流数据的传输和处理,从而减小对***和网络带宽造成的负担。
如图3所示,所述图像显示***包括服务器1和显示终端2。在一些实施例中,服务器1可以为直播平台,
其中,服务器1被配置为:获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取与预测显示时刻匹配的第一预测视点;从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端。
显示终端2被配置为:采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;以及,接收所述第二图像集合,基于所述第二图像集合进行显示。
在本实施例中,显示终端2可以为手机、电脑、电视、显示器、车载显示装置、触控一体机或会议大屏等需要进行内容显示的装置,显示终端2包括显示屏。显示终端2可以接收服务器1的推流数据,或者从服务器获取拉流数据进行播放。
显示终端2可以安装眼球追踪装置,例如相机、眼动仪等。以相机为例,眼球追踪装置可以通过人脸检测的算法将显示屏前方的人脸图像检测出来,再根据已经检测到的人脸图像分离出人眼的信息,最后结合相机的参数计算出空间中人眼相对于相机的坐标信息,即计算出人眼在上述空间坐标系中的位置。具体地,人脸检测可采用模板匹配技术、基于AdaBoost的人脸检测以及基于深度学***面特征点(即图像中人眼特征点的二维坐标)与物体物理平面特征点(空间中人眼特征点的三维坐标)之间的关系,构建N点透视投影模型并求解(PNP求解),从而计算出人眼在相机坐标系(即上述空间坐标系)中的位置,即确定出眼球位置坐标。显示终端2获得眼球位置坐标后,可将该眼球位置坐标发送至服务器1。
在本实施例中,服务器1可以为直播平台。为实现在显示终端2的裸眼3D显示,服务器1中需包括用于实现裸眼3D显示的第一图像集合。其中,该第一图像集合中包括与多个视点匹配的多视点图像数据,每个视点对应的图像数据可形成与该视点对应的视频流数据,当用户在显示终端2之前的位置处于对应的视点时,可以通过显示终端2观看到该视点对应的视频流数据。
服务器1接收到显示终端2发送的眼球位置坐标后,获取第一预测时长,并基于该眼球位置坐标和第一预测时长获得第一预测视点,该第一预测视点即为预测出的在未来的某一显示时刻显示某一帧图像数据时,与用户眼球的预测位置所对应的视点。其中,第一预测视点的视点数量大于2。
之后,服务器1从第一图像集合中选择与第一预测视点中所包含的各个视点匹配的图像数据生成第二图像集合后发送给显示终端2,使得显示终端2可以基于该第二图像集合中的图像数据进行排图显示。
其中,该第二图像集合是第一图像集合的子集,第二图像集合中仅包括与第一预测视点匹配的图像数据;而第一图像集合中包括除了与第一预测视点匹配的图像数据以外,还包括其他视点的图像数据。这样,基于眼球追踪技术实现的视点预测,使得将图像数据从服务器1发送到显示终端2时可以减少不与第一预测视点匹配的图像数据的传输,后续显示终端2进行像素点亮、图像渲染、排图显示时也无需对该部分数据进行处理,因此可以减少图像数据的传输量和处理量,进而减少数据传输的延时。
本实施例所述图像显示***,通过显示终端采集眼球位置坐标,并将眼球位置坐标发送至所述服务器;服务器基于眼球位置坐标预测待显示图像的显示时刻时所对应的第一预测视点;之后服务器基于该第一预测视点从第一图像集合中选择出与该第一预测视点匹配的图像数据生成第二图像集合发送至显示终端,显示终端仅需基于第二图像集合中的图像进行显示,而无需将第一图像集合中的全部图像数据均拉流至显示终端上再进行像素点亮、图像渲染、排图显示等操作,从而可以减少图像数据的传输量和处理量。
可选的,所述图像显示***可以应用于一对一视频应用场景中,例如视频通话、视频会议等。
可选的,所述图像显示***也可以应用于一对多视频应用场景中,例如网络直播。由于网络直播***面向大量的观看用户,而普通家用网络环境并不足以支持60个视点的拉流。而通过本实施例所述图像显示***,仅需将与第一预测视点匹配的图像数据拉流至显示终端进行显示即可。
如图4所示,当显示屏前仅有一位用户观看时,可以仅拉流与该用户的左右眼对应的两视点图像数据即可实现裸眼3D显示。而目前眼球追踪装置最大可同时跟踪两个目标用户,此时可以仅拉流与该两个用户的左右眼对应的四个视点图像数据即可实现裸眼3D显示。
在一些实施例中,所述显示终端2还被配置为:实时获取用户的所述眼球位置坐标;基于所述眼球位置坐标中的当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标确定眼球运动矢量。
所述服务器1还被配置为:接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量;根据当前采集时刻的眼球位置坐标、第一预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第一眼球位置预测坐标,并根据所述第一眼球位置预测坐标确定所述第一预测视点。
在本实施例中,显示终端2实时采集显示屏前的用户的眼球位置坐标。其中,用户的眼球位置坐标包括当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标。其中,当前采集时刻的眼球位置坐标即为用户观看当前帧图像数据时用户的眼球位置坐标,上一采集时刻的眼球位置坐标即为显示终端2上一次采集用户观看图像时用户的眼球位置坐标,二者分别为显示终端2进行眼球位置坐标采集时相邻的两次采集结果。其中,在一帧图像信息播放的时间,显示终端2可以采集多次眼球位置坐标;或者,在相邻的两次眼球位置坐标的采集间隙中播放一帧或多帧图像信息,本实施例对此不作限制。
如图8所示,以显示终端的显示屏的中心点为原点建立XYZ坐标系,另上一采集时刻的眼球位置坐标为(xlast,ylast,zlast),当前采集时刻的眼球位置坐标为(xnow,ynow,znow),则眼球运动矢量满足:
服务器接收当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第一预测时长Δtdisplay1以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第一预测视点对应的第一眼球位置预测坐标(xdisplay1,ydisplay1,zdisplay1),其中,第一眼球位置预测坐标(xdisplay1,ydisplay1,zdisplay1)满足:
这样,即可根据该确定第一眼球位置预测坐标确定第一预测视点。
在一些实施例中,第一预测时长Δtdisplay1的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T3时刻到达服务器1,且T3时刻在T1时刻之前。这样,第一预测时长Δtdisplay1=T1-T3。
其中,包括该帧图像数据A的第一图像集合到达服务器1后,需要从第一图像集合中选择出与第一预测视点匹配的图像数据生成包括该帧图像数据A的第二图像集合发送至显示终端2,且显示终端2需要基于包括该帧图像数据A的第二图像集合进行排图显示,因此可通过服务器1预测上述过程所需要的时间从而获得第一预测时长Δtdisplay1。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第一预测时长Δtdisplay1。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T3,因而可基于上一帧图像数据B的T1和T3获得第一预测时长Δtdisplay1。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在另一些实施例中,所述显示终端2还被配置为:获取所述眼球位置坐标和第二预测时长;基于所述眼球位置坐标和第二预测时长确定第二预测视点;从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
在本实施例中,显示终端2获取眼球位置坐标后,获取第二预测时长,之后基于该眼球位置坐标和第二预测时长获得第二预测视点,该第二预测视点即为预测出的在未来的某一显示时刻显示某一帧图像数据时,与用户眼球的预测位置所对应的视点。之后,显示终端2从第二图像集合中选择与第二预测视点中所包含的各个视点匹配的图像数据进行像素点亮、图像渲染以及排图显示等操作。其中,第二预测视点的视点数量大于等于2,且第二预测视点的视点数量小于第一预测视点的视点数量,最终显示的图像数据可以为第二图像集合的子集。这样,基于眼球追踪技术实现的视点预测,使得显示终端2在显示图像数据时可以无需处理全部的图像数据,而仅需处理与第二预测视点匹配的图像数据,因此可以减少图像数据的处理量,进而减少图像播放的延时。
在一些实施例中,当显示屏前仅有一位用户时,第二预测视点的视点数量可以仅有2个;当显示屏前仅有两位用户时,第二预测视点的视点数量可以仅有4个,从而进一步减少图像数据的传输量和处理量。
可选的,所述图像显示***可以应用于一对一视频应用场景中,例如视频通话、视频会议等;也可以应用于一对多视频应用场景中,例如网络直播。通过本实施例所述图像显示***,显示终端仅需对与第二预测视点匹配的图像数据进行处理和显示即可。
在一些实施例中,所述显示终端2还被配置为:获取第二预测时长;根据当前采集时刻的眼球位置坐标、第二预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第二眼球位置预测坐标,并根据所述第二眼球位置预测坐标确定所述第二预测视点。
在本实施例中,显示终端2获取当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第二预测时长Δtdisplay2以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第二预测视点对应的第二眼球位置预测坐标(xdisplay2,ydisplay2,zdisplay2),其中,第二眼球位置预测坐标(xdisplay2,ydisplay2,zdisplay2)满足:
这样,即可根据该确定第二眼球位置预测坐标确定第二预测视点。
在一些实施例中,第二预测时长Δtdisplay2的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T2时刻到达显示终端2,且T2时刻在T1时刻之前。这样,第一预测时长Δtdisplay1=T1-T2。
其中,包括该帧图像数据A的第二图像集合到达显示终端2后,需要从第二图像集合中选择出与第二预测视点匹配的图像数据进行排图显示,因此可通过显示终端2预测上述过程所需要的时间从而获得第二预测时长Δtdisplay2。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第二预测时长Δtdisplay2。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T2,因而可基于上一帧图像数据B的T1和T2获得第一预测时长Δtdisplay2。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在一些实施例中,所述图像显示***还包括图像处理平台3。如图5所示。所述图像处理平台被配置为:获取第三图像集合、所述眼球位置坐标和第三预测时长;基于眼球位置坐标和所述第三预测时长确定第三预测视点;从所述第三图像集合中选择与所述第三预测视点匹配的图像数据进行编码以生成所述第一图像集合,将所述第一图像集合发送至所述服务器;其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
在本实施例中,图像处理平台3用于对采集的图像进行处理和编码。其中,图像处理包括对采集的图像进行格式转换、畸变校正等,图像编码包括对格式转换、畸变校正后的图像进行图像压缩编码等。为实现在显示终端2的裸眼3D显示,图像处理平台3的编码推流单元中需包括用于实现裸眼3D显示的第三图像集合。其中,该第三图像集合中包括与多个视点匹配的多视点图像数据。
图像处理平台3的编码推流单元接收到显示终端2发送的眼球位置坐标后,获取第三预测时长,并基于该眼球位置坐标和第三预测时长获得第三预测视点。其中,第三预测视点的视点数量大于第一预测视点的视点数量。
之后,图像处理平台3从第三图像集合中选择与第三预测视点中所包含的各个视点匹配的图像数据进行编码处理以生成第一图像集合,再将第一图像集合发送给服务器1。
其中,该第一图像集合是第三图像集合的子集,第三图像集合中包括除了与第三预测视点匹配的图像数据以外,还包括其他视点的图像数据。这样,基于眼球追踪技术实现的视点预测,不仅可以减少需要编码处理的图像数据,还可以减少从图像处理平台3发送至服务器1的图像数据,因此可以减少图像数据的传输量和处理量,进而减少数据传输的延时。
可选的,所述图像显示***可以应用于一对一视频应用场景中,例如视频通话、视频会议等。
所述图像处理平台3还被配置为:接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量;根据当前采集时刻的眼球位置坐标、第三预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第三眼球位置预测坐标,并根据所述第三眼球位置预测坐标确定所述第三预测视点。
在本实施例中,图像处理平台3接收当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第三预测时长Δtdisplay3以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第三预测视点对应的第三眼球位置预测坐标(xdisplay3,ydisplay3,zdisplay3),其中,第三眼球位置预测坐标(xdisplay3,ydisplay3,zdisplay3)满足:
这样,即可根据该确定第三眼球位置预测坐标确定第三预测视点。
在一些实施例中,第三预测时长Δtdisplay3的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T4时刻到达图像处理平台3的编码推流单元,且T4时刻在T1时刻之前。这样,第三预测时长Δtdisplay3=T1-T4。
其中,包括该帧图像数据A的第三图像集合到达图像处理平台3的编码推流单元后,需要从第三图像集合中选择出与第三预测视点匹配的图像数据生成包括该帧图像数据A的图像数据,经编码推流单元进行编码后生成第一图像集合,再将该第一图像集合发送至服务器1并推流至显示终端进行排图显示,因此可通过图像处理平台3预测上述过程所需要的时间从而获得第三预测时长Δtdisplay3。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第三预测时长Δtdisplay3。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T4,因而可基于上一帧图像数据B的T1和T4获得第三预测时长Δtdisplay3。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在一些实施例中,所述图像处理平台3还被配置为:获取第四图像集合和第四预测时长;基于所述眼球位置坐标和第四预测时长确定第四预测视点;从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
在本实施例中,为实现在显示终端2的裸眼3D显示,图像处理平台3的图像处理单元中需包括用于实现裸眼3D显示的第四图像集合。其中,该第四图像集合中包括与多个视点匹配的多视点图像数据。
图像处理平台3的图像处理单元接收到显示终端2发送的眼球位置坐标后,获取第四预测时长,并基于该眼球位置坐标和第四预测时长获得第四预测视点。其中,第四预测视点的视点数量大于第三预测视点的视点数量。
之后,图像处理平台3从第四图像集合中选择与第四预测视点中所包含的各个视点匹配的图像数据进行格式转换、畸变校正等图像处理步骤后生成第三图像集合,再将第三图像集合发送给图像处理平台3编码推流单元进行编码处理。
其中,该第三图像集合是第四图像集合的子集,第四图像集合中包括除了与第四预测视点匹配的图像数据以外,还包括其他视点的图像数据。这样,基于眼球追踪技术实现的视点预测,可以减少需要格式转换、畸变校正等图像处理的图像数据,因此可以减少图像数据的传输量和处理量,进而减少数据传输的延时。
可选的,所述图像显示***可以应用于一对一视频应用场景中,例如视频通话、视频会议等。
在本实施例中,图像处理平台3的图像处理单元接收当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第四预测时长Δtdisplay4以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第四预测视点对应的第四眼球位置预测坐标(xdisplay4,ydisplay4,zdisplay4),其中,第四眼球位置预测坐标(xdisplay4,ydisplay4,zdisplay4)满足:
这样,即可根据该确定第四眼球位置预测坐标确定第四预测视点。
在一些实施例中,第四预测时长Δtdisplay4的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T5时刻到达图像处理平台3的图像处理单元,且T5时刻在T1时刻之前。这样,第四预测时长Δtdisplay4=T1-T5。
其中,包括该帧图像数据A的第四图像集合需要依次经过图像处理、编码推流至服务器、通过服务器1推流至显示终端、显示终端进行排图显示,因此可通过图像处理平台3预测上述过程所需要的时间从而获得第四预测时长Δtdisplay4。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第四预测时长Δtdisplay4。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T4,因而可基于上一帧图像数据B的T1和T5获得第三预测时长Δtdisplay4。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在一些实施例中,所述图像显示***还包括图像采集装置4。如图6所示,图像采集装置,包括用于采集多视点图像数据的图像采集单元;被配置为:获取所述眼球位置坐标和第五预测时长,基于所述眼球位置坐标和所述第五预测时长确定第五预测视点;控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第四图像集合,并将所述第四图像集合发送至所述图像处理平台;其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
在本实施例中,图像采集装置4可以包括多个图像采集单元,图像采集单元可以包括相机、摄像机等用于实现图像数据、视频数据采集的设备。图像采集装置4可以采集基于多种角度对待拍摄对象进行图像数据、视频数据的采集以生成用于实现多实现显示的图像数据。为实现在显示终端2的裸眼3D显示,图像采集装置4中包括能够实现与40-60个视点匹配的图像数据或视频流数据。本实施例中以图像采集装置4可采集60个视点的图像数据或视频流数据为例进行说明。
图像采集装置4接收到显示终端2发送的眼球位置坐标后,获取第五预测时长,并基于该眼球位置坐标和第五预测时长获得第五预测视点。其中,第五预测视点的视点数量大于第四预测视点的视点数量。
之后,图像采集装置4控制与第五预测视点中所包含的各个视点匹配的图像采集单元进行多视点图像采集以生成第四图像集合,再将第四图像集合发送给图像处理平台3。
这样,基于眼球追踪技术实现的视点预测,不仅可以减少需要采集的图像数据,还可以减少从图像采集装置4发送至图像处理平台3的图像数据,因此可以减少图像数据的传输量和处理量,进而减少数据传输的延时。
可选的,所述图像显示***可以应用于一对一视频应用场景中,例如视频通话、视频会议等。
所述图像采集装置4还被配置为:接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量;根据当前采集时刻的眼球位置坐标、第五预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第五眼球位置预测坐标,并根据所述第五眼球位置预测坐标确定所述第五预测视点。
在本实施例中,图像采集装置4接收当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第五预测时长Δtdisplay5以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第五预测视点对应的第五眼球位置预测坐标(xdisplay5,ydisplay5,zdisplay5),其中,第五眼球位置预测坐标(xdisplay5,ydisplay5,zdisplay5)满足:
这样,即可根据该确定第五眼球位置预测坐标确定第五预测视点。
在一些实施例中,第五预测时长Δtdisplay5的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T6时刻到达图像采集装置4,且T6时刻在T1时刻之前。这样,第五预测时长Δtdisplay5=T1-T6。
其中,图像采集装置4选择与第五预测视点匹配的图像采集单元进行图像数据的采集以生成包括该帧图像数据A的第一图像集合,再依次经过图像处理、编码推流至服务器、通过服务器1推流至显示终端、显示终端进行排图显示,因此可通过图像采集装置4预测上述过程所需要的时间从而获得第五预测时长Δtdisplay5。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第五预测时长Δtdisplay5。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T6,因而可基于上一帧图像数据B的T1和T6获得第三预测时长Δtdisplay5。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在另一些实施例中,所述服务器1还被配置为:根据所述眼球位置坐标确定单眼眼球位置预测坐标,根据所述单眼眼球位置预测坐标获取单眼预测视点;获取双眼瞳孔距离并根据所述双眼瞳孔距离和所述单眼预测视点确定另一眼的预测视点,根据所述单眼预测视点和另一眼的预测视点确定所述第一预测视点。
在本实施例中,根据柱状透镜立体显示器的成像原理,其左右眼的视点是成对匹配的。如图9所示,例如若左眼观察视点1时,则右眼必定观察视点3,这是因为观察者的瞳距在一个大范围内。因此,在进行第一预测视点的预测时,可以仅基于单眼的眼球位置坐标进行眼球位置预测坐标的预测,从而获得单眼测视点。之后再基于用户的双眼瞳孔距离确定另一只眼睛的视点,从而保证左右眼的同步。而在进行直播推流时,将与左右眼视点对应的图像数据拼接成一张图像进行处理,从而保证左右眼的绝对同步。
可选的,第二预测视点、第三预测视点、第四预测视点和第五预测视点的计算方式与上述实施例相同,即均根据所述眼球位置坐标确定单眼眼球位置预测坐标,根据所述单眼眼球位置预测坐标获取单眼预测视点;获取双眼瞳孔距离并根据所述双眼瞳孔距离和所述单眼预测视点确定另一眼的预测视点,根据所述单眼预测视点和另一眼的预测视点确定所述第二预测视点、第三预测视点、第四预测视点或第五预测视点。
在一些实施例中,所述服务器1还被配置为:根据当前采集时刻的眼球位置坐标和眼球位置预测坐标确定眼球运动轨迹,获取与所述眼球运动轨迹重合的视点作为所述第一预测视点。
如图8所示,基于当前采集时刻的眼球位置坐标,将眼球与坐标系XYZ的原点连接成第一直线,该第一直线与Z轴的夹角在水平方向上的投影夹角∠α;基于眼球位置预测坐标,将眼球与坐标系XYZ的原点连接成第二直线,该第二直线与Z轴的夹角在水平方向上的投影夹角为∠β,则眼球运动轨迹为夹角∠α到∠β之间。相应的,第一预测视点为夹角∠α到∠β之间的全部视点。
可选的,第二预测视点、第三预测视点、第四预测视点或第五预测视点也采用本实施例中所示的方法进行预测。由于各个预测视点与预测时长有关,而预测时长越长,夹角∠α到∠β的跨度越大,包含的视点越多;预测时长越短,夹角∠α到∠β的跨度越小,包含的视点越少;这样,越接近于显示终端的排图显示,预测视点的数量越少,需传输和处理的图像数据也越少。
可选的,在如图6所示的图像显示***中,可仅基于第一预测视点、第二预测视点、第三预测视点、第四预测视点和第五预测视点中的任意一个预测点进行注视点预测来减少数据处理量和传输量,也可基于该五个预测点中的多个预测点或全部的预测点进行注视点预测来减少数据处理量和传输量,本实施例对此不作具体限定。
在一些实施例中,所述显示终端2还被配置为:从所述第二图像集合中选择与所述第一预测视点匹配的图像数据建立帧缓存;以及,检测所述帧缓存中每一帧图像数据的时间戳以确定待显示的图像数据。
本实施例中,如图9所示,当显示终端2检测到用户眼球即将向眼球位置预测坐标移动时,例如检测到眼球位置从前采集时刻的眼球位置坐标开始移动且眼球运动矢量大于预设的***误差值,即可基于上述实施例中任意一个或多个预测结果在显示终端2上建立帧缓存,以便于后续的图像显示。
当检测到用户眼球即将移动至眼球位置预测坐标时,验证帧缓存中的每一帧图像数据的时间戳,从而选择从正确的帧开始播放,避免因切换视频流数据导致播放错误。如图9所示,例如在当前位置,左眼视点显示视点(view)2的第十帧图像数据,而预测视点为视点(view)3且应显示第十一帧图像数据;当用户实现即将移动到与视点(view)3对应的位置时,需验证视点(view)3对应的各帧图像的时间戳,并从中选择第十一帧图像数据进行播放。
基于同一发明构思,与上述任意实施例***相对应的,本公开还提供了一种一种图像显示方法。如图10所示,所述图像显示方法包括:
步骤S101,显示终端采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器。
本实施例中,显示终端通过眼球追踪技术获取眼球位置坐标后发送至服务器。
步骤S102,服务器获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据。
本实施例中,服务器1中需包括用于实现裸眼3D显示的第一图像集合。
步骤S103,所述服务器获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取与预测显示时刻匹配的第一预测视点。服务器1接收到显示终端2发送的眼球位置坐标后,获取第一预测时长,并基于该眼球位置坐标和第一预测时长获得第一预测视点,
步骤S104,所述从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端。服务器1从第一图像集合中选择与第一预测视点中所包含的各个视点匹配的图像数据生成第二图像集合后发送给显示终端2,使得显示终端2可以基于该第二图像集合中的图像数据进行排图显示。
步骤S105,所述显示终端接收所述第二图像集合,并基于所述第二图像集合进行显示。
本实施例所述图像显示方法,通过显示终端采集眼球位置坐标,并将眼球位置坐标发送至所述服务器;服务器基于眼球位置坐标预测待显示图像的显示时刻时所对应的第一预测视点;之后服务器基于该第一预测视点从第一图像集合中选择出与该第一预测视点匹配的图像数据生成第二图像集合发送至显示终端,显示终端仅需基于第二图像集合中的图像进行显示,而无需将第一图像集合中的全部图像数据均拉流至显示终端上再进行像素点亮、图像渲染、排图显示等操作,从而可以减少图像数据的传输量和处理量。
在本实施例中,显示终端2实时采集显示屏前的用户的眼球位置坐标。其中,用户的眼球位置坐标包括当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标。其中,当前采集时刻的眼球位置坐标即为用户观看当前帧图像数据时用户的眼球位置坐标,上一采集时刻的眼球位置坐标即为显示终端2上一次采集用户观看图像时用户的眼球位置坐标,二者分别为显示终端2进行眼球位置坐标采集时相邻的两次采集结果。其中,在一帧图像信息播放的时间,显示终端2可以采集多次眼球位置坐标;或者,在相邻的两次眼球位置坐标的采集间隙中播放一帧或多帧图像信息,本实施例对此不作限制。
如图8所示,以显示终端的显示屏的中心点为原点建立XYZ坐标系,另上一采集时刻的眼球位置坐标为(xlast,ylast,zlast),当前采集时刻的眼球位置坐标为(xnow,ynow,znow),则眼球运动矢量满足:
服务器接收当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第一预测时长Δtdisplay1以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第一预测视点对应的第一眼球位置预测坐标(xdisplay1,ydisplay1,zdisplay1),其中,第一眼球位置预测坐标(xdisplay1,ydisplay1,zdisplay1)满足:
这样,即可根据该确定第一眼球位置预测坐标确定第一预测视点。
在一些实施例中,第一预测时长Δtdisplay1的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T3时刻到达服务器1,且T3时刻在T1时刻之前。这样,第一预测时长Δtdisplay1=T1-T3。
其中,包括该帧图像数据A的第一图像集合到达服务器1后,需要从第一图像集合中选择出与第一预测视点匹配的图像数据生成包括该帧图像数据A的第二图像集合发送至显示终端2,且显示终端2需要基于包括该帧图像数据A的第二图像集合进行排图显示,因此可通过服务器1预测上述过程所需要的时间从而获得第一预测时长Δtdisplay1。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第一预测时长Δtdisplay1。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T3,因而可基于上一帧图像数据B的T1和T3获得第一预测时长Δtdisplay1。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在一些实施例中,如图11所示,所述图像显示方法,还包括:
步骤S201,所述播放设备获取所述眼球位置坐标和第二预测时长。
步骤S202,所述播放设备基于所述眼球位置坐标和第二预测时长确定第二预测视点。
步骤S203,所述播放设备从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;
其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
在本实施例中,显示终端2获取当前采集时刻的眼球位置坐标(xnow,ynow,znow)和眼球运动矢量获取第二预测时长Δtdisplay2以及眼球追踪采集间隔时长Δt,并基于上述信息计算与第二预测视点对应的第二眼球位置预测坐标(xdisplay2,ydisplay2,zdisplay2),其中,第二眼球位置预测坐标(xdisplay2,ydisplay2,zdisplay2)满足:
这样,即可根据该确定第二眼球位置预测坐标确定第二预测视点。
在一些实施例中,第二预测时长Δtdisplay2的获取方法如下:如图7所示,假设在T0时刻,显示终端2获取当前采集时刻的眼球位置坐标,并预测到某一帧图像数据A将于T1时刻在显示终端2上进行排图显示,其中T0时刻在T1时刻之前。该帧图像数据A于T2时刻到达显示终端2,且T2时刻在T1时刻之前。这样,第一预测时长Δtdisplay1=T1-T2。
其中,包括该帧图像数据A的第二图像集合到达显示终端2后,需要从第二图像集合中选择出与第二预测视点匹配的图像数据进行排图显示,因此可通过显示终端2预测上述过程所需要的时间从而获得第二预测时长Δtdisplay2。
或者,也可以基于已经完成上述处理步骤的上一帧图像数据B来计算第二预测时长Δtdisplay2。由于上一帧图像数据B已经显示完成,则***已知实现上述处理过程所需的时间,即已获得T1和T2,因而可基于上一帧图像数据B的T1和T2获得第一预测时长Δtdisplay2。其中,上一帧图像数据B可以与该帧图像数据A为相邻的图像帧,也可以为不相邻的图像帧,本实施例对此不作限制。
在一些实施例中,所述图像显示方法,所述图像显示***还包括图像处理平台;所述方法还包括:
步骤S301,图像处理平台获取第三图像集合、所述眼球位置坐标和第三预测时长。
步骤S302,所述图像处理平台基于眼球位置坐标和所述第三预测时长确定第三预测视点。
步骤S303,所述图像处理平台从所述第三图像集合中选择与所述第三预测时长匹配的图像数据进行编码以生成所述第一图像集合,并将所述第一图像集合发送至所述服务器;
其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
图像处理平台3的编码推流单元中需包括用于实现裸眼3D显示的第三图像集合。图像处理平台3的编码推流单元接收到显示终端2发送的眼球位置坐标后,获取第三预测时长,并基于该眼球位置坐标和第三预测时长获得第三预测视点。其中,第三预测视点的视点数量大于第一预测视点的视点数量。
之后,图像处理平台3从第三图像集合中选择与第三预测视点中所包含的各个视点匹配的图像数据进行编码处理以生成第一图像集合,再将第一图像集合发送给服务器1。
其中,该第一图像集合是第三图像集合的子集,第三图像集合中包括除了与第三预测视点匹配的图像数据以外,还包括其他视点的图像数据。这样,基于眼球追踪技术实现的视点预测,不仅可以减少需要编码处理的图像数据,还可以减少从图像处理平台3发送至服务器1的图像数据,因此可以减少图像数据的传输量和处理量,进而减少数据传输的延时。
在一些实施例中,所述图像显示方法,还包括:
步骤S401,所述图像处理平台获取第四图像集合和第四预测时长。
步骤S402,所述图像处理平台基于所述眼球位置坐标和第四预测时长确定第四预测视点。
步骤S403,所述图像处理平台从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;
其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
在一些实施例中,所述图像显示方法,还包括:
步骤S501,图像采集装置获取所述眼球位置坐标和第五预测时长,并基于所述眼球位置坐标和所述第五预测时长确定第五预测视点。
步骤S502,图像采集装置控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第五图像集合。
其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
可选的,所述图像显示方法,还包括:
所述显示终端实时获取用户的所述眼球位置坐标,并基于所述眼球位置坐标中的当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标确定眼球运动矢量。
所述服务器接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量,并根据当前采集时刻的眼球位置坐标、第一预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第一眼球位置预测坐标,并根据所述第一眼球位置预测坐标确定所述第一预测视点。
可选的,所述服务器根据所述眼球位置坐标确定单眼眼球位置预测坐标,根据所述单眼眼球位置预测坐标获取单眼预测视点;获取双眼瞳孔距离并根据所述双眼瞳孔距离和所述单眼预测视点确定另一眼的预测视点,根据所述单眼预测视点和另一眼的预测视点确定所述第一预测视点。
可选的,所述服务器根据当前采集时刻的眼球位置坐标和眼球位置预测坐标确定眼球运动轨迹,获取与所述眼球运动轨迹重合的视点作为所述第一预测视点。
可选的,所述显示终端从所述第二图像集合中选择与所述第一预测视点匹配的图像数据建立帧缓存;以及,所述显示终端检测所述帧缓存中每一帧图像数据的时间戳以确定待显示的图像数据。
需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本公开实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本公开实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本公开实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本公开实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本公开实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本公开实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本公开实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (16)
1.一种图像显示***,其特征在于,应用于裸眼3D显示,包括:
服务器,被配置为:获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取第一预测视点;从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端;
显示终端,被配置为:采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;以及,接收所述第二图像集合,基于所述第二图像集合进行显示。
2.根据权利要求1所述的***,其特征在于,
所述显示终端,还被配置为:获取所述眼球位置坐标和第二预测时长;基于所述眼球位置坐标和第二预测时长确定第二预测视点;从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;
其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
3.根据权利要求2所述的***,其特征在于,还包括:
图像处理平台,被配置为:获取第三图像集合、所述眼球位置坐标和第三预测时长;基于眼球位置坐标和所述第三预测时长确定第三预测视点;从所述第三图像集合中选择与所述第三预测视点匹配的图像数据进行编码以生成所述第一图像集合,将所述第一图像集合发送至所述服务器;
其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
4.根据权利要求3所述的***,其特征在于,
图像处理平台,还被配置为:获取第四图像集合和第四预测时长;基于所述眼球位置坐标和第四预测时长确定第四预测视点;从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;
其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
5.根据权利要求4所述的***,其特征在于,还包括:
图像采集装置,包括用于采集多视点图像数据的图像采集单元;被配置为:获取所述眼球位置坐标和第五预测时长,基于所述眼球位置坐标和所述第五预测时长确定第五预测视点;控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第四图像集合,并将所述第四图像集合发送至所述图像处理平台;
其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
6.根据权利要求5所述的***,其特征在于,
所述显示终端,还被配置为:实时获取用户的所述眼球位置坐标;基于所述眼球位置坐标中的当前采集时刻的眼球位置坐标和上一采集时刻的眼球位置坐标确定眼球运动矢量;
所述服务器,还被配置为:接收所述显示终端发送的当前采集时刻的眼球位置坐标和眼球运动矢量;根据当前采集时刻的眼球位置坐标、第一预测时长、眼球追踪采集间隔时长以及眼球运动矢量确定第一眼球位置预测坐标,并根据所述第一眼球位置预测坐标确定所述第一预测视点。
7.根据权利要求6所述的***,其特征在于,还包括:
所述服务器,还被配置为:根据所述眼球位置坐标确定单眼眼球位置预测坐标,根据所述单眼眼球位置预测坐标获取单眼预测视点;获取双眼瞳孔距离并根据所述双眼瞳孔距离和所述单眼预测视点确定另一眼的预测视点,根据所述单眼预测视点和另一眼的预测视点确定所述第一预测视点。
8.根据权利要求6所述的***,其特征在于,
所述服务器,还被配置为:根据当前采集时刻的眼球位置坐标和眼球位置预测坐标确定眼球运动轨迹,获取与所述眼球运动轨迹重合的视点作为所述第一预测视点。
9.根据权利要求6所述的***,其特征在于,
所述显示终端,还被配置为:从所述第二图像集合中选择与所述第一预测视点匹配的图像数据建立帧缓存;以及,检测所述帧缓存中每一帧图像数据的时间戳以确定待显示的图像数据。
10.一种图像显示方法,其特征在于,包括:
显示终端采集眼球位置坐标,并将所述眼球位置坐标发送至所述服务器;
服务器获取第一图像集合,所述第一图像集合包括与多个视点匹配的多视点图像数据;
所述服务器获取眼球位置坐标,基于所述眼球位置坐标和第一预测时长获取与预测显示时刻匹配的第一预测视点;
所述服务器从所述第一图像集合中选择与所述第一预测视点匹配的图像数据生成第二图像集合,将所述第二图像集合发送至显示终端;
所述显示终端接收所述第二图像集合,并基于所述第二图像集合进行显示。
11.根据权利要求10所述的方法,其特征在于,还包括:
所述播放设备获取所述眼球位置坐标和第二预测时长;
所述播放设备基于所述眼球位置坐标和第二预测时长确定第二预测视点;
所述播放设备从所述第二图像集合中选择与所述第二预测视点匹配的图像数据进行显示;
其中,所述第一预测时长大于所述第二预测时长,所述第一预测视点包括所述第二预测视点。
12.根据权利要求11所述的方法,其特征在于,还包括:
图像处理平台获取第三图像集合、所述眼球位置坐标和第三预测时长;
所述图像处理平台基于眼球位置坐标和所述第三预测时长确定第三预测视点;
所述图像处理平台从所述第三图像集合中选择与所述第三预测时长匹配的图像数据进行编码以生成所述第一图像集合,并将所述第一图像集合发送至所述服务器;
其中,所述第三预测时长大于所述第一预测时长,所述第三预测视点包括所述第一预测视点。
13.根据权利要求12所述的方法,其特征在于,还包括:
所述图像处理平台获取第四图像集合和第四预测时长;
所述图像处理平台基于所述眼球位置坐标和第四预测时长确定第四预测视点;
所述图像处理平台从所述第四图像集合中选择与所述第四预测视点匹配的图像数据进行图像处理以生成所述第三图像集合;
其中,所述第四预测时长大于所述第三预测时长,所述第四预测视点包括所述第三预测视点。
14.根据权利要求13所述的方法,其特征在于,还包括:
图像采集装置获取所述眼球位置坐标和第五预测时长,并基于所述眼球位置坐标和所述第五预测时长确定第五预测视点;
图像采集装置控制与所述第五预测视点匹配的图像采集单元进行图像采集以生成第五图像集合;
其中,所述第五预测时长大于所述第四预测时长,所述第五预测视点包括所述第四预测视点。
15.一种包含计算机程序的非易失性计算机可读存储介质,其特征在于,当所述计算机程序被一个或多个处理器执行时,使得所述处理器执行权利要求10-14中任一项所述的方法。
16.一种计算机程序产品,包括计算机程序指令,其特征在于,当所述计算机程序指令在计算机上运行时,使得计算机执行如权利要求10-14中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111423175.XA CN114040184A (zh) | 2021-11-26 | 2021-11-26 | 图像显示方法、***、存储介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111423175.XA CN114040184A (zh) | 2021-11-26 | 2021-11-26 | 图像显示方法、***、存储介质及计算机程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114040184A true CN114040184A (zh) | 2022-02-11 |
Family
ID=80138979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111423175.XA Pending CN114040184A (zh) | 2021-11-26 | 2021-11-26 | 图像显示方法、***、存储介质及计算机程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114040184A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116320551A (zh) * | 2023-05-25 | 2023-06-23 | 南方科技大学 | 一种基于多个多球面图像的多视点视频自适应传输方法 |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102045578A (zh) * | 2009-10-16 | 2011-05-04 | 索尼公司 | 图像处理设备和图像处理方法 |
CN102176755A (zh) * | 2010-12-24 | 2011-09-07 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 基于眼动三维显示角度的控制方法及装置 |
CN102378032A (zh) * | 2010-08-09 | 2012-03-14 | Lg电子株式会社 | 显示三维图像的***、装置和方法以及位置跟踪设备 |
CN104506836A (zh) * | 2014-11-28 | 2015-04-08 | 深圳市亿思达科技集团有限公司 | 基于眼球追踪的个人全息三维显示方法及设备 |
US20170302918A1 (en) * | 2016-04-15 | 2017-10-19 | Advanced Micro Devices, Inc. | Efficient streaming of virtual reality content |
CN107274472A (zh) * | 2017-06-16 | 2017-10-20 | 福州瑞芯微电子股份有限公司 | 一种提高vr播放帧率的方法和装置 |
CN108063940A (zh) * | 2017-12-25 | 2018-05-22 | 上海玮舟微电子科技有限公司 | 一种人眼跟踪裸眼3d显示***的校正***和方法 |
CN108600733A (zh) * | 2018-05-04 | 2018-09-28 | 成都泰和万钟科技有限公司 | 一种基于人眼跟踪的裸眼3d显示方法 |
CN108919958A (zh) * | 2018-07-16 | 2018-11-30 | 北京七鑫易维信息技术有限公司 | 一种图像传输方法、装置、终端设备及存储介质 |
CN109257584A (zh) * | 2018-08-06 | 2019-01-22 | 上海交通大学 | 360度视频传输的用户观看视点序列预测方法 |
CN109271022A (zh) * | 2018-08-28 | 2019-01-25 | 北京七鑫易维信息技术有限公司 | 一种vr设备的显示方法、装置、vr设备及存储介质 |
CN109743626A (zh) * | 2019-01-02 | 2019-05-10 | 京东方科技集团股份有限公司 | 一种图像显示方法、图像处理方法和相关设备 |
JP2020038734A (ja) * | 2015-12-01 | 2020-03-12 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
CN111885367A (zh) * | 2020-07-20 | 2020-11-03 | 上海青研科技有限公司 | 显示装置及应用方法 |
CN112507799A (zh) * | 2020-11-13 | 2021-03-16 | 幻蝎科技(武汉)有限公司 | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 |
CN112929645A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 3d显示设备、***和方法及3d视频数据通信方法 |
CN112929647A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 3d显示设备、方法和终端 |
WO2021110038A1 (zh) * | 2019-12-05 | 2021-06-10 | 北京芯海视界三维科技有限公司 | 3d显示设备、3d图像显示方法 |
CN113170234A (zh) * | 2018-11-29 | 2021-07-23 | 苹果公司 | 多向视频的自适应编码和流式传输 |
CN113272715A (zh) * | 2019-01-14 | 2021-08-17 | 威尔乌集团 | 基于眼睛跟踪的动态渲染时间确定 |
CN113534947A (zh) * | 2020-04-21 | 2021-10-22 | 博泰车联网(南京)有限公司 | 一种基于眼球追踪的显示器背光控制方法及设备 |
-
2021
- 2021-11-26 CN CN202111423175.XA patent/CN114040184A/zh active Pending
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102045578A (zh) * | 2009-10-16 | 2011-05-04 | 索尼公司 | 图像处理设备和图像处理方法 |
CN102378032A (zh) * | 2010-08-09 | 2012-03-14 | Lg电子株式会社 | 显示三维图像的***、装置和方法以及位置跟踪设备 |
CN102176755A (zh) * | 2010-12-24 | 2011-09-07 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 基于眼动三维显示角度的控制方法及装置 |
CN104506836A (zh) * | 2014-11-28 | 2015-04-08 | 深圳市亿思达科技集团有限公司 | 基于眼球追踪的个人全息三维显示方法及设备 |
JP2020038734A (ja) * | 2015-12-01 | 2020-03-12 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
US20170302918A1 (en) * | 2016-04-15 | 2017-10-19 | Advanced Micro Devices, Inc. | Efficient streaming of virtual reality content |
CN107274472A (zh) * | 2017-06-16 | 2017-10-20 | 福州瑞芯微电子股份有限公司 | 一种提高vr播放帧率的方法和装置 |
CN108063940A (zh) * | 2017-12-25 | 2018-05-22 | 上海玮舟微电子科技有限公司 | 一种人眼跟踪裸眼3d显示***的校正***和方法 |
CN108600733A (zh) * | 2018-05-04 | 2018-09-28 | 成都泰和万钟科技有限公司 | 一种基于人眼跟踪的裸眼3d显示方法 |
CN108919958A (zh) * | 2018-07-16 | 2018-11-30 | 北京七鑫易维信息技术有限公司 | 一种图像传输方法、装置、终端设备及存储介质 |
CN109257584A (zh) * | 2018-08-06 | 2019-01-22 | 上海交通大学 | 360度视频传输的用户观看视点序列预测方法 |
CN109271022A (zh) * | 2018-08-28 | 2019-01-25 | 北京七鑫易维信息技术有限公司 | 一种vr设备的显示方法、装置、vr设备及存储介质 |
CN113170234A (zh) * | 2018-11-29 | 2021-07-23 | 苹果公司 | 多向视频的自适应编码和流式传输 |
CN109743626A (zh) * | 2019-01-02 | 2019-05-10 | 京东方科技集团股份有限公司 | 一种图像显示方法、图像处理方法和相关设备 |
CN113272715A (zh) * | 2019-01-14 | 2021-08-17 | 威尔乌集团 | 基于眼睛跟踪的动态渲染时间确定 |
CN112929645A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 3d显示设备、***和方法及3d视频数据通信方法 |
CN112929647A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 3d显示设备、方法和终端 |
WO2021110038A1 (zh) * | 2019-12-05 | 2021-06-10 | 北京芯海视界三维科技有限公司 | 3d显示设备、3d图像显示方法 |
CN113534947A (zh) * | 2020-04-21 | 2021-10-22 | 博泰车联网(南京)有限公司 | 一种基于眼球追踪的显示器背光控制方法及设备 |
CN111885367A (zh) * | 2020-07-20 | 2020-11-03 | 上海青研科技有限公司 | 显示装置及应用方法 |
CN112507799A (zh) * | 2020-11-13 | 2021-03-16 | 幻蝎科技(武汉)有限公司 | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 |
Non-Patent Citations (4)
Title |
---|
MARCO ZAMARIN等: "A Joint Multi-View Plus Depth Image Coding Scheme Based on 3D-Warping", 3DVP\'10:PROCEEDINGS OF THE 1ST INTERNATIONAL WORKSHOP ON 3D VIDEO PROCESSING, pages 7 - 12 * |
周芸,王强,付光涛: "裸眼3D电视***", 广播电视信息, pages 32 - 34 * |
薛钊鸿;孙梓瀚;成泽锐;方衡;黄梓钊;李佼洋;蔡志岗;王嘉辉;: "基于人眼检测优化的立体人机交互技术的研究", 液晶与显示, no. 11 * |
邢妍;王琼华;: "集成成像3D信息获取技术", 红外与激光工程, no. 03 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116320551A (zh) * | 2023-05-25 | 2023-06-23 | 南方科技大学 | 一种基于多个多球面图像的多视点视频自适应传输方法 |
CN116320551B (zh) * | 2023-05-25 | 2023-08-29 | 南方科技大学 | 一种基于多个多球面图像的多视点视频自适应传输方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9729850B2 (en) | Methods and apparatus for receiving and/or using reduced resolution images | |
US20150358539A1 (en) | Mobile Virtual Reality Camera, Method, And System | |
US9774896B2 (en) | Network synchronized camera settings | |
Aggoun et al. | Immersive 3D holoscopic video system | |
US9654762B2 (en) | Apparatus and method for stereoscopic video with motion sensors | |
CN101636747A (zh) | 二维/三维数字信息获取和显示设备 | |
US8723920B1 (en) | Encoding process for multidimensional display | |
You et al. | Internet of Things (IoT) for seamless virtual reality space: Challenges and perspectives | |
US10037335B1 (en) | Detection of 3-D videos | |
KR101329057B1 (ko) | 다시점 입체 동영상 송신 장치 및 방법 | |
US10404964B2 (en) | Method for processing media content and technical equipment for the same | |
US20190335153A1 (en) | Method for multi-camera device | |
CN115639976A (zh) | 一种虚拟现实内容多模式多角度同步展示方法及*** | |
CN114040184A (zh) | 图像显示方法、***、存储介质及计算机程序产品 | |
CN103248910A (zh) | 三维成像***及其图像再现方法 | |
US20120268572A1 (en) | 3D Video Camera and Associated Control Method | |
CN116320506A (zh) | 一种影视视频立体交互服务管理方法 | |
US11010923B2 (en) | Image encoding method and technical equipment for the same | |
EP2852149A1 (en) | Method and apparatus for generation, processing and delivery of 3D video | |
JP2012134885A (ja) | 画像処理装置及び画像処理方法 | |
CN109479147B (zh) | 用于时间视点间预测的方法及技术设备 | |
KR101433082B1 (ko) | 2차원 영상과 3차원 영상의 중간 정도 느낌을 주는 영상 변환 및 재생 방법 | |
Kim | High efficient 3D vision system using simplification of stereo image rectification structure | |
CN117880480A (zh) | 一种图像生成方法和电子设备 | |
CN113132712A (zh) | 双焦距视频的沉浸式显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |