CN114020150A - 图像显示方法、装置、电子设备及介质 - Google Patents

图像显示方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN114020150A
CN114020150A CN202111256026.9A CN202111256026A CN114020150A CN 114020150 A CN114020150 A CN 114020150A CN 202111256026 A CN202111256026 A CN 202111256026A CN 114020150 A CN114020150 A CN 114020150A
Authority
CN
China
Prior art keywords
display screen
display
image
target object
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111256026.9A
Other languages
English (en)
Inventor
夏正国
潘熙松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Vision Technology Nanjing Co ltd
Original Assignee
Deep Vision Technology Nanjing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Vision Technology Nanjing Co ltd filed Critical Deep Vision Technology Nanjing Co ltd
Priority to CN202111256026.9A priority Critical patent/CN114020150A/zh
Publication of CN114020150A publication Critical patent/CN114020150A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本申请实施例公开了一种图像显示方法、装置、电子设备及介质。该方法包括:获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输立体影像,以使目标设备根据立体影像进行图像显示;根据立体影像,确定目标对象的双眼相对于显示屏的坐标信息;根据坐标信息,确定显示屏的分布显示参数,根据分布显示参数控制显示屏对待显示图像进行显示。以上技术方案解决了目前需要通过立体影像传感器和人眼***两套设备完成3D立体图像的显示的局限,只需根据立体影像传感器的标定参数以及拍摄的立体影像即可得到人眼的相对显示屏的位置,进而控制显示屏进行立体显示得到3D立体图像的显示效果,技术方案操作简单且降低了成本。

Description

图像显示方法、装置、电子设备及介质
技术领域
本申请实施例涉及裸眼3D显示技术领域,尤其涉及一种图像显示方法、装置、电子设备及介质。
背景技术
随着裸眼3D显示设备越来越普及,多数人开始使用裸眼3D显示设备进行远程视频,通过裸眼3D显示设备可以看到视频对象的3D立体画面。
现有技术中通常在裸眼3D显示设备中装备两个摄像机以及一套人眼跟踪设备。两个摄像机用于实时拍摄采集对象的左右视图传输给视频双方,人眼跟踪设备用于实时捕获人眼的位置,以便使显示设备根据人眼位置将对方传过来的左右视图分别传送给左右眼,从而产生3D立体画面。但是以上3D立体画面的显示方法的流程较为繁琐,且在裸眼3D显示设备中装备两个摄像机以及一套人眼跟踪设备会产生较高的成本。
发明内容
本申请实施例提供一种图像显示方法、装置、电子设备及介质,实现了通过一套拍摄***即可为远程视频的人提供3D立体图像显示功能。
第一方面,本申请实施例提供了一种图像显示方法,所述方法包括:
获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;
根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;
根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
第二方面,本申请实施例提供了一种图像显示装置,该装置包括:
立体图像获取模块,用于获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;
坐标信息获取模块,用于根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;
图像显示控制模块,用于根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
第三方面,本申请实施例提供了一种电子设备,包括一个或多个处理器;存储器,用于存储一个或多个程序;所述一个或多个处理器执行所述一个或多个程序时实现如本申请实施例所述的图像显示方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的图像显示方法。
本申请实施例公开了一种图像显示方法、装置、电子设备及介质。该方法包括:获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。以上技术方案解决了现有技术中需要通过立体影像传感器和人眼跟踪两套设备完成3D立体图像的显示的局限,只需根据立体影像传感器的标定参数以及立体影像传感器拍摄的立体影像即可得到人眼的相对位置,再根据人眼的相对位置对左右视图进行显示即可得到3D立体画面的显示效果,所属技术方案操作简单且无需在设备上花费过多的成本。
附图说明
图1是本申请一种实施例提供的图像显示方法的流程图;
图2是本申请一种实施例提供的远程视频交流示意图;
图3是本申请另一种实施例提供的图像显示方法的流程图;
图4是本申请又一种实施例提供的图像显示流程示意图;
图5是本申请又一种实施例提供的另一种图像显示流程示意图;
图6是本申请一种实施例提供的图像显示装置结构框图;
图7是本申请一种实施例提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作在本申请实施例中详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
图1是本申请一种实施例提供的图像显示方法的流程图,本实施例可适用于使用裸眼3D显示设备远程视频的场景中。该方法可以由本申请实施例所提供的图像显示装置执行,该装置可以由软件和/或硬件的方式来实现,并集成于电子设备中,电子设备可以是裸眼3D显示设备。
如图1所示,本申请实施例中提供的图像显示方法可包括以下步骤:
S110、获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示。
其中,显示屏可以是裸眼3D显示设备的显示屏,裸眼3D显示设备是指利用人两眼具有视差的特性,在不需要任何辅助设备(如3D眼镜,头盔等)的情况下,即可获得具有空间、深度的逼真立体图像的显示设备。
本申请实施例中,所述立体影像传感器为双目影像传感器,或者影像传感器与深度信息传感器的组合。立体影像传感器为双目影像传感器时,双目影像传感器可以模拟人的左右眼获取目标对象的左右视图,左视图是左目镜的角度获取到目标对象的图像,右视图是右目镜获取到的目标对象的图像。当立体影像传感器为影像传感器与深度信息传感器的组合时,其中的影像传感器可以为普通摄像头,深度信息传感器可以为激光测距传感器、超声波测距传感器等。立体影像传感器可以是与裸眼3D显示设备外连的,也可以是集成在裸眼3D显示设备设备中的。
目标对象可以是正通过裸眼3D显示设备进行远程视频的对象。本申请实施例中,所述目标对象的立体影像为包括:所述目标对象的具有双目视差的影像对,或者所述目标对象的影像与深度信息的组合。深度信息获取的方法主要包括了TOF(Time of Flight,飞行时间)、结构光、激光扫描等,由深度信息传感器采集。在本申请实施例中,传输的图像格式并不限于立体影像传感器采集的图像的格式,可以将双目影像传感器采集的具有双目视差的影像对转换为目标图像的影像与深度信息结合的形式进行传输,也可以将影像传感器与深度信息传感器的组合采集的目标图像的影像与深度信息结合的形式转换为具有双目是差的影像对的形式进行传输。
目标设备是指接收并显示立体影像的设备,目标设备可以是裸眼3D显示设备。图2是本申请一种实施例提供的远程视频交流示意图。如图2所示,两个处于异地的人通过裸眼3D显示设备进行远程视频。其中设备A的立体影像传感器采集显示屏前目标对象的立体影像并通过网络传输给设备B,设备B接收并显示立体影像,此时设备B为设备A的目标设备;同时设备B的立体影像传感器采集显示屏前目标对象的立体影像并通过网络传输给设备A,设备A接收并显示立体影像,此时设备A为设备B的目标设备。
本申请实施例中,获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示,还包括:
若所述立体影像为具有双目视差的影像对,则将立体影像按照左右格式进行合成,并向目标设备传输合成后的图像,以使目标设备根据合成后的图像进行图像显示。
其中,将立体影像按照左右格式进行合成,是指根据两张2D格式的左右视图合成3D图像。
S120、根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息。
具体的,在获取到包含有左右视图的立体影像之后,利用立体影像传感器标定的参数从立体影像中计算得到左右视图中目标对象的双眼相对于立体影像传感器的空间坐标。该空间坐标所在的空间坐标系可以是以立体影像传感器中左目镜或右目镜为坐标原点建立的,也可以是以左右目镜连线之间的任一点为坐标原点建立的,即目标对象的双眼相对于立体影像传感器的空间坐标代表目标对象的双眼相对于立体影像传感器的位置信息。
进一步的,计算立体影像传感器与显示屏的相对位置,并将目标对象双眼相对于立体影像传感器的空间坐标转换为目标对象双眼相对于显示屏的空间坐标。目标对象双眼相对于显示屏的空间坐标所在的空间坐标系可以是以显示屏中任一点为坐标原点建立的,即目标对象双眼相对于显示屏的空间坐标代表目标对象的双眼相对于显示屏的位置信息。
S130、根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
其中,待显示图像是指立体影像传感器采集的显示屏前目标对象的立体影像。显示屏的分布显示参数是用来确定待显示图像中各个像素在显示屏中的排列顺序。裸眼3D显示设备根据显示屏的分布显示参数控制显示屏显示待显示图像,以使显示屏前的人的左眼可以看到待显示图像中的左视图,右眼可以看到待显示图像中的右视图,从而进一步根据左右视图的视角差呈现3D立体画面。
需要注意的是,步骤S110-S130在两台远程视频的设备上同时进行。如图2所示,两个处于异地的人分别通过设备A和设备B进行远程视频。设备A会同时进行以下步骤:1、获取立体影像传感器采集的显示屏前目标对象的立体影像,根据立体影像确定目标对象的双眼相对于显示屏的坐标信息,根据坐标信息,确定显示屏的分布显示参数;2、向设备B传输立体影像;3、接收来自设备B的立体影像,并根据显示屏的分布显示参数对设备B传输的立体影像进行显示。同样,设备B也会同时进行以下步骤:1、获取立体影像传感器采集的显示屏前目标对象的立体影像,根据立体影像确定目标对象的双眼相对于显示屏的坐标信息,根据坐标信息,确定显示屏的分布显示参数;2、向设备A传输立体影像;3、接收来自设备A的立体影像,并根据显示屏的分布显示参数对设备A传输的立体影像进行显示。
本申请实施例通过以下方法实现了通过一套拍摄***为远程视频的人提供3D立体画面的功能:获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。以上技术方案解决了现有技术中需要通过立体影像传感器和人眼跟踪两套设备完成3D立体图像的显示的局限,只需根据立体影像传感器的标定参数以及立体影像传感器拍摄的立体影像即可得到人眼的相对位置,再根据人眼的相对位置对左右视图进行显示,以呈现3D立体画面的效果,所属技术方案操作简单且无需在设备上花费过多的成本。
图3是本申请另一种实施例提供的图像显示方法的流程图,本申请实施例以上述实施例为基础进行优化。具体优化为:根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息,包括:根据双目相机标定算法,确定目标对象的双眼在立体影像传感器坐标系中的第一坐标信息;根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
如图3所示,本申请实施例中提供的图像显示方法可包括以下步骤:
S210、获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示。
S220、根据双目相机标定算法,确定目标对象的双眼在立体影像传感器坐标系中的第一坐标信息。
其中,立体影像传感器坐标系可以是以立体影像传感器中左目镜或右目镜为坐标原点建立的,也可以是以左右目镜连线之间的任一点为坐标原点建立的,或者以立体影像传感器的中心为坐标原点建立的。第一坐标信息表示目标对象的双眼相对于立体影像传感器的位置信息。
S230、根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
其中,立体影像传感器与显示屏的位置关系可以通过以显示屏中任一点为坐标原点建立的坐标系,以及立体影像传感器坐标系得到。
显示屏坐标系可以是以显示屏中任一点为坐标原点建立的。第二坐标信息代表目标对象的双眼相对于显示屏的位置信息。
本申请实施例中,根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息,包括:
根据立体影像传感器与所述显示屏的位置关系,确定立体影像传感器坐标系与显示屏坐标系之间的转换关系;
根据所述转换关系,以及目标对象的双眼在立体影像传感器坐标系中的第一坐标信息,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
本申请实施例中,立体影像传感器坐标系与显示屏坐标系之间的转换关系可以通过以下公式进行表达。
Figure BDA0003324173020000091
其中,R表示立体影像传感器与显示屏的位置关系矩阵,
Figure BDA0003324173020000092
代表目标对象的双眼在立体影像传感器坐标系中的第一坐标信息矩阵,
Figure BDA0003324173020000093
代表目标对象的双眼在显示屏坐标系中的第二坐标信息矩阵。
S240、根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
本申请实施例中,立体影像传感器坐标系为以立体影像传感器中的任一个摄像头为原点的坐标系,或者为以立体影像传感器的中点为原点的坐标系;显示屏坐标系为以显示屏中点为原点的坐标系。
本申请实施例中,所述方法还包括:
若立体影像中的任一图像中包括至少两个候选对象,则根据至少两个候选对象的双眼相对于显示屏的坐标信息,确定目标对象。
其中,根据至少两个候选对象的双眼相对于显示屏的坐标信息,确定目标对象,可以是将双眼距离显示屏最近的候选对象作为目标对象,也可以是将坐标信息中水平方向或竖直方向坐标与显示屏坐标系原点距离值最小的候选对象作为目标对象。
本申请实施例中,若立体影像中的任一图像中包括至少两个候选对象,则根据至少两个候选对象的双眼相对于显示屏的坐标信息,包括:
将与显示屏距离值最小的双眼对应的候选对象作为目标对象;或者,
将坐标信息中水平方向坐标与显示屏坐标系原点距离值最小的候选对象作为目标对象。
其中,可以将确定目标对象的选择条件进行优先级排序,按照优先级进行判断。例如,与显示屏距离值最小的优先级大于坐标信息中水平方向坐标与显示屏坐标系原点距离值最小,则当图像对的任一图像中包括至少两个候选对象时,先判断至少两个候选对象的双眼与显示屏距离值的大小,将与显示屏距离值最小的双眼对应的候选对象作为目标对象,若至少两个候选对象的双眼与显示屏距离值相同,则继续判断至少两个候选对象的双眼水平方向坐标与显示屏坐标系原点距离值的大小,将坐标信息中水平方向坐标与显示屏坐标系原点距离值最小的候选对象作为目标对象。
本申请实施例通过以下方法确定了人眼相对于显示屏的坐标信息:根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息,包括:根据双目相机标定算法,确定目标对象的双眼在立体影像传感器坐标系中的第一坐标信息;根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。本申请实施例的技术方案仅通过立体影像传感器完成了图像的采集以及人眼的追踪,为裸眼3D设备向用户提供质量更高的3D立体显示画面提供了简单有效的方法,且成本较低。
图4是本申请又一种实施例提供的图像显示流程示意图。图5是本申请又一种实施例提供的另一种图像显示流程示意图。图4与图5包括了远程视频双方采集图像以及显示图像的全部过程,图4所示的视频地区为地区A,图5所示的视频地区为地区B。该过程包括:
地区A主机通过本地双目摄像头,实时获取地区A用户的左右视图。
地区A主机将本地用户左右视图按照左右格式进行合成,并通过网络以流媒体方式将合成的图像实时传输给地区B主机。
地区A主机通过网络获取地区B方用户的经左右视图合成的图像。
地区A主机在本地根据左右视图以及双目相机标定参数,计算出用户双眼相对于双目摄像头的空间坐标。再根据双目摄像头与显示屏的位置关系,计算出用户双眼相对于显示屏的空间坐标。根据双眼现对于显示屏的控件坐标,确定3D显示屏光写参数,再根据3D显示屏光学参数,进一步计算出控制3D显示屏进行显示的参数。地区A主机根据控制显示参数,将地区B用户左右视图显示到地区A的本地屏幕。
地区A与地区B的主机以上步骤的执行过程相同。
本申请实施例与上述任一实施例具有相同的有益效果。
图6是本申请一种实施例提供的图像显示装置结构框图,该装置可执行本申请任意实施例所提供的图像显示方法,具备执行方法相应的功能模块和有益效果。如图6所示,该装置可以包括:
立体图像获取模块310,用于获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示。
坐标信息获取模块320,用于根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息。
图像显示控制模块330,用于根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
本申请实施例中,坐标信息获取模块320,包括:
第一坐标信息获取单元,用于根据双目相机标定算法,确定目标对象的双眼在立体影像传感器坐标系中的第一坐标信息。
第二坐标信息获取单元,用于根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
在本申请实施例中,所述立体影像传感器为双目影像传感器,或者影像传感器与深度信息传感器的组合。
在本申请实施例中,所述目标对象的立体影像为包括:所述目标对象的具有双目视差的影像对,或者所述目标对象的影像与深度信息的组合。
本申请实施例中,第二坐标信息获取单元,具体用于:
根据立体影像传感器与所述显示屏的位置关系,确定立体影像传感器坐标系与显示屏坐标系之间的转换关系;
根据所述转换关系,以及目标对象的双眼在立体影像传感器坐标系中的第一坐标信息,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
本申请实施例中,立体影像传感器坐标系为以立体影像传感器中任一个摄像头为原点的坐标系,或者为以立体影像传感器的中点为原点的坐标系;显示屏坐标系为以显示屏中点为原点的坐标系。
本申请实施例中,所述装置还包括:
图像合成模块,用于若所述立体影像为具有双目视差的影像对,则将立体影像按照左右格式进行合成,并向目标设备传输合成后的图像,以使目标设备根据合成后的图像进行图像显示。
本申请实施例中,所述装置还包括:
目标对象确定模块,用于若立体影像中的任一图像中包括至少两个候选对象,则根据至少两个候选对象的双眼相对于显示屏的坐标信息,确定目标对象。
本申请实施例中,目标对象确定模块,具体用于:
将与显示屏距离值最小的双眼对应的候选对象作为目标对象;或者,
将坐标信息中水平方向坐标与显示屏坐标系原点距离值最小的候选对象作为目标对象。
上述产品可执行本申请实施例所提供的图像显示方法,具备执行方法相应的功能模块和有益效果。
图7是本申请一种实施例提供的电子设备的结构示意图。图7示出了适于用来实现本申请实施例的示例性电子设备412的框图。图7显示的电子设备412仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,电子设备412可以包括:一个或多个处理器416;存储器428,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器416执行,使得所述一个或多个处理器416实现本申请实施例所提供的图像显示方法,包括:
获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
电子设备412的组件可以包括但不限于:一个或者多个处理器416,存储器428,连接不同设备组件(包括存储器428和处理器416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,处理型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
电子设备412典型地包括多种计算机设备可读存储介质。这些存储介质可以是任何能够被电子设备412访问的可用存储介质,包括易失性和非易失性存储介质,可移动的和不可移动的存储介质。
存储器428可以包括易失性存储器形式的计算机设备可读存储介质,例如随机存取存储器(RAM)430和/或高速缓存存储器432。电子设备412可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机设备存储介质。仅作为举例,存储***434可以用于读写不可移动的、非易失性磁存储介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光存储介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据存储介质接口与总线418相连。存储器428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储器428中,这样的程序模块442包括但不限于操作设备、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本申请所描述的实施例中的功能和/或方法。
电子设备412也可以与一个或多个外部设备414和/或显示器424等通信,还可与一个或者多个使得用户能与该电子设备412交互的设备通信,和/或与使得该电子设备412能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口422进行。并且,电子设备412还可以通过网络适配器420与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器420通过总线418与电子设备412的其它模块通信。应当明白,尽管图7中未示出,可以结合电子设备412使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID设备、磁带驱动器以及数据备份存储设备等。
处理器416通过运行存储在存储器428中的多个程序中其他程序的至少一个,从而执行各种功能应用以及数据处理,例如实现本申请实施例所提供的一种图像显示方法。
本申请实施例六提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行图像显示方法,包括:
获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
本申请实施例的计算机存储介质,可以采用一个或多个计算机可读的存储介质的任意组合。计算机可读存储介质可以是计算机可读信号存储介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的设备、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请实施例中,计算机可读存储介质可以是任何包含或存储程序的有形存储介质,该程序可以被指令执行设备、装置或者器件使用或者与其结合使用。
计算机可读的信号存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号存储介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行设备、装置或者器件使用或者与其结合使用的程序。
计算机可读存储介质上包含的程序代码可以用任何适当的存储介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。

Claims (12)

1.一种图像显示方法,其特征在于,所述方法包括:
获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;
根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;
根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
2.根据权利要求1所述的方法,其特征在于,所述立体影像传感器为双目影像传感器,或者影像传感器与深度信息传感器的组合。
3.根据权利要求1所述的方法,其特征在于,所述目标对象的立体影像为所述目标对象的具有双目视差的影像对,或者所述目标对象的影像与深度信息的组合。
4.根据权利要求1所述的方法,其特征在于,根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息,包括:
根据双目相机标定算法,确定目标对象的双眼在立体影像传感器坐标系中的第一坐标信息;
根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
5.根据权利要求4所述的方法,其特征在于,根据所述第一坐标信息,以及立体影像传感器与所述显示屏的位置关系,确定目标对象的双眼在显示屏坐标系中的第二坐标信息,包括:
根据立体影像传感器与所述显示屏的位置关系,确定立体影像传感器坐标系与显示屏坐标系之间的转换关系;
根据所述转换关系,以及目标对象的双眼在立体影像传感器坐标系中的第一坐标信息,确定目标对象的双眼在显示屏坐标系中的第二坐标信息。
6.根据权利要求4或5所述的方法,其特征在于,立体影像传感器坐标系为以立体影像传感器中任一个摄像头为原点的坐标系,或者为以立体影像传感器的中点为原点的坐标系;显示屏坐标系为以显示屏中点为原点的坐标系。
7.根据权利要求1所述的方法,其特征在于,向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示,包括:
若所述立体影像为具有双目视差的影像对,则将立体影像按照左右格式进行合成,并向目标设备传输合成后的图像,以使目标设备根据合成后的图像进行图像显示。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若立体影像中的任一图像中包括至少两个候选对象,则根据至少两个候选对象的双眼相对于显示屏的坐标信息,确定目标对象。
9.根据权利要求8所述的方法,其特征在于,若立体影像中的任一图像中包括至少两个候选对象,则根据至少两个候选对象的双眼相对于显示屏的坐标信息,包括:
将与显示屏距离值最小的双眼对应的候选对象作为目标对象;或者,
将坐标信息中水平方向坐标与显示屏坐标系原点距离值最小的候选对象作为目标对象。
10.一种图像显示装置,其特征在于,所述装置包括:
立体图像获取模块,用于获取立体影像传感器采集的显示屏前目标对象的立体影像,并向目标设备传输所述立体影像,以使所述目标设备根据所述立体影像进行图像显示;
坐标信息获取模块,用于根据所述立体影像,确定目标对象的双眼相对于显示屏的坐标信息;
图像显示控制模块,用于根据所述坐标信息,确定显示屏的分布显示参数,并根据所述分布显示参数控制显示屏对待显示图像进行显示。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一项所述的图像显示方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一项所述的图像显示方法。
CN202111256026.9A 2021-10-27 2021-10-27 图像显示方法、装置、电子设备及介质 Pending CN114020150A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111256026.9A CN114020150A (zh) 2021-10-27 2021-10-27 图像显示方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111256026.9A CN114020150A (zh) 2021-10-27 2021-10-27 图像显示方法、装置、电子设备及介质

Publications (1)

Publication Number Publication Date
CN114020150A true CN114020150A (zh) 2022-02-08

Family

ID=80058076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111256026.9A Pending CN114020150A (zh) 2021-10-27 2021-10-27 图像显示方法、装置、电子设备及介质

Country Status (1)

Country Link
CN (1) CN114020150A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761249A (zh) * 2022-12-28 2023-03-07 北京曼恒数字技术有限公司 一种图像处理方法、***、电子设备及计算机程序产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104539924A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 基于人眼追踪的全息显示方法及全息显示装置
CN108989785A (zh) * 2018-08-22 2018-12-11 上海玮舟微电子科技有限公司 基于人眼跟踪的裸眼3d显示方法、装置、终端和介质
CN112243121A (zh) * 2019-07-18 2021-01-19 格相科技(北京)有限公司 裸眼3d显示器的多模式显示方法
CN113259650A (zh) * 2021-05-12 2021-08-13 纵深视觉科技(南京)有限责任公司 一种基于人眼追踪立体影像显示方法、装置、介质及***
CN113411574A (zh) * 2021-06-17 2021-09-17 纵深视觉科技(南京)有限责任公司 一种裸眼3d显示效果的评价方法、装置、介质及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104539924A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 基于人眼追踪的全息显示方法及全息显示装置
CN108989785A (zh) * 2018-08-22 2018-12-11 上海玮舟微电子科技有限公司 基于人眼跟踪的裸眼3d显示方法、装置、终端和介质
CN112243121A (zh) * 2019-07-18 2021-01-19 格相科技(北京)有限公司 裸眼3d显示器的多模式显示方法
CN113259650A (zh) * 2021-05-12 2021-08-13 纵深视觉科技(南京)有限责任公司 一种基于人眼追踪立体影像显示方法、装置、介质及***
CN113411574A (zh) * 2021-06-17 2021-09-17 纵深视觉科技(南京)有限责任公司 一种裸眼3d显示效果的评价方法、装置、介质及***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761249A (zh) * 2022-12-28 2023-03-07 北京曼恒数字技术有限公司 一种图像处理方法、***、电子设备及计算机程序产品
CN115761249B (zh) * 2022-12-28 2024-02-23 北京曼恒数字技术有限公司 一种图像处理方法、***、电子设备及计算机程序产品

Similar Documents

Publication Publication Date Title
JP6759371B2 (ja) 3dプレノプティックビデオ画像を作成するためのシステムおよび方法
US10078367B2 (en) Stabilization plane determination based on gaze location
US9846968B2 (en) Holographic bird's eye view camera
US10715791B2 (en) Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US8571304B2 (en) Method and apparatus for generating stereoscopic image from two-dimensional image by using mesh map
US6556236B1 (en) Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
CN109743626B (zh) 一种图像显示方法、图像处理方法和相关设备
KR101675961B1 (ko) 적응적 부화소 렌더링 장치 및 방법
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
CN108259883B (zh) 图像处理方法、头戴式显示器以及可读存储介质
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理***及处理方法
WO2021110038A1 (zh) 3d显示设备、3d图像显示方法
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
US20230334684A1 (en) Scene camera retargeting
CN103517060A (zh) 一种终端设备的显示控制方法及装置
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
US20230316810A1 (en) Three-dimensional (3d) facial feature tracking for autostereoscopic telepresence systems
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
CN109255838B (zh) 避免增强现实显示设备观看重影的方法及设备
US11521297B2 (en) Method and device for presenting AR information based on video communication technology
CN115202475A (zh) 显示方法、装置、电子设备及计算机可读存储介质
US20230005213A1 (en) Imaging apparatus, imaging method, and program
US20210208390A1 (en) Inertial measurement unit signal based image reprojection
JP2020167657A (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination