CN113763472B - 一种视点宽度的确定方法、装置及存储介质 - Google Patents

一种视点宽度的确定方法、装置及存储介质 Download PDF

Info

Publication number
CN113763472B
CN113763472B CN202111048861.3A CN202111048861A CN113763472B CN 113763472 B CN113763472 B CN 113763472B CN 202111048861 A CN202111048861 A CN 202111048861A CN 113763472 B CN113763472 B CN 113763472B
Authority
CN
China
Prior art keywords
image
pixel mean
mean value
coordinate
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111048861.3A
Other languages
English (en)
Other versions
CN113763472A (zh
Inventor
贺曙
徐万良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Future Technology Xiang Yang Co ltd
Original Assignee
Future Technology Xiang Yang Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Future Technology Xiang Yang Co ltd filed Critical Future Technology Xiang Yang Co ltd
Priority to CN202111048861.3A priority Critical patent/CN113763472B/zh
Publication of CN113763472A publication Critical patent/CN113763472A/zh
Application granted granted Critical
Publication of CN113763472B publication Critical patent/CN113763472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请提供一种视点宽度的确定方法及相关设备,在设备的屏幕光学参数未知的情况下,快速确定设备所对应视点的宽度。该方法包括:第一设备以立体模式显示目标图像,以使得第二设备对目标图像进行实时拍摄,得到第一图像和第二图像,并对第一图像和第二图像进行分析得到第一设备所对应屏幕区域的第一像素均值和第二像素均值,第一图像和第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;若第一设备接收到第一坐标记录指令,则记录第一位置坐标;若第一设备接收到第二坐标记录指令,则记录第二位置坐标;第一设备根据所述第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度。

Description

一种视点宽度的确定方法、装置及存储介质
【技术领域】
本申请属于裸眼3D领域,特别涉及一种视点宽度的确定方法、装置及存储介质。
【背景技术】
裸眼3D,Autostereoscopy的简称,裸眼3D是对不借助偏振光眼镜等外部工具,实现立体视觉效果的技术的统称。
在带有人眼追踪的裸眼3D***中,设备通过前置相机采集图像并追踪到人眼的位置,然后计算出人眼当前位置对应的视点,在通过设置的前置相机采集图像并追踪人眼位置的过程中需要确定裸眼3D***中每一个视点的宽度。
目前来说,主要通过光学设计推导出视点的宽度,但在实际使用中往往是一款光栅用在多款第三方设备上,无法确切的获取到该设备的屏幕光学参数,比如玻璃厚度、光学胶厚度、装配缝隙大小等,进而导致无法准确的确定出视点的宽度。
【发明内容】
本申请的目的在于提供一种视点宽度的确定方法、装置及存储介质,可以在设备的屏幕光学参数未知的情况下,快速确定设备所对应视点的宽度,进而通过视点的宽度对设备显示的3D图像或3D视频进行调整,提高用户的观看体验。
本申请实施例第一方面提供了一种视点宽度的确定方法,包括:
第一设备以立体模式显示目标图像,以使得第二设备对所述目标图像进行实时拍摄,得到第一图像和第二图像,并对所述第一图像和所述第二图像进行分析得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
若所述第一设备接收到所述第二设备在所述第一像素均值达到第一预设值时发送的第一坐标记录指令,则所述第一设备记录所述第二设备拍摄所述第一图像时所处位置的第一位置坐标;
若所述第一设备接收到所述第二设备在所述第二像素均值达到第二预设值时发送的第二坐标记录指令,则所述第一设备记录所述第二设备拍摄所述第二图像时所处位置的第二位置坐标;
所述第一设备根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度。
一种可能的设计中,所述第一设备根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度包括:
所述第一设备根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置,所述第一位置为所述第一像素均值达到所述第一预设值时所述第二设备所处的位置;
所述第一设备根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置,所述第二位置为所述第二像素均值达到所述第二预设值时所述第二设备所处的位置;
所述第一设备根据所述第一位置和所述第二位置确定所述视点的宽度。
一种可能的设计中,所述第一设备根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置包括:
所述第一设备通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一位置坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述第一设备根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置包括:
所述第一设备通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二位置坐标为(x1,y1);
所述第一设备根据所述第一位置和所述第二位置确定所述视点的宽度包括:
所述第一设备通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述方法还包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述第一设备所对应的视点的排列布局;
根据所述视点的排列布局以及用户的人眼位置变化对所述第一设备在立体模式下运行时显示的立体图像进行调整。
本申请实施例第二方面提供了一种视点宽度的确定方法,包括:
第二设备对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;
所述第二设备分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
若所述第一像素均值达到第一预设值,则所述第二设备发送第一坐标记录指令至所述第一设备,以使得所述第一设备记录第一位置坐标,所述第一位置坐标为所述第二设备在拍摄所述第一图像时所处位置的坐标;
若所述第二像素均值达到第二预设值,则所述第二设备发送第二坐标记录指令至所述第一设备,以使得所述第一设备记录第二位置坐标,并根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度,所述第二位置坐标为所述第二设备在拍摄所述第二图像时所处位置的坐标。
一种可能的设计中,所述第二设备分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值包括:
所述第二设备通过如下公式计算所述第一像素均值和所述第二像素均值:
其中,aver_piexl为所述第一像素均值或所述第二像素均值,A为所述屏幕区域,w为所述屏幕区域的宽度,h为所述屏幕区域的高度。
本申请实施例第三方面提供了一种设备,所述设备为第一设备,所述第一设备包括:
显示单元,用于以立体模式显示目标图像,以使得第二设备对所述目标图像进行实时拍摄,得到第一图像和第二图像,并对所述第一图像和所述第二图像进行分析得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
记录单元,用于若接收到所述第二设备在所述第一像素均值达到第一预设值时发送的第一坐标记录指令,则记录所述第二设备拍摄所述第一图像时所处位置的第一位置坐标;
所述记录单元,还用于若接收到所述第二设备在所述第二像素均值达到第二预设值时发送的第二坐标记录指令,则记录所述第二设备拍摄所述第二图像时所处位置的第二位置坐标;
确定单元,用于根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度。
一种可能的设计中,所述确定单元具体用于:
根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置,所述第一位置为所述第一像素均值达到所述第一预设值时所述第二设备所处的位置;
根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置,所述第二位置为所述第二像素均值达到所述第二预设值时所述第二设备所处的位置;
根据所述第一位置和所述第二位置确定所述视点的宽度。
一种可能的设计中,所述确定单元根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一位置坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述确定单元根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二位置坐标为(x1,y1);
所述确定单元根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述确定单元还用于:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述第一设备所对应的视点的排列布局;
根据所述视点的排列布局以及用户的人眼位置变化对所述第一设备在立体模式下运行时显示的立体图像进行调整。
本申请实施例第四方面提供了一种设备,所述设备为第二设备,所述第二设备包括:
拍摄单元,用于对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;
分析单元,用于分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
第一发送单元,用于若所述第一像素均值达到第一预设值,则发送第一坐标记录指令至所述第一设备,以使得所述第一设备记录第一位置坐标,所述第一位置坐标为所述第二设备在拍摄所述第一图像时所处位置的坐标;
第二发送单元,用于若所述第二像素均值达到第二预设值,则发送第二坐标记录指令至所述第一设备,以使得所述第一设备记录第二位置坐标,并根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度,所述第二位置坐标为所述第二设备在拍摄所述第二图像时所处位置的坐标。
一种可能的设计中,所述分析单元具体用于:
所述第二设备通过如下公式计算所述第一像素均值和所述第二像素均值:
其中,aver_piexl为所述第一像素均值或所述第二像素均值,A为所述屏幕区域,w为所述屏幕区域的宽度,h为所述屏幕区域的高度。
本申请实施例第五方面提供了一种计算机设备,其包括至少一个连接的处理器、存储器和收发器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述各方面所述的视点宽度的确定方法的步骤。
本申请实施例第六方面提供了一种计算机存储介质,其包括指令,当其在计算机上运行时,使得计算机执行上述各方面所述的视点宽度的确定方法的步骤。
相对于相关技术,本申请提供的实施例中,在确定第一设备的视点宽度时,第二设备可以在不同位置对第一设备进行拍摄得到多个图像,并对多个图像进行分析,进而可以多个图像分别对应的像素均值,进而在像素均值达到预设值时,由第一设备记录达到预设值时第二设备的位置坐标,之后第一设备根据第二设备处在不同位置的位置坐标和光栅的贴合角度来计算第一设备所对应视点的宽度,由此可以在第一设备的屏幕光学参数未知的情况下快速确定第一设备所对应视点的宽度,进而通过视点宽度对第一设备显示的3D图像或3D视频进行调整,提高用户观看体验。
【附图说明】
图1为本申请实施例提供的视点宽度的确定方法的一个实施例示意图;
图2为本申请实施例提供的视点宽度的确定方法的另一实施例示意图;
图3为本申请实施例提供的视点宽度的确定方法的应用场景示意图;
图4为本申请实施例提供的视点宽度的确定方法的另一实施例示意图;
图5为本申请实施例提供的视点宽度的确定方法的另一实施例示意图;
图6为本申请实施例提供的第一设备的虚拟结构示意图;
图7为本申请实施例提供的第二设备的虚拟结构示意图;
图8为本申请实施例提供的第一设备和第二设备的硬件结构示意图。
【具体实施方式】
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个***中,或一些特征向量可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请方案的目的。
请参阅图1,图1为本申请实施例提供的视点宽度的确定方法的一个实施例示意图,包括:
101、第一设备以立体模式显示的目标图像,以使得第二设备对目标图像进行拍摄,得到第一图像和第二图像,并对第一图像和第二图像进行分析得到第一设备所对应屏幕区域的第一像素均值和第二像素均值。
本实施例中,在需要确定第一设备所对应视点的宽度时,第一设备以立体模式显示目标图像,以使得第二设备对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,并对第一图像和第二图像进行分析得到第一设备所对应屏幕区域的第一像素均值和第二像素均值,其中,第一图像和第二图像为第二设备在不同的位置对目标图像进行拍摄得到,该第二设备为带有图像采集功能和通信功能的任意终端设备,该目标图像为半黑半彩色的图像,半彩色中的彩色指的是白色、红色、绿色和黄色等可视的颜色。可以理解的是,第二设备在对目标图像进行拍摄得到第一图像和第二图像时,第一图像和第二图像中可能不会只包含目标图像,有可能还会包括有其他的内容,因此此处需要确定的是屏幕区域的像素均值,而不是第一图像的像素均值,该屏幕区域为目标图像在第一设备的屏幕中的显示区域。另外,第一设备在显示目标图像的同时,还可以在第一设备所对应的屏幕上实时显示第二设备的位置坐标,或者直接显示第二设备的摄像头的位置坐标。
102、若接收到第二设备在第一像素均值达到第一预设值时发送的第一坐标记录指令,则第一设备记录第二设备拍摄第一图像时所处位置的第一位置坐标。
本实施例中,第二设备在对第一图像进行分析得到第一像素均值之后,可以判断该第一像素均值是否达到第一预设值,若该第一像素均值达到第一预设值,则第二设备可以发送第一坐标记录指令,该第一设备根据第一坐标记录指令记录第二设备拍摄第一图像时所处位置的第一位置坐标。
103、若接收到第二设备在第二像素均值达到第二预设值时发送的第二坐标记录指令时,则第一设备记录第二设备拍摄第二图像时所处位置的第二位置坐标。
本实施例中,第二设备在对第二图像进行分析得到第二像素均值之后,可以判断该第二像素均值是否达到第二预设值,若该第二像素均值达到第二预设值,则第二设备可以发送第二坐标记录指令,第一设备根据接收到的坐标记录指令记录第二设备拍摄第二图像时所处位置的第二位置坐标。
104、第一设备根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度。
本实施例中,第一设备在记录第一位置坐标和第二位置坐标之后,可以获取到第一设备所对应光栅的贴合角度(该贴合角度为第一设备上贴的3D膜的光栅的贴合角度,另外,此处并不限定获取光栅的贴合角度的方式,例如可以由用户输入),并根据第一位置坐标、第二位置坐标和贴合角度确定第一设备所对应视点的宽度。
一个实施例中,第一设备根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度包括:
第一设备根据贴合角度和第一位置坐标确定第二设备的第一位置,第一位置为第一像素均值达到第一预设值时第二设备所处的位置;
第一设备根据贴合角度和第二位置坐标确定第二设备的第二位置,第二位置为第二像素均值达到第二预设值时第二设备所处的位置;
第一设备根据第一位置和第二位置确定所述视点的宽度。
本实施例中,第二设备可以基于贴合角度和第一位置坐标通过如下公式计算第一位置,该第一位置为第一像素均值达到第一预设值时第二设备拍摄第一图像所处的位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为第一位置,第一位置坐标为(x0,y0),y为预设的常量,a为贴合角度;
之后第二设备可以基于贴合角度和第二位置坐标通过如下公式计算第二位置,该第二位置为第二像素均值达到第二预设值时第二设备拍摄第二图像所处的位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为第二位置,第二位置坐标为(x1,y1);
第二设备在根据公式计算得到第一位置和第二位置之后,可以基于第一位置和第二位置通过如下公式计算第一设备所对应视点的宽度:
VW=abs(X0′-X1′);
其中,VW为第一设备所对应视点的宽度,abs为绝对值函数。
下面结合图2对视点的宽度计算进行说明,图2为本申请实施例提供的视点的宽度计算示意图,其中,201为第一位置坐标(x0,y0),202为第二位置坐标(x1,y1),203为预设的常量y在坐标系中的坐标(可以理解的是,该预设的常量y可以设置为屏幕区域所对应宽度的一半,当然也还可以根据实际情况进行设置,具体不做限定),以计算第一位置X0′为例进行说明,在计算第一位置X0′时,光栅的贴合角度a为已知的,在得到第一位置坐标(x0,y0)之后,将预设的常量203换算至与第一位置坐标的Y轴方向相同的方向,之后即可以通过公式X0′=x0+(y0-y)*tan(a)计算第一位置,同理可以计算得到第二位置,之后通过公式VW=abs(X0′-X1′)计算得到第一位置和第二位置的差值绝对值,也即第一设备所对应视点的宽度。
需要说明的是,第一设备在得到第一设备所对应视点的宽度之后,可以基于该视点的宽度对第一设备以3D模式运行时显示的3D图像或播放的3D视频进行调整,具体的第一设备在基于该视点的宽度对第一设备以3D模式运行时显示的3D图像或播放的3D视频进行调整时,可以获取第一设备所对应光栅的宽度,之后,根据光栅的宽度和视点的宽度确定第一设备所对应视点的排列布局,并根据视点的排列布局以及用户的人眼位置变化对第一设备在立体模式下运行时显示的立体图像进行调整。也就是说,在得到视点的宽度之后,由于该第一设备的光栅的宽度是已知的,由此即可以推算出该第一设备屏幕上贴的3D膜的光栅的排列布局,之后即可以根据人眼位置变化对第一设备在立体模式下运行时显示的3D图像或播放的3D视频进行调整,为用户提供更好的3D显示效果。
还需要说明的是,上述以第一设备位置不变,第二设备变换自身所处的位置,并通过第一设备对第二设备的摄像头的位置坐标进行追踪,并记录第二设备变换位置时的位置坐标,当然也还可以是其他的方式,例如第二设备的位置不变,第一设备变换位置来记录第二设备的摄像头的位置坐标,具体不做限定,只要能记录第二设备在不同位置对第一设备拍摄图像时的位置坐标即可。可以理解的是,当检测者位置不变,通过目标设备变换位置来记录检测者的人眼坐标时,具体的执行过程如下:
当第一设备以3D模式显示目标图像时,第二设备对第一设备进行拍摄,第一设备的屏幕上显示第二设备的位置坐标(当然也可以显示第二设备的摄像头的位置坐标,具体不限定),第一设备调整位置直至接收到第二设备坐标记录指令,并记录当前位置第二设备的位置坐标,该坐标记录指令由第二设备在对拍摄第一设备得到的图像进行分析,得到对应的像素均值,且该像素均值达到第一预设值或第二预设值时发出的;之后继续调整位置直至再次接收到第二设备发送的坐标记录指令,并记录当前位置第二设备的位置坐标,该坐标记录指令由第二设备在对拍摄第一设备得到的图像进行分析,得到对应的像素均值,且该像素均值达到第一预设值或第二预设值时发出的;由此可以得到两个不同位置的位置坐标,根据两个不同位置的位置坐标和贴合角度计算视点的宽度。
综上所述,可以看出,本申请提供的实施例中,在确定第一设备的视点宽度时,第二设备可以在不同位置对第一设备进行拍摄得到多个图像,并对多个图像进行分析,进而可以多个图像分别对应的像素均值,进而在像素均值达到预设值时,由第一设备记录达到预设值时第二设备的位置坐标,之后第一设备根据第二设备处在不同位置的位置坐标和光栅的贴合角度来计算第一设备所对应视点的宽度,由此可以在第一设备的屏幕光学参数未知的情况下快速确定第一设备所对应视点的宽度,进而通过视点宽度对第一设备显示的3D图像或3D视频进行调整,提高用户观看体验。
请参阅图3,图3为本申请实施例提供的应用场景示意图,图3以第一设备的位置固定不变,第二设备位置变化,并由第一设备记录第二设备拍摄的图像的像素均值达到预设值的情况下第二设备所处位置的位置坐标,如图3所示,当需要确定第一设备301上设置的3D膜的视点宽度时,第一设备301以3D模式显示目标图像,第二设备在不同位置对第一设备以3D模式显示的目标图像进行拍摄,得到对应的图像,并对该图像进行分析得到对应的像素均值,之后判断该像素均值是否达到第一预设值或第二预设值,若该像素均值达到第一预设值或第二预设值,在向第一设备301发送坐标记录指令,第一设备301在接收到该坐标记录指令之后,第一设备301记录该位置坐标,如图3中第二设备处于302位置时,拍摄得到的第一设备的图像的像素均值达到第一预设值,此时第一设备301在收到坐标记录指令时,第一设备301可以记录第二位置处于302位置的位置坐标;之后第二设备再次变换位置,并对第一设备进行再次拍摄,得到对应的图像,并对该图像进行分析得到对应的像素均值,之后判断该像素均值是否达到第二预设值,若该像素均值达到第二预设值,则第二设备向第一设备301发送坐标记录指令,此时第一设备301根据坐标记录指令记录第二位置坐标,如图3中第二设备处于303位置时拍摄第一设备301的图像的像素均值达到第二预设值,此时第二设备向第一设备301发送记录位置坐标的指令,第一设备301根据坐标记录指令记录第二设备处于303位置时的位置坐标,之后第一设备301可以根据第二设备处于302位置时的位置坐标、第二设备处于303位置时的位置坐标和第一设备301所对应光栅的贴合角度计算第一设备301所对应视点的宽度,进而根据视点的宽度对第一设备301在3D模式下显示的3D图像或3D视频进行调整。由此,可以在第一设备的屏幕光学参数未知的情况下,快速确定第一设备所对应视点的宽度,进而通过视点的宽度对第一设备显示的3D图像或3D视频进行调整,提高用户观看体验。
需要说明的是,第二设备在一个位置对第一设备进行拍摄得到该位置所拍摄的第一设备的图像之后,可以直接对该图像进行分析,得到对应的像素均值,并判断该像素均值是否达到第一预设值或第二预设值,若均未达到,则变换该第二设备的位置重复执行上述步骤,直至找到某个位置拍摄的第一设备的图像的像素均值达到第一预设值或第二预设值,并在达到第一预设值或第二预设值时,向第一设备发送坐标记录指令,以使得第一设备返回对应的位置坐标,之后继续调整位置执行上述步骤,直至找到另一个位置拍摄的第一设备的图像的像素均值达到另一预设值,并从第一设备获取该两个位置的位置坐标,作为第一位置坐标和第二位置坐标。
上面结合图1从第一设备的角度对本申请实施例提供的视点宽度的确定方法进行说明,下面结合图4从第二设备的角度对本申请实施例提供的视点宽度的确定方法进行说明。
请结合参阅图4,图4为本申请实施例提供的视点宽度的确定方法的另一实施例示意图,包括:
401、第二设备对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像。
本实施例中,在需要确定第一设备所对应视点的宽度时,第二设备对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,其中,第一图像和第二图像为第二设备在不同的位置对目标图像进行拍摄得到,该第二设备为带有图像采集功能和通信功能的任意终端设备,该目标图像为半黑半彩色的图像,半彩色中的彩色指的是白色、红色、绿色和黄色等可视的颜色。也就是说,在需要确定第一设备所对应视点的宽度时(也即在目标设备的屏幕上覆盖的3D膜所对应视点的宽度),第一设备以3D模式显示半黑半彩色图像,之后第二设备在不同位置对第一设备进行拍照,得到第一图像和第二图像。
402、第二设备分别对第一图像和第二图像进行分析,以得到第一设备所对应屏幕区域的第一像素均值和第二像素均值。
本实施例中,第二设备在不同位置对第一设备进行拍摄得到第一图像和第二图像之后,可以分别对第一图像和第二图像进行分析,得到第一设备所对应屏幕区域的第一像素均值和第二像素均值,其中,该第一像素均值与第一图像相对应,第二像素均值与第二图像相对应,该屏幕区域为第一设备显示目标图像的区域。具体的,第二设备可以通过如下公式计算第一像素均值和第二像素均值:
其中,aver_piexl为第一像素均值或第二像素均值,A为屏幕区域,w为屏幕区域的宽度,h为屏幕区域的高度。
可以理解的是,第二设备在对目标图像进行拍摄得到第一图像和第二图像时,第一图像和第二图像中可能不会只包含目标图像,有可能还会包括有其他的内容,因此此处需要确定的是屏幕区域的像素均值,而不是第一图像的像素均值,该屏幕区域为目标图像在第一设备的屏幕中的显示区域。另外,第一设备在显示目标图像的同时,还可以在第一设备所对应的屏幕上实时显示第二设备的位置坐标,或者直接显示第二设备的摄像头的位置坐标。
403、若第一像素均值达到第一预设值,则第二设备发送第一坐标记录指令至第一设备,以使得第一设备记录第一位置坐标。
本实施例中,第二设备在对第一图像进行分析得到第一像素均值之后,可以判断该第一像素均值是否达到第一预设值,若该第一像素均值达到第一预设值,则第二设备发送第一坐标记录指令至第一设备,以使得第一设备根据该第一坐标记录指令记录第一位置坐标,其中,该第一位置坐标为第二设备在拍摄第一图像时所处位置的坐标。也就是说,该第一设备实时显示第二设备的位置坐标,在第二设备确定第一像素均值达到第一预设值时,可以向第一设备发送坐标记录指令,第一设备在接收到该第一坐标记录指令后,可以记录第二设备在拍摄第一图像所处位置的位置坐标。
可以理解的是,当第一像素均值未达到第一预设值时,第二设备变换位置再次对第一设备进行拍摄,得到变换位置后拍摄的图像,并对图像进行分析,直至变换位置后拍摄的图像的像素均值达到第一预设值时,发送坐标记录指令至第一设备,以使得第一设备记录该位置的位置坐标。
404、若第二像素均值达到第二预设值,则第二设备发送第二坐标记录指令至第一设备,以使得第一设备记录第二位置坐标,并根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度。
本实施例中,第二设备在对第二图像进行分析得到第二像素均值之后,可以判断该第二像素均值是否达到第二预设值,若该第二像素均值达到第二预设值,则第二设备发送第二坐标记录指令至第一设备,以使得第一设备记录第二位置坐标,并根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度,其中,该第二位置坐标为第二设备在拍摄第二图像时所处位置的坐标。也就是说,该第一设备实时显示第二设备的位置坐标,在第二设备确定第二像素均值达到第二预设值时,可以向第一设备发送坐标记录指令,第一设备在接收到坐标记录指令之后,可以记录该位置的位置坐标,并根据两个位置坐标和贴合角度计算视点的宽度。
可以理解的是,当第二像素均值未达到第二预设值时,第二设备变换位置再次对第一设备进行拍摄,得到变换位置后拍摄的图像,并对图像进行分析,直至变换位置后拍摄的图像的像素均值达到第二预设值,并发送坐标记录指令至第一设备,以使得第一设备记录该位置的位置坐标。
需要说明的是,第二设备在一个位置对第一设备进行拍摄得到该位置所拍摄的第一设备的图像之后,直接对该图像进行分析,得到对应的像素均值,并判断该像素均值是否达到第一预设值或第二预设值,若均未达到,则变换该第二设备的位置重复执行上述步骤,直至找到某个位置拍摄的第一设备的图像的像素均值达到第一预设值,并在达到第一预设值时,向第一设备发送坐标记录指令,以使得第一设备记录对应的位置坐标,之后继续调整位置执行上述步骤,直至找到另一个位置拍摄的第一设备的图像的像素均值达到第二预设值,发送坐标记录指令至第一设备,以使得该第一设备记录该位置的坐标,并根据两个位置的坐标和贴合角度计算视点的宽度。
综上所述,可以看出,本申请提供的实施例中,在确定第一设备的视点宽度时,第二设备可以在不同位置对第一设备进行拍摄得到多个图像,并对多个图像进行分析,进而可以多个图像分别对应的像素均值,进而在像素均值达到预设值时,向第一设备发送坐标记录指令,以使得该第一设备根据坐标记录指令记录相应位置的位置坐标,并根据位置坐标和第一设备所对应光栅的贴合角度计算第一设备所对应视点的宽度。由此可以在无需知道第一设备的屏幕光学参数的情况下快速确定第一设备所对应视点的宽度,进而通过视点宽度对第一设备显示的3D图像或3D视频进行调整,提高用户观看体验。
上面分别从第二设备和第一设备的角度对本申请实施例提供的视点宽度的确定方法进行说明,下面结合图5从第一设备与第二设备交互的角度对本申请实施例提供的视点宽度的确定方法进行说明。
请参阅图5,图5为本申请实施例提供的视点宽度的确定方法的另一实施例示意图,包括:
501、第一设备以3D模式显示目标图像。
502、第二设备对第一设备以3D模式显示的目标图像进行实时拍摄,得到第一图像和第二图像。
503、第二设备分别对第一图像和第二图像进行分析,得到第一设备所对应屏幕区域的第一像素均值和第二像素均值。
可以理解的是,步骤501至步骤503与图4中的步骤401至步骤402类似,上述图4中已经进行了详细说明,具体此处不再赘述。
504、若第一像素均值达到第一预设值,则第二设备发送第一坐标记录指令至第一设备。
505、第一设备根据第一坐标记录指令记录第一位置坐标。
506、若第二像素均值达到第二预设值,则第二设备发送第二坐标记录指令至第一设备。
507、第一设备根据第二坐标记录指令记录第二位置坐标。
可以理解的是,步骤504至步骤507与图1和图4中的记录位置坐标的步骤类似,上述图1和图4中已经进行了详细说明,具体此处不在赘述。
508、第一设备根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度确定第一设备所对应视点的宽度。
可以理解的是,步骤508与图1中的步骤104类似,上述图1中已经进行了详细说明,具体此处不在赘述。
综上所述,可以看出,本申请提供的实施例中,在确定第一设备的视点宽度时,第二设备可以在不同位置对第一设备进行拍摄得到多个图像,并对多个图像进行分析,进而可以多个图像分别对应的像素均值,进而在像素均值达到预设值时,由第一设备记录达到预设值时第二设备的位置坐标,之后第一设备根据第二设备处在不同位置的位置坐标和光栅的贴合角度来计算第一设备所对应视点的宽度,由此可以在第一设备的屏幕光学参数未知的情况下快速确定第一设备所对应视点的宽度,进而通过视点宽度对第一设备显示的3D图像或3D视频进行调整,提高用户观看体验。
需要说明的是,上述各个实施例中以第一设备根据第一位置坐标、第二位置坐标和光栅的贴合角度计算第一设备所对应视点的宽度为例进行计算,也可以是第一设备在记录得到第一位置坐标和第二位置坐标之后,将第一位置坐标和第二位置坐标发送至第二设备,由第二设备根据第一位置坐标、第二位置坐标和第一设备所对应光栅的贴合角度计算第一设备所对应视点的宽度,之后将第一设备所对应视点的宽度发送至第一设备;另外,对第一图像和第二图像进行分析得到像素均值也可以由第一设备执行,具体此处不做限定。
还需要说明的是,上述图1至图5已经对像素均值计算、位置计算和视点宽度计算进行了详细说明,此处的像素均值计算、位置计算和视点宽度计算与上述图1至图5中记载的计算方式相同,只是执行主体不同,具体此处不在赘述。
上面从视点宽度的确定方法的角度对本申请实施例进行说明,下面从视点宽度确定装置的角度对本申请实施例进行说明。
请参阅图6,图6为本申请实施例提供的第一设备的虚拟结构示意图,所述第一设备600包括:
显示单元601,用于以立体模式显示目标图像,以使得第二设备对所述目标图像进行实时拍摄,得到第一图像和第二图像,并对所述第一图像和所述第二图像进行分析得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
记录单元602,用于若接收到所述第二设备在所述第一像素均值达到第一预设值时发送的第一坐标记录指令,则记录所述第二设备拍摄所述第一图像时所处位置的第一位置坐标;
所述记录单元602,还用于若接收到所述第二设备在所述第二像素均值达到第二预设值时发送的第二坐标记录指令,则记录所述第二设备拍摄所述第二图像时所处位置的第二位置坐标;
确定单元603,用于根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度。
一种可能的设计中,所述确定单元603具体用于:
根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置,所述第一位置为所述第一像素均值达到所述第一预设值时所述第二设备所处的位置;
根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置,所述第二位置为所述第二像素均值达到所述第二预设值时所述第二设备所处的位置;
根据所述第一位置和所述第二位置确定所述视点的宽度。
一种可能的设计中,所述确定单元603根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置包括:
通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一位置坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述确定单元603根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置包括:
通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二位置坐标为(x1,y1);
所述确定单元603根据所述第一位置和所述第二位置确定所述视点的宽度包括:
通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
一种可能的设计中,所述确定单元603还用于:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述第一设备所对应的视点的排列布局;
根据所述视点的排列布局以及用户的人眼位置变化对所述第一设备在立体模式下运行时显示的立体图像进行调整。
请参阅图7,图7为本申请实施例提供的第二设备的虚拟结构示意图,所述第二设备700包括:
拍摄单元701,用于对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;
分析单元702,用于分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
第一发送单元703,用于若所述第一像素均值达到第一预设值,则发送第一坐标记录指令至所述第一设备,以使得所述第一设备记录第一位置坐标,所述第一位置坐标为所述第二设备在拍摄所述第一图像时所处位置的坐标;
第二发送单元704,用于若所述第二像素均值达到第二预设值,则发送第二坐标记录指令至所述第一设备,以使得所述第一设备记录第二位置坐标,并根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度,所述第二位置坐标为所述第二设备在拍摄所述第二图像时所处位置的坐标。
一种可能的设计中,所述分析单元702具体用于:
所述第二设备通过如下公式计算所述第一像素均值和所述第二像素均值:
其中,aver_piexl为所述第一像素均值或所述第二像素均值,A为所述屏幕区域,w为所述屏幕区域的宽度,h为所述屏幕区域的高度。
接下来介绍本申请实施例提供的另一种视频宽度确定装置,该视频宽度确定装置可以为终端设备,请参阅图8所示,终端设备800包括:
接收器801、发射器802、处理器803和存储器804(其中终端设备800中的处理器803的数量可以一个或多个,图8中以一个处理器为例)。在本申请的一些实施例中,接收器801、发射器802、处理器803和存储器804可通过总线或其它方式连接,其中,图8中以通过总线连接为例。
存储器804可以包括只读存储器和随机存取存储器,并向处理器803提供指令和数据。存储器804的一部分还可以包括NVRAM。存储器804存储有操作***和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。操作***可包括各种***程序,用于实现各种基础业务以及处理基于硬件的任务。
处理器803控制终端设备的操作,处理器803还可以称为CPU。具体的应用中,终端设备的各个组件通过总线***耦合在一起,其中总线***除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线***。
上述本申请实施例揭示的方法可以应用于处理器803中,或者由处理器803实现。处理器803可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器803中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器803可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器804,处理器803读取存储器804中的信息,结合其硬件完成上述方法的步骤。
本申请实施例中,处理器803用于执行上述由第一设备和第二设备所执行的操作。
本申请实施例还提供一种计算机可读介质,包含计算机执行指令,计算机执行指令能够使服务器执行上述实施例描述的视点宽度的确定方法,其实现原理和技术效果类似,此处不再赘述。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (10)

1.一种视点宽度的确定方法,其特征在于,包括:
第一设备以立体模式显示目标图像,以使得第二设备对所述目标图像进行实时拍摄,得到第一图像和第二图像,并对所述第一图像和所述第二图像进行分析得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
若所述第一设备接收到所述第二设备在所述第一像素均值达到第一预设值时发送的第一坐标记录指令,则所述第一设备记录所述第二设备拍摄所述第一图像时所处位置的第一位置坐标;
若所述第一设备接收到所述第二设备在所述第二像素均值达到第二预设值时发送的第二坐标记录指令,则所述第一设备记录所述第二设备拍摄所述第二图像时所处位置的第二位置坐标;
所述第一设备根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度。
2.根据权利要求1所述的方法,其特征在于,所述第一设备根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度包括:
所述第一设备根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置,所述第一位置为所述第一像素均值达到所述第一预设值时所述第二设备所处的位置;
所述第一设备根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置,所述第二位置为所述第二像素均值达到所述第二预设值时所述第二设备所处的位置;
所述第一设备根据所述第一位置和所述第二位置确定所述视点的宽度。
3.根据权利要求2所述的方法,其特征在于,所述第一设备根据所述贴合角度和所述第一位置坐标确定所述第二设备的第一位置包括:
所述第一设备通过如下公式计算所述第一位置:
X0′=x0+(y0-y)*tan(a);
其中,X0′为所述第一位置,所述第一位置坐标为(x0,y0),y为预设的常量,a为所述贴合角度;
所述第一设备根据所述贴合角度和所述第二位置坐标确定所述第二设备的第二位置包括:
所述第一设备通过如下公式计算所述第二位置:
X1′=x1+(y1-y)*tan(a);
其中,X1′为所述第二位置,所述第二位置坐标为(x1,y1);
所述第一设备根据所述第一位置和所述第二位置确定所述视点的宽度包括:
所述第一设备通过如下公式计算所述视点的宽度:
VW=abs(X0′-X1′);
其中,VW为所述视点的宽度,abs为绝对值函数。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
获取所述光栅的宽度;
根据所述光栅的宽度和所述视点的宽度确定所述第一设备所对应的视点的排列布局;
根据所述视点的排列布局以及用户的人眼位置变化对所述第一设备在立体模式下运行时显示的立体图像进行调整。
5.一种视点宽度的确定方法,其特征在于,包括:
第二设备对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;
所述第二设备分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
若所述第一像素均值达到第一预设值,则所述第二设备发送第一坐标记录指令至所述第一设备,以使得所述第一设备记录第一位置坐标,所述第一位置坐标为所述第二设备在拍摄所述第一图像时所处位置的坐标;
若所述第二像素均值达到第二预设值,则所述第二设备发送第二坐标记录指令至所述第一设备,以使得所述第一设备记录第二位置坐标,并根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度,所述第二位置坐标为所述第二设备在拍摄所述第二图像时所处位置的坐标。
6.根据权利要求5所述的方法,其特征在于,所述第二设备分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值包括:
所述第二设备通过如下公式计算所述第一像素均值和所述第二像素均值:
其中,aver_piexl为所述第一像素均值或所述第二像素均值,A为所述屏幕区域,w为所述屏幕区域的宽度,h为所述屏幕区域的高度。
7.一种设备,所述设备为第一设备,其特征在于,所述第一设备包括:
显示单元,用于以立体模式显示目标图像,以使得第二设备对所述目标图像进行实时拍摄,得到第一图像和第二图像,并对所述第一图像和所述第二图像进行分析得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
记录单元,用于若接收到所述第二设备在所述第一像素均值达到第一预设值时发送的第一坐标记录指令,则记录所述第二设备拍摄所述第一图像时所处位置的第一位置坐标;
所述记录单元,还用于若接收到所述第二设备在所述第二像素均值达到第二预设值时发送的第二坐标记录指令,则记录所述第二设备拍摄所述第二图像时所处位置的第二位置坐标;
确定单元,用于根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度。
8.一种设备,所述设备为第二设备,其特征在于,所述第二设备包括:
拍摄单元,用于对第一设备以立体模式显示的目标图像进行实时拍摄,以得到第一图像和第二图像,所述第一图像和所述第二图像为所述第二设备在不同的位置对所述目标图像进行拍摄得到;
分析单元,用于分别对所述第一图像和所述第二图像进行分析,以得到所述第一设备所对应屏幕区域的第一像素均值和第二像素均值,所述第一像素均值与所述第一图像相对应,所述第二像素均值与所述第二图像相对应;
第一发送单元,用于若所述第一像素均值达到第一预设值,则发送第一坐标记录指令至所述第一设备,以使得所述第一设备记录第一位置坐标,所述第一位置坐标为所述第二设备在拍摄所述第一图像时所处位置的坐标;
第二发送单元,用于若所述第二像素均值达到第二预设值,则发送第二坐标记录指令至所述第一设备,以使得所述第一设备记录第二位置坐标,并根据所述第一位置坐标、所述第二位置坐标和所述第一设备所对应光栅的贴合角度确定所述第一设备所对应视点的宽度,所述第二位置坐标为所述第二设备在拍摄所述第二图像时所处位置的坐标。
9.一种计算机设备,其特征在于,包括:
至少一个连接的处理器、存储器和收发器,其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器中的程序代码来执行上述权利要求1至4和权利要求5至6中任一项所述的视点宽度的确定方法。
10.一种计算机存储介质,其特征在于,包括:
指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至4和权利要求5至6中任一项所述的视点宽度的确定方法。
CN202111048861.3A 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质 Active CN113763472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111048861.3A CN113763472B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111048861.3A CN113763472B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113763472A CN113763472A (zh) 2021-12-07
CN113763472B true CN113763472B (zh) 2024-03-29

Family

ID=78793768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111048861.3A Active CN113763472B (zh) 2021-09-08 2021-09-08 一种视点宽度的确定方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113763472B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113781560B (zh) * 2021-09-08 2023-12-22 未来科技(襄阳)有限公司 视点宽度的确定方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608622B1 (en) * 1994-10-14 2003-08-19 Canon Kabushiki Kaisha Multi-viewpoint image processing method and apparatus
CN102186091A (zh) * 2011-01-25 2011-09-14 天津大学 一种基于光栅的多视点立体手机视频像素排布方法
JP2015125494A (ja) * 2013-12-25 2015-07-06 日本電信電話株式会社 画像生成方法、画像生成装置及び画像生成プログラム
WO2016032600A1 (en) * 2014-08-29 2016-03-03 Google Inc. Combination of stereo and structured-light processing
CN112925109A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示屏、裸眼3d显示终端

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5931062B2 (ja) * 2011-06-21 2016-06-08 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608622B1 (en) * 1994-10-14 2003-08-19 Canon Kabushiki Kaisha Multi-viewpoint image processing method and apparatus
CN102186091A (zh) * 2011-01-25 2011-09-14 天津大学 一种基于光栅的多视点立体手机视频像素排布方法
JP2015125494A (ja) * 2013-12-25 2015-07-06 日本電信電話株式会社 画像生成方法、画像生成装置及び画像生成プログラム
WO2016032600A1 (en) * 2014-08-29 2016-03-03 Google Inc. Combination of stereo and structured-light processing
CN112925109A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示屏、裸眼3d显示终端

Also Published As

Publication number Publication date
CN113763472A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
US11615546B2 (en) Systems and methods for depth estimation using generative models
US9521362B2 (en) View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
US9898856B2 (en) Systems and methods for depth-assisted perspective distortion correction
US20110158509A1 (en) Image stitching method and apparatus
US9088772B2 (en) Image-capturing apparatus
US7643070B2 (en) Moving image generating apparatus, moving image generating method, and program
US20070024710A1 (en) Monitoring system, monitoring apparatus, monitoring method and program therefor
US10535193B2 (en) Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
CN109785390B (zh) 一种用于图像矫正的方法和装置
WO2021008205A1 (zh) 图像处理
CN113763472B (zh) 一种视点宽度的确定方法、装置及存储介质
CN109726613B (zh) 一种用于检测的方法和装置
WO2016208404A1 (ja) 情報処理装置および方法、並びにプログラム
CN113781560B (zh) 视点宽度的确定方法、装置及存储介质
CN203894772U (zh) 一种海量人脸发现与识别***
CN110770786A (zh) 基于摄像设备的遮挡检测修复装置及其遮挡检测修复方法
CN114786001B (zh) 3d图片拍摄方法和3d拍摄***
CN111279352B (zh) 通过投球练习的三维信息获取***及摄像头参数算出方法
US10282633B2 (en) Cross-asset media analysis and processing
JP2013258583A (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
JP7154841B2 (ja) 撮像システム、画像処理装置、画像処理方法およびプログラム
JP2000184396A (ja) 映像処理装置及びその制御方法及び記憶媒体
KR20160101762A (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
CN113763473B (zh) 一种视点宽度的确定方法、装置及存储介质
CN110544317A (zh) 图像处理方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant