CN106851249A - 图像处理方法及显示设备 - Google Patents
图像处理方法及显示设备 Download PDFInfo
- Publication number
- CN106851249A CN106851249A CN201710202490.7A CN201710202490A CN106851249A CN 106851249 A CN106851249 A CN 106851249A CN 201710202490 A CN201710202490 A CN 201710202490A CN 106851249 A CN106851249 A CN 106851249A
- Authority
- CN
- China
- Prior art keywords
- viewing
- image data
- location parameter
- beholder
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种图像处理方法及显示设备,所述方法包括:获得源图像数据;获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。本发明实施例能够实现根据观看位置对应的观看区域对应的源图像数据的第一部分和不同于观看区域的感知区域所对应的源图像数据的第二部分,使第一部分的优先级高于第二部分的优先级,从而提高了图像处理效率。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种图像处理方法及显示设备。
背景技术
图像处理时,由于对于精度、压缩量、弥补等方面有较高的要求,因此需要经过又多又复杂的运算量。
而且,在实时图像处理时,不仅对运算的数量和复杂度有要求,而对于运算速度也有较高的要求。例如,在采用移动终端摄像的同时就会实时将图像处理好,并显示。因此,实时图像处理技术需要较强的处理器性能。
另一方面,图像的实质是矩阵,那么图像尺寸越大,矩阵的运算量则越大,这时就需要更强的处理器性能。
但是,当前的处理器的性能无法满足提高图像处理效率的需要。
发明内容
有鉴于此,本发明的目的是提供一种提高图像处理效率的图像处理方法及显示设备。
为了实现上述目的,本发明提供了一种图像处理方法,包括:
获得源图像数据;
获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
本发明实施例还提供一种显示设备,包括:
处理装置,配置为获得源图像数据;
显示装置,配置为构成显示所述源图像数据的显示区域;
采集装置,配置为获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
所述处理装置,还配置为依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
由以上本发明实施例可以看出,本发明实施例能够实现根据观看者在显示区域中的观看位置,根据观看位置对应的观看区域对应的源图像数据的第一部分和不同于观看区域的感知区域所对应的源图像数据的第二部分,进行图像处理时使第一部分的优先级高于第二部分的优先级,从而提高了图像处理效率。
附图说明
图1为本发明的图像处理方法的一种实施例的流程图;
图2为本发明的图像处理方法的一个场景示意图;
图3为本发明的图像处理方法的另一个场景示意图;
图4为本发明的显示设备的一种实施例的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
实施例一
本实施例根据观看者在显示区域中的观看位置来处理源图像数据,生成目标图像,其中,目标图像包括与观看位置对应的观看区域和不同于所述观看区域的感知区域,源图像数据包括与观看区域对应的第一部分和与所述感知区域对应的第二部分,并且所述第一部分的优先级高于所述第二部分的优先级。具体地:
图1为本发明的图像处理方法的一种实施例的流程图,如图1所示,本实施例的图像处理方法,具体可以包括如下步骤:
获得源图像数据;
获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
具体地,本实施例先获取源图像数据,并将图像进行渲染后显示在显示装置上。由于观看者在观看屏幕时,可以看到视野范围内的区域,其中,会重点关注的区域为观看区域,而不重点关系的区域为感知区域。因此,如图2所示,本实施例在具体实施时,获得表明观看者在显示区域中的观看位置的位置参数,并依据位置参数计算获得源图像的眼睛聚焦的第一部分,第一部分在第一部分的***,然后对源图像数据进行处理,获得目标图像,其中,第一部分对应目标图像的观看区域,第二部分对应目标图像的感知区域。
由以上本发明实施例可以看出本发明能够实现根据观看者在显示区域中的观看位置,根据观看位置对应的观看区域对应的源图像数据的第一部分和不同于观看区域的感知区域所对应的源图像数据的第二部分,进行图像处理时使第一部分的优先级高于第二部分的优先级,在能够保证观看者的体验的基础上,提高了图像处理效率。
本实施例在具体实施时,可以应用于显示设备。对于需要在大尺寸的显示设备上显示的图像进行实时处理时,运算数量非常大、复杂度非常高,使得图像处理效率较低。
大尺寸是相对概念,对于显示设备,在各自使用场景的观看距离而言(比如投影/电视超过1米,显示器在1米以内,头戴式显示设备在10厘米以内),显示区域大于观看者的视野区域,即能被称为大尺寸。比如大尺寸投影、大尺寸电视是指超过50寸的显示区域的、大尺寸计算机显示器是指超过27寸的显示区域的、大尺寸头戴式显示设备是指超过5寸显示区域的。
但是在观看者实际观看图像时,由于观看者的视觉特性,观看者的注视范围实际上小于观看者的视野范围,也就是说,观看者的视野内也存在聚焦注视的观看区域和观看区域以外的感知区域。因此,如果根据观看者的这一视觉特性,对其视野内的观看区域和感知区采用差异化的处理方式,相比较对整个显示区域都采用相同的处理方式来处理,必然可以降低对处理器的性能需求,从而提高图像处理效率。
实施例二
基于实施例一所述的方法,本实施例给出了依据所述位置参数处理所述源图像数据的几种具体方式,具体如下:
方式一:在获得源图像的位置参数并确定源图像的第一部分和第二部分后,对源图像数据的第一部分通过第一处理方式进行处理,获得所述观看区域的图像;然后对所述源图像数据的第二部分通过第二处理方式进行处理,获得所述感知区域的图像;其中所述第一处理方式的复杂度高于所述第二处理方式的复杂度。
进一步地,对于第一部分可以采用比较复杂的第一处理方式进行处理,采用比较复杂的算法进行处理。
在一个应用场景中,可以对源图像数据的第一部分采用较复杂的渲染方法进行处理,使得第一部分处理后得到的观看区域的图像显示效果更加真实。而对于第二部分则采用较简单的第二种处理方式进行处理,如不进行渲染,而是直接调用上一帧图像的感知区域图像作为当前帧图像的感知区域来显示。再例如,对第一部分的图像处理精度较高,而对第二部分的图像处理精度较低,由于处理精度低需要的运算量不大,因此对处理器的要求不高。
在另一个应用场景中,为了体现出空间感,渲染过程要计算场景中每一个光源对物体的影响;再然后,还需要根据场景中是否使用了透明材质的物体计算光源投射出来的阴影来确定是使用深度贴图阴影还是使用光线追踪阴影。再然后,还要根据物体的材质来计算物体表面的颜色、材料的纹理不同等效果。本实例在具体实施时,需要对第一部分和第二部分采用不同的处理方式,使得目标图像中的观看区域中的显示效果更加真实。例如,对于图像的第一部分通过较为复杂方法进行渲染,如增强处理算法和特征识别算法等,对第二部分只通过简单的渲染方法进行渲染,如仅采用调整光线的方法对第二部分进行处理等;再例如,在第一部分和第二部分采用相同的渲染方法进行处理,但是对第一部分的图像处理精度较高,如对图像浮点运算时可以达到小数点后7位,而对第二部分的图像处理精度较低,如对图像浮点运算时仅达到小数点后2位。由于处理精度较低时,所需要的运算量不大,因此对处理器的要求不高。再例如,在图像刷新较快的情况下,对于观看区域进行渲染,对感知区域可以不进行渲染。
在进行图像处理时,图像处理程序会将的视图投影图像渲染到的屏幕,为了提高渲染的效果,渲染频率需要达到90帧每秒或者更高,这样在对图像处理时对处理器有更高的要求。而本实施例中,由于第一部分仅是整个显示区域的一部分,仅对第一部分进行处理,将使整体处理图像的时间大大缩短,从而提高了图像的图像处理效率。
方式二:在获得源图像的位置参数并确定源图像的第一部分和第二部分后,其中,所述源图像数据的第一部分的分辨率与所述第二部分的分辨率相同,但是对第一部分和第二部分进行不同的处理。例如,对源图像数据进行处理,然后在最后处理阶段对图像进行压缩处理时,可以使所述目标图像的观看区域的分辨率高于所述感知区域的分辨率。这样目标图像的观看区域看起来更为细腻,感知区域较为粗糙。
方式三:在获得源图像的位置参数并确定源图像的第一部分和第二部分后,在第一时间开始对所述源图像数据的第一部分处理,获得所述观看区域的图像;在第二时间开始对所述源图像数据的第二部分处理,获得所述感知区域的图像;所述第一时间早于所述第二时间。具体地,由于眼部聚焦于显示区域的观看区域,在观看显示区域时必然先看到观看区域,因此可以先渲染第一部分的图像,在渲染第一部分的同时,第二部分仍保持显示上一帧图像与第二部分对应的部分,这样也不会影响观看者的观看效果。对于第二部分可以稍后渲染,如果所观看的图像已经被刷新,对第二部分的渲染过程还可以省略。具体的渲染方法可以采用方式一所列举的方法。这种方法没有影响观看者的观看效果,还提高了图像处理效率。
本实施例的以上三种方式既可以单独实施,也可以组合实施。
值得注意的是,对于上述方式一的应用场景中所涉及的3D图像处理方法中。由于3D图像显示技术应用范围较广,可以根据不同的应用场景,做相应的处理,例如,通过头戴式显示设备观看3D图像时,由于头戴式显示设备具有与左右眼分别对应的两个显示屏,两个显示屏呈现出对应左右眼的两个图像,由于两个图像存在的视差使人脑中呈现出立体显示效果。因此,在对这类3D图像处理时,还可以对两个图像进行分别处理。也就是说,对第一个图像的处理过程为,可以通过摄像头来获得位置参数,并根据位置参数确定第一部分和第二部分,然后对第一部分和第二部分采用以上三种方式任一种来进行处理,使得目标图像中的观看区域的优先级高于感知区域的优先级,然后根据第一个图像中观看区域所呈现的图像内容,来确定第二个图像的观看位置,并根据观看位置确定第二个图像的第一部分和第二部分,并与第一个图像相同的方式进行处理,以使得观看区域的优先级高于感知区域。
由以上本发明实施例可以看出通过对源图像数据的第一部分和第二部分进行不同的处理,可以在不影响观看者的观看效果的情况下,提高图像处理效率。
实施例三
基于实施例一所述的方法,本实施例给出了获得位置参数的几种具体方式,具体如下:
获取包括观看者的眼睛的图像信息;
根据所述图像信息确定所述观看者在所述显示区域中的观看位置;
其中,所述观看位置位于所述目标图像的观看区域中;
其中,获取包括观看者的眼睛的图像信息,包括:在预设时间时间隔内获取所述观看者的眼部图像。
具体地,可以获取观看者的眼睛的图像信息,根据对图像信息的分析永无止息,可以确定观看者在显示区域中的观看位置。这里虽然图像在显示时刷新频率较高,但是眼睛改变观看位置的时间间隔远大于图像更新的时间间隔,也就是说眼睛改变位置较快,因此无需考虑处理,在对第一部分和第二部分处理后视线改变的问题。
在具体实施时,由于观看者的眼睛可能随时改变观看位置,因此,为需要在很短的时间获取一次观看者的眼睛的眼部图像信息,例如,为使观看者无法感知到观看区域和感知区域的差异,可以在每次刷新图像时就获取一次观看者的眼部图像。如果发现观看者的观看位置发生改变,就需要对源图像数据的第一部分进行重新处理,对源图像的第二部分也进行重新处理。
在一个应用场景中,获得位置参数可以采用现有技术中的眼球追踪技术。当人的眼睛看向不同方向时,眼部会发生细微的变化,这些变化会产生可以提取的特征,采集装置可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化。
进一步地,在本实施例中,所述源图像数据包括:第一源图像子数据和第二源图像子数据,所述第一源图像子数据和所述第二源图像子数据能让所述观看者看到立体效果图像
具体地,为使观看者获得更好的感观体验,源图像数据可以为3D图像数据。具体源图像数据包括第一源图像子数据和第二源图像子数据,第一源图像子数据和第二源图像子数据显示相对应的内容,相对应的内容在图像中的坐标存在一定的差别,这样观看者会看到存在视差的图像,在用观看者的脑中产生立体图像效果。
进一步地,位置参数包括:第一子位置参数和第二子位置参数;显示区域包括:第一子显示区域和第二子显示区域;其中,所述第一子位置参数是所述观看者的第一眼睛在所述第一子显示区域中的第一观看位置,所述第二子位置参数是所述观看者的第二眼晴在所述第二子显示区域中的第二观看位置;
处理所述源图像数据获得目标图像包括:依据第一子位置参数处理所述第一源图像子数据获得第一目标图像;依据第二子位置参数处理所述第二源图像子数据获得第二目标图像;
显示目标图像包括:在所述第一子显示区域显示所述第一目标图像,在所述第二子显示区域显示所述第二目标图像。
具体地,第一子位置参数表征第一眼睛眼在第一子显示区域中的观看位置,第二子位置参数表征第二眼晴在第二子显示区域中的观看位置,根据观看位置确定观看区域,进而对源图像进行处理形成第一目标图像和第二目标图像。
进一步地,所述第一子位置参数在第一源图像子数据中确定第一焦点位置,由所述第一焦点位置确定所述第一源图像子数据的第一部分,
所述第二子位置参数在第二源图像子数据中确定第二焦点位置,由所述第二焦点位置确定所述第二源图像子数据的第一部分。
根据所述第一焦点位置和预设范围参数,确定所述第一部分;
根据所述第二焦点位置和预设范围参数,确定所述第二部分。
在确定观看焦点位置时可以以不同的方式来确定焦点位置。例如,在一个应用场景中,如图3所示,可以根据观看区域显示的内容来确定第一源图像子数据的第一焦点位置和第二源图像数据的第二焦点位置。对于左眼图像和右眼图像确定的方法相同,在此不做区分。首先确定观看者在观看区域的显示内容,如闪电,再根据显示内容确定第一源图像子数据中的第一位置参数,根据第一位置参数,确定第一源图像子数据中的所述显示内容对应的坐标,然后再确定所述显示内容在第二源图像子数据中的位置坐标,再根据预设的范围参数分别确定第一源图像子数据对应的第一部分和第二部分,再根据实施例二介绍的方法对第一部分和第二部分分别进行处理。
在另一个应用场景中,可以根据第一眼睛对第一源图像子数据的观看位置,来确定第二眼睛对第二源图像子数据的观看位置。例如,首先确定观看者在第一源图像子数据的观看位置,再根据预设范围参数,确定第一源图像子数据的第一部分和第二部分,然后再根据第一源图像数据和第二源图像数据的坐标差,确定给与第一源图像子数据的第一部分和第二部分对应的第二源图像子数据的第一部分和第二部分,然后再对第一部分和第二部分依据实施例二介绍的方法分别进行处理。
由以上本发明实施例可以看出本发明能够实现根据观看者在显示区域中的观看位置,根据观看位置对应的观看区域对应的源图像数据的第一部分和不同于观看区域的感知区域所对应的源图像数据的第二部分,进行图像处理时使第一部分的优先级高于第二部分的优先级,从而提高了渲染效率。
实施例四
本实施例提供了一种显示设备,所述显示设备设置有显示装置、采集装置和处理装置。显示装置配置为获得源图像数据;显示装置,配置为构成显示所述源图像数据的显示区域;采集装置,配置为获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;所述处理装置,还配置为依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
在其中一个实施例中,显示设备可以为可穿戴设备,例如头戴式虚拟现实(VR)显示设备或头戴式增强现实(AR)显示设备。显示装置设置于穿戴后观看者眼睛的视线范围内,若可穿戴设备为头戴式VR显示设备,所述显示装置优选为不透光的装置,头戴式VR显示设备的摄像头朝向眼睛设置,以便于采集所述观看者在显示区域中的观看位置;若可穿戴设备为头戴式AR显示设备,则显示装置可以为透光的镜片模组,头戴式AR显示设备的环境摄像头和视线范围一致,以便于采集图像所述观看者在显示区域中的观看位置。其中,源图像数据可以通过主机,以下载或在线的方式获得,或者,对于采用头戴式AR显示设备可以来自环境摄像头采集的图像。
本实施例的显示设备可以通过对观看者的眼睛的观看位置,将显示区域划分成观看者眼睛重点关注的观看区域和非重点关注的感知区域,通过对源图像进行处理,使得观看区域的优先级高于感知区域的优先。进一步地,如图4所示,所述显示设备包括处理装置、显示装置和采集装置;
处理装置,配置为获得源图像数据;
显示装置,配置为构成显示所述源图像数据的显示区域;
采集装置,配置为获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
所述处理装置,还配置为依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
在另一具体实施例中,所述采集装置包括第一采集装置和第二采集装置。所述第一采集装置设置于所述第一显示装置的边缘位置,所述第二采集装置同样设置于所述第二显示装置的边缘,并且两采集装置都朝向图像显示的方向。
其中,所述第一采集装置配置为采集观看者的左眼的图像信息,以确定所述观看者的左眼的观看位置;
所述第二采集装置配置为采集观看者右眼的图像信息,以确定所述观看者右眼的观看位置;
其中,所述显示装置包括第一显示装置和第二显示装置,
所述第一显示装置配置为构成所述观看者左眼观看的显示区域;
所述第一显示装置配置为构成所述观看者右眼观看的显示区域。
在另一具体的实施例中,其中,所述源图像数据的第一部分的分辨率与所述第二部分的分辨率相同,且所述目标图像的观看区域的分辨率高于所述感知区域的分辨率。
在另一具体的实施例中,其中,
在第一时间开始对所述源图像数据的第一部分处理,获得所述观看区域的图像;
在第二时间开始对所述源图像数据的第二部分处理,获得所述感知区域的图像;
所述第一时间早于所述第二时间。
在另一具体的实施例中,所述采集装置具体配置为:
获取包括观看者的眼睛的图像信息;
根据所述图像信息确定所述观看者在所述显示区域中的观看位置;
其中,所述观看位置位于所述目标图像的观看区域中。
在另一具体的实施例中,其中,
所述源图像数据包括:第一源图像子数据和第二源图像子数据,所述第一源图像子数据和所述第二源图像子数据是能让所述观看者看到立体效果的图像;
位置参数包括:第一子位置参数和第二子位置参数;显示区域包括:第一子显示区域和第二子显示区域;其中,所述第一子位置参数是所述观看者的第一眼睛在所述第一子显示区域中的第一观看位置,所述第二子位置参数是所述观看者的第二眼睛在所述第二子显示区域中的第二观看位置;
处理所述源图像数据获得目标图像包括:依据第一子位置参数处理所述第一源图像子数据获得第一目标图像;依据第二子位置参数处理所述第二源图像子数据获得第二目标图像;
显示目标图像包括:在所述第一子显示区域显示所述第一目标图像,在所述第二子显示区域显示所述第二目标图像。
在另一具体的实施例中,其中,
根据所述第一子位置参数在第一源图像子数据中确定第一焦点位置;
根据所述第二子位置参数在第二源图像子数据中确定第二焦点位置。
在另一具体的实施例中,其中,
根据所述第一焦点位置,确定第一内容,由所述第一内容和预设范围参数确定所述第一部分;
根据所述第二焦点位置,确定第二内容,由所述第二内容和预设范围参数确定所述第二部分。
这里需要指出的是:以上显示设备实施例项的描述,与上述方法描述是类似的,具有同方法实施例相同的有益效果,因此不做赘述。对于本发明显示设备实施例中未披露的技术细节,本领域的技术人员请参照本发明方法实施例的描述而理解,为节约篇幅,这里不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种图像处理方法,包括:
获得源图像数据;
获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
2.根据权利要求1所述的方法,其中,依据所述位置参数处理所述源图像数据,包括:
对所述源图像数据的第一部分通过第一处理方式进行处理,获得所述观看区域的图像;
对所述源图像数据的第二部分通过第二处理方式进行处理,获得所述感知区域的图像;
所述第一处理方式的复杂度高于所述第二处理方式的复杂度。
3.根据权利要求1所述的方法,其中,所述源图像数据的第一部分的分辨率与所述第二部分的分辨率相同,且所述目标图像的观看区域的分辨率高于所述感知区域的分辨率。
4.根据权利要求1所述的方法,其中,
在第一时间开始对所述源图像数据的第一部分处理,获得所述观看区域的图像;
在第二时间开始对所述源图像数据的第二部分处理,获得所述感知区域的图像;
所述第一时间早于所述第二时间。
5.根据权利要求1所述的方法,获得位置参数,包括:
获取包括观看者的眼睛的图像信息;
根据所述图像信息确定所述观看者在所述显示区域中的观看位置;
其中,所述观看位置位于所述目标图像的观看区域中。
6.根据权利要求5所述的方法,其中,
所述源图像数据包括:第一源图像子数据和第二源图像子数据,所述第一源图像子数据和所述第二源图像子数据是能让所述观看者看到立体效果的图像;
位置参数包括:第一子位置参数和第二子位置参数;显示区域包括:第一子显示区域和第二子显示区域;其中,所述第一子位置参数是所述观看者的第一眼睛在所述第一子显示区域中的第一观看位置,所述第二子位置参数是所述观看者的第二眼睛在所述第二子显示区域中的第二观看位置;
处理所述源图像数据获得目标图像包括:依据第一子位置参数处理所述第一源图像子数据获得第一目标图像;依据第二子位置参数处理所述第二源图像子数据获得第二目标图像;
显示目标图像包括:在所述第一子显示区域显示所述第一目标图像,在所述第二子显示区域显示所述第二目标图像。
7.根据权利要求6所述的方法,其中,
根据所述第一子位置参数在第一源图像子数据中确定第一焦点位置;
根据所述第二子位置参数在第二源图像子数据中确定第二焦点位置。
8.根据权利要求7所述的方法,其中,
根据所述第一焦点位置,确定第一内容,由所述第一内容和预设范围参数确定所述第一部分;
根据所述第二焦点位置,确定第二内容,由所述第二内容和预设范围参数确定所述第二部分。
9.一种显示设备,包括:
处理装置,配置为获得源图像数据;
显示装置,配置为构成显示所述源图像数据的显示区域;
采集装置,配置为获得位置参数,所述位置参数表明观看者在显示区域中的观看位置;
所述处理装置,还配置为依据所述位置参数处理所述源图像数据,获得并显示目标图像;其中,所述目标图像包括与所述位置参数对应的观看区域和不同于所述观看区域的感知区域;
其中,所述源图像数据包括与所述观看区域对应的第一部分和与所述感知区域对应的第二部分,所述第一部分的优先级高于所述第二部分的优先级。
10.根据权利要求9所述的显示设备,其中,所述采集装置包括第一采集装置和第二采集装置,
所述第一采集装置配置为采集观看者的左眼的图像信息,以确定所述观看者的左眼的观看位置;
所述第二采集装置配置为采集观看者右眼的图像信息,以确定所述观看者右眼的观看位置;
其中,所述显示装置包括第一显示装置和第二显示装置,
所述第一显示装置配置为构成所述观看者左眼观看的显示区域;
所述第一显示装置配置为构成所述观看者右眼观看的显示区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710202490.7A CN106851249A (zh) | 2017-03-30 | 2017-03-30 | 图像处理方法及显示设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710202490.7A CN106851249A (zh) | 2017-03-30 | 2017-03-30 | 图像处理方法及显示设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106851249A true CN106851249A (zh) | 2017-06-13 |
Family
ID=59141581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710202490.7A Pending CN106851249A (zh) | 2017-03-30 | 2017-03-30 | 图像处理方法及显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106851249A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522866A (zh) * | 2018-11-29 | 2019-03-26 | 宁波视睿迪光电有限公司 | 裸眼3d图像处理方法、装置以及设备 |
WO2020034669A1 (zh) * | 2018-08-16 | 2020-02-20 | 北京七鑫易维信息技术有限公司 | 一种图像获取设备的控制方法及装置 |
CN110856035A (zh) * | 2018-07-24 | 2020-02-28 | 顶级公司 | 处理图像数据以执行对象检测 |
CN111988525A (zh) * | 2020-08-25 | 2020-11-24 | Oppo广东移动通信有限公司 | 图像处理方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101655984A (zh) * | 2008-05-12 | 2010-02-24 | 美国西门子医疗解决公司 | 医学图像数据的自适应处理*** |
CN102347016A (zh) * | 2010-07-28 | 2012-02-08 | 佳能株式会社 | 用于显示图像的显示控制设备和显示控制方法 |
CN103930817A (zh) * | 2011-06-20 | 2014-07-16 | 谷歌公司 | 用于数据的自适应传送的***和方法 |
CN104767992A (zh) * | 2015-04-13 | 2015-07-08 | 北京集创北方科技有限公司 | 头戴式显示***及影像低频宽传输方法 |
-
2017
- 2017-03-30 CN CN201710202490.7A patent/CN106851249A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101655984A (zh) * | 2008-05-12 | 2010-02-24 | 美国西门子医疗解决公司 | 医学图像数据的自适应处理*** |
CN102347016A (zh) * | 2010-07-28 | 2012-02-08 | 佳能株式会社 | 用于显示图像的显示控制设备和显示控制方法 |
CN103930817A (zh) * | 2011-06-20 | 2014-07-16 | 谷歌公司 | 用于数据的自适应传送的***和方法 |
CN104767992A (zh) * | 2015-04-13 | 2015-07-08 | 北京集创北方科技有限公司 | 头戴式显示***及影像低频宽传输方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110856035A (zh) * | 2018-07-24 | 2020-02-28 | 顶级公司 | 处理图像数据以执行对象检测 |
CN110856035B (zh) * | 2018-07-24 | 2024-01-26 | Arm有限公司 | 处理图像数据以执行对象检测 |
WO2020034669A1 (zh) * | 2018-08-16 | 2020-02-20 | 北京七鑫易维信息技术有限公司 | 一种图像获取设备的控制方法及装置 |
US11853471B2 (en) | 2018-08-16 | 2023-12-26 | Beijing 7Invensun Technology Co., Ltd. | Method and apparatus for controlling image acquisition device |
CN109522866A (zh) * | 2018-11-29 | 2019-03-26 | 宁波视睿迪光电有限公司 | 裸眼3d图像处理方法、装置以及设备 |
CN111988525A (zh) * | 2020-08-25 | 2020-11-24 | Oppo广东移动通信有限公司 | 图像处理方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632537B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
CN106484116B (zh) | 媒体文件的处理方法和装置 | |
CN109522866A (zh) | 裸眼3d图像处理方法、装置以及设备 | |
CN110378914A (zh) | 基于注视点信息的渲染方法及装置、***、显示设备 | |
CN106851249A (zh) | 图像处理方法及显示设备 | |
Blum et al. | The effect of out-of-focus blur on visual discomfort when using stereo displays | |
CA2709417A1 (en) | Method of simulating blur in digitally processed images | |
US10885651B2 (en) | Information processing method, wearable electronic device, and processing apparatus and system | |
CN109901290B (zh) | 注视区域的确定方法、装置及可穿戴设备 | |
CN111275801A (zh) | 一种三维画面渲染方法及装置 | |
CN111880654A (zh) | 一种图像显示方法、装置、穿戴设备及存储介质 | |
US11956415B2 (en) | Head mounted display apparatus | |
US20230239457A1 (en) | System and method for corrected video-see-through for head mounted displays | |
JP2023515205A (ja) | 表示方法、装置、端末機器及びコンピュータプログラム | |
US11212502B2 (en) | Method of modifying an image on a computational device | |
Tong et al. | Optical distortions in VR bias the perceived slant of moving surfaces | |
CN115202475A (zh) | 显示方法、装置、电子设备及计算机可读存储介质 | |
JP2016532147A (ja) | 眼科レンズの視覚的効果を特定する方法 | |
CN111587397B (zh) | 图像生成装置、眼镜片选择***、图像生成方法以及程序 | |
CN108881892B (zh) | 用于桌面式虚拟现实***的防眩晕方法、*** | |
EP3961572A1 (en) | Image rendering system and method | |
US11270475B2 (en) | Variable rendering system and method | |
WO2021260368A1 (en) | Visual assistance | |
Gurrieri | Improvements in the visualization of stereoscopic 3D imagery | |
CN115268073A (zh) | 一种虚拟现实显示设备及显示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170613 |
|
RJ01 | Rejection of invention patent application after publication |