CN107066094B - 一种场景融合显示方法及显示装置 - Google Patents

一种场景融合显示方法及显示装置 Download PDF

Info

Publication number
CN107066094B
CN107066094B CN201710175480.9A CN201710175480A CN107066094B CN 107066094 B CN107066094 B CN 107066094B CN 201710175480 A CN201710175480 A CN 201710175480A CN 107066094 B CN107066094 B CN 107066094B
Authority
CN
China
Prior art keywords
display
value
bit
scene
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710175480.9A
Other languages
English (en)
Other versions
CN107066094A (zh
Inventor
白俊江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Weizhi Holographic Technology Co.,Ltd.
Original Assignee
Shenzhen Magic Eye Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Magic Eye Technology Co ltd filed Critical Shenzhen Magic Eye Technology Co ltd
Priority to CN201710175480.9A priority Critical patent/CN107066094B/zh
Publication of CN107066094A publication Critical patent/CN107066094A/zh
Application granted granted Critical
Publication of CN107066094B publication Critical patent/CN107066094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种场景融合显示方法,其应用于显示装置,显示装置包括显示屏,显示屏包括多个显示位,显示装置还设有多个标志位,标志位与显示位一一对应;场景融合显示方法包括:分别获取每个标志位的值,标志位的值包括第一预设值和第二预设值;分别判断每一个标志位的值是否为第一预设值或第二预设值;当标志位的值为第一预设值时,标志位对应的显示位显示虚拟场景;当标志位的值为第二预设值时,标志位对应的显示位显示真实场景。本发明还公开了一种显示装置。通过本发明公开的场景融合显示方法,可完美的将虚拟场景和真实场景融合在一起,提升用户的体验度。

Description

一种场景融合显示方法及显示装置
技术领域
本发明涉及虚拟现实技术和增强现实技术领域,尤其涉及一种场景融合显示方法及显示装置。
背景技术
虚拟现实技术(简称“VR”)是一种可以创建和体验虚拟世界的计算机仿真***,它利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的***仿真使用户沉浸到该环境中。
增强现实技术(简称“AR”)是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息,声音,味道,触觉等),通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。
目前,市场上现有的VR显示产品应用环境局限在仅呈现虚拟影像方面,用户必须全程佩戴几乎全封闭的VR显示产品沉浸于纯虚拟环境中,在现实环境中无法使用,应用范围受限。而现有的AR显示产品能够看到用户眼前的真实环境,并能够分析图像,但不能体验逼真的虚拟场景带来的愉悦。有鉴于此,有必要提供一种方法以促使虚拟现实场景和增强现实场景在同一场景中呈现,做到既让客户看到眼前的真实场景,又能够感受到逼真的虚拟场景带来的愉悦,提升用户体验。
发明内容
本发明所要解决的技术问题是提供一种场景融合显示方法及显示装置,以解决现有的可穿戴设备装置不能在同一场景中完成显示虚拟场景和真实场景的问题。
为了解决上述问题,本发明提供了一种场景融合显示方法,其应用于显示装置,所述显示装置包括显示屏,所述显示屏包括多个显示位,所述显示装置还设有多个标志位,所述标志位与所述显示位一一对应;所述场景融合显示方法包括:
分别获取每个所述标志位的值,所述标志位的值包括第一预设值和第二预设值;
分别判断每一个所述标志位的值是否为所述第一预设值或所述第二预设值;
当所述标志位的值为所述第一预设值时,所述标志位对应的所述显示位显示虚拟场景;
当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真是场景。
作为本发明的进一步改进,在所述分别获取每个所述标志位的值,所述标志位的值包括第一预设值和第二预设值的步骤之前,还包括:
接收外部发送至所述显示装置的显示指令;
根据所述显示指令调整所述标志位的值。
作为本发明的进一步改进,所述显示指令包括语音指令、按键指令或手势指令。
作为本发明的进一步改进,所述标志位的值还包括第三预设值,在所述分别判断所述标志位的值为所述第一预设值或所述第二预设值的步骤之后,还包括:
当所述标志位的值为所述第三预设值时,获取所述标志位对应的所述显示位的亮度值;
判断所述亮度值是否大于预设亮度值;
当所述亮度值大于所述预设亮度值时,所述标志位对应的所述显示位显示虚拟场景;
当所述亮度值不大于所述预设亮度值时,所述标志位对应的所述显示位显示真实场景。
作为本发明的进一步改进,所述当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真实场景的步骤包括:
当所述标志位的值为所述第二预设值时,判断所述显示装置是否具有外部场景扑捉设备;
当所述显示装置具有所述外部场景扑捉设备时,所述标志位对应的所述显示位显示所述外部场景扑捉设备扑捉到的真实场景;
当所述显示装置不具有所述外部场景扑捉设备时,清除所述标志位对应的所述显示位的颜色,使得所述显示位透明。
为了解决上述问题,本发明还提供了一种显示装置,其包括显示屏,所述显示屏包括多个显示位,所述显示装置还设有多个标志位,所述标志位与所述显示位一一对应;所述显示装置包括:
标志位获取模块,用于分别获取每个所述标志位的值,所述标志位的值包括第一预设值和第二预设值;
第一判断模块,用于分别判断每一个所述标志位的值;
第一虚拟场景显示模块,用于当所述标志位的值为所述第一预设值时,所述标志位对应的所述显示位显示虚拟场景;
第一真实场景显示模块,用于当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真实场景。
作为本发明的进一步改进,所述显示装置还包括:
接收模块,用于接收外部发送至所述显示装置的显示指令;
调整模块,用于根据所述显示指令调整所述标志位的值。
作为本发明的进一步改进,所述显示指令包括语音指令、按键指令或手势指令。
作为本发明的进一步改进,所述标志位的值还包括第三预设值,所述显示装置还包括:
亮度值获取模块,用于当所述标志位的值为所述第三预设值时,获取所述标志位对应的所述显示位的亮度值;
第二判断模块,用于判断所述亮度值是否大于预设亮度值;
第二虚拟场景显示模块,用于当所述亮度值大于所述预设亮度值时,所述标志位对应的所述显示位显示虚拟场景;
第二真实场景显示模块,用于当所述亮度值不大于所述预设亮度值时,所述标志位对应的所述显示位显示真实场景。
作为本发明的进一步改进,所述第一真实场景显示模块包括:
判断单元,用于当所述标志位的值为所述第二预设值时,判断所述显示装置是否具有外部场景扑捉设备;
外部场景显示单元,用于当所述显示装置具有所述外部场景扑捉设备时,所述标志位对应的所述显示位显示所述外部场景扑捉设备扑捉到的真实场景;
颜色清除单元,用于当所述显示装置不具有所述外部场景扑捉设备时,清除所述标志位对应的所述显示位的颜色,使得所述显示位透明。
相比于现有技术,本发明提供的场景融合显示方法通过将显示屏划分为多个显示位,每个显示位根据用户的指令显示虚拟现实场景或增强现实场景,从而实现虚拟现实场景和增强现实场景的融合,弥补了传统VR显示装置与AR显示装置在应用中的缺陷和限制,为用户带来了全新的体验。
附图说明
图1为本发明场景融合显示方法第一种实施例的流程示意图;
图2为本发明场景融合显示方法第二种实施例的流程示意图;
图3为本发明场景融合显示方法第三种实施例的流程示意图;
图4为本发明场景融合显示方法第四种实施例的流程示意图;
图5为本发明显示装置第一种实施例的功能模块示意图;
图6为本发明显示装置第二种实施例的功能模块示意图;
图7为本发明显示装置第三种实施例的功能模块示意图;
图8为本发明显示装置第四种实施例的功能模块示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用来限定本发明。
图1展示了本发明场景融合显示方法的一种实施例。在本实施例中,该场景融合显示方法应用于显示装置,该显示装置包括显示屏,显示屏包括多个显示位,该显示装置还设有多个标志位,且标志位与显示位一一对应。如图1所示,该场景融合显示方法包括以下步骤:
步骤S1,分别获取每个标志位的值,标志位的值包括第一预设值和第二预设值。
具体地,显示装置均包括显示屏,由于显示屏上的点、线和面都是由像素组成的,显示屏可显示的像素越多,画面越精细,同样的屏幕区域内能显示的信息也越多,通常地,本领域技术人员将显示屏所能显示的像素的数目称为显示屏的分辨率。本实施例中所述的显示屏包括多个显示位,该显示位的数目与该显示屏最多能显示的像素的数目相同,而不同的显示装置,其显示屏最多能显示的像素的数目可以相同或不同,即不同显示屏的分辨率存在差别,所以,该场景融合方法应用于不同的显示装置时,可以通过获取该显示装置的显示屏的分辨率来确定像素的数目,再根据像素来确定显示位的数目,进而设定与显示位一一对应的标志位,所以该场景融合方法适用于分辨率不同的显示装置,例如,显示屏的分辨率为800*600时,其最多能显示800乘以600个像素,即48万个像素点,则划分显示位时,其包括48万个显示位,该显示位与像素点一一对应,设置标志位时,其包括48万个标志位,形成一个标志位数组,该标志位数组中的标志位与显示位一一对应。
具体地,标志位的值包括第一预设值和第二预设值,而标志位的值不同时,其对应的显示位显示的场景不同。
步骤S2,分别判断每一个标志位的值是否为第一预设值,当标志位的值为第一预设值时,执行步骤S3,当标志位的值不为第一预设值时,执行步骤S4。
具体地,例如,设定第一预设值为0,第二预设值为1,分别判断每一个标志位的值,当标志位的值为0时,执行步骤S3,当标志位的值不为0时,即该标志位的值为1时,执行步骤S4。
步骤S3,标志位对应的显示位显示虚拟场景。
具体地,其中,值为第一预设值的标志位,其对应的显示位显示虚拟场景。
步骤S4,标志位对应的显示位显示真实场景。
具体地,其中,值为第二预设值的标志位,其对应的显示位显示真实场景。
本实施例中,显示装置的显示屏包括多个显示位,而显示装置内又预设有标志位数组,标志位数组内的标志位与显示位一一对应,标志位的值为第一预设值时,其对应的显示位显示虚拟场景,标志位的值为第二预设值时,其对应的显示位显示真实场景。本发明实施例通过将标志位设定为不同的值,使得其对应的显示位显示虚拟场景或真实场景,从而使得虚拟场景和真实场景显示与同一画面中,实现了虚拟场景和真实场景的融合显示,提升了用户体验。
应当理解的是,该场景融合显示方法应用于显示装置时,该显示装置同样可以只显示虚拟场景或真实场景,即单独实现VR功能或AR功能。例如,当仅需要显示虚拟场景时,将所有标志位的值均设为第一预设值,使得每个显示位均显示虚拟场景,即实现了VR功能;当仅需要显示真实场景时,将所有标志位的值均设为第二预设值,使得每个显示位均显示真实场景,即实现了AR功能。
将本发明的场景融合方法用于显示装置的使用过程中,还可以根据用户的需求对融合显示的画面进行调整。因此,在上述实施例的基础上,其他实施例中,参见图2,步骤S1之前,还包括以下步骤:
步骤S5,接收外部发送至显示装置的显示指令。
具体地,显示装置还可接收用户发出的显示指令,该显示指令包括用户调整融合显示画面的需求。
步骤S6,根据显示指令调整标志位的值。
本实施例中,显示装置在接收到显示指令后,根据显示指令对标志位的值进行调整,以满足用户的需求,例如,用户需要在显示屏的中央区域显示真实场景,在其他区域显示虚拟场景,即可通过发送显示指令至显示装置,显示装置接收到显示指令后,根据显示指令,将显示屏中央区域的显示位对应的标志位的值调整为第二预设值,将显示屏上其他显示位对应的标志位的值调整为第一预设值,再根据调整后的标志位的值对显示画面进行调整,以满足用户的需求。
在一些实施例中,该显示指令可通过多种方式发送至显示装置,其中包括语音指令、按键指令或手势指令,应当理解的是,将该显示指令发送至显示装置的方式包括但不限于语音指令、按键指令或手势指令,其它实现将显示指令发送至显示装置的方式均属于此方案的保护范围。
将本发明的场景融合方法用于显示装置的使用过程中,该显示装置还可根据显示位的亮度值显示真实场景或虚拟场景。因此,在上述实施例的基础上,其他实施例中,参见图3,标志位的值还包括第三预设值,在步骤S2中,当标志位的值不为第一预设值时,执行步骤S7。
步骤S7,判断标志位的值是否为第二预设值,当标志位的值为第二预设值时,执行步骤S4,当标志位的值不为第二预设值时,执行步骤S8。
步骤S8,获取标志位对应的显示位的亮度值。
具体地,当标志位的值为第三预设值时,获取该标志位对应的显示位的亮度值。
步骤S9,判断亮度值是否大于预设亮度值,当亮度值大于预设亮度值时,执行步骤S3,当亮度值不大于预设亮度值时,执行步骤S4。
具体地,显示装置内设有预设亮度值,获取显示位的亮度值后,将该亮度值与预设亮度值进行比较,当该亮度值大于预设亮度值时,即执行步骤S3,当亮度值不大于预设亮度值时,执行步骤S4。
本实施例中,标志位的值还包括第三预设值,当获取的标志位的值为第三预设值时,该显示装置获取该标志位对应的显示位的亮度值,并将该亮度值与预设亮度值进行比较,当该亮度值大于预设亮度值时,该标志位对应的显示位显示虚拟场景,当该亮度值小于预设亮度值时,该标志位对应的显示位显示真实场景。
将本发明的场景融合方法用于显示装置的使用过程中,该显示装置还可根据有无外部场景扑捉设备选择显示真实场景的方式。因此,在上述实施例的基础上,其他实施例中,参见图4,步骤S4包括以下子步骤:
步骤S41,判断显示装置是否具有外部场景扑捉设备,当显示装置具有外部场景扑捉设备时,执行步骤S42,当显示装置不具有外部场景扑捉设备时,执行步骤S43。
具体地,当标志位的值为第二预设值时,其对应的显示位显示真实场景,此时,判断该显示装置是否具有外部场景扑捉设备,当该显示装置具有外部场景扑捉设备时,执行步骤S42,当显示装置不具有外部场景扑捉设备时,执行步骤S43。
其中,外部场景扑捉设备包括场景感知摄像头和/或普通光学摄像头,应当理解的是,该外部场景扑捉设备包括但不限于景感知摄像头和/或普通光学摄像头,其他实现外部场景扑捉功能的设备均属于本方案的保护范围。场景感知摄像头能够感知整个外部场景,并对整个外部场景进行建模,将虚拟和现实结合起来。例如,当使用场景感知摄像头,比如人朝向东面,左上角有一个400*400的区域,则将场景感知摄像头映射到虚拟场景中的400*400的区域替换为摄像头数据;而使用普通光学摄像头时,比如拍摄画面是800*600,按照预设的比例放大,这里假设比例是1.5倍,则映射到屏幕中是1200*900,假定起始点设为[200,200],左上角开一个800*800的区域,则是,是从[200,200]到[800,800]替换为映射到屏幕中的[0,0]到[600,600]的区域。而当显示设备既具有场景感知摄像头又具有普通光学摄像头时,用户可根据需求进行优先级设定,例如,设定场景感知摄像头的优先级高于普通光学摄像头,则在扑捉外部场景时,优先使用场景感知摄像头,保证用户具有较好的体验效果。
步骤S42,标志位对应的显示位显示外部场景扑捉设备扑捉到的真实场景。
具体地,当该显示装置具有外部场景扑捉设备时,该标志位对应的显示位显示该外部场景扑捉设备扑捉到的真实场景。
步骤S43,清除标志位对应的显示位的颜色,使得显示位透明。
具体地,该显示装置的显示屏透明,当该显示装置不具有外部场景扑捉设备时,该标志位对应的显示位清除该显示位的颜色,使得用户直接透过显示屏观看到外部真实场景。
本实施例中,当标志位的值为第二预设值时,判断该显示装置是否具有外部场景扑捉设备,若该显示装置具有外部场景扑捉设备,则该标志位对应的显示位显示外部场景扑捉设备扑捉到的真实场景,若该显示装置不具有外部场景扑捉设备,则清除该标志位对应的显示位的颜色,使得该显示位呈透明状,用户透过该显示位处观看到外部的真实场景。
图5展示了本发明显示装置的一种实施例。在本实施例中,该显示装置包括标志位获取模块10、第一判断模块11、第一虚拟场景显示模块12和第一真实场景显示模块13。
其中,标志位获取模块10,用于分别获取每个标志位的值,标志位的值包括第一预设值和第二预设值;第一判断模块11,用于分别判断每一个标志位的值是否为第一预设值或第二预设值;第一虚拟场景显示模块12,用于当标志位的值为第一预设值时,标志位对应的显示位显示虚拟场景;13真实场景显示模块,用于当标志位的值为第二预设值时,标志位对应的显示位显示真实场景。
上述实施例的基础上,其他实施例中,参见图6,该显示装置还包括接收模块20和调整模块21。
其中,接收模块20,用于接收外部发送至显示装置的显示指令;调整模块21,用于根据显示指令调整标志位的值。
上述实施例的基础上,其他实施例中,显示指令包括按键指令和/或手势指令。
上述实施例的基础上,其他实施例中,参见图7,标志位的值还包括第三预设值,该显示装置还包括亮度值获取模块30、第二判断模块31、第二虚拟场景显示模32和第二真实场景显示模块33。
其中,亮度值获取模块30,用于当标志位的值为第三预设值时,获取标志位对应的显示位的亮度值;第二判断模块31,用于判断亮度值是否大于预设亮度值;第二虚拟场景显示模块32,用于当亮度值大于预设亮度值时,标志位对应的显示位显示虚拟场景;第二真实场景显示模块33,用于当亮度值不大于预设亮度值时,标志位对应的显示位显示真实场景。
上述实施例的基础上,其他实施例中,参见图8,第一真实场景显示模块13包括判断单元131、外部场景显示单元132和颜色清除单元133。
其中,判断单元131,用于当标志位的值为第二预设值时,判断显示装置是否具有外部场景扑捉设备;外部场景显示单元132,用于当显示装置具有外部场景扑捉设备时,标志位对应的显示位显示外部场景扑捉设备扑捉到的真实场景;颜色清除单元133,用于当显示装置不具有外部场景扑捉设备时,清除标志位对应的显示位的颜色,使得显示位透明。
关于上述五个实施例显示装置中各模块实现技术方案的其他细节,可参见上述实施例中的场景融合显示方法中的描述,此处不再赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上对发明的具体实施方式进行了详细说明,但其只作为范例,本发明并不限制于以上描述的具体实施方式。对于本领域的技术人员而言,任何对该发明进行的等同修改或替代也都在本发明的范畴之中,因此,在不脱离本发明的精神和原则范围下所作的均等变换和修改、改进等,都应涵盖在本发明的范围内。

Claims (4)

1.一种场景融合显示方法,其特征在于,其应用于显示装置,所述显示装置包括显示屏,所述显示屏包括多个显示位,所述显示装置还设有多个标志位,所述标志位与所述显示位一一对应;所述场景融合显示方法包括:
接收外部发送至所述显示装置的显示指令;
根据所述显示指令调整所述标志位的值;
分别获取每个所述标志位的值,所述标志位的值包括第一预设值和第二预设值;
分别判断每一个所述标志位的值是否为所述第一预设值或所述第二预设值;
当所述标志位的值为所述第一预设值时,所述标志位对应的所述显示位显示虚拟场景;
当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真实场景;
所述当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真实场景的步骤包括:
当所述标志位的值为所述第二预设值时,判断所述显示装置是否具有外部场景扑捉设备;
当所述显示装置具有所述外部场景扑捉设备时,所述标志位对应的所述显示位显示所述外部场景扑捉设备扑捉到的真实场景;
当所述显示装置不具有所述外部场景扑捉设备时,清除所述标志位对应的所述显示位的颜色,使得所述显示位透明;
所述标志位的值还包括第三预设值,在所述分别判断每一个所述标志位的值是否为所述第一预设值或所述第二预设值的步骤之后,还包括:
当所述标志位的值为所述第三预设值时,获取所述标志位对应的所述显示位的亮度值;
判断所述亮度值是否大于预设亮度值;
当所述亮度值大于所述预设亮度值时,所述标志位对应的所述显示位显示虚拟场景;
当所述亮度值不大于所述预设亮度值时,所述标志位对应的所述显示位显示真实场景。
2.根据权利要求1所述的场景融合显示方法,其特征在于,所述显示指令包括语音指令、按键指令或手势指令。
3.一种显示装置,其特征在于,其包括显示屏,所述显示屏包括多个显示位,所述显示装置还设有多个标志位,所述标志位与所述显示位一一对应;所述显示装置包括:
接收模块,用于接收外部发送至所述显示装置的显示指令;
调整模块,用于根据所述显示指令调整所述标志位的值;
标志位获取模块,用于分别获取每个所述标志位的值,所述标志位的值包括第一预设值和第二预设值;
第一判断模块,用于分别判断每一个所述标志位的值是否为所述第一预设值或所述第二预设值;
第一虚拟场景显示模块,用于当所述标志位的值为所述第一预设值时,所述标志位对应的所述显示位显示虚拟场景;
第一真实场景显示模块,用于当所述标志位的值为所述第二预设值时,所述标志位对应的所述显示位显示真实场景;
所述第一真实场景显示模块包括:
判断单元,用于当所述标志位的值为所述第二预设值时,判断所述显示装置是否具有外部场景扑捉设备;
外部场景显示单元,用于当所述显示装置具有所述外部场景扑捉设备时,所述标志位对应的所述显示位显示所述外部场景扑捉设备扑捉到的真实场景;
颜色清除单元,用于当所述显示装置不具有所述外部场景扑捉设备时,清除所述标志位对应的所述显示位的颜色,使得所述显示位透明;
所述标志位的值还包括第三预设值,所述显示装置还包括:
亮度值获取模块,用于当所述标志位的值为所述第三预设值时,获取所述标志位对应的所述显示位的亮度值;
第二判断模块,用于判断所述亮度值是否大于预设亮度值;
第二虚拟场景显示模块,用于当所述亮度值大于所述预设亮度值时,所述标志位对应的所述显示位显示虚拟场景;
第二真实场景显示模块,用于当所述亮度值不大于所述预设亮度值时,所述标志位对应的所述显示位显示真实场景。
4.根据权利要求3所述的显示装置,其特征在于,所述显示指令包括语音指令、按键指令或手势指令。
CN201710175480.9A 2017-03-22 2017-03-22 一种场景融合显示方法及显示装置 Active CN107066094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710175480.9A CN107066094B (zh) 2017-03-22 2017-03-22 一种场景融合显示方法及显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710175480.9A CN107066094B (zh) 2017-03-22 2017-03-22 一种场景融合显示方法及显示装置

Publications (2)

Publication Number Publication Date
CN107066094A CN107066094A (zh) 2017-08-18
CN107066094B true CN107066094B (zh) 2020-07-14

Family

ID=59620127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710175480.9A Active CN107066094B (zh) 2017-03-22 2017-03-22 一种场景融合显示方法及显示装置

Country Status (1)

Country Link
CN (1) CN107066094B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489424A (zh) * 2013-10-08 2014-01-01 东南大学 一种图文视频混合显示驱动器的实现方法
CN104407766A (zh) * 2014-08-28 2015-03-11 联想(北京)有限公司 一种信息处理方法和穿戴式电子设备
CN105814626A (zh) * 2013-09-30 2016-07-27 Pcms控股公司 用于提供增强现实显示和/或用户界面的方法、装置、***、设备和计算机程序产品
CN105824417A (zh) * 2016-03-16 2016-08-03 成都电锯互动科技有限公司 一种采用虚拟现实技术的人与物的结合方法
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备
CN106162035A (zh) * 2015-05-12 2016-11-23 Lg电子株式会社 移动终端

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120073726A (ko) * 2010-12-27 2012-07-05 주식회사 팬택 증강 현실 정보 제공을 위한 인증 장치 및 방법
CN106201197A (zh) * 2016-06-30 2016-12-07 乐视控股(北京)有限公司 一种虚拟现实交互界面管理方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105814626A (zh) * 2013-09-30 2016-07-27 Pcms控股公司 用于提供增强现实显示和/或用户界面的方法、装置、***、设备和计算机程序产品
CN103489424A (zh) * 2013-10-08 2014-01-01 东南大学 一种图文视频混合显示驱动器的实现方法
CN104407766A (zh) * 2014-08-28 2015-03-11 联想(北京)有限公司 一种信息处理方法和穿戴式电子设备
CN106162035A (zh) * 2015-05-12 2016-11-23 Lg电子株式会社 移动终端
CN105824417A (zh) * 2016-03-16 2016-08-03 成都电锯互动科技有限公司 一种采用虚拟现实技术的人与物的结合方法
CN105955456A (zh) * 2016-04-15 2016-09-21 深圳超多维光电子有限公司 虚拟现实与增强现实融合的方法、装置及智能穿戴设备

Also Published As

Publication number Publication date
CN107066094A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
CN107976811B (zh) 一种基于虚拟现实混合的仿真实验室及其仿真方法
US20170195664A1 (en) Three-dimensional viewing angle selecting method and apparatus
CA2984785A1 (en) Virtual reality editor
US20140219551A1 (en) 3D Photo Creation System and Method
CN113240741B (zh) 基于图像差异的透明物体追踪方法、***
US10235806B2 (en) Depth and chroma information based coalescence of real world and virtual world images
CN103777757B (zh) 一种结合显著性检测的在增强现实中放置虚拟对象的***
CN108259883B (zh) 图像处理方法、头戴式显示器以及可读存储介质
CN105959665A (zh) 一种针对于虚拟现实设备的全景3d视频生成方法
US10652528B1 (en) Frustum change in projection stereo rendering
CN104427230A (zh) 增强现实的方法和增强现实的***
US9754347B2 (en) Method and device for simulating a wide field of view
CN107613405B (zh) 一种vr视频字幕显示方法和装置
CN106980369A (zh) 虚拟现实项目的第三视角视频的合成和输出***及方法
WO2017062730A1 (en) Presentation of a virtual reality scene from a series of images
CN117555426B (zh) 基于数字孪生技术的虚拟现实交互***
CN110870304B (zh) 向用户提供信息以观察多视图内容的方法和装置
KR20140004393A (ko) 디스플레이 장치 및 그 제어 방법
CN107066094B (zh) 一种场景融合显示方法及显示装置
CN107452067B (zh) 基于增强现实的演示方法、装置及终端设备
KR101519463B1 (ko) 3d 이미지 변환 장치 및 그 방법
CN107087153B (zh) 3d图像生成方法、装置及vr设备
KR102593453B1 (ko) 가상 현실용 디스플레이 시스템 및 그 구동 방법
US8767053B2 (en) Method and apparatus for viewing stereoscopic video material simultaneously with multiple participants
US11189047B2 (en) Gaze based rendering for audience engagement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230711

Address after: 1301, Building 1, Phase 1, Vanke Jinyu Tixiang Garden, No. 6 Hezheng Road, Liuhe Community, Pingshan Street, Pingshan District, Shenzhen City, Guangdong Province, 518118

Patentee after: Shenzhen Weizhi Holographic Technology Co.,Ltd.

Address before: Room 809, Global Digital Building, No. 9 Gaoxin Middle Third Road, Yuehai Street, Nanshan District, Shenzhen, Guangdong Province, 518000

Patentee before: SHENZHEN MAGIC EYE TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right