CN106842881A - 一种将教学课程图像进行室内再现的全息投影方法和*** - Google Patents
一种将教学课程图像进行室内再现的全息投影方法和*** Download PDFInfo
- Publication number
- CN106842881A CN106842881A CN201710042310.3A CN201710042310A CN106842881A CN 106842881 A CN106842881 A CN 106842881A CN 201710042310 A CN201710042310 A CN 201710042310A CN 106842881 A CN106842881 A CN 106842881A
- Authority
- CN
- China
- Prior art keywords
- data
- image
- curricula
- eye
- deviation angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000000694 effects Effects 0.000 claims abstract description 19
- 210000001508 eye Anatomy 0.000 claims description 55
- 230000001815 facial effect Effects 0.000 claims description 28
- 230000007613 environmental effect Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 8
- 210000004709 eyebrow Anatomy 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 6
- 210000004209 hair Anatomy 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 4
- 230000015572 biosynthetic process Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/22—Processes or apparatus for obtaining an optical image from holograms
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
- G03B21/60—Projection screens characterised by the nature of the surface
- G03B21/608—Fluid screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F19/00—Advertising or display means not otherwise provided for
- G09F19/12—Advertising or display means not otherwise provided for using special optical effects
- G09F19/18—Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Accounting & Taxation (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Holo Graphy (AREA)
Abstract
本发明提供一种将教学课程图像进行室内再现的全息投影方法和***,包括步骤:S1、获取教学课程图像;S2、向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,所述空气振动流形成一个空气屏幕;S3、将所述教学课程图像通过干涉和衍射发射到所述空气屏幕中,形成全息影像。直接在空气中显示出全息投影的效果,成像范围大,效果好,广泛适用于教学应用中。
Description
技术领域
本发明涉及虚拟现实技术领域,特别涉及一种将教学课程图像进行室内再现的全息投影方法和***。
背景技术
全息投影技术(front-projected holographic display)也称虚拟成像技术,是利用干涉和衍射原理记录并再现物体真实的三维图像的技术。
相关技术中,全息投影***通常包括:全息投影膜、外框支架、显示器,其中,全息投影膜以特定角度组合为金字塔状;外框支架设置在全息投影膜的外侧,用于支撑显示器;显示器用于将特定的多视角的视频文件投影到全息投影膜上,在全息投影膜中形成立体影像。该全息投影技术提供了360度的立体视觉,可以用于展示商品、提供舞台效果等。但是现有的技术中,只能在全息投影膜或者屏幕上,对全息投影的范围有很大的局限性。
发明内容
本发明要解决的技术问题在于针对现有技术中的不足之处,提供一种将教学课程图像进行室内再现的全息投影方法和***。用于解决现有技术中只能在全息投影膜或者屏幕上,对全息投影的范围有很大的局限性的问题。
本发明解决技术问题采用的技术手段是提供一种将教学课程图像进行室内再现的全息投影方法,包括步骤:S1、获取教学课程图像;S2、向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,所述空气振动流形成一个空气屏幕;S3、将所述教学课程图像通过干涉和衍射发射到所述空气屏幕中,形成全息影像。
于本发明的一实施例中,所述步骤S1包括步骤:S11、采集室内的环境数据;S12、捕捉采集第一对象数据,其中,所述第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;S13、判断是否存在第二对象数据;若存在,则捕捉采集所述第二对象数据;若不存在,则进入步骤S2。
于本发明的一实施例中,所述步骤S12包括以下至少一个步骤:分析所述表情数据包含的面部特征的图像,定位所述采集对象的面部特征位置,根据所述面部特征位置确定所述表情数据,其中,所述面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;采集对象的动作对应的传感装置输出的传感数据,根据所述传感数据解算出所述动作数据,其中,所述动作数据包括对象当前动作的坐标和旋转角度;在所述采集对象是外部设备的情况下,采集所述外部设备输出的脉冲数据或所述控制指令,若采集的是所述脉冲数据则将所述脉冲数据转换成所述控制指令;所述外部设备包括教学设备。
于本发明的一实施例中,所述步骤S3包括步骤:S31、获取观察者相对于显示界面的基准的偏离角度,并根据所述偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;S32、根据所述偏移角度在室内进行投影生成环境影像;所述环境影像数据的视角数量大于所述第一视角阈值;S33、接收并处理所述第一对象数据,并根据所述第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,所述第一动画影像数据的视角数量大于所述第二视角阈值;S34、判断是否存在第二对象数据;若存在,将所述第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,所述第二动画影像数据的视角数量大于第三视角阈值;S35、根据所述偏移角度分别将所述第一动画影像数据和所述第二动画影像数据投影到所述环境影像中。
于本发明的一实施例中,所述步骤S3还包括步骤:以所述显示界面的投影点为所述三维坐标的原点,将所述显示界面三维坐标化;获取所述观察者在所述当前显示界面所对应区域内的位置坐标,根据所述位置坐标计算所述偏离角度;根据所述观察者在所述三维坐标中的坐标位置的改变获取所述观察者的移动轨迹,根据所述移动轨迹调整所述偏移角度,进而调整所述第一视角阈值、所述第二视角阈值和所述第三视角阈值;并控制所述全息影像根据所述移动轨迹和所述偏移角度调整。
本发明还提供了一种将教学课程图像进行室内再现的全息投影***,包括:获取模块,用于获取教学课程图像;屏幕生成模块,用于向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,所述空气振动流形成一个空气屏幕;影像生成模块,用于将所述教学课程图像通过干涉和衍射发射到所述空气屏幕中,形成全息影像。
于本发明的一实施例中,所述获取模块包括:环境采集单元,用于采集室内的环境数据;第一采集单元,用于捕捉采集第一对象数据,其中,所述第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;第二采集单元,用于在第二对象数据若存在时捕捉采集所述第二对象数据。
于本发明的一实施例中,所述第一采集单元至少包括一个以下子单元:表情采集子单元,用于分析所述表情数据包含的面部特征的图像,定位所述采集对象的面部特征位置,根据所述面部特征位置确定所述表情数据,其中,所述面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;动作采集子单元,用于采集对象的动作对应的传感装置输出的传感数据,根据所述传感数据解算出所述动作数据,其中,所述动作数据包括对象当前动作的坐标和旋转角度;指令采集子单元,用于在所述采集对象是外部设备的情况下,采集所述外部设备输出的脉冲数据或所述控制指令,若采集的是所述脉冲数据则将所述脉冲数据转换成所述控制指令;所述外部设备包括教学设备。
于本发明的一实施例中,所述影像生成模块包括:偏离角度计算单元,用于获取观察者相对于显示界面的基准的偏离角度,并根据所述偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;环境影像生成单元,用于根据所述偏移角度在室内进行投影生成环境影像;所述环境影像数据的视角数量大于所述第一视角阈值;第一影像生成单元,用于接收并处理所述第一对象数据,并根据所述第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,所述第一动画影像数据的视角数量大于所述第二视角阈值;第二影像生成单元,用于在所述第二对象数据存在时,将所述第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,所述第二动画影像数据的视角数量大于第三视角阈值;影像生成单元,用于根据所述偏移角度分别将所述第一动画影像数据和所述第二动画影像数据投影到所述环境影像中。
于本发明的一实施例中,所述影像生成模块还包括:三维坐标生成单元,用于以所述显示界面的投影点为所述三维坐标的原点,将所述显示界面三维坐标化;获取所述观察者在所述当前显示界面所对应区域内的位置坐标,所述偏离角度计算单元根据所述位置坐标计算所述偏离角度;移动轨迹获取单元,用于根据所述观察者在所述三维坐标中的坐标位置的改变获取所述观察者的移动轨迹;角度调整单元,用于根据所述移动轨迹调整所述偏移角度,进而调整所述第一视角阈值、所述第二视角阈值和所述第三视角阈值;并控制所述全息影像根据所述移动轨迹和所述偏移角度调整。
实施本发明中的将教学课程图像进行室内再现的全息投影方法和***具有以下有益效果:
直接在空气中显示出全息投影的效果,成像范围大,效果好,广泛适用于教学应用中。
附图说明
图1显示为本发明中将教学课程图像进行室内再现的全息投影方法的流程示意图。
图2显示为本发明中将教学课程图像进行室内再现的全息投影***的方框示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,图1显示为本发明中将教学课程图像进行室内再现的全息投影方法的流程示意图。本发明提供了一种将教学课程图像进行室内再现的全息投影方法,包括步骤:S1、获取教学课程图像;可以使用教学课程的视频,也可以在上课时实时获取讲课的影像。S2、向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,空气振动流形成一个空气屏幕;在室内形成空气屏幕可以使得空气屏幕整体稳定,不会在全息投影时产生波动或晃动;也免去了全息投影屏或者全息投影膜的使用,节省了成本,方便了全息投影的应用,也扩大了全息投影的范围,使其不仅局限于全息投影屏或者全息投影膜的范围。在一优选实施例中,超声波发射结构的振动频率范围为0.10MHz,带动声波发射器面前0.5~1.3m处范围在50cm*60cm*70cm内的空气分子发生有序振动,让空气分子形成多层次、多角度流动,空气振动流形成一个空气屏幕。S3、将教学课程图像通过干涉和衍射发射到空气屏幕中,形成全息影像。直接在空气中显示出全息投影的效果,成像范围大,效果好,广泛适用于教学应用中。
在本发明的一实施例中,步骤S1包括步骤:S11、采集室内的环境数据;S12、捕捉采集第一对象数据,其中,第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;S13、判断是否存在第二对象数据;若存在,则捕捉采集第二对象数据;若不存在,则进入步骤S2。在一优选实施例中,第一对象数据为讲师或教师进行讲课时产生的动作数据,第二对象数据为黑板或者相应课程辅助显示装置上的动态数据。通过上述步骤,可以充分且完整的展现出教学课程中的全息影像,保证了全息投影的技术效果。
进一步地,步骤S12包括以下至少一个步骤:
分析表情数据包含的面部特征的图像,定位采集对象的面部特征位置,根据面部特征位置确定表情数据,其中,面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;采集对象的动作对应的传感装置输出的传感数据,根据传感数据解算出动作数据,其中,动作数据包括对象当前动作的坐标和旋转角度;在采集对象是外部设备的情况下,采集外部设备输出的脉冲数据或控制指令,若采集的是脉冲数据则将脉冲数据转换成控制指令;外部设备包括教学设备。
进一步地,步骤S3包括步骤:S31、获取观察者相对于显示界面的基准的偏离角度,并根据偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;S32、根据偏移角度在室内进行投影生成环境影像;环境影像数据的视角数量大于第一视角阈值;S33、接收并处理第一对象数据,并根据第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,第一动画影像数据的视角数量大于第二视角阈值;S34、判断是否存在第二对象数据;若存在,将第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,第二动画影像数据的视角数量大于第三视角阈值;S35、根据偏移角度分别将第一动画影像数据和第二动画影像数据投影到环境影像中。基于观察者在不同视角下观察物体时所能观察的图像不同为依据,根据偏离角度获取该偏离角度所对应的全息影像视图,也就是说建立偏离角度与该偏离角度对应的视角下观察者所应该看到的物体图像之间的关系,通过偏离角度就能够获取该偏离角度所对应的全息影像视图。
优选地,步骤S3还包括步骤:以显示界面的投影点为三维坐标的原点,将显示界面三维坐标化;获取观察者在当前显示界面所对应区域内的位置坐标,根据位置坐标计算偏离角度;根据观察者在三维坐标中的坐标位置的改变获取观察者的移动轨迹,根据移动轨迹调整偏移角度,进而调整第一视角阈值、第二视角阈值和第三视角阈值;并控制全息影像根据移动轨迹和偏移角度调整。
如图2所示,图2显示为本发明中将教学课程图像进行室内再现的全息投影***的方框示意图。本发明还提供了一种将教学课程图像进行室内再现的全息投影***,包括:
获取模块,用于获取教学课程图像;可以使用教学课程的视频,也可以在上课时实时获取讲课的影像。
屏幕生成模块,用于向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,空气振动流形成一个空气屏幕;在室内形成空气屏幕可以使得空气屏幕整体稳定,不会在全息投影时产生波动或晃动;也免去了全息投影屏或者全息投影膜的使用,节省了成本,方便了全息投影的应用,也扩大了全息投影的范围,使其不仅局限于全息投影屏或者全息投影膜的范围。在一优选实施例中,超声波发射结构的振动频率范围为0.10MHz,带动声波发射器面前0.5~1.3m处范围在50cm*60cm*70cm内的空气分子发生有序振动,让空气分子形成多层次、多角度流动,空气振动流形成一个空气屏幕。
影像生成模块,用于将教学课程图像通过干涉和衍射发射到空气屏幕中,形成全息影像。直接在空气中显示出全息投影的效果,成像范围大,效果好,广泛适用于教学应用中。
在本发明的一实施例中,获取模块包括:环境采集单元,用于采集室内的环境数据;第一采集单元,用于捕捉采集第一对象数据,其中,第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;第二采集单元,用于在第二对象数据若存在时捕捉采集第二对象数据。在一优选实施例中,第一对象数据为讲师或教师进行讲课时产生的动作数据,第二对象数据为黑板或者相应课程辅助显示装置上的动态数据。通过上述步骤,可以充分且完整的展现出教学课程中的全息影像,保证了全息投影的技术效果。
进一步地,第一采集单元至少包括一个以下子单元:表情采集子单元,用于分析表情数据包含的面部特征的图像,定位采集对象的面部特征位置,根据面部特征位置确定表情数据,其中,面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;动作采集子单元,用于采集对象的动作对应的传感装置输出的传感数据,根据传感数据解算出动作数据,其中,动作数据包括对象当前动作的坐标和旋转角度;指令采集子单元,用于在采集对象是外部设备的情况下,采集外部设备输出的脉冲数据或控制指令,若采集的是脉冲数据则将脉冲数据转换成控制指令;外部设备包括教学设备。
进一步地,影像生成模块包括:偏离角度计算单元,用于获取观察者相对于显示界面的基准的偏离角度,并根据偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;环境影像生成单元,用于根据偏移角度在室内进行投影生成环境影像;环境影像数据的视角数量大于第一视角阈值;第一影像生成单元,用于接收并处理第一对象数据,并根据第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,第一动画影像数据的视角数量大于第二视角阈值;第二影像生成单元,用于在第二对象数据存在时,将第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,第二动画影像数据的视角数量大于第三视角阈值;影像生成单元,用于根据偏移角度分别将第一动画影像数据和第二动画影像数据投影到环境影像中。基于观察者在不同视角下观察物体时所能观察的图像不同为依据,根据偏离角度获取该偏离角度所对应的全息影像视图,也就是说建立偏离角度与该偏离角度对应的视角下观察者所应该看到的物体图像之间的关系,通过偏离角度就能够获取该偏离角度所对应的全息影像视图。
优选地,影像生成模块还包括:三维坐标生成单元,用于以显示界面的投影点为三维坐标的原点,将显示界面三维坐标化;获取观察者在当前显示界面所对应区域内的位置坐标,偏离角度计算单元根据位置坐标计算偏离角度;移动轨迹获取单元,用于根据观察者在三维坐标中的坐标位置的改变获取观察者的移动轨迹;角度调整单元,用于根据移动轨迹调整偏移角度,进而调整第一视角阈值、第二视角阈值和第三视角阈值;并控制全息影像根据移动轨迹和偏移角度调整。
综上所述,本发明提供的一种将教学课程图像进行室内再现的全息投影方法和***,直接在空气中显示出全息投影的效果,成像范围大,效果好,广泛适用于教学应用中。具有很高的商业利用和推广的价值。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种将教学课程图像进行室内再现的全息投影方法,其特征在于,包括步骤:
S1、获取教学课程图像;
S2、向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,所述空气振动流形成一个空气屏幕;
S3、将所述教学课程图像通过干涉和衍射发射到所述空气屏幕中,形成全息影像。
2.根据权利要求1所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述步骤S1包括步骤:
S11、采集室内的环境数据;
S12、捕捉采集第一对象数据,其中,所述第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;
S13、判断是否存在第二对象数据;若存在,则捕捉采集所述第二对象数据;若不存在,则进入步骤S2。
3.根据权利要求2所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述步骤S12包括以下至少一个步骤:
分析所述表情数据包含的面部特征的图像,定位所述采集对象的面部特征位置,根据所述面部特征位置确定所述表情数据,其中,所述面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;
采集对象的动作对应的传感装置输出的传感数据,根据所述传感数据解算出所述动作数据,其中,所述动作数据包括对象当前动作的坐标和旋转角度;
在所述采集对象是外部设备的情况下,采集所述外部设备输出的脉冲数据或所述控制指令,若采集的是所述脉冲数据则将所述脉冲数据转换成所述控制指令;所述外部设备包括教学设备。
4.根据权利要求2所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述步骤S3包括步骤:
S31、获取观察者相对于显示界面的基准的偏离角度,并根据所述偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;
S32、根据所述偏移角度在室内进行投影生成环境影像;所述环境影像数据的视角数量大于所述第一视角阈值;
S33、接收并处理所述第一对象数据,并根据所述第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,所述第一动画影像数据的视角数量大于所述第二视角阈值;
S34、判断是否存在第二对象数据;若存在,将所述第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,所述第二动画影像数据的视角数量大于第三视角阈值;
S35、根据所述偏移角度分别将所述第一动画影像数据和所述第二动画影像数据投影到所述环境影像中。
5.根据权利要求4所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述步骤S3还包括步骤:
以所述显示界面的投影点为所述三维坐标的原点,将所述显示界面三维坐标化;获取所述观察者在所述当前显示界面所对应区域内的位置坐标,根据所述位置坐标计算所述偏离角度;
根据所述观察者在所述三维坐标中的坐标位置的改变获取所述观察者的移动轨迹,根据所述移动轨迹调整所述偏移角度,进而调整所述第一视角阈值、所述第二视角阈值和所述第三视角阈值;并控制所述全息影像根据所述移动轨迹和所述偏移角度调整。
6.一种将教学课程图像进行室内再现的全息投影***,其特征在于,包括:
获取模块,用于获取教学课程图像;
屏幕生成模块,用于向室内的空气中发射超声波,带动室内的空气分子发生有序的振动,形成多层次的空气振动流,所述空气振动流形成一个空气屏幕;
影像生成模块,用于将所述教学课程图像通过干涉和衍射发射到所述空气屏幕中,形成全息影像。
7.根据权利要求6所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述获取模块包括:
环境采集单元,用于采集室内的环境数据;
第一采集单元,用于捕捉采集第一对象数据,其中,所述第一对象数据包括用户的表情数据、动作数据、特效数据和控制指令中至少一个;
第二采集单元,用于在第二对象数据若存在时捕捉采集所述第二对象数据。
8.根据权利要求7所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述第一采集单元至少包括一个以下子单元:
表情采集子单元,用于分析所述表情数据包含的面部特征的图像,定位所述采集对象的面部特征位置,根据所述面部特征位置确定所述表情数据,其中,所述面部特征位置包括以下至少之一:面部整体轮廓的位置,眼睛的位置,瞳孔的位置,鼻子的位置,嘴的位置,眉毛的位置;
动作采集子单元,用于采集对象的动作对应的传感装置输出的传感数据,根据所述传感数据解算出所述动作数据,其中,所述动作数据包括对象当前动作的坐标和旋转角度;
指令采集子单元,用于在所述采集对象是外部设备的情况下,采集所述外部设备输出的脉冲数据或所述控制指令,若采集的是所述脉冲数据则将所述脉冲数据转换成所述控制指令;所述外部设备包括教学设备。
9.根据权利要求7所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述影像生成模块包括:
偏离角度计算单元,用于获取观察者相对于显示界面的基准的偏离角度,并根据所述偏离角度获取第一视角阈值、第二视角阈值和第三视角阈值;
环境影像生成单元,用于根据所述偏移角度在室内进行投影生成环境影像;所述环境影像数据的视角数量大于所述第一视角阈值;
第一影像生成单元,用于接收并处理所述第一对象数据,并根据所述第一对象数据驱动并渲染虚拟对象实时生成第一动画影像数据,其中,所述第一动画影像数据的视角数量大于所述第二视角阈值;
第二影像生成单元,用于在所述第二对象数据存在时,将所述第二对象数据驱动并渲染虚拟对象实时生成第二动画影像数据,其中,所述第二动画影像数据的视角数量大于第三视角阈值;
影像生成单元,用于根据所述偏移角度分别将所述第一动画影像数据和所述第二动画影像数据投影到所述环境影像中。
10.根据权利要求9所述的将教学课程图像进行室内再现的全息投影方法,其特征在于,所述影像生成模块还包括:
三维坐标生成单元,用于以所述显示界面的投影点为所述三维坐标的原点,将所述显示界面三维坐标化;获取所述观察者在所述当前显示界面所对应区域内的位置坐标,所述偏离角度计算单元根据所述位置坐标计算所述偏离角度;
移动轨迹获取单元,用于根据所述观察者在所述三维坐标中的坐标位置的改变获取所述观察者的移动轨迹;
角度调整单元,用于根据所述移动轨迹调整所述偏移角度,进而调整所述第一视角阈值、所述第二视角阈值和所述第三视角阈值;并控制所述全息影像根据所述移动轨迹和所述偏移角度调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710042310.3A CN106842881A (zh) | 2017-01-20 | 2017-01-20 | 一种将教学课程图像进行室内再现的全息投影方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710042310.3A CN106842881A (zh) | 2017-01-20 | 2017-01-20 | 一种将教学课程图像进行室内再现的全息投影方法和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106842881A true CN106842881A (zh) | 2017-06-13 |
Family
ID=59119949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710042310.3A Pending CN106842881A (zh) | 2017-01-20 | 2017-01-20 | 一种将教学课程图像进行室内再现的全息投影方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106842881A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020228350A1 (zh) * | 2019-05-14 | 2020-11-19 | 广东康云科技有限公司 | 一种基于空气成像的虚拟养成***和方法 |
CN114007098A (zh) * | 2021-11-04 | 2022-02-01 | Oook(北京)教育科技有限责任公司 | 一种用于智能课堂中3d全息视频的生成方法和装置 |
CN117311565A (zh) * | 2023-09-07 | 2023-12-29 | 廊坊市珍圭谷科技有限公司 | 一种ar全息空气投影*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7319776B2 (en) * | 2001-11-26 | 2008-01-15 | Fujitsu Limited | Image processing method and image processing program |
CN103728867A (zh) * | 2013-12-31 | 2014-04-16 | Tcl通力电子(惠州)有限公司 | 一种3d全息影像的显示方法 |
CN104166301A (zh) * | 2014-08-28 | 2014-11-26 | 天津光影迅科技有限公司 | 一种利用超声波干扰技术实现全息投影的***及方法 |
CN104750250A (zh) * | 2015-03-04 | 2015-07-01 | 深圳市祈锦通信技术有限公司 | 支持手势交互的投影方法和投影*** |
CN204537506U (zh) * | 2015-01-29 | 2015-08-05 | 上海开放大学 | 分区的体验式多屏跨媒体互动教学实验室 |
CN104883557A (zh) * | 2015-05-27 | 2015-09-02 | 世优(北京)科技有限公司 | 实时全息投影方法、装置及*** |
TW201541122A (zh) * | 2014-04-17 | 2015-11-01 | Univ Nat Yunlin Sci & Tech | 水幕投影之三維顯示影像系統 |
CN105589293A (zh) * | 2016-03-18 | 2016-05-18 | 严俊涛 | 全息投影方法及全息投影*** |
CN105844976A (zh) * | 2016-06-14 | 2016-08-10 | 赵博源 | 高中生学习用投影教学装置 |
-
2017
- 2017-01-20 CN CN201710042310.3A patent/CN106842881A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7319776B2 (en) * | 2001-11-26 | 2008-01-15 | Fujitsu Limited | Image processing method and image processing program |
CN103728867A (zh) * | 2013-12-31 | 2014-04-16 | Tcl通力电子(惠州)有限公司 | 一种3d全息影像的显示方法 |
TW201541122A (zh) * | 2014-04-17 | 2015-11-01 | Univ Nat Yunlin Sci & Tech | 水幕投影之三維顯示影像系統 |
CN104166301A (zh) * | 2014-08-28 | 2014-11-26 | 天津光影迅科技有限公司 | 一种利用超声波干扰技术实现全息投影的***及方法 |
CN204537506U (zh) * | 2015-01-29 | 2015-08-05 | 上海开放大学 | 分区的体验式多屏跨媒体互动教学实验室 |
CN104750250A (zh) * | 2015-03-04 | 2015-07-01 | 深圳市祈锦通信技术有限公司 | 支持手势交互的投影方法和投影*** |
CN104883557A (zh) * | 2015-05-27 | 2015-09-02 | 世优(北京)科技有限公司 | 实时全息投影方法、装置及*** |
CN105589293A (zh) * | 2016-03-18 | 2016-05-18 | 严俊涛 | 全息投影方法及全息投影*** |
CN105844976A (zh) * | 2016-06-14 | 2016-08-10 | 赵博源 | 高中生学习用投影教学装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020228350A1 (zh) * | 2019-05-14 | 2020-11-19 | 广东康云科技有限公司 | 一种基于空气成像的虚拟养成***和方法 |
CN114007098A (zh) * | 2021-11-04 | 2022-02-01 | Oook(北京)教育科技有限责任公司 | 一种用于智能课堂中3d全息视频的生成方法和装置 |
CN114007098B (zh) * | 2021-11-04 | 2024-01-30 | Oook(北京)教育科技有限责任公司 | 一种用于智能课堂中3d全息视频的生成方法和装置 |
CN117311565A (zh) * | 2023-09-07 | 2023-12-29 | 廊坊市珍圭谷科技有限公司 | 一种ar全息空气投影*** |
CN117311565B (zh) * | 2023-09-07 | 2024-05-24 | 廊坊市珍圭谷科技股份有限公司 | 一种ar全息空气投影*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100917486B1 (ko) | 컴퓨터 그래픽 애니메이션용 안면 근육 및 눈 움직임 추적시스템 및 방법 | |
KR101424942B1 (ko) | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 | |
CN106875493B (zh) | Ar眼镜中虚拟目标物的叠加方法 | |
CN104699235B (zh) | 基于超声波的三维空间成像交互方法及*** | |
CN108369653A (zh) | 使用眼睛特征的眼睛姿态识别 | |
CN104883557A (zh) | 实时全息投影方法、装置及*** | |
CN106843507B (zh) | 一种虚拟现实多人互动的方法及*** | |
WO2019140945A1 (zh) | 一种应用于飞行模拟器的混合现实方法 | |
CN101729920B (zh) | 一种自由视角立体视频显示方法 | |
CN109416535A (zh) | 基于图像识别的飞行器导航技术 | |
CN107861625A (zh) | 基于3d空间模型的视线跟踪***及方法 | |
CN106842881A (zh) | 一种将教学课程图像进行室内再现的全息投影方法和*** | |
CN109166181A (zh) | 一种基于深度学习的混合动作捕捉*** | |
CN109584263A (zh) | 可穿戴设备的测试方法及*** | |
CN108257177A (zh) | 基于空间标识的定位***与方法 | |
Chen et al. | Reproducible evaluation of pan-tilt-zoom tracking | |
Rocca et al. | Head pose estimation by perspective-n-point solution based on 2d markerless face tracking | |
CN110841266A (zh) | 一种辅助训练***及方法 | |
CN110097644B (zh) | 一种基于混合现实的表情迁移方法、装置、***和处理器 | |
Gang et al. | Research on tujia brocade craft visualization based on unmarked motion capture technique | |
CN109309827A (zh) | 用于360°悬浮光场三维显示***的多人实时跟踪装置和方法 | |
Hong et al. | Preliminary Exploration of Three-Dimensional Visual Variables in Virtual Reality | |
Ohmoto et al. | ICIE: immersive environment for social interaction based on socio-spacial information | |
Huy et al. | Simulated Gaze Tracking using Computer Vision for Virtual Reality | |
Jogeshwar | Analysis and visualization tool for motion and gaze |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170613 |
|
RJ01 | Rejection of invention patent application after publication |