CN105183005A - 场景虚拟装置及控制方法 - Google Patents
场景虚拟装置及控制方法 Download PDFInfo
- Publication number
- CN105183005A CN105183005A CN201510526465.5A CN201510526465A CN105183005A CN 105183005 A CN105183005 A CN 105183005A CN 201510526465 A CN201510526465 A CN 201510526465A CN 105183005 A CN105183005 A CN 105183005A
- Authority
- CN
- China
- Prior art keywords
- primary processor
- initial point
- image
- electrically connected
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种场景虚拟装置及控制方法,包括主处理器,存储器,4个辅助处理器,控制器,设于围墙上的4个依次排列的第一显示器,设于天花板上的第二显示器,设于地板上的6自由度平台,设于6自由度平台上的若干个排列的座椅;主处理器分别与第二显示器、存储器、各个辅助处理器、控制器和6自由度平台的驱动器电连接,各个辅助处理器分别与各个第一显示器电连接;本发明具有分辨率高、沉浸感强、交互性好的特点。
Description
技术领域
本发明涉及智能控制技术领域,尤其是涉及一种分辨率高、沉浸感强、交互性好的场景虚拟装置及控制方法。
背景技术
播放***通常播放固定内容的影片,观众无法对播放内容做出干涉,无法给音视频观看者提供更加全面的观看效果。
尤其是在观看一些用于展示的场景的影像时,观众只能随着影像播放的流程观看,不能依据观看者的意愿调整播放内容,如果出现疑问只能向制作方求助,不能满足个性化的要求;对制作者而言,在制作影像时,要考虑全部可能出现的问题,而且要提供高水平的现场支持人员进行答疑解惑,人力物力花费较高,如果出现预想外的问题时,难以及时调整影像内容,展示效果较差。
中国专利授权公开号:CN103902989A,授权公开日2014年7月2日,公开了一种基于非负矩阵分解的人体动作视频识别方法,包括如下步骤:(1)预处理视频图像:(1a)输入90个人体动作视频图像;(1b)在输入的人体动作视频图像中,任选80个人体动作视频图像作为一个人体动作视频训练样本集,其余的10个人体动作视频图像各自作为一个人体动作视频训练样本集;(1c)利用矩阵实验室matlab的横向连接字符串strcat函数,将人体动作视频训练样本集和人体动作视频测试样本集中的人体动作视频图像,转换为时间连续的单幅图片序列;(1d)对单幅图片序列进行隔行采样,获得预处理的降采样图片序列。该发明的不足之处是,检测误差大,容易导致人体动作误识别。
发明内容
本发明的发明目的是为了克服现有技术中的播放***无法给音视频观看者提供更加全面的观看效果的不足,提供了一种分辨率高、沉浸感强、交互性好的场景虚拟装置及控制方法。
为了实现上述目的,本发明采用以下技术方案:
一种场景虚拟装置,所述场景虚拟装置设于建筑物的房间内,所述房间包括矩形围墙、地板和天花板;包括主处理器,存储器,4个辅助处理器,控制器,设于围墙上的4个依次排列的第一显示器,设于天花板上的第二显示器,设于地板上的6自由度平台,设于6自由度平台上的若干个排列的座椅;主处理器分别与第二显示器、存储器、各个辅助处理器、控制器和6自由度平台的驱动器电连接,各个辅助处理器分别与各个第一显示器电连接;所述控制器包括壳体、设于壳体上的若干个分别与原点前后左右上下移动相关联的控制按键,各个控制按键均与主处理器电连接。
主处理器和各个辅助处理器用于对体验场景的图像进行处理,控制器上设有与原点前后左右上下移动相关联的控制按键,第二显示器和各个第一显示器用于显示图像,6自由度平台可以带动座椅上的用户前后左右倾斜及上下移动,6自由度平台和第二显示器、各个第一显示器显示的图像相结合,给人身临其境的感觉。
各个用户分别坐在座椅上,其中一个用户通过控制器控制原点移动,主处理器和各个辅助处理器根据原点的移动将体验场景的真实画面进行处理,并进行多画面同步播放,给用户营造出身临其境的视觉感受,因此,本发明具有分辨率高、沉浸感强、交互性好的特点。
因此,本发明具有不固定播放内容、观看者可以与影片内容进行交互,有效提升体验效果,增强真实感、依据影片内容调整6自由度平台的运行,有效提升沉浸效果特点。
作为优选,还包括人体动作采集器,人体动作采集器包括3轴加速度传感器电路和单片机;3轴加速度传感器电路和单片机电连接,单片机与主处理器电连接;人体动作采集器安装于人体的手臂上。
作为优选,所述3轴加速度传感器电路包括型号为MPU6050的3轴加速度传感器、若干个电阻和若干个电容;3轴加速度传感器的第11管脚与单片机的第63管脚电连接,3轴加速度传感器的第12管脚与单片机的第58管脚电连接。
作为优选,所述电阻为两个,分别为R14和R15;所述电容为4个,分别为C21、C22、C23和C24;R14和R15一端分别与3轴加速度传感器的第23、第24引脚电连接,R14和R15另一端均接VCC;C21一端与3轴加速度传感器的第20引脚电连接,C21另一端接地;C22一端和3轴加速度传感器的第13引脚及VCC电连接,C22另一端接地;C24一端与3轴加速度传感器的第8引脚及VCC电连接,C23一端与3轴加速度传感器的第9引脚电连接,C23和C24另一端均接地。
作为优选,所述第二显示器分别与各个第一显示器上边缘接触,相邻第一显示器的边缘相接触。
一种场景虚拟装置的控制方法,包括如下步骤:
(6-1)存储器中设有若干个图像处理参数,主处理器将各个图像处理参数传输给各个辅助处理器,存储器中设有体验场景的三维立方体模型;设定三维立方体模型的中心点为原点;
(6-2)设定主处理器和各个辅助处理器中均设有虚拟摄像机,各个虚拟摄像机均位于原点上,由原点向三维立方体模型的每个角的顶点做连线,连线将三维立方体模型分成6个四棱锥体,分别为上锥体、下锥体、前锥体、右锥体、后锥体和左锥体,设定主处理器的虚拟摄像机用于捕捉上锥体的图像,4个辅助处理器中分别用于捕捉前锥体、右锥体、后锥体和左锥体的图像,主处理器和4个辅助处理器中分别存储有体验场景图像;
(6-3)用户通过控制器的各个按键控制原点移动
(6-3-1)主处理器收到原点移动的命令后,主处理器根据原点移动的位置计算其虚拟摄像机所捕捉的图像,按照图像处理参数对图像进行处理后将该图像输送到第二显示器显示;
(6-3-2)主处理器将原点移动的信息输送给各个辅助处理器,各个辅助处理器分别计算其虚拟摄像机所捕捉的图像,按照图像处理参数对图像进行处理后将图像分别输送到对应的第一显示器显示;
(6-3-3)在原点移动的同时,主处理器将原点移动的信息传输给体感平台的驱动器,驱动器带动体感平台做出与原点移动同步的摆动。
作为上述方案的替换方案,还包括人体动作采集器,人体动作采集器包括3轴加速度传感器电路和单片机;3轴加速度传感器电路和单片机电连接,单片机与主处理器电连接;人体动作采集器安装于人体的手臂上;所述用户通过控制器的各个按键控制原点移动由下述步骤替换:
(7-1)当人体做出某个动作时,单片机获得3轴加速度传感器检测的净加速度矢量信号A(t),A(t)=(x(t),y(t),z(t)),其中,x(t)为三轴加速度传感器检测的X轴矢量信号,y(t)为三轴加速度传感器检测的Y轴矢量信号,z(t)为三轴加速度传感器检测的Y轴矢量信号;
(7-2)主处理器收到A(t)并将A(t)存储到存储器中;对于A(t)中的每个时刻i,主处理器选取时刻i及其后的4个抽样值,利用公式 对包括i时刻在内的N个抽样值进行处理,得到每个时刻i的加速度矢量理想值Ai(t);其中,MAX为N个抽样值中的最大值;
并得到由各个时刻的Ai(t)组成的与净加速度矢量信号相对应的加速度矢量理想值信号A′(t),并将A′(t)存储到存储器中;
(7-3)信号截取:
存储器中设有开始阈值结束阈值δ、放大倍数K,m个人体动作的名称,与m个人体动作分别对应的m个隐马尔可夫模型HMM,HMM由五元数组λ=(X,O,A,B,π)表征;其中,X为状态的有限集合,O为λ的有限集合,A为转移概率,B为输出概率,π为初始状态分布;
主处理器利用公式
ΔAt=|x′(t+1)-x′(t)|+|y′(t+1)-y′(t)|+|z′(t+1)-z′(t)|计算并得到滤除了多余动作的加速度矢量ΔAt;
当则主处理器做出当前时刻动作开始的判断;
当 则主处理器做出当前时刻动作结束的判断;
(7-4)信号放大:
将位于动作开始时刻和动作结束时刻之间的加速度矢量理想值信号A′(t)放大K倍;
(7-5)特征提取:
将A′(t)的各个抽样值按照时间顺序分割成P段,每段取L个抽样值,通过下式提取每一段数据抽样值的均值feature:
其中,s(j)表示每个分割段中的第j时刻抽样值;
(7-6)动作识别:
主处理器使O=feature,利用Forward-Backward算法的公式
计算m个隐马尔可夫模型HMM中产生feature的最大概率Gesture(O);存储器中存储有与各个人体动作相对应的原点移动命令,得到Gesture(O)后,主处理器查询与Gesture(O)对应的HMMmax,并识别出与HMMmax相对应的人体动作,并进一步得到与人体动作相对应的原点移动的命令。
作为优选,所述P的取值大小与一个动作的持续时间及一个动作复杂程度成正比;K为110至270。
作为优选,为(1.68g,0,0)至(1.79g,0,0);δ为(1.27g,0,0)至(1.39g,0,0);其中,g为重力加速度。
作为优选,m为8至20。
因此,本发明具有如下有益效果:
可以定制播放内容与相应场景,不固定播放内容;用户可以与影片内容进行交互,交互结果实时反映至播放内容与6自由度平台中,有效提升体验效果,增强真实感;依据影片内容调整6自由度平台的运行,有效提升沉浸效果。
附图说明
图1是本发明的一种原理框图;
图2是本发明的3轴加速度传感器的一种电路图;
图3是本发明的实施例1的一种流程图;
图4是本发明的一种摄像区域结构示意图。
图中:主处理器1、存储器2、辅助处理器3、控制器4、第一显示器5、第二显示器6、驱动器7、3轴加速度传感器电路9、单片机10、原点8、摄像区域11。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步的描述。
实施例1
如图1所示的实施例是一种场景虚拟装置,场景虚拟装置设于建筑物的房间内,房间包括矩形围墙、地板和天花板;包括主处理器1,存储器2,4个辅助处理器3,控制器4,设于围墙上的4个依次排列的第一显示器5,设于天花板上的第二显示器6,设于地板上的6自由度平台,设于6自由度平台上的50个排列的座椅;主处理器分别与第二显示器、存储器、各个辅助处理器、控制器和6自由度平台的驱动器7电连接,各个辅助处理器分别与各个第一显示器电连接;所述控制器包括壳体、设于壳体上的6个分别与原点前后左右上下移动相关联的控制按键,各个控制按键均与主处理器电连接。第二显示器分别与各个第一显示器上边缘接触,相邻第一显示器的边缘相接触。
如图3所示,一种场景虚拟装置的控制方法,包括如下步骤:
步骤100,建立体验场景的三维立方体模型,设定原点
存储器中设有影像类型、分辨率、帧速率和纵横比,主处理器将影像类型、分辨率、帧速率和纵横比传输给各个辅助处理器,存储器中设有体验场景的三维立方体模型;如图4所示,设定三维立方体模型的中心点为原点8;图4是三维模型的一种俯视的结构示意图;
步骤200,设定各个虚拟摄像机及其对应的体验场景摄影范围
设定主处理器和各个辅助处理器中均设有虚拟摄像机,各个虚拟摄像机均位于原点上,由原点向三维立方体模型的每个角的顶点做连线,连线将三维立方体模型分成分别构成摄像区域11的6个四棱锥体,分别为上锥体、下锥体、前锥体、右锥体、后锥体和左锥体,设定主处理器的虚拟摄像机用于捕捉上锥体的图像,4个辅助处理器中分别用于捕捉前锥体、右锥体、后锥体和左锥体的图像,主处理器和4个辅助处理器中分别存储有体验场景图像;图4中的箭头表示各个虚拟摄像机的摄像方向。
步骤300,用户通过控制器的各个按键控制原点移动
步骤310,第二显示器显示同步图像
主处理器收到原点移动的命令后,主处理器根据原点移动的位置计算其虚拟摄像机所捕捉的图像,利用分辨率、帧速率和纵横比参数对图像处理后将该图像输送到第二显示器显示;
步骤320,各个第一显示器显示同步图像
主处理器将原点移动的信息输送给各个辅助处理器,各个辅助处理器分别计算其虚拟摄像机所捕捉的图像,利用分辨率、帧速率和纵横比参数对图像处理后将图像分别输送到对应的第一显示器显示;
步骤330,6自由度平台同步摆动
在原点移动的同时,主处理器将原点移动的信息传输给6自由度平台的驱动器,驱动器带动6自由度平台做出与原点移动同步的摆动。
当原点向上并向前移动时,6自由度平台先向上移动然后向前倾斜;当原点向下并向前移动时,6自由度平台先向下移动然后向前倾斜;当原点向上并向右移动时,6自由度平台先向上移动然后向右倾斜;原点的其它移动方式,6自由度平台均做出类似的同步摆动。
实施例2
实施例2包括实施例1中的所有结构和步骤部分,如图1、图2所示,实施例2还包括人体动作采集器,人体动作采集器包括3轴加速度传感器电路9和单片机10;3轴加速度传感器电路和单片机电连接,单片机与主处理器电连接;人体动作采集器安装于人体的手臂上。
3轴加速度传感器电路包括型号为MPU6050的3轴加速度传感器、2个电阻和4个电容;3轴加速度传感器的第11管脚与单片机的第63管脚电连接,3轴加速度传感器的第12管脚与单片机的第58管脚电连接。
两个电阻分别为R14和R15;4个电容分别为C21、C22、C23和C24;R14和R15一端分别与3轴加速度传感器的第23、第24引脚电连接,R14和R15另一端均接VCC;C21一端与3轴加速度传感器的第20引脚电连接,C21另一端接地;C22一端和3轴加速度传感器的第13引脚及VCC电连接,C22另一端接地;C24一端与3轴加速度传感器的第8引脚及VCC电连接,C23一端与3轴加速度传感器的第9引脚电连接,C23和C24另一端均接地。
实施例1中的用户通过控制器的各个按键控制原点移动由下述步骤替换:
(7-1)当人体做出某个动作时,单片机获得3轴加速度传感器检测的净加速度矢量信号A(t),A(t)=(x(t),y(t),z(t)),其中,x(t)为三轴加速度传感器检测的X轴矢量信号,y(t)为三轴加速度传感器检测的Y轴矢量信号,z(t)为三轴加速度传感器检测的Y轴矢量信号;
(7-2)主处理器收到A(t)并将A(t)存储到存储器中;对于A(t)中的每个时刻i,主处理器选取时刻i及其后的4个抽样值,利用公式 对包括i时刻在内的N个抽样值进行处理,得到每个时刻i的加速度矢量理想值Ai(t);其中,MAX为N个抽样值中的最大值;
并得到由各个时刻的Ai(t)组成的与净加速度矢量信号相对应的加速度矢量理想值信号A′(t),并将A′(t)存储到存储器中;
(7-3)信号截取:
存储器中设有开始阈值结束阈值δ、放大倍数K,m个人体动作的名称,与m个人体动作分别对应的m个隐马尔可夫模型HMM,HMM由五元数组λ=(X,O,A,B,π)表征;其中,X为状态的有限集合,O为λ的有限集合,A为转移概率,B为输出概率,π为初始状态分布;
主处理器利用公式
ΔAt=|x′(t+1)-x′()|+|y′(t+1)-y′(t)|+|z′(t+1)-z′(t)|计算并得到滤除了多余动作的加速度矢量ΔAt;
当则主处理器做出当前时刻动作开始的判断;
当 则主处理器做出当前时刻动作结束的判断;
(7-4)信号放大:
将位于动作开始时刻和动作结束时刻之间的加速度矢量理想值信号A′(t)放大K倍;
(7-5)特征提取:
将A′(t)的各个抽样值按照时间顺序分割成P段,每段取L个抽样值,通过下式提取每一段数据抽样值的均值feature:
其中,s(j)表示每个分割段中的第j时刻抽样值;
(7-6)动作识别:
主处理器使O=feature,利用Forward-Backward算法的公式
计算m个隐马尔可夫模型HMM中产生feature的最大概率Gesture(O);存储器中存储有与各个人体动作相对应的原点移动命令,得到Gesture(O)后,主处理器查询与Gesture(O)对应的HMMmax,并识别出与HMMmax相对应的人体动作,并进一步得到与人体动作相对应的原点移动的命令。P的取值大小与一个动作的持续时间及一个动作复杂程度成正比;K为270。为(1.68g,0,0);δ为(1.27g,0,0);其中,g为重力加速度。m为20。
应理解,本实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术用户可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
Claims (10)
1.一种场景虚拟装置,所述场景虚拟装置设于建筑物的房间内,所述房间包括矩形围墙、地板和天花板;其特征是,包括主处理器(1),存储器(2),4个辅助处理器(3),控制器(4),设于围墙上的4个依次排列的第一显示器(5),设于天花板上的第二显示器(6),设于地板上的6自由度平台,设于6自由度平台上的若干个排列的座椅;主处理器分别与第二显示器、存储器、各个辅助处理器、控制器和6自由度平台的驱动器(7)电连接,各个辅助处理器分别与各个第一显示器电连接;所述控制器包括壳体、设于壳体上的若干个分别与原点前后左右上下移动相关联的控制按键,各个控制按键均与主处理器电连接。
2.根据权利要求1所述的场景虚拟装置,其特征是,还包括人体动作采集器,人体动作采集器包括3轴加速度传感器电路(9)和单片机(10);3轴加速度传感器电路和单片机电连接,单片机与主处理器电连接;人体动作采集器安装于人体的手臂上。
3.根据权利要求2所述的场景虚拟装置,其特征是,所述3轴加速度传感器电路包括型号为MPU6050的3轴加速度传感器、若干个电阻和若干个电容;3轴加速度传感器的第11管脚与单片机的第63管脚电连接,3轴加速度传感器的第12管脚与单片机的第58管脚电连接。
4.根据权利要求3所述的场景虚拟装置,其特征是,所述电阻为两个,分别为R14和R15;所述电容为4个,分别为C21、C22、C23和C24;R14和R15一端分别与3轴加速度传感器的第23、第24引脚电连接,R14和R15另一端均接VCC;C21一端与3轴加速度传感器的第20引脚电连接,C21另一端接地;C22一端和3轴加速度传感器的第13引脚及VCC电连接,C22另一端接地;C24一端与3轴加速度传感器的第8引脚及VCC电连接,C23一端与3轴加速度传感器的第9引脚电连接,C23和C24另一端均接地。
5.根据权利要求1或2或3或4所述的场景虚拟装置,其特征是,所述第二显示器分别与各个第一显示器上边缘接触,相邻第一显示器的边缘相接触。
6.一种适用于权利要求1所述的场景虚拟装置的控制方法,其特征是,包括如下步骤:
(6-1)存储器中设有若干个图像处理参数,主处理器将各个图像处理参数传输给各个辅助处理器,存储器中设有体验场景的三维立方体模型;设定三维立方体模型的中心点为原点;
(6-2)设定主处理器和各个辅助处理器中均设有虚拟摄像机,各个虚拟摄像机均位于原点上,由原点向三维立方体模型的每个角的顶点做连线,连线将三维立方体模型分成6个四棱锥体,分别为上锥体、下锥体、前锥体、右锥体、后锥体和左锥体,设定主处理器的虚拟摄像机用于捕捉上锥体的图像,4个辅助处理器中分别用于捕捉前锥体、右锥体、后锥体和左锥体的图像,主处理器和4个辅助处理器中分别存储有体验场景图像;
(6-3)用户通过控制器的各个按键控制原点移动
(6-3-1)主处理器收到原点移动的命令后,主处理器根据原点移动的位置计算其虚拟摄像机所捕捉的图像,按照图像处理参数对图像进行处理后将该图像输送到第二显示器显示;
(6-3-2)主处理器将原点移动的信息输送给各个辅助处理器,各个辅助处理器分别计算其虚拟摄像机所捕捉的图像,按照图像处理参数对图像进行处理后将图像分别输送到对应的第一显示器显示;
(6-3-3)在原点移动的同时,主处理器将原点移动的信息传输给体感平台的驱动器,驱动器带动体感平台做出与原点移动同步的摆动。
7.根据权利要求6所述的场景虚拟装置的控制方法,还包括人体动作采集器,人体动作采集器包括3轴加速度传感器电路和单片机;3轴加速度传感器电路和单片机电连接,单片机与主处理器电连接;人体动作采集器安装于人体的手臂上;其特征是,所述用户通过控制器的各个按键控制原点移动由下述步骤替换:
(7-1)当人体做出某个动作时,单片机获得3轴加速度传感器检测的净加速度矢量信号A(t),A(t)=(x(t),y(t),z(t)),其中,x(t)为三轴加速度传感器检测的X轴矢量信号,y(t)为三轴加速度传感器检测的Y轴矢量信号,z(t)为三轴加速度传感器检测的Y轴矢量信号;
(7-2)主处理器收到A(t)并将A(t)存储到存储器中;对于A(t)中的每个时刻i,主处理器选取时刻i及其后的4个抽样值,利用公式 对包括i时刻在内的N个抽样值进行处理,得到每个时刻i的加速度矢量理想值Ai(t);其中,MAX为N个抽样值中的最大值;
并得到由各个时刻的Ai(t)组成的与净加速度矢量信号相对应的加速度矢量理想值信号A′(t),并将A′(t)存储到存储器中;
(7-3)信号截取:
存储器中设有开始阈值结束阈值δ、放大倍数K,m个人体动作的名称,与m个人体动作分别对应的m个隐马尔可夫模型HMM,HMM由五元数组λ=(X,0,A,B,π)表征;其中,X为状态的有限集合,0为λ的有限集合,A为转移概率,B为输出概率,π为初始状态分布;
主处理器利用公式
ΔAt=|x′(t+1)-x′(t)|+|y′(t+1)-y′(t)|+|z′(t+1)-z′(t)|
计算并得到滤除了多余动作的加速度矢量ΔAt;
当则主处理器做出当前时刻动作开始的判断;
当 则主处理器做出当前时刻动作结束的判断;
(7-4)信号放大:
将位于动作开始时刻和动作结束时刻之间的加速度矢量理想值信号A′(t)放大K倍;
(7-5)特征提取:
将A′(t)的各个抽样值按照时间顺序分割成P段,每段取L个抽样值,通过下式提取每一段数据抽样值的均值feature:
其中,s(j)表示每个分割段中的第j时刻抽样值;
(7-6)动作识别:
主处理器使O=feature,利用Forward-Backward算法的公式
计算m个隐马尔可夫模型HMM中产生feature的最大概率Gesture(O);存储器中存储有与各个人体动作相对应的原点移动命令,得到Gesture(O)后,主处理器查询与Gesture(O)对应的HMMmax,并识别出与HMMmax相对应的人体动作,并进一步得到与人体动作相对应的原点移动的命令。
8.根据权利要求6所述的场景虚拟装置的控制方法,其特征是,所述P的取值大小与一个动作的持续时间及一个动作复杂程度成正比;K为110至270。
9.根据权利要求6或7或8所述的场景虚拟装置的控制方法,其特征是,为(1.68g,0,0)至(1.79g,0,0);δ为(1.27g,0,0)至(1.39g,0,0);其中,g为重力加速度。
10.根据权利要求6或7或8所述的场景虚拟装置的控制方法,其特征是,m为8至20。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510526465.5A CN105183005A (zh) | 2015-08-25 | 2015-08-25 | 场景虚拟装置及控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510526465.5A CN105183005A (zh) | 2015-08-25 | 2015-08-25 | 场景虚拟装置及控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105183005A true CN105183005A (zh) | 2015-12-23 |
Family
ID=54905143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510526465.5A Pending CN105183005A (zh) | 2015-08-25 | 2015-08-25 | 场景虚拟装置及控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105183005A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101510074A (zh) * | 2009-02-27 | 2009-08-19 | 河北大学 | 一种高临场感智能感知交互运动***及实现方法 |
US20100199230A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture recognizer system architicture |
CN101908103A (zh) * | 2010-08-19 | 2010-12-08 | 北京启动在线文化娱乐有限公司 | 以体感方式进行互动的网络舞蹈*** |
CN102622774A (zh) * | 2011-01-31 | 2012-08-01 | 微软公司 | 起居室电影创建 |
CN104407706A (zh) * | 2014-12-01 | 2015-03-11 | 江苏怡通智运科技发展有限公司 | 基于手势识别的多媒体互动查询一体机及其使用方法 |
-
2015
- 2015-08-25 CN CN201510526465.5A patent/CN105183005A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100199230A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture recognizer system architicture |
CN101510074A (zh) * | 2009-02-27 | 2009-08-19 | 河北大学 | 一种高临场感智能感知交互运动***及实现方法 |
CN101908103A (zh) * | 2010-08-19 | 2010-12-08 | 北京启动在线文化娱乐有限公司 | 以体感方式进行互动的网络舞蹈*** |
CN102622774A (zh) * | 2011-01-31 | 2012-08-01 | 微软公司 | 起居室电影创建 |
CN104407706A (zh) * | 2014-12-01 | 2015-03-11 | 江苏怡通智运科技发展有限公司 | 基于手势识别的多媒体互动查询一体机及其使用方法 |
Non-Patent Citations (1)
Title |
---|
黄文恺,等: "《Arduino开发实战指南:机器人卷》", 30 June 2014 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112351302B (zh) | 基于云游戏的直播交互方法、装置及存储介质 | |
JP6516477B2 (ja) | ユーザ生成コンテンツをオーサリングするためのシステム及び方法 | |
CN108255295A (zh) | 用于空间依赖性内容的触觉效果生成 | |
CN105630156A (zh) | 用于基于变形的触觉效果的***和方法 | |
CN112516589B (zh) | 直播中游戏商品互动方法、装置、计算机设备及存储介质 | |
US20130023342A1 (en) | Content playing method and apparatus | |
CN102135798A (zh) | 仿生学运动 | |
CN102473035A (zh) | 具有横跨平台的触觉反馈的交互式触摸屏游戏象征 | |
CN104094588A (zh) | 摄像装置 | |
US20200371604A1 (en) | Display Terminal and Display Control Method | |
JP2008228941A (ja) | ゲーム装置、進行制御方法、および、プログラム | |
CN114449162B (zh) | 一种播放全景视频的方法、装置、计算机设备及存储介质 | |
CN112511850A (zh) | 连麦方法、直播显示方法、装置、设备及存储介质 | |
JP2018502403A (ja) | アプリケーションプログラムの制御方法、装置、及び電子機器 | |
US20190164444A1 (en) | Assessing a level of comprehension of a virtual lecture | |
CN205050077U (zh) | 场景虚拟装置 | |
CN215691547U (zh) | 运动引导设备 | |
CN112839254A (zh) | 显示设备与内容显示方法 | |
CN105183005A (zh) | 场景虚拟装置及控制方法 | |
WO2023246312A1 (zh) | 界面交互方法、界面交互装置以及计算机存储介质 | |
CN111265851B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
KR100347837B1 (ko) | 리듬 앤드 댄스 게임 제어장치 및 풋 키 | |
KR20160050664A (ko) | 촉감 센서를 포함하는 전자 장치, 그의 운용 방법 및 시스템 | |
US20220321772A1 (en) | Camera Control Method and Apparatus, and Terminal Device | |
US9726967B1 (en) | Display media and extensions to display media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20180504 |
|
AD01 | Patent right deemed abandoned |