CN103207674B - 基于体感技术的电子演示*** - Google Patents
基于体感技术的电子演示*** Download PDFInfo
- Publication number
- CN103207674B CN103207674B CN201310091358.5A CN201310091358A CN103207674B CN 103207674 B CN103207674 B CN 103207674B CN 201310091358 A CN201310091358 A CN 201310091358A CN 103207674 B CN103207674 B CN 103207674B
- Authority
- CN
- China
- Prior art keywords
- gesture
- demonstrator
- image
- computer
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 21
- 230000009471 action Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000005452 bending Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 238000004321 preservation Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000007637 random forest analysis Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000010365 information processing Effects 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims description 2
- 239000000463 material Substances 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 230000008901 benefit Effects 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明公开了一种基于体感技术的电子演示***,包括用于实时向被演示者展示内容的屏幕、将演示者的演示内容投放到屏幕上的投影装置,其特征在于所述***还包括用于捕获演示者动作的体感装置、与投影装置连接的信息处理装置,所述体感装置将捕获演示者动作的图像传输给信息处理装置,所述信息处理装置根据演示者动作的图像判断演示者演示指令和演示内容,并通过投影装置将演示内容实时投放到屏幕上进行实时演示。该***将多媒体技术、图形图像处理技术、机器视觉技术有机结合起来,替代黑板的作用,大大丰富了现场演示的最佳效果。
Description
技术领域
本发明属于体感设备技术领域,具体涉及一种基于体感技术的电子演示***及其电子演示方法。
背景技术
课堂和办公环境离不开演示,以前黑板是最主要的演示道具,而现在多媒体技术的发展使黑板渐渐不能满足多媒体展示的要求,从而促使其替代品电子白板的出现。
目前,就目前电子白板的应用技术而言,主要是应用触摸屏技术的电子白板。通常是将触摸屏放置在显示设备上,演示者通过手或触摸笔操控电子白板,使电子白板感应到手或触摸笔的运动,完成对电子白板的操控。但是,这种技术需要配备大尺寸,高分辨率的触摸屏和显示设备,对设备的要求高且成本较大。并且演示者只能通过触摸屏来实现对电子白板的操控而不能脱离触摸设备。用户只能通过触摸完成操作,在一定程度上限制了演示者的演示风格和肢体动作,从而影响了演示的最佳效果。本发明因此而来。
发明内容
本发明目的在于提供一种基于体感技术的电子演示***,解决了现有技术中演示***只能通过触摸屏进行演示,限制了演示者的演示风格和肢体动作,影响演示的最佳效果。
为了解决现有技术中的这些问题,本发明提供的技术方案是:
一种基于体感技术的电子演示***,包括用于实时向被演示者展示内容的屏幕、将演示者的演示内容投放到屏幕上的投影装置,其特征在于所述***还包括用于捕获演示者动作的体感装置、与投影装置连接的信息处理装置,所述体感装置将捕获演示者动作的图像传输给信息处理装置,所述信息处理装置根据演示者动作的图像判断演示者演示指令和演示内容,并通过投影装置将演示内容实时投放到屏幕上进行实时演示。
优选的,所述体感装置为Kinect设备;所述Kinect设备通过Kinect摄像头拍摄演示者的视频图像,并将演示者的视频图像通过usb数据线传送至信息处理装置。
优选的,所述信息处理装置为计算机,所述计算机通过视频输出线与投影装置连接,接收从Kinect设备传来的视频图像,并对视频图像进行处理获取演示者的演示指令和演示内容。
优选的,所述投影装置选用投影仪。
优选的,所述屏幕设置在投影装置的对侧,并与投影装置的投影范围相适应。
本发明的另一目的在于提供了一种采用所述的电子演示***进行电子演示方法,其特征在于所述方法包括以下步骤:
(1)通过体感装置捕获演示者动作;
(2)信息处理装置根据演示者动作的图像判断演示者演示指令和演示内容,并通过投影装置将演示内容实时投放到屏幕上进行实时演示。
优选的,所述方法中演示指令为根据演示者动作的图像判断的演示者手势指令,根据演示者手势指令判断用户需要实时演示的内容。
本发明是为了克服传统电子白板的不足,提供体积更加小,成本更加廉价,配合演示效果更好的电子白板产品,利用Kinect体感摄像头的辅助,演示者站在摄像头前通过手势操控电子白板,完成演示功能。
具体的基于体感技术的电子演示***由Kinect摄像头、计算机、投影仪、屏幕组成,其中Kinect摄像头用于拍摄包含深度的视频图像,并将所述视频图像通过usb数据线传送至计算机。计算机设备用于接受视频图像,并利用OpenNI自然用户界面开发包,解析所获得的视频图像和其中包含的深度信息,追踪用户的手部位置。并利用手势分割识别算法,分割手部图像并获得手势。计算机响应控制手势,产生控制命令控制画笔在电子白板上绘图,并控制投影仪把影响投射在屏幕上。
投影仪用于将计算机生成的即时图像实时地投放出来。屏幕用于实时地向观众展示图像。
本发明有效地提高了多媒体演示的多样性,将多媒体技术、图形图像处理技术、机器视觉技术有机结合起来,替代黑板的作用,大大丰富了现场演示的最佳效果。
相对于现有技术中的方案,本发明的优点是:
相比现有技术中触摸屏电子白板,本发明使用的Kinect设备具有体积小,成本低廉的优点。
相比现有技术中触摸屏电子白板,本发明使用的计算机、投影仪和屏幕设备目前已经广泛配置在演示场合,如教室、礼堂等,不需要另行购买安装。其更加适合目前的演示领域。
本发明使用的Kinect设备使得演示者可以使用手势操控电子白板,从一定程度上丰富了演示者的动作,并且演示者不需要离开观众去操作触摸屏。在演示效果上讲,本发明较之触摸屏电子白板拥有更好的现场效果。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为基于Kinect的电子演示***的结构示意图;其中有Kinect设备1,计算机2,投影仪3,屏幕4,USB连接线5,视频连接线6和用户(演讲者)7。
具体实施方式
以下结合具体实施例对上述方案做进一步说明。应理解,这些实施例是用于说明本发明而不限于限制本发明的范围。实施例中采用的实施条件可以根据具体厂家的条件做进一步调整,未注明的实施条件通常为常规实验中的条件。
实施例
如图1所示,本实施例中基于Kinect的电子演示***(电子白板)的组成包括:Kinect设备1,计算机2,投影仪3和屏幕4。
Kinect设备1用于拍摄包含深度信息的视频图像,通过USB线5连接在计算机2上。Kinect设备1放置在面对演示者的位置,并限制演示者的活动范围是Kinect设备1水平视角范围小于57。,垂直视角范围小于43。和传感深度范围在1.2米到3.5米之间。
计算机2用于接收从Kinect设备1传来的视频图像,并利用OpenNI开发包对视频图像进行处理,获得手势并产生相应命令,通过USB连接线5与Kinect设备1连接。然后控制投影仪3实时投放画面,通过视频输出线6与投影仪3连接。投影仪3用于实时投放画面,通过视频输出线与计算机2连接。屏幕4用于向观众展示画面,放置在投影仪3的正面。
采用的视频图像处理过程按照以下步骤:
1、采用基于模糊连通性的区域分割算法分割手掌图像:基于模糊逻辑的区域连通性,相邻像素之间的连通量根据其深度值之间的差异取介于0-1之间的值。前后相邻的像素列构成一条路径,任意一条路径的连通量由路径上相邻像素的连通量最小值。任意两点之间连通量定义为,两点间所有路径的连通量之最大值。通过动态规划算法可以递归地求出任何两点之间的连通量。
2、对包含深度信息的视频图像进行处理,利用OpenNI库中的人体识别功能支持,得到人体的掌心节点三维位置。
3、计算图像上所有像素点与掌心的连通量:将掌心位置定义为种子点,构造图像上全部点与种子点的连通值。
4、对连通值取适当阈值后可以分割出手掌图像。
采用的手势识别过程包括以下流程:
1、计算手掌图形的Hu不变矩,并利用Hu不变矩之特征识别手势:Hu不变矩中包含了手掌形状的一般特征,并且具有平移和旋转不变性,对于手势识别来说是比较惯用的一种特征。
2、从视频流中提取模板手势:利用OpenNI库的支持,可以录制出包含深度信息的视频图像资料保存下来。通过对视频流中的手势进行自动截取,有目的地进行分类整理之后,产生一个模板手势库。本实例中,对演示中比较常用的动作场景进行了录制,包括:播放幻灯片、书写文字、绘制图像、移动光标等动作场景。然后将从这些视频流中截取到的手势进行归类,储存下来作为模板手势库,总共有大约10种手势,每种手势大约150幅模板图像。
3、利用随机森林算法训练手势分类器:使用图像处理库OpenCV的机器学习模块,利用随机森林算法对模板手势库中的图像训练,生成了一个手势分类器。
4、利用训练完成后的手势分类器对新输入的手掌图像进行识别,测试分类器的准确率。反复测试并调整部分参数后,直到准确率达到70%以上。
5、使用训练完成的分类器进行手势的识别。
本实施例中,绘图功能部分包含以下流程:
1、对输入的手势产生手势响应命令:绘图实例中的手势包含以下5种:“下笔”、“抬笔”、“擦除”、“更新”和“保存”。每种手势由预先训练完成的手势分类器进行识别。对识别的结果,计算机产生相应的响应命令,例如:在识别到“下笔”手势时,计算机会开始记录之后时间内手掌的移动位置,直到识别到“抬笔”手势后,产生一条完成的路径。
2、绘图操作由“下笔”手势开始,以“抬笔”手势结束:在识别到“下笔”手势时,计算机会开始记录之后时间内手掌的移动位置,直到识别到“抬笔”手势后,产生一条完成的轨迹。计算机会对轨迹进行平滑化,以减少人为原因产生的抖动,对绘制时的轨迹进行美化。利用指数平滑算法,可以对轨迹进行实时的平滑。在识别到“抬笔”手势之后,计算机在屏幕上绘制出平滑后的轨迹,完成一次绘图操作。
3、擦除操作以“擦除”手势开始,以“抬笔”手势结束:在识别到“擦除”手势时,计算机会开始记录之后时间内手掌的移动位置,并实时地对图像上这些位置上的像素点进行擦除操作,直到识别到“抬笔”手势。
4、更新操作在“更新”手势后完成:识别到“更新”手势之后,计算机会将屏幕上已经绘制的图形清除掉。
5、保存操作在“保存”手势后完成:识别到“保存”手势之后,计算机会将屏幕上已经绘制的图形保存在文件目录下。
本发明可以在软件、固件、硬件或者其结合中实现。本发明可以包括在具有计算机可用介质的物品中。该介质在其中具有例如计算机可读程序代码装置或者逻辑(例如指令,代码,命令等)来提供和使用本发明的能力。该制造物品可作为计算机***的一部分或者单独出售。所有上述变化被认为是要求保护的本发明的一部分。
上述实例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人是能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的等效变换或修饰,都应涵盖在本发明的保护范围之内。
Claims (4)
1.一种基于体感技术的电子演示***,包括用于实时向被演示者展示内容的屏幕、将演示者的演示内容投放到屏幕上的投影装置,其特征在于所述***还包括用于捕获演示者动作的体感装置、与投影装置连接的信息处理装置,所述体感装置将捕获演示者动作的图像传输给信息处理装置,所述信息处理装置根据演示者动作的图像判断演示者演示指令和演示内容,并通过投影装置将演示内容实时投放到屏幕上进行实时演示;
所述体感装置为Kinect设备;所述Kinect设备通过Kinect摄像头拍摄演示者的视频图像,并将演示者的视频图像通过usb数据线传送至信息处理装置;
所述信息处理装置为计算机,所述计算机通过视频输出线与投影装置连接,接收从Kinect设备传来的视频图像,并对视频图像进行处理获取演示者的演示指令和演示内容;计算机利用OpenNI自然用户界面开发包,解析所获得的视频图像和其中包含的深度信息,追踪用户的手部位置;并利用手势分割识别算法,分割手部图像并获得手势;计算机响应控制手势,产生控制命令控制画笔绘图,并控制投影装置把影像投射在屏幕上;
所述投影装置选用投影仪。
2.根据权利要求1所述的基于体感技术的电子演示***,其特征在于所述屏幕设置在投影装置的对侧,并与投影装置的投影范围相适应。
3.一种采用权利要求1所述的电子演示***进行电子演示方法,其特征在于所述方法包括以下步骤:
(1)通过体感装置捕获演示者动作;
(2)信息处理装置根据演示者动作的图像判断演示者演示指令和演示内容,并通过投影装置将演示内容实时投放到屏幕上进行实时演示;
所述信息处理装置判断演示者演示指令和演示内容的步骤包括对视频图像处理,手势识别和绘图;
采用的视频图像处理过程按照以下步骤:
1)采用基于模糊连通性的区域分割算法分割手掌图像:基于模糊逻辑的区域连通性,相邻像素之间的连通量根据其深度值之间的差异取介于0-1之间的值;前后相邻的像素列构成一条路径,任意一条路径的连通量由路径上相邻像素的连通量最小值;任意两点之间连通量定义为,两点间所有路径的连通量之最大值;通过动态规划算法可以递归地求出任何两点之间的连通量;
2)对包含深度信息的视频图像进行处理,利用OpenNI库中的人体识别功能支持,得到人体的掌心节点三维位置;
3)计算图像上所有像素点与掌心的连通量:将掌心位置定义为种子点,构造图像上全部点与种子点的连通值;
4)对连通值取适当阈值后可以分割出手掌图像;
采用的手势识别过程包括以下流程:
1)计算手掌图形的Hu不变矩,并利用Hu不变矩之特征识别手势:Hu不变矩中包含了手掌形状的一般特征,并且具有平移和旋转不变性,对于手势识别来说是比较惯用的一种特征;
2)从视频流中提取模板手势:利用OpenNI库的支持,可以录制出包含深度信息的视频图像资料保存下来;通过对视频流中的手势进行自动截取,有目的地进行分类整理之后,产生一个模板手势库;本实例中,对演示中比较常用的动作场景进行了录制,包括:播放幻灯片、书写文字、绘制图像、移动光标的动作场景;然后将从这些视频流中截取到的手势进行归类,储存下来作为模板手势库,总共有10种手势,每种手势150幅模板图像;
3)利用随机森林算法训练手势分类器:使用图像处理库OpenCV的机器学习模块,利用随机森林算法对模板手势库中的图像训练,生成了一个手势分类器;
4)利用训练完成后的手势分类器对新输入的手掌图像进行识别,测试分类器的准确率;反复测试并调整部分参数后,直到准确率达到70%以上;
5)使用训练完成的分类器进行手势的识别;
绘图功能部分包含以下流程:
1)对输入的手势产生手势响应命令:绘图实例中的手势包含以下5种:“下笔”、“抬笔”、“擦除”、“更新”和“保存”;每种手势由预先训练完成的手势分类器进行识别;对识别的结果,计算机产生相应的响应命令;在识别到“下笔”手势时,计算机会开始记录之后时间内手掌的移动位置,直到识别到“抬笔”手势后,产生一条完成的路径;
2)绘图操作由“下笔”手势开始,以“抬笔”手势结束:在识别到“下笔”手势时,计算机会开始记录之后时间内手掌的移动位置,直到识别到“抬笔”手势后,产生一条完成的轨迹;计算机会对轨迹进行平滑化,以减少人为原因产生的抖动,对绘制时的轨迹进行美化;利用指数平滑算法,可以对轨迹进行实时的平滑;在识别到“抬笔”手势之后,计算机在屏幕上绘制出平滑后的轨迹,完成一次绘图操作;
3)擦除操作以“擦除”手势开始,以“抬笔”手势结束:在识别到“擦除”手势时,计算机会开始记录之后时间内手掌的移动位置,并实时地对图像上这些位置上的像素点进行擦除操作,直到识别到“抬笔”手势;
4)更新操作在“更新”手势后完成:识别到“更新”手势之后,计算机会将屏幕上已经绘制的图形清除掉;
5)保存操作在“保存”手势后完成:识别到“保存”手势之后,计算机会将屏幕上已经绘制的图形保存在文件目录下。
4.根据权利要求3所述的电子演示方法,其特征在于所述方法中演示指令为根据演示者动作的图像判断的演示者手势指令,根据演示者手势指令判断用户需要实时演示的内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310091358.5A CN103207674B (zh) | 2013-03-21 | 2013-03-21 | 基于体感技术的电子演示*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310091358.5A CN103207674B (zh) | 2013-03-21 | 2013-03-21 | 基于体感技术的电子演示*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103207674A CN103207674A (zh) | 2013-07-17 |
CN103207674B true CN103207674B (zh) | 2016-06-22 |
Family
ID=48754923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310091358.5A Expired - Fee Related CN103207674B (zh) | 2013-03-21 | 2013-03-21 | 基于体感技术的电子演示*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103207674B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9954996B2 (en) | 2007-06-28 | 2018-04-24 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US8989773B2 (en) | 2013-01-29 | 2015-03-24 | Apple Inc. | Sharing location information among devices |
CN104683720B (zh) * | 2013-11-28 | 2019-12-03 | 联想(北京)有限公司 | 一种电子设备及控制方法 |
CN103747196B (zh) * | 2013-12-31 | 2017-08-01 | 北京理工大学 | 一种基于Kinect传感器的投影方法 |
CN104978010A (zh) * | 2014-04-03 | 2015-10-14 | 冠捷投资有限公司 | 三维空间手写轨迹取得方法 |
CN103941866B (zh) * | 2014-04-08 | 2017-02-15 | 河海大学常州校区 | 一种基于Kinect深度图像的三维手势识别方法 |
US10382378B2 (en) | 2014-05-31 | 2019-08-13 | Apple Inc. | Live location sharing |
US9207835B1 (en) | 2014-05-31 | 2015-12-08 | Apple Inc. | Message user interfaces for capture and transmittal of media and location content |
CN106605201B (zh) | 2014-08-06 | 2021-11-23 | 苹果公司 | 用于电池管理的减小尺寸的用户界面 |
EP3373122B1 (en) | 2014-09-02 | 2022-04-06 | Apple Inc. | Reduced-size interfaces for managing alerts |
EP4209872A1 (en) | 2014-09-02 | 2023-07-12 | Apple Inc. | Phone user interface |
CN104731334A (zh) * | 2015-03-26 | 2015-06-24 | 广东工业大学 | 空间手态交互式海上丝路动态历史gis***及实现方法 |
CN104966422A (zh) * | 2015-07-15 | 2015-10-07 | 滁州市状元郎电子科技有限公司 | 一种遥感空间信息教学实验*** |
US10003938B2 (en) | 2015-08-14 | 2018-06-19 | Apple Inc. | Easy location sharing |
CN107067431B (zh) * | 2017-01-16 | 2020-07-03 | 河海大学常州校区 | 一种基于Kinect的物体体积计算方法 |
CN107067843A (zh) * | 2017-02-10 | 2017-08-18 | 广州动创信息科技有限公司 | 体感触控电子白板教学*** |
CN109634506B (zh) * | 2018-11-30 | 2021-11-26 | 郑州参宿物联技术有限公司 | 一种可写、可读、可擦大型交互电子显示*** |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
CN112115853A (zh) * | 2020-09-17 | 2020-12-22 | 西安羚控电子科技有限公司 | 一种手势识别方法、装置、计算机存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101694694A (zh) * | 2009-10-22 | 2010-04-14 | 上海交通大学 | 用于交互式演示***中的手指识别方法 |
CN102063231A (zh) * | 2011-01-13 | 2011-05-18 | 中科芯集成电路股份有限公司 | 一种基于图像检测的非接触式电子白板***及检测方法 |
CN102520793A (zh) * | 2011-11-30 | 2012-06-27 | 苏州奇可思信息科技有限公司 | 基于手势识别的会议演示交互方法 |
CN102801924A (zh) * | 2012-07-20 | 2012-11-28 | 合肥工业大学 | 一种基于Kinect的电视节目主持互动*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120278712A1 (en) * | 2011-04-27 | 2012-11-01 | Microsoft Corporation | Multi-input gestures in hierarchical regions |
-
2013
- 2013-03-21 CN CN201310091358.5A patent/CN103207674B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101694694A (zh) * | 2009-10-22 | 2010-04-14 | 上海交通大学 | 用于交互式演示***中的手指识别方法 |
CN102063231A (zh) * | 2011-01-13 | 2011-05-18 | 中科芯集成电路股份有限公司 | 一种基于图像检测的非接触式电子白板***及检测方法 |
CN102520793A (zh) * | 2011-11-30 | 2012-06-27 | 苏州奇可思信息科技有限公司 | 基于手势识别的会议演示交互方法 |
CN102801924A (zh) * | 2012-07-20 | 2012-11-28 | 合肥工业大学 | 一种基于Kinect的电视节目主持互动*** |
Also Published As
Publication number | Publication date |
---|---|
CN103207674A (zh) | 2013-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103207674B (zh) | 基于体感技术的电子演示*** | |
JP6501017B2 (ja) | 画像処理装置、プログラム、画像処理方法および画像処理システム | |
US20230066716A1 (en) | Video generation method and apparatus, storage medium, and computer device | |
CN102880360B (zh) | 红外式多点交互电子白板***及白板投影标定方法 | |
CN106371593B (zh) | 一种投影交互式书法练习***及其实现方法 | |
US9996979B2 (en) | Augmented reality technology-based handheld viewing device and method thereof | |
CN102939575B (zh) | 墨水呈现 | |
CN204129723U (zh) | 一种基于Kinect体感交互的课堂多媒体教学装置 | |
WO2019029100A1 (zh) | 一种基于虚拟现实与增强现实的采矿操作多交互实现方法 | |
CN109407954B (zh) | 一种书写轨迹的擦除方法和*** | |
de Lima et al. | Draw your own story: Paper and pencil interactive storytelling | |
CN109240494B (zh) | 电子显示板的控制方法、计算机可读存储介质和控制*** | |
CN104656890A (zh) | 虚拟现实智能投影手势互动一体机及互动实现方法 | |
KR102186607B1 (ko) | 증강현실을 통한 발레 공연 시스템 및 방법 | |
US20180197345A1 (en) | Augmented reality technology-based handheld viewing device and method thereof | |
Zhang et al. | Low-cost interactive whiteboard using the Kinect | |
CN102945091A (zh) | 一种基于激光投影定位的人机交互方法与*** | |
CN103617642A (zh) | 一种数字书画方法及装置 | |
CN113191184A (zh) | 实时视频处理方法、装置、电子设备及存储介质 | |
CN109739353A (zh) | 一种基于手势、语音、视线追踪识别的虚拟现实交互*** | |
CN104598027A (zh) | 一种基于用户行为分析的体感控制多媒体培训*** | |
CN104239119A (zh) | 一种基于kinect实现电力培训仿真的方法及*** | |
CN104933278A (zh) | 一种用于言语障碍康复训练的多通道交互方法和*** | |
CN104732570B (zh) | 一种图像生成方法及装置 | |
CN102612205A (zh) | 一种控制可视光源的方法、终端及视频会议*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20171116 Address after: 215123 Suzhou City, Jiangsu, Suzhou Industrial Park, benevolent Road, Zhongke University, Suzhou Research Institute, 403 Patentee after: Wu Junmin Address before: 215123 room 311, room 166, benevolent Road, Hsu lake high Parish, Suzhou Industrial Park, Jiangsu Patentee before: Suzhou Zhanke Optoelectronics Technology Co., Ltd. |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160622 Termination date: 20210321 |
|
CF01 | Termination of patent right due to non-payment of annual fee |