CN112099623A - 一种人机交互***及方法 - Google Patents
一种人机交互***及方法 Download PDFInfo
- Publication number
- CN112099623A CN112099623A CN202010841477.8A CN202010841477A CN112099623A CN 112099623 A CN112099623 A CN 112099623A CN 202010841477 A CN202010841477 A CN 202010841477A CN 112099623 A CN112099623 A CN 112099623A
- Authority
- CN
- China
- Prior art keywords
- module
- setting
- human
- detection
- computer interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 230000009471 action Effects 0.000 claims abstract description 48
- 238000003860 storage Methods 0.000 claims abstract description 11
- 230000002452 interceptive effect Effects 0.000 claims abstract description 7
- 230000036544 posture Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种人机交互***及方法,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;所述检测模块用于检测人机设备附近是否有人;所述安全模块用于对操作人员的识别;所述存储模块用于存储交互***中所需的数据;所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;所述显示模块用于显示人机交互的最终结果。本发明,通过纠正模块,可提高交互的准确度。
Description
技术领域
本发明涉及人机交互技术领域,具体是一种人机交互***及方法。
背景技术
随着科技的进步,在许多公共和非公共的场所(如:教育、会议、展会、 工业生产、平板电脑、手机等)随处可见基于手势识别的人机交互设备(如: 触摸屏、书写板、电子白板等)的应用,这类人机交互设备为各行各业提供 了更加稳定、方便、直观和自然的交互方式。
但现有的交互方式单一,且准确度较低,给用户的体验带来不良的影响。
发明内容
本发明的目的在于提供一种人机交互***及方法,以解决现有技术中的问题。
为实现上述目的,本发明提供如下技术方案:一种人机交互***,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
优选的,所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
优选的,所述检测模块包括红外检测和人声检测。
优选的,所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
优选的,一种人机交互***的交互方法,包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
优选的,所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
优选的,所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
优选的,所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
与现有技术相比,本发明的有益效果是:
1、通过设置检测模块,可检测人机设备附近是否有人,如果无人,则***处于低功耗模式,更加节能;
2、通过设置安全模块,可判断是否为***设置的操作人员;避免外人随意操作,安全性较高;
3、纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度,进而提高效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明的***图。
图2为本发明的流程图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
请参阅图1和图2,本发明实施例中,一种人机交互***,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
优选的,所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
优选的,所述检测模块包括红外检测和人声检测。
优选的,所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
优选的,一种人机交互***的交互方法,包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
优选的,所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
优选的,所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
优选的,所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
本发明的工作原理是:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;通过显示模块显示结果;通过设置检测模块,可检测人机设备附近是否有人,如果无人,则***处于低功耗模式,更加节能;通过设置安全模块,可判断是否为***设置的操作人员;避免外人随意操作,安全性较高;纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度,进而提高效率。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种人机交互***,其特征在于:包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
2.根据权利要求1所述的一种人机交互***,其特征在于:所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
3.根据权利要求1所述的一种人机交互***,其特征在于:所述检测模块包括红外检测和人声检测。
4.根据权利要求1所述的一种人机交互***,其特征在于:所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
5.根据权利要求1-4任一项所述的一种人机交互***的交互方法,其特征在于:包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
6.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
7.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
8.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841477.8A CN112099623A (zh) | 2020-08-20 | 2020-08-20 | 一种人机交互***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841477.8A CN112099623A (zh) | 2020-08-20 | 2020-08-20 | 一种人机交互***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112099623A true CN112099623A (zh) | 2020-12-18 |
Family
ID=73754117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010841477.8A Pending CN112099623A (zh) | 2020-08-20 | 2020-08-20 | 一种人机交互***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112099623A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120166200A1 (en) * | 2010-12-23 | 2012-06-28 | Electronics And Telecommunications Research Institute | System and method for integrating gesture and sound for controlling device |
CN103809733A (zh) * | 2012-11-07 | 2014-05-21 | 北京三星通信技术研究有限公司 | 人机交互***和方法 |
CN204463028U (zh) * | 2015-01-16 | 2015-07-08 | 深圳市中控生物识别技术有限公司 | 一种具有红外唤醒功能的身份识别设备 |
CN108406798A (zh) * | 2018-03-15 | 2018-08-17 | 西安工业大学 | 一种面向服务机器人的人机交互*** |
CN108762512A (zh) * | 2018-08-17 | 2018-11-06 | 浙江核聚智能技术有限公司 | 人机交互装置、方法及*** |
CN109976338A (zh) * | 2019-03-14 | 2019-07-05 | 山东大学 | 一种多模态四足机器人人机交互***及方法 |
CN110262662A (zh) * | 2019-06-20 | 2019-09-20 | 河北识缘信息科技发展有限公司 | 一种智能人机交互方法 |
-
2020
- 2020-08-20 CN CN202010841477.8A patent/CN112099623A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120166200A1 (en) * | 2010-12-23 | 2012-06-28 | Electronics And Telecommunications Research Institute | System and method for integrating gesture and sound for controlling device |
CN103809733A (zh) * | 2012-11-07 | 2014-05-21 | 北京三星通信技术研究有限公司 | 人机交互***和方法 |
CN108845668A (zh) * | 2012-11-07 | 2018-11-20 | 北京三星通信技术研究有限公司 | 人机交互***和方法 |
CN204463028U (zh) * | 2015-01-16 | 2015-07-08 | 深圳市中控生物识别技术有限公司 | 一种具有红外唤醒功能的身份识别设备 |
CN108406798A (zh) * | 2018-03-15 | 2018-08-17 | 西安工业大学 | 一种面向服务机器人的人机交互*** |
CN108762512A (zh) * | 2018-08-17 | 2018-11-06 | 浙江核聚智能技术有限公司 | 人机交互装置、方法及*** |
CN109976338A (zh) * | 2019-03-14 | 2019-07-05 | 山东大学 | 一种多模态四足机器人人机交互***及方法 |
CN110262662A (zh) * | 2019-06-20 | 2019-09-20 | 河北识缘信息科技发展有限公司 | 一种智能人机交互方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11762474B2 (en) | Systems, methods and devices for gesture recognition | |
US9122353B2 (en) | Kind of multi-touch input device | |
US20150331668A1 (en) | Non-contact gesture control method, and electronic terminal device | |
CN108460329B (zh) | 一种基于深度学习检测的人脸手势配合验证方法 | |
WO2018161893A1 (zh) | 用户身份识别方法及装置 | |
CN103777748A (zh) | 一种体感输入方法及装置 | |
CN104516499A (zh) | 利用用户接口的事件的设备和方法 | |
Chen et al. | Real-time multi-modal human–robot collaboration using gestures and speech | |
CN106489117A (zh) | 使用时空触摸特征和迭代分类的概率性防手掌误触 | |
CN112183424A (zh) | 一种基于视频的实时手部追踪方法和*** | |
Shi et al. | Knock knock, what's there: converting passive objects into customizable smart controllers | |
CN106339104B (zh) | 智能手表的文本输入方法及装置 | |
Alariki et al. | TOUCH GESTURE AUTHENTICATION FRAMEWORK FOR TOUCH SCREEN MOBILE DEVICES. | |
CN107562205B (zh) | 一种智能终端的投影键盘及该投影键盘的操作方法 | |
Cohen et al. | Recognition of continuous sign language alphabet using leap motion controller | |
Bashir et al. | A smart sensor-based gesture recognition system for media player control | |
CN112099623A (zh) | 一种人机交互***及方法 | |
CN109960912A (zh) | 电子设备 | |
CN115421590B (zh) | 一种手势控制方法、存储介质及摄像设备 | |
CN115937861B (zh) | 一种基于触摸屏的多人同步书写识别方法及*** | |
Soroni et al. | Hand Gesture Based Virtual Blackboard Using Webcam | |
Ellavarason et al. | A framework for assessing factors influencing user interaction for touch-based biometrics | |
CN209170425U (zh) | 电子设备 | |
JP2020027647A (ja) | 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ−カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム | |
CN103729132B (zh) | 一种字符输入方法、装置、虚拟键盘及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |