CN112099623A - 一种人机交互***及方法 - Google Patents

一种人机交互***及方法 Download PDF

Info

Publication number
CN112099623A
CN112099623A CN202010841477.8A CN202010841477A CN112099623A CN 112099623 A CN112099623 A CN 112099623A CN 202010841477 A CN202010841477 A CN 202010841477A CN 112099623 A CN112099623 A CN 112099623A
Authority
CN
China
Prior art keywords
module
setting
human
detection
computer interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010841477.8A
Other languages
English (en)
Inventor
于渊
华云鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunshan Huoling Network Technology Co ltd
Original Assignee
Kunshan Huoling Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunshan Huoling Network Technology Co ltd filed Critical Kunshan Huoling Network Technology Co ltd
Priority to CN202010841477.8A priority Critical patent/CN112099623A/zh
Publication of CN112099623A publication Critical patent/CN112099623A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种人机交互***及方法,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;所述检测模块用于检测人机设备附近是否有人;所述安全模块用于对操作人员的识别;所述存储模块用于存储交互***中所需的数据;所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;所述显示模块用于显示人机交互的最终结果。本发明,通过纠正模块,可提高交互的准确度。

Description

一种人机交互***及方法
技术领域
本发明涉及人机交互技术领域,具体是一种人机交互***及方法。
背景技术
随着科技的进步,在许多公共和非公共的场所(如:教育、会议、展会、 工业生产、平板电脑、手机等)随处可见基于手势识别的人机交互设备(如: 触摸屏、书写板、电子白板等)的应用,这类人机交互设备为各行各业提供 了更加稳定、方便、直观和自然的交互方式。
但现有的交互方式单一,且准确度较低,给用户的体验带来不良的影响。
发明内容
本发明的目的在于提供一种人机交互***及方法,以解决现有技术中的问题。
为实现上述目的,本发明提供如下技术方案:一种人机交互***,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
优选的,所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
优选的,所述检测模块包括红外检测和人声检测。
优选的,所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
优选的,一种人机交互***的交互方法,包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
优选的,所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
优选的,所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
优选的,所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
与现有技术相比,本发明的有益效果是:
1、通过设置检测模块,可检测人机设备附近是否有人,如果无人,则***处于低功耗模式,更加节能;
2、通过设置安全模块,可判断是否为***设置的操作人员;避免外人随意操作,安全性较高;
3、纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度,进而提高效率。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明的***图。
图2为本发明的流程图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
请参阅图1和图2,本发明实施例中,一种人机交互***,包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
优选的,所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
优选的,所述检测模块包括红外检测和人声检测。
优选的,所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
优选的,一种人机交互***的交互方法,包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
优选的,所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
优选的,所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
优选的,所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
本发明的工作原理是:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;通过显示模块显示结果;通过设置检测模块,可检测人机设备附近是否有人,如果无人,则***处于低功耗模式,更加节能;通过设置安全模块,可判断是否为***设置的操作人员;避免外人随意操作,安全性较高;纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度,进而提高效率。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种人机交互***,其特征在于:包括设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块、显示模块和处理器;
所述设置模块包括指令设置模块、人员设置模块,所述指令设置模块用于对动作和命令的匹配,所述人员设置模块用于操作人员的设置;
所述检测模块用于检测人机设备附近是否有人;
所述安全模块用于对操作人员的识别;
所述存储模块用于存储交互***中所需的数据;
所述采集模块包括动作拍摄模块、动作处理模块和动作信息收发模块;
所述纠偏模块用以对操作人员的动作进行学习纠正,获取准确的动作指令;
所述显示模块用于显示人机交互的最终结果;
所述设置模块、检测模块、安全模块、存储模块、采集模块、纠偏模块和显示模块均与处理器连接。
2.根据权利要求1所述的一种人机交互***,其特征在于:所述指令设置模块包括手势、手部运动轨迹和身体姿势,每一个手势、每一个手部运动轨迹和每一个身体姿势均代表一个不同的指令,所述人员设置模块包括指纹设置、面容设置和声音设置。
3.根据权利要求1所述的一种人机交互***,其特征在于:所述检测模块包括红外检测和人声检测。
4.根据权利要求1所述的一种人机交互***,其特征在于:所述安全模块包括指纹识别模块、面容识别模块和声音识别模块。
5.根据权利要求1-4任一项所述的一种人机交互***的交互方法,其特征在于:包括以下步骤:
S1:通过设置模块对操作人员进行设置,包括设置操作人员的指纹、面容和声音;通过设置模块设置不同动作匹配的指令;
S2:通过检测模块检测人机设备附近是否有人;如果有人,则启动安全模块;如果无人,则***处于低功耗模式;
S3:安全模块启动后,会对人机设备附近的人进行识别,判断是否为***设置的操作人员;如果检测合格,则可进行后续的处理;如果检测失败,则***提示检测失败,且不启动后续处理;
S4:安全检测通过以后,采集模块可对操作人员的动作进行采集,经过采集处理后的动作,可匹配到设置模块预先设置的指令中,从而完成相关指令;
S5:纠偏模块通过对操作人员动作的综合分析,从而判断模糊的动作应该属于何种指令,从而提高指令识别的准确度;
S6:通过显示模块显示结果。
6.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S1中动作包括手势、手部运动轨迹和身体姿势,所述步骤S4中采集模块采集动作后,其识别的优先顺序依次为手势、手部运动轨迹和身体姿势。
7.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S2中检测模块包括红外检测和人声检测,红外检测和人声检测中任一项检测成功以后,即可启动安全模块;所述步骤S3中安全模块包括指纹识别模块、面容识别模块和声音识别模块,所述指纹识别模块、面容识别模块和声音识别模块中任一项检测成功以后,即可启动交互***。
8.根据权利要求5所述的一种人机交互***的交互方法,其特征在于:所述步骤S5中纠偏模块是通过对操作远动作的多次收集和每次动作最终选择指令的收集,通过综合分析,可判断较为模糊的动作属于何种指令。
CN202010841477.8A 2020-08-20 2020-08-20 一种人机交互***及方法 Pending CN112099623A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010841477.8A CN112099623A (zh) 2020-08-20 2020-08-20 一种人机交互***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010841477.8A CN112099623A (zh) 2020-08-20 2020-08-20 一种人机交互***及方法

Publications (1)

Publication Number Publication Date
CN112099623A true CN112099623A (zh) 2020-12-18

Family

ID=73754117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010841477.8A Pending CN112099623A (zh) 2020-08-20 2020-08-20 一种人机交互***及方法

Country Status (1)

Country Link
CN (1) CN112099623A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120166200A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute System and method for integrating gesture and sound for controlling device
CN103809733A (zh) * 2012-11-07 2014-05-21 北京三星通信技术研究有限公司 人机交互***和方法
CN204463028U (zh) * 2015-01-16 2015-07-08 深圳市中控生物识别技术有限公司 一种具有红外唤醒功能的身份识别设备
CN108406798A (zh) * 2018-03-15 2018-08-17 西安工业大学 一种面向服务机器人的人机交互***
CN108762512A (zh) * 2018-08-17 2018-11-06 浙江核聚智能技术有限公司 人机交互装置、方法及***
CN109976338A (zh) * 2019-03-14 2019-07-05 山东大学 一种多模态四足机器人人机交互***及方法
CN110262662A (zh) * 2019-06-20 2019-09-20 河北识缘信息科技发展有限公司 一种智能人机交互方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120166200A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute System and method for integrating gesture and sound for controlling device
CN103809733A (zh) * 2012-11-07 2014-05-21 北京三星通信技术研究有限公司 人机交互***和方法
CN108845668A (zh) * 2012-11-07 2018-11-20 北京三星通信技术研究有限公司 人机交互***和方法
CN204463028U (zh) * 2015-01-16 2015-07-08 深圳市中控生物识别技术有限公司 一种具有红外唤醒功能的身份识别设备
CN108406798A (zh) * 2018-03-15 2018-08-17 西安工业大学 一种面向服务机器人的人机交互***
CN108762512A (zh) * 2018-08-17 2018-11-06 浙江核聚智能技术有限公司 人机交互装置、方法及***
CN109976338A (zh) * 2019-03-14 2019-07-05 山东大学 一种多模态四足机器人人机交互***及方法
CN110262662A (zh) * 2019-06-20 2019-09-20 河北识缘信息科技发展有限公司 一种智能人机交互方法

Similar Documents

Publication Publication Date Title
US11762474B2 (en) Systems, methods and devices for gesture recognition
US9122353B2 (en) Kind of multi-touch input device
US20150331668A1 (en) Non-contact gesture control method, and electronic terminal device
CN108460329B (zh) 一种基于深度学习检测的人脸手势配合验证方法
WO2018161893A1 (zh) 用户身份识别方法及装置
CN103777748A (zh) 一种体感输入方法及装置
CN104516499A (zh) 利用用户接口的事件的设备和方法
Chen et al. Real-time multi-modal human–robot collaboration using gestures and speech
CN106489117A (zh) 使用时空触摸特征和迭代分类的概率性防手掌误触
CN112183424A (zh) 一种基于视频的实时手部追踪方法和***
Shi et al. Knock knock, what's there: converting passive objects into customizable smart controllers
CN106339104B (zh) 智能手表的文本输入方法及装置
Alariki et al. TOUCH GESTURE AUTHENTICATION FRAMEWORK FOR TOUCH SCREEN MOBILE DEVICES.
CN107562205B (zh) 一种智能终端的投影键盘及该投影键盘的操作方法
Cohen et al. Recognition of continuous sign language alphabet using leap motion controller
Bashir et al. A smart sensor-based gesture recognition system for media player control
CN112099623A (zh) 一种人机交互***及方法
CN109960912A (zh) 电子设备
CN115421590B (zh) 一种手势控制方法、存储介质及摄像设备
CN115937861B (zh) 一种基于触摸屏的多人同步书写识别方法及***
Soroni et al. Hand Gesture Based Virtual Blackboard Using Webcam
Ellavarason et al. A framework for assessing factors influencing user interaction for touch-based biometrics
CN209170425U (zh) 电子设备
JP2020027647A (ja) 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ−カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム
CN103729132B (zh) 一种字符输入方法、装置、虚拟键盘及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination