CN106201540A - 体感交互界面的设置方法以及设置装置 - Google Patents

体感交互界面的设置方法以及设置装置 Download PDF

Info

Publication number
CN106201540A
CN106201540A CN201610567404.8A CN201610567404A CN106201540A CN 106201540 A CN106201540 A CN 106201540A CN 201610567404 A CN201610567404 A CN 201610567404A CN 106201540 A CN106201540 A CN 106201540A
Authority
CN
China
Prior art keywords
feeling interaction
interaction interface
body feeling
interface
target body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610567404.8A
Other languages
English (en)
Other versions
CN106201540B (zh
Inventor
黄源浩
刘龙
肖振中
许星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orbbec Inc
Original Assignee
Shenzhen Orbbec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Orbbec Co Ltd filed Critical Shenzhen Orbbec Co Ltd
Priority to CN201610567404.8A priority Critical patent/CN106201540B/zh
Publication of CN106201540A publication Critical patent/CN106201540A/zh
Application granted granted Critical
Publication of CN106201540B publication Critical patent/CN106201540B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种体感交互界面的设置方法以及设置装置,所述体感交互界面的设置方法包括:获取目标人体对象的图像信息;对所述图像信息进行识别得到所述目标人体对象的特征信息;根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。通过上述方式,不仅丰富了体感交互操作的功能类型。而且根据具有不同特征信息的用户选择与该用户匹配的体感交互界面更具有针对性和可实施性,能够满足不同需求的各种用户的体感操作要求,特别是具有特殊情况的用户,也能够最大程度上提高体感操作的推广,丰富用户的生活。

Description

体感交互界面的设置方法以及设置装置
技术领域
本发明涉及智能终端技术领域,特别是涉及一种体感交互界面的设置方法以及设置装置。
背景技术
体感交互由于其具有更加直观以及自然的特点,逐渐被应用在各个领域,如体感交互游戏以及体感试衣操作等,以体感交互游戏为例,体感交互游戏是通过自身的身体动作来操作游戏,相较于传统的通过键盘、鼠标以及有线手柄等的游戏,体感游戏不再是手指操作运动,身体的运动量和娱乐性都得到了很大的提高,因此,体感游戏得到了很好的发展。
然而,现有的体感交互技术中的体感交互操作如体感游戏与其体感交互界面一般在设计的时候就建立了一一对应的关系,在客户应用过程中表现出一对一的单一映射关系。然而,在实际应用中,预先设定的单一映射关系不能满足用户的生活习惯,降低用户体验,且不能满足一些特殊用户的正常交互需求。
发明内容
本发明主要解决的技术问题是提供一种体感交互界面的设置方法以及设置装置,能够有效满足不同用户的交互界面设置需求,提高用户体验。
解决不同型号显示设备与深度相机不匹配的问题。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感交互界面的设置方法,所述设置方法包括:
获取目标人体对象的图像信息;
对所述图像信息进行识别得到所述目标人体对象的特征信息;
根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;
将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
其中,所述将当前界面调整为所述与所述目标人体对象匹配的体感交互界面的步骤之后还包括:
获取所述目标人体对象使用调整后的体感交互界面的操作数据;
对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整。
其中,所述操作数据包括所述目标人体对象通过体感动作控制光标从进入所述调整后体感交互界面的图标的有效范围至有效触发所述图标的操作时间,以及相邻两次有效触发所述图标之间的时间间隔;
所述对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整的步骤具体包括:
将所述操作时间以及所述时间间隔分别与其目标操作时间和目标时间间隔进行比对,根据比对结果对所述调整后的体感交互界面再次进行调整。
其中,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
根据所述特征信息选择与所述目标人体对象的界面风格、字体样式以及字体大小相匹配的体感交互界面。
其中,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
将所述目标人体图像映射到体感交互界面的预设位置;
将所述体感交互界面的图标分布设置在所述预设位置的设定范围内。
其中,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
根据所述目标人体对象的特征信息确定体感交互界面的光标的运行速度以及运行幅度。
其中,所述目标人体图像的特征信息包括身高、性别、体型、年龄中的至少一种。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互界面的设置装置,所述设置装置包括图像信息获取模块、特征信息提取模块、交互界面确定模块以及第一交互界面调整模块,
所述图像信息获取模块用于获取目标人体对象的图像信息;
所述特征信息提取模块用于对所述图像信息进行识别得到所述目标人体对象的特征信息;
所述交互界面确定模块用于根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;
所述第一交互界面调整模块用于将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
其中,所述设置装置还包括操作数据确定模块以及第二界面调整模块,
所述操作数据确定模块用于获取所述目标人体对象使用调整后的体感交互界面的操作数据;
所述第二界面调整模块用于对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整。
其中,所述操作数据包括所述目标人体对象通过体感动作控制光标进入体感交互界面的图标的有效范围至有效触发所述图标的操作时间,以及相邻两次有效触发所述图标之间的时间间隔;
所述第二界面调整模块具体用于将所述操作时间以及所述时间间隔分别与其目标操作时间和目标时间间隔进行比对,根据比对结果对所述调整后的体感交互界面再次进行调整。
本发明的有益效果是:区别于现有技术的情况,本实施方式获取目标人体对象的图像信息;对所述图像信息进行识别得到所述目标人体对象的特征信息;根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。通过上述方式,打破了传统体感交互操作的固定体感交互界面的模式,不仅丰富了体感交互操作的功能类型。而且根据具有不同特征信息的用户选择与该用户匹配的体感交互界面更具有针对性和可实施性,能够满足不同需求的各种用户的体感操作要求,特别是具有特殊情况的用户,也能够最大程度上提高体感操作的推广,丰富用户的生活。
附图说明
图1是本发明体感交互界面的设置方法一实施方式的流程示意图;
图2是本发明体感交互界面的设置方法另一实施方式的流程示意图;
图3是本发明体感交互界面的设置装置一实施方式的结构示意图;
图4是本发明体感交互界面的设置装置另一实施方式的结构示意图。
具体实施方式
参阅图1,图1是本发明体感交互界面的设置方法一实施方式的流程示意图。本实施方式的设置方法包括如下步骤:
101:获取目标人体对象的图像信息。
在日常生活中,不同年龄段以及不同性别的用户的个人爱好,如颜色、字体大小以及字体风格都会存在差异,如女性用户一般喜好偏鲜亮的颜色、有弧线的字体等,男性用户则比较偏好相对较暗的格局,有棱有角的字体。再比如老年人由于视力原因,一般会喜好字体大、图标设置简单的界面,而儿童则喜欢略带卡通的界面。为了满足不同用户对界面的需求,首先对当前正在操作体感交互界面的目标人体对象的图像信息进行获取。
具体地,体感交互装置或***预先建立对应的用户数据库,保存多个不同风格、不同字体、不同颜色的体感交互界面与对应包括特定特征信息的用户之间的映射关系。在用户通过体感交互动作启动体感交互装置或***后,首先对目标体感对象的图像信息进行获取。
在一个具体的实施方式中,首先启动该体感交互界面和对应的用于获取的目标人体对象的图像信息的深度相机以及RGB摄像头,其中,该深度相机用于获取目标人体图像的深度图像,RGB摄像头用于获取目标人体图像的RGB图像。启动后,在该体感交互界面上显示预先设定的激活体感交互操作的指示指示,在用户按照该指示姿势进行操作后,当前体感交互界面进入用户登录界面。在用户完成登录后,进入可以进行体感操作的体感交互界面。
在上述方式中,如果是已经存在于上述数据库中的用户,则可以直接登陆界面,如果数据库中没有与该用户相匹配的登录信息,则可以切换至创建界面,在数据库中为该用户新建一个用户资料库,并按照默认的或优先级别最高的体感交互界面与该用户建立映射关系。其中,该用户资料哭可以通过应用程序自动隐形创建,也可以通过窗口的方式由用户自主创建,在此不做限定。
在用户开始体感操作时,通过上述RGB相机以及深度相机对目标人体对象的图像信息进行获取。并将RGB相机获取到RGB图像与深度相机获取到的深度图像进行融合,得到该目标人体对象的图像信息。
102:对所述图像信息进行识别得到所述目标人体对象的特征信息。
其中,该特征信息包括目标人体对象身高、性别、体型以及年龄中的至少一个。
其中,年龄、性别等特征信息可通过RGB图像中的人脸图像进行分析而得到。而身高、提醒以及用户身体是否存在残疾等特征信息可通过深度图像和RGB图像融合后的图像信息进行识别。目标人体对象与RGB摄像头以及深度相机的距离可以通过对目标人体图像的深度图像进行分析来获取。
103:根据所述特征信息确定与所述目标人体对象匹配的体感交互界面。
在其中的一个实施方式中,根据获取到的目标人体对象的特征信息选择与其界面风格、字体样式以及字体大小相匹配的体感交互界面。例如,根据对目标人体对象特征信息的提取,确定当前进行体感操作的目标人体对象为20岁年轻女性,则从数据库中选择与该特征信息符合的体感交互界面,如粉色圆润字体且带有卡通图标的体感交互界面,在此不做限定。
然而,在一些情况下,虽然数据库中包含具有与目标人体对象特征信息相匹配的体感交互界面,但是同一年龄段的相同性别的目标人体对象的身高或体型也会存在差异,因此为了满足不同目标人体对象的个性化需求,在另一个实施方式中,将该目标人体图像映射到体感交互界面的预设位置,并将该体感交互界面的图标分布设置在预设位置的设定范围内。
在具体的实施方式中,确定该目标人体对象的相对中心,并将该目标人体对象的相对中心映射到体感交互界面的中心,即相当于将该目标人体的相对位置映射到体感交互界面的中心区域,再将该交互界面上的多个图标按照用户的具体身体状况,如四肢长短,肩宽等特征信息分布在该体感交互界面中心区域的周围,使用户在操作过程中更加方便触碰上述图标。
在一些特殊的情况下,如目标人体对象为缺少左臂的残疾用户,在获取到该目标人体对象的特征信息后,将该人体对象的相对中心映射到体感交互界面的中心,在将该交互界面上的多个图标分布在目标人体对象右手边的相对预设区域内,以使该残疾用户也能更加方便的完成体感操作,为其带来方便。
在另一个实施方式中,根据不同年龄段的目标人体对象,在确定体感交互界面后,还可以进一步的根据目标人体对象的这一特征信息确定体感交互界面的光标的运行速度以及运行幅度。例如。10-40岁年龄段的目标人体对象一般动作相对于儿童和中老年用户更加灵活,对体感操作运行的速率和运行效率又更高的期待,因此,可以将上述年龄段用户对应的体感交互界面的光标的运行速度和运行幅度,相对于其他年龄段的目标人体对象的运行速度和运行幅度设置的更加快和大一些,以满足不同不同用户对体感操作的需求。
104:将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
在确定于当前目标体感对象匹配的体感交互界面后,可及时的将该体感交互界面调整为与其匹配的体感交互界面。
在其他实施方式中也可将该目标人体对象与其匹配的体感交互界面的对应关系保存在数据库中,在该用户下次进行体感操作时,进行体感交互界面的调整,在此不做限定。
由于,数据库中预先建立的目标人体对象与体感交互界面的对应关系具有统一性,但是并不一定适合每一个具有相同特征信息的目标人体对象。为了解决该问题,使每一个目标人体对象都能在适合自己的体感交互界面上进行体感操作,进一步的参阅图2,在步骤204将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面的步骤之后,还包括如下步骤:
205:获取所述目标人体对象使用调整后的体感交互界面的操作数据。
其中,该操作数据包括该目标人体对象通过体感动作控制光标从进入调整后体感交互界面的图标的有效范围值有效触发该图标的操作时间,以及相邻两次有效触发该图标之间的时间间隔。
例如,目标人体对象要完成后退指令,该操作数据包括调整后的体感交互界面的光标进入到该后退指令对应的后退图标的有效范围到有效点击该后退图标的操作时间,还包括在本次操作中两次有效触发图标的时间间隔。其中,该时间间隔可以为有效触发同一图标之间的时间间隔,如连续两次有效上述后退图标,也可以为不同类型的图标,例如,连续有效触发后退图标以及快进图标之间的时间间隔,在此不做限定。
206:对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整。
具体地,将上述操作时间以及上述时间间隔分别与其目标操作时间与目标操作时间和目标时间间隔进行比对,根据比对结果对该调整后的体感交互界面再次进行调整。
例如,有效触发后退图标的目标操作时间为30毫秒,而相邻两次目标时间间隔为20秒,而当前目标人体对象的操作时间为1秒,而相邻两次的时间间隔为半分钟,因此,确定当前体感交互界面的图标分布方式并不适合该目标人体对象。再根据采集到的目标人体对象的操作动作确定该目标人体对象为左右习惯用户,则进一步地将体感交互界面上对应该目标人体对象右手的图标分布在左手区域。
重复上述对目标人体对象的操作数据的获取,对该操作数据进行分析,不断的根据分析结果对调整后的体感交互界面进行再次调整,直至达到适合该目标人体对象的最佳交互界面,例如,上述操作时间以及时间间隔均在目标目标操作时间以及目标时间间隔范围之内。
区别于现有技术,本实施方式获取目标人体对象的图像信息;对所述图像信息进行识别得到所述目标人体对象的特征信息;根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。通过上述方式,打破了传统体感交互操作的固定体感交互界面的模式,不仅丰富了体感交互操作的功能类型。而且根据具有不同特征信息的用户选择与该用户匹配的体感交互界面更具有针对性和可实施性,能够满足不同需求的各种用户的体感操作要求,特别是具有特殊情况的用户,也能够最大程度上提高体感操作的推广,丰富用户的生活。
另外,在对当前体感交互界面进行调整后,获取目标人体对象使用调整后的体感交互界面的操作数据,在对该操作数据进行分析后,进一步分解分析结果对该操作后的体感交互界面再次进行调整。上述再次调整的方式能够使具有相同特征信息的目标人体对象均能得到与其生活习惯或特殊身体特征最匹配的体感交互界面,进一步提高体感交互操作的针对性和可实施性。
参阅图3,图3是本发明体感交互界面的设置装置一实施方式的结构示意图。如图3所示,本实施方式的设置装置包括图像信息获取模块301、特征信息提取模块302、交互界面确定模块303以及第一交互界面调整模块304,
图像信息获取模块301用于获取目标人体对象的图像信息。
在日常生活中,不同年龄段以及不同性别的用户的个人爱好,如颜色、字体大小以及字体风格都会存在差异,如女性用户一般喜好偏鲜亮的颜色、有弧线的字体等,男性用户则比较偏好相对较暗的格局,有棱有角的字体。再比如老年人由于视力原因,一般会喜好字体大、图标设置简单的界面,而儿童则喜欢略带卡通的界面。为了满足不同用户对界面的需求,图像信息获取模块301对当前正在操作体感交互界面的目标人体对象的图像信息进行获取。
具体地,体感交互装置或***预先建立对应的用户数据库,保存多个不同风格、不同字体、不同颜色的体感交互界面与对应包括特定特征信息的用户之间的映射关系。在用户通过体感交互动作启动体感交互装置或***后,图像信息获取模块301对目标体感对象的图像信息进行获取。
在一个具体的实施方式中,设置装置首先启动该体感交互界面和对应的用于获取的目标人体对象的图像信息的深度相机以及RGB摄像头,其中,该深度相机用于获取目标人体图像的深度图像,RGB摄像头用于获取目标人体图像的RGB图像。启动后,在该体感交互界面上显示预先设定的激活体感交互操作的指示指示,在用户按照该指示姿势进行操作后,当前体感交互界面进入用户登录界面。在用户完成登录后,进入可以进行体感操作的体感交互界面。
在上述方式中,如果是已经存在于上述数据库中的用户,则可以直接登陆界面,如果数据库中没有与该用户相匹配的登录信息,则可以切换至创建界面,在数据库中为该用户新建一个用户资料库,并按照默认的或优先级别最高的体感交互界面与该用户建立映射关系。其中,该用户资料哭可以通过应用程序自动隐形创建,也可以通过窗口的方式由用户自主创建,在此不做限定。
在用户开始体感操作时,图像信息获取模块301通过上述RGB相机以及深度相机对目标人体对象的图像信息进行获取。并将RGB相机获取到RGB图像与深度相机获取到的深度图像进行融合,得到该目标人体对象的图像信息。
特征信息提取模块302用于对所述图像信息进行识别得到所述目标人体对象的特征信息。
其中,该特征信息包括目标人体对象身高、性别、体型以及年龄中的至少一个。
其中,年龄、性别等特征信息特征信息提取模块302可通过RGB图像中的人脸图像进行分析而获取。而身高、提醒以及用户身体是否存在残疾等特征信息特征信息提取模块302可通过深度图像和RGB图像融合后的图像信息进行识别。目标人体对象与RGB摄像头以及深度相机的距离特征信息提取模块302可以通过对目标人体图像的深度图像进行分析来获取。
交互界面确定模块303用于根据所述特征信息确定与所述目标人体对象匹配的体感交互界面。
在其中的一个实施方式中,交互界面确定模块303根据获取到的目标人体对象的特征信息选择与其界面风格、字体样式以及字体大小相匹配的体感交互界面。例如,交互界面确定模块303根据对目标人体对象特征信息的提取,确定当前进行体感操作的目标人体对象为20岁年轻女性,则从数据库中选择与该特征信息符合的体感交互界面,如粉色圆润字体且带有卡通图标的体感交互界面,在此不做限定。
然而,在一些情况下,虽然数据库中包含具有与目标人体对象特征信息相匹配的体感交互界面,但是同一年龄段的相同性别的目标人体对象的身高或体型也会存在差异,因此为了满足不同目标人体对象的个性化需求,在另一个实施方式中,交互界面确定模块303将该目标人体图像映射到体感交互界面的预设位置,并将该体感交互界面的图标分布设置在预设位置的设定范围内。
在具体的实施方式中,交互界面确定模块303确定该目标人体对象的相对中心,并将该目标人体对象的相对中心映射到体感交互界面的中心,即相当于将该目标人体的相对位置映射到体感交互界面的中心区域,再将该交互界面上的多个图标按照用户的具体身体状况,如四肢长短,肩宽等特征信息分布在该体感交互界面中心区域的周围,使用户在操作过程中更加方便触碰上述图标。
在一些特殊的情况下,如目标人体对象为缺少左臂的残疾用户,交互界面确定模块303在获取到该目标人体对象的特征信息后,将该人体对象的相对中心映射到体感交互界面的中心,在将该交互界面上的多个图标分布在目标人体对象右手边的相对预设区域内,以使该残疾用户也能更加方便的完成体感操作,为其带来方便。
在另一个实施方式中,交互界面确定模块303根据不同年龄段的目标人体对象,在确定体感交互界面后,还可以进一步的根据目标人体对象的这一特征信息确定体感交互界面的光标的运行速度以及运行幅度。例如。10-40岁年龄段的目标人体对象一般动作相对于儿童和中老年用户更加灵活,对体感操作运行的速率和运行效率又更高的期待,因此,可以将上述年龄段用户对应的体感交互界面的光标的运行速度和运行幅度,相对于其他年龄段的目标人体对象的运行速度和运行幅度设置的更加快和大一些,以满足不同不同用户对体感操作的需求。
第一交互界面调整模块304用于将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
第一交互界面调整模块304在交互界面确定模块303确定于当前目标体感对象匹配的体感交互界面后,可及时的将该体感交互界面调整为与其匹配的体感交互界面。
在其他实施方式中第一交互界面调整模块304也可将该目标人体对象与其匹配的体感交互界面的对应关系保存在数据库中,在该用户下次进行体感操作时,进行体感交互界面的调整,在此不做限定。
由于,数据库中预先建立的目标人体对象与体感交互界面的对应关系具有统一性,但是并不一定适合每一个具有相同特征信息的目标人体对象。为了解决该问题,使每一个目标人体对象都能在适合自己的体感交互界面上进行体感操作,进一步地如图4所示,设置装置进一步地还包括操作数据确定模块405以及第二界面调整模块406。
操作数据确定模块405用于获取所述目标人体对象使用调整后的体感交互界面的操作数据。
其中,该操作数据包括该目标人体对象通过体感动作控制光标从进入调整后体感交互界面的图标的有效范围值有效触发该图标的操作时间,以及相邻两次有效触发该图标之间的时间间隔。
例如,目标人体对象要完成后退指令,该操作数据包括调整后的体感交互界面的光标进入到该后退指令对应的后退图标的有效范围到有效点击该后退图标的操作时间,还包括在本次操作中两次有效触发图标的时间间隔。其中,该时间间隔可以为有效触发同一图标之间的时间间隔,如连续两次有效上述后退图标,也可以为不同类型的图标,例如,连续有效触发后退图标以及快进图标之间的时间间隔,在此不做限定。
第二界面调整模块406用于将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
具体地,第二界面调整模块406将上述操作时间以及上述时间间隔分别与其目标操作时间与目标操作时间和目标时间间隔进行比对,根据比对结果对该调整后的体感交互界面再次进行调整。
例如,有效触发后退图标的目标操作时间为30毫秒,而相邻两次目标时间间隔为20秒,而当前目标人体对象的操作时间为1秒,而相邻两次的时间间隔为半分钟,因此,确定当前体感交互界面的图标分布方式并不适合该目标人体对象。第二界面调整模块406再根据采集到的目标人体对象的操作动作确定该目标人体对象为左右习惯用户,则进一步地将体感交互界面上对应该目标人体对象右手的图标分布在左手区域。
重复上述对目标人体对象的操作数据的获取,第二界面调整模块406对该操作数据进行分析,不断的根据分析结果对调整后的体感交互界面进行再次调整,直至达到适合该目标人体对象的最佳交互界面,例如,上述操作时间以及时间间隔均在目标目标操作时间以及目标时间间隔范围之内。
区别于现有技术,本实施方式图像信息获取模块获取目标人体对象的图像信息;特征信息提取模块对所述图像信息进行识别得到所述目标人体对象的特征信息;第一交互界面调整模块交互界面确定模块根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。通过上述方式,打破了传统体感交互操作的固定体感交互界面的模式,不仅丰富了体感交互操作的功能类型。而且根据具有不同特征信息的用户选择与该用户匹配的体感交互界面更具有针对性和可实施性,能够满足不同需求的各种用户的体感操作要求,特别是具有特殊情况的用户,也能够最大程度上提高体感操作的推广,丰富用户的生活。
另外,操作数据确定模块在对当前体感交互界面进行调整后,获取目标人体对象使用调整后的体感交互界面的操作数据,第二界面调整模块在对该操作数据进行分析后,进一步分解分析结果对该操作后的体感交互界面再次进行调整。上述再次调整的方式能够使具有相同特征信息的目标人体对象均能得到与其生活习惯或特殊身体特征最匹配的体感交互界面,进一步提高体感交互操作的针对性和可实施性。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种体感交互界面的设置方法,其特征在于,所述设置方法包括:
获取目标人体对象的图像信息;
对所述图像信息进行识别得到所述目标人体对象的特征信息;
根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;
将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
2.根据权利要求1所述的设置方法,其特征在于,所述将当前界面调整为所述与所述目标人体对象匹配的体感交互界面的步骤之后还包括:
获取所述目标人体对象使用调整后的体感交互界面的操作数据;
对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整。
3.根据权利要求2所述的设置方法,其特征在于,所述操作数据包括所述目标人体对象通过体感动作控制光标从进入所述调整后体感交互界面的图标的有效范围至有效触发所述图标的操作时间,以及相邻两次有效触发所述图标之间的时间间隔;
所述对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整的步骤具体包括:
将所述操作时间以及所述时间间隔分别与其目标操作时间和目标时间间隔进行比对,根据比对结果对所述调整后的体感交互界面再次进行调整。
4.根据权利要求1所述的设置方法,其特征在于,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
根据所述特征信息选择与所述目标人体对象的界面风格、字体样式以及字体大小相匹配的体感交互界面。
5.根据权利要求1所述的设置方法,其特征在于,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
将所述目标人体图像映射到体感交互界面的预设位置;
将所述体感交互界面的图标分布设置在所述预设位置的设定范围内。
6.根据权利要求1所述的设置方法,其特征在于,所述根据所述特征信息确定与所述目标人体对象匹配的体感交互界面的步骤具体包括:
根据所述目标人体对象的特征信息确定体感交互界面的光标的运行速度以及运行幅度。
7.根据权利要求1所述的设置方法,其特征在于,所述目标人体图像的特征信息包括身高、性别、体型、年龄中的至少一种。
8.一种体感交互界面的设置装置,其特征在于,所述设置装置包括图像信息获取模块、特征信息提取模块、交互界面确定模块以及第一交互界面调整模块,
所述图像信息获取模块用于获取目标人体对象的图像信息;
所述特征信息提取模块用于对所述图像信息进行识别得到所述目标人体对象的特征信息;
所述交互界面确定模块用于根据所述特征信息确定与所述目标人体对象匹配的体感交互界面;
所述第一交互界面调整模块用于将当前体感交互界面调整为所述与所述目标人体对象匹配的体感交互界面。
9.根据权利要求8所述的设置装置,其特征在于,所述设置装置还包括操作数据确定模块以及第二界面调整模块,
所述操作数据确定模块用于获取所述目标人体对象使用调整后的体感交互界面的操作数据;
所述第二界面调整模块用于对所述操作数据进行分析,根据分析结果对所述调整后的体感交互界面再次进行调整。
10.根据权利要求9所述的设置装置,其特征在于,所述操作数据包括所述目标人体对象通过体感动作控制光标进入体感交互界面的图标的有效范围至有效触发所述图标的操作时间,以及相邻两次有效触发所述图标之间的时间间隔;
所述第二界面调整模块具体用于将所述操作时间以及所述时间间隔分别与其目标操作时间和目标时间间隔进行比对,根据比对结果对所述调整后的体感交互界面再次进行调整。
CN201610567404.8A 2016-07-15 2016-07-15 体感交互界面的设置方法以及设置装置 Active CN106201540B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610567404.8A CN106201540B (zh) 2016-07-15 2016-07-15 体感交互界面的设置方法以及设置装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610567404.8A CN106201540B (zh) 2016-07-15 2016-07-15 体感交互界面的设置方法以及设置装置

Publications (2)

Publication Number Publication Date
CN106201540A true CN106201540A (zh) 2016-12-07
CN106201540B CN106201540B (zh) 2019-11-05

Family

ID=57493087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610567404.8A Active CN106201540B (zh) 2016-07-15 2016-07-15 体感交互界面的设置方法以及设置装置

Country Status (1)

Country Link
CN (1) CN106201540B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537026A (zh) * 2018-03-30 2018-09-14 百度在线网络技术(北京)有限公司 应用程序控制方法、装置和服务器
CN109034061A (zh) * 2018-07-26 2018-12-18 周小凤 大数据处理式体形识别***
CN109753152A (zh) * 2018-12-21 2019-05-14 北京市商汤科技开发有限公司 基于人体姿态的交互方法及装置、计算机设备
CN110075515A (zh) * 2019-04-01 2019-08-02 南京华捷艾米软件科技有限公司 体感设备的交互方法和体感设备
CN111182389A (zh) * 2019-12-09 2020-05-19 广东小天才科技有限公司 一种视频播放的方法以及音箱设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102760077A (zh) * 2011-04-29 2012-10-31 广州三星通信技术研究有限公司 基于人脸识别自适应应用情景模式的方法和设备
CN103941857A (zh) * 2014-02-22 2014-07-23 浙江大学 基于手势交互中人体骨骼提取的自适应界面生成方法
EP2801040A1 (en) * 2012-01-08 2014-11-12 Teknision Inc. Method and system for dynamically assignable user interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102760077A (zh) * 2011-04-29 2012-10-31 广州三星通信技术研究有限公司 基于人脸识别自适应应用情景模式的方法和设备
EP2801040A1 (en) * 2012-01-08 2014-11-12 Teknision Inc. Method and system for dynamically assignable user interface
CN103941857A (zh) * 2014-02-22 2014-07-23 浙江大学 基于手势交互中人体骨骼提取的自适应界面生成方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537026A (zh) * 2018-03-30 2018-09-14 百度在线网络技术(北京)有限公司 应用程序控制方法、装置和服务器
CN109034061A (zh) * 2018-07-26 2018-12-18 周小凤 大数据处理式体形识别***
CN109034061B (zh) * 2018-07-26 2019-04-19 上海极链网络科技有限公司 大数据处理式体形识别***
CN109753152A (zh) * 2018-12-21 2019-05-14 北京市商汤科技开发有限公司 基于人体姿态的交互方法及装置、计算机设备
CN110075515A (zh) * 2019-04-01 2019-08-02 南京华捷艾米软件科技有限公司 体感设备的交互方法和体感设备
CN111182389A (zh) * 2019-12-09 2020-05-19 广东小天才科技有限公司 一种视频播放的方法以及音箱设备

Also Published As

Publication number Publication date
CN106201540B (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
CN106201540A (zh) 体感交互界面的设置方法以及设置装置
US11256901B2 (en) Image information processing method and apparatus, and computer storage medium
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN105378742B (zh) 所管理的生物计量身份
Varona et al. Hands-free vision-based interface for computer accessibility
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN106201173B (zh) 一种基于投影的用户交互图标的交互控制方法及***
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
CN101872244B (zh) 一种基于用户手部运动与颜色信息的人机交互方法
CN112684970B (zh) 虚拟场景的适配显示方法、装置、电子设备及存储介质
Huang et al. An immersive virtual reality museum via second life: Extending art appreciation from 2D to 3D
CN102799276B (zh) 即时通信中头像图标年龄转换的方法、客户端及***
CN116492687A (zh) 虚拟角色形象的处理方法、装置、设备及存储介质
EP3989179B1 (en) Method and apparatus for processing a slider for modifying a virtual character
CN106227336A (zh) 体感映射的建立方法以及建立装置
Zhao Architectural space and psychological feelings
US20230362333A1 (en) Data processing method and apparatus, device, and readable storage medium
US20230298253A1 (en) Appearance editing method and apparatus for virtual pet, terminal, and storage medium
CN111158471A (zh) 一种基于眼动和脑机接口技术的人机交互方法
Chen et al. Innovative research on the improvement of visual quality of data journalism in China: Visual language and interaction design
CN115826835A (zh) 一种数据处理方法、设备以及可读存储介质
CN114021022A (zh) 一种妆容信息获取方法、装置、车辆及存储介质
CN113470138A (zh) 图像的生成方法、装置、电子设备及可读存储介质
CN112802162A (zh) 虚拟角色的面部调整方法及装置、电子设备、存储介质
Yee et al. Advanced and natural interaction system for motion-impaired users

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 518057 Guangdong city of Shenzhen province Nanshan District Hing Road three No. 8 China University of Geosciences research base in building A808

Patentee after: Obi Zhongguang Technology Group Co., Ltd

Address before: 518057 Guangdong city of Shenzhen province Nanshan District Hing Road three No. 8 China University of Geosciences research base in building A808

Patentee before: SHENZHEN ORBBEC Co.,Ltd.

CP01 Change in the name or title of a patent holder