CN102662613A - 基于体感交互方式的大屏幕信息发布的控制方法 - Google Patents
基于体感交互方式的大屏幕信息发布的控制方法 Download PDFInfo
- Publication number
- CN102662613A CN102662613A CN2012100523113A CN201210052311A CN102662613A CN 102662613 A CN102662613 A CN 102662613A CN 2012100523113 A CN2012100523113 A CN 2012100523113A CN 201210052311 A CN201210052311 A CN 201210052311A CN 102662613 A CN102662613 A CN 102662613A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- interactive
- content
- issuing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
一种基于体感交互方式的大屏幕信息发布的控制方法,包括:体感摄像单元获取用户的人体非接触式交互信息,并传送给信息发布***;信息发布***根据收到的非接触式交互信息,通过查询预设的策略信息库,将得到的非接触式交互信息转换为对大屏幕显示设备的操作指令;大屏幕显示设备根据接收的所述信息发布***发送的转换后的操作指令,更新屏幕显示信息。本发明解决了当前需要将体感交互技术应用到大屏幕显示***上,增强非接触式交互性、提高信息发布的针对性,改善用户体验,从而显著提升对用户的吸引力的问题。
Description
技术领域
本发明涉及体感交互技术领域,尤其涉及一种基于体感交互方式的大屏幕信息发布的控制方法。
背景技术
广泛应用于数字橱窗、电子广告牌、楼宇广告电视等领域的大屏幕显示***,其基本形态为由程序控制显示特定的信息,其信息发布的内容、频率等都是固定的,与外界无任何交互,不会因为外界信息而发生变化。这一点从大屏幕显示***诞生以来几乎没有改变。信息发布的单向性使得这一类显示***对受众的吸引力不是很高,需要增强其互动性;尤其是考虑到其应用场景,更需要增强非接触式互动性。
体感交互技术作为一种进行虚拟现实交互的新型操作方式,可以完全摆脱鼠标键盘等传统输入设备和复杂的动作捕捉设备,而只是通过手势做动作就可以完成交互的操作。体感交互技术主要依靠体感摄像机来完成对人体信息的识别和追踪。体感摄像机在相应的***支撑下,可以完成动作捕捉、面部识别、形体特征识别、语音识别等。
将体感交互技术应用到大屏幕显示***上,有助于增强其非接触式交互性、提高信息发布的针对性,大大改善用户体验,从而显著提升对用户的吸引力。
因此,当前需要一种基于体感交互方式的大屏幕信息发布的控制的技术方案来解决上述问题。
发明内容
本发明所要解决的技术问题是提供一种基于体感交互方式的大屏幕信息发布的控制方法,解决了当前需要将体感交互技术应用到大屏幕显示***上,增强非接触式交互性、提高信息发布的针对性,改善用户体验,从而显著提升对用户的吸引力的问题。
为了解决上述问题,本发明提供了一种基于体感交互方式的大屏幕信息发布的控制方法,包括:
体感摄像单元获取用户的人体非接触式交互信息,并传送给信息发布***;
所述信息发布***根据收到的所述非接触式交互信息,通过查询预设的策略信息库,将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令;
大屏幕显示设备根据接收的所述信息发布***发送的转换后的操作指令,更新屏幕显示信息。
进一步的,上述方法还可包括:所述信息发布***记录交互历史信息,并根据该交互历史信息进行数据分析,得到该交互内容受关注程度或用户偏好的信息。
进一步的,上述方法还可包括:所述信息发布***根据收到的用户的人体非接触式交互信息,判定出该用户的用户类型信息,包括性别、年龄和/或身材的信息。
进一步的,上述方法还可包括:所述信息发布***根据得到的用户类型信息,提取存储的该用户类型的交互历史信息,并根据该用户类型的交互历史信息向大屏幕显示设备操作指令,更新屏幕显示信息。
进一步的,上述方法还可包括:所述体感摄像单元获取用户的人体非接触式交互信息,包括:面部特征、形体特征、肢体动作特征、服饰特征、语音特征中一项或几项的非接触式交互信息。
进一步的,上述方法还可包括:所述面部特征包括可确定用户的面部特征的点的信息;
所述形体特征为形体关键特点,包括高矮、胖瘦和肢体特点的信息;
所述服饰特征为服饰关键特点,包括颜色和覆盖范围的信息;
所述肢体动作特征为可表示各类动作的关键运动点,包括跳跃、走动、手臂动作、腿部动作、腰部动作、臀部动作、脚步动作和手势动作的信息;
所述语音特征包括语音所表示的文字内容和语气的信息。
进一步的,上述方法还可包括:所述信息发布***将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令,包括:确认当前操作、调出操作菜单、退出当前会话、旋转内容、放大内容、缩小内容、滑动内容、屏幕切换和平移内容的操作指令。
与现有技术相比,应用本发明,可以根据用户的面部、形体、服饰、肢体动作、语音等信息,交互式地显示内容,增强非接触式交互性,大幅度提高对用户的吸引力;可以针对用户的面部、形体、服饰、肢体动作、语音等信息,分析出用户的特征,并根据这些特征有选择地发布内容,提高发布内容与用户的贴合程度;可以根据用户对所发布内容的浏览历史,分析出各类内容受关注的程度,并进而得出内容流行趋势、用户喜好等高价值数据,具有极大的社会价值和经济价值。
附图说明
图1是本发明的基于体感交互方式的大屏幕信息发布的控制方法的流程图;
图2是本发明实例中整个***各主要组成部分及连接关系;
图3是本发明实例中整个***各主要组成部分间的数据传输关系图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步说明。
本发明将体感交互技术应用到大屏幕显示***上,使得大屏幕显示***可以通过非接触方式根据用户的面部、形体、服饰、肢体动作和语音等信息,进行交互式的、有针对性的信息发布。
如图1所示,本发明的基于体感交互方式的大屏幕信息发布的控制方法,包括:
步骤110、体感摄像单元获取用户的人体非接触式交互信息,并传送给信息发布***;
步骤120、信息发布***根据收到的所述非接触式交互信息,通过查询预设的策略信息库,将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令;
所述信息发布***将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令,包括:确认当前操作、调出操作菜单、退出当前会话、旋转内容、放大内容、缩小内容、滑动内容、屏幕切换和平移内容的操作指令。
步骤130、大屏幕显示设备根据接收的所述信息发布***发送的转换后的操作指令,实时更新屏幕显示信息。
其中,整个***能够持续不断地与用户进行交互,直到用户选择退出当前会话为止。
还可包括:所述信息发布***记录交互历史信息,并根据该交互历史信息进行数据分析,得到该交互内容受关注程度或用户偏好的信息。
还可包括:所述信息发布***根据收到的用户的人体非接触式交互信息,判定出该用户的用户类型信息,包括性别、年龄和/或身材的信息。
进一步可包括:所述信息发布***根据得到的用户类型信息,提取存储的该用户类型的交互历史信息,并根据该用户类型的交互历史信息向大屏幕显示设备操作指令,更新屏幕显示信息。
通过上述设置,可分析出非接触式交互信息发出人的特征,并根据这些特征有选择地发布内容,提高发布内容与用户的贴合程度;可以根据用户对所发布内容的浏览历史,分析出各类内容受关注的程度,并进而得出内容流行趋势、用户喜好等高价值数据,具有极大的社会价值和经济价值。
本发明的方法具有以下优点:可以根据用户的面部、形体、服饰、肢体动作、语音等,交互式地显示内容,增强非接触式交互性,大幅度提高对用户的吸引力;可以针对用户的面部、形体、服饰、肢体动作、语音等,分析出用户的特征,并根据这些特征有选择地发布内容,提高发布内容与用户的贴合程度;可以根据用户对所发布内容的浏览历史,分析出各类内容受关注的程度,并进而得出内容流行趋势、用户喜好等高价值数据。
下面结合具体实例对本发明的方法作进一步说明。
本方法涉及体感摄像单元(可以是体感摄像机)、大屏幕显示设备、信息发布***、信息存储或处理***等四个主要组成部分,其中各部分的连接关系如图2所示,信息传输流向如图3所示:
体感摄像机、大屏幕显示设备均直接面向用户;体感摄像机包括3个镜头,其中一个是彩色摄像机,两个红外镜头构成深度摄像机;还包括麦克风等音频输入设备。
用户从大屏幕显示设备获取信息,并针对该信息通过面部动作、语音、肢体动作等做出反馈;
体感摄像机根据配置,获取用户的面部、形体、服饰、肢体动作、语音等信息,经过处理后反馈给信息发布***;
信息发布***根据体感摄像机发送的体感信息,有针对性地调整所发布的内容,并传送给大屏幕显示设备。大屏幕显示设备则全部显示传送过来的内容;
信息发布***所发布的内容可以来自自身所预存的内容;也可以向信息存储或处理***发送信息提取请求;信息存储或处理***接受到请求后,提取信息并发送给信息发布***;信息发布***再将其经过适当处理后传送给大屏幕显示设备;
信息发布***存储针对所有用户的信息发布内容,并进行适当加工处理,以分析出有价值的数据。该数据可以保存在信息发布***内,也可以发送至信息存储或处理***内并由其保存;
值得注意的是,在实际使用中,信息发布***也可以与信息存储或处理***合成一个整体。
以上连接关系只是说明各部分的逻辑连接。在物理上或外观上,上述各个组成部分的若干或者全部可以形成一个整体。
图3是本发明所提出的各主要组成部分间的数据传输关系图,主要包括以下几个步骤:
步骤S01:用户面对大屏幕显示设备,根据所显示内容和自身偏好,做出非接触式交互动作。在此实例中,交互动作可以包含肢体动作、语音等。
步骤S02:体感摄像机根据应用需求采集用户的人体非接触式交互信息(可面部特征、形体特征、肢体动作特征、服饰特征、语音特征中一项或几项的非接触式交互信息),用户需位于体感摄像机正面一定角度及距离范围内。在此实例中,要求位于体感摄像机水平±37度内、垂直±15度内,距离在0.5米-6米之间。体感摄像机需对采集的各类信息做出如下处理:
所述面部特征包括可确定用户的面部特征的点的信息(即面部信息需提取出足以确定其面部特征的点);
所述形体特征为形体关键特点,包括高矮、胖瘦和肢体特点的信息;
所述服饰特征为服饰关键特点,包括颜色和覆盖范围的信息;
所述肢体动作特征为可表示各类动作的关键运动点,包括跳跃、走动、手臂动作、腿部动作、腰部动作、臀部动作、脚步动作和手势动作的信息;
所述语音特征包括语音所表示的文字内容和语气的信息。所述面部特征包括确定非接触式交互信息发出人的面部特征的点;
步骤S03:体感摄像机将步骤S01中所提取出的体感信息,按照特定格式要求发送给信息发布***。
步骤S04:信息发布***根据接收到的体感信息,根据预设的策略信息库中规则将其转换为操作提示或操作指令。在此实例的策略信息库中规则中,对面部信息、形体信息、肢体动作等方面的转换规则包括:
面部信息:按照预定义的面部识别算法,确定用户性别、用户身份等信息;
形体信息:按照预定义的形体识别算法,确定用户的身高、胸围、腹围、腿长、臂长等信息;
肢体动作:
以上是对肢体动作转换为操作提示或操作指令的一个示意性说明,既不是肢体动作的完整列表,也不是唯一可行的转换规则。
步骤S05:信息发布***根据操作提示或操作指令,改变大屏幕显示设备上的显示内容。在此实例中,改变的方式如下:
根据面部、形体等信息确定适宜用户的内容。例如确定用户为男性,则显示适合男性受众的内容;确定用户的身高等信息,则显示适合用户形体特征的内容等。
根据用户的肢体动作指令,对当前选定的图像进行放大、缩小、旋转等操作,也可以对整个操作过程进行控制。
步骤S05:在必要情况下,信息发布***向信息存储或处理***发送信息提取请求,并将返回结果经过适当处理后发送到大屏幕显示设备。在此实例中,信息发布***可以和信息存储或处理***整合成为一个整体,也可以通过网络方式与信息存储或处理***相连接。
步骤S06:用户可以做出下一轮交互,交互式动作可以转入步骤S01。同时后台动作转入步骤S07。
步骤S07:信息发布***将用户交互历史记录下来,并将其存储到自身存储***中,或者发送给信息存储或处理***。
步骤S08:在适当时候,信息发布***(或者是信息存储或处理***)分析用户交互历史,从中提取出高价值数据。在此实例中,可以分析出所发布内容的受欢迎程度、某类用户对某类内容的偏好等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (7)
1.一种基于体感交互方式的大屏幕信息发布的控制方法,其特征在于,包括:
体感摄像单元获取用户的人体非接触式交互信息,并传送给信息发布***;
所述信息发布***根据收到的所述非接触式交互信息,通过查询预设的策略信息库,将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令;
大屏幕显示设备根据接收的所述信息发布***发送的转换后的操作指令,更新屏幕显示信息。
2.如权利要求1所述的方法,其特征在于,
还包括:所述信息发布***记录交互历史信息,并根据该交互历史信息进行数据分析,得到该交互内容受关注程度或用户偏好的信息。
3.如权利要求2所述的方法,其特征在于,
还包括:所述信息发布***根据收到的用户的人体非接触式交互信息,判定出该用户的用户类型信息,包括性别、年龄和/或身材的信息。
4.如权利要求3所述的方法,其特征在于,
进一步包括:所述信息发布***根据得到的用户类型信息,提取存储的该用户类型的交互历史信息,并根据该用户类型的交互历史信息向大屏幕显示设备操作指令,更新屏幕显示信息。
5.如权利要求1至4任一所述的方法,其特征在于,
所述体感摄像单元获取用户的人体非接触式交互信息,包括:面部特征、形体特征、肢体动作特征、服饰特征、语音特征中一项或几项的非接触式交互信息。
6.如权利要求5所述的方法,其特征在于,
所述面部特征包括可确定用户的面部特征的点的信息;
所述形体特征为形体关键特点,包括高矮、胖瘦和肢体特点的信息;
所述服饰特征为服饰关键特点,包括颜色和覆盖范围的信息;
所述肢体动作特征为可表示各类动作的关键运动点,包括跳跃、走动、手臂动作、腿部动作、腰部动作、臀部动作、脚步动作和手势动作的信息;
所述语音特征包括语音所表示的文字内容和语气的信息。
7.如权利要求1所述的方法,其特征在于,
所述信息发布***将得到的所述非接触式交互信息转换为对大屏幕显示设备的操作指令,包括:确认当前操作、调出操作菜单、退出当前会话、旋转内容、放大内容、缩小内容、滑动内容、屏幕切换和平移内容的操作指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100523113A CN102662613A (zh) | 2012-03-01 | 2012-03-01 | 基于体感交互方式的大屏幕信息发布的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100523113A CN102662613A (zh) | 2012-03-01 | 2012-03-01 | 基于体感交互方式的大屏幕信息发布的控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102662613A true CN102662613A (zh) | 2012-09-12 |
Family
ID=46772115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100523113A Pending CN102662613A (zh) | 2012-03-01 | 2012-03-01 | 基于体感交互方式的大屏幕信息发布的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102662613A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218124A (zh) * | 2013-04-12 | 2013-07-24 | 北京国铁华晨通信信息技术有限公司 | 基于深度摄像头的菜单控制方法及*** |
CN103871283A (zh) * | 2013-12-03 | 2014-06-18 | 中央大学 | 拼接式互动教学***与教学方法 |
CN106919270A (zh) * | 2015-12-28 | 2017-07-04 | 宏达国际电子股份有限公司 | 虚拟实境装置及虚拟实境方法 |
CN108037834A (zh) * | 2017-12-31 | 2018-05-15 | 武汉烽火云创软件技术有限公司 | 基于体感控制的可视化交互管理*** |
CN108121449A (zh) * | 2017-12-31 | 2018-06-05 | 武汉烽火云创软件技术有限公司 | 可编辑更新的基于体感控制的可视化交互管理*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950358A (zh) * | 2010-09-30 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 智能电视自动年龄估计与性别判别的方法 |
CN102354345A (zh) * | 2011-10-21 | 2012-02-15 | 北京理工大学 | 一种具有体感交互方式的医学影像浏览设备 |
-
2012
- 2012-03-01 CN CN2012100523113A patent/CN102662613A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950358A (zh) * | 2010-09-30 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 智能电视自动年龄估计与性别判别的方法 |
CN102354345A (zh) * | 2011-10-21 | 2012-02-15 | 北京理工大学 | 一种具有体感交互方式的医学影像浏览设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218124A (zh) * | 2013-04-12 | 2013-07-24 | 北京国铁华晨通信信息技术有限公司 | 基于深度摄像头的菜单控制方法及*** |
CN103218124B (zh) * | 2013-04-12 | 2015-12-09 | 通号通信信息集团有限公司 | 基于深度摄像头的菜单控制方法及*** |
CN103871283A (zh) * | 2013-12-03 | 2014-06-18 | 中央大学 | 拼接式互动教学***与教学方法 |
CN106919270A (zh) * | 2015-12-28 | 2017-07-04 | 宏达国际电子股份有限公司 | 虚拟实境装置及虚拟实境方法 |
CN106919270B (zh) * | 2015-12-28 | 2020-04-21 | 宏达国际电子股份有限公司 | 虚拟实境装置及虚拟实境方法 |
CN108037834A (zh) * | 2017-12-31 | 2018-05-15 | 武汉烽火云创软件技术有限公司 | 基于体感控制的可视化交互管理*** |
CN108121449A (zh) * | 2017-12-31 | 2018-06-05 | 武汉烽火云创软件技术有限公司 | 可编辑更新的基于体感控制的可视化交互管理*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102038016B1 (ko) | 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법 | |
US20170185276A1 (en) | Method for electronic device to control object and electronic device | |
CN110443167B (zh) | 传统文化手势的智能识别方法、智能交互方法及相关装置 | |
CN102662613A (zh) | 基于体感交互方式的大屏幕信息发布的控制方法 | |
CN109074206A (zh) | 用于视觉缺陷的增强成像辅助 | |
CN105931645A (zh) | 虚拟现实设备的控制方法、装置及虚拟现实设备、*** | |
US20160156575A1 (en) | Method and apparatus for providing content | |
CN107832784B (zh) | 一种图像美化的方法和一种移动终端 | |
CN108519816A (zh) | 信息处理方法、装置、存储介质及电子设备 | |
CN103956128A (zh) | 基于体感技术的智能主动广告平台 | |
CN107894836B (zh) | 基于手势和语音识别的遥感图像处理与展示的人机交互方法 | |
CN102664009B (zh) | 一种通过移动通信终端对视频播放装置进行语音控制的***及方法 | |
CN108681390A (zh) | 信息交互方法和装置、存储介质及电子装置 | |
US11392979B2 (en) | Information processing system, communication device, control method, and storage medium | |
JP6730461B2 (ja) | 情報処理システム及び情報処理装置 | |
US10602091B2 (en) | Method and system for providing video call service | |
WO2021232875A1 (zh) | 一种驱动数字人的方法、装置及电子设备 | |
CN107886559A (zh) | 用于生成图片的方法和装置 | |
CN202930000U (zh) | 基于体感交互方式的大屏幕信息发布的控制*** | |
CN109214347A (zh) | 一种跨语种的手语翻译方法、装置和移动设备 | |
CN110298925B (zh) | 一种增强现实图像处理方法、装置、计算设备及存储介质 | |
CN105139248A (zh) | 一种可穿戴物品呈现的方法及装置 | |
CN112149599B (zh) | 表情追踪方法、装置、存储介质和电子设备 | |
CN111274489B (zh) | 信息处理方法、装置、设备及存储介质 | |
CN117194625A (zh) | 数字人的智能对话方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20120912 |