CN107493495B - 交互位置确定方法、***、存储介质和智能终端 - Google Patents
交互位置确定方法、***、存储介质和智能终端 Download PDFInfo
- Publication number
- CN107493495B CN107493495B CN201710691663.6A CN201710691663A CN107493495B CN 107493495 B CN107493495 B CN 107493495B CN 201710691663 A CN201710691663 A CN 201710691663A CN 107493495 B CN107493495 B CN 107493495B
- Authority
- CN
- China
- Prior art keywords
- target
- information
- gesture
- interactive
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明涉及一种交互位置确定方法,包括:识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;根据所述当前位置信息确定所述交互控制响应区域的目标位置。利用手势图像激活交互控制响应区域,并根据手势图像位置信息确定交互控制响应区域的位置,提高了操作的便利性。本发明还提供一种交互位置确定***、存储介质和智能终端。
Description
技术领域
本发明涉及智能终端人机交互技术领域,特别是涉及一种交互位置确定方法、***、存储介质和智能终端。
背景技术
随着科技水平的不断发展和人们生活质量的不断提高,电视逐渐趋向于智能化发展,为了满足用户的多样化需求,智能电视中的应用越来越多,而传统的智能电视中的菜单栏或提示信息通常显示在固定位置,当智能电视的显示屏幕较大时,导致用户不方便操作菜单栏,影响用户与智能电视的交互效果。
发明内容
基于此,有必要针对上述问题,提供一种交互位置确定方法、***、存储介质和智能终端,基于手势识别,根据手势图像和手势图像位置确定交互控制响应区域的目标位置,提高操作的便利性。
一种交互位置确定方法,包括:
识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;
当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;
根据所述当前位置信息确定所述交互控制响应区域的目标位置。
在一个实施例中,所述根据所述手势图像激活交互控制响应区域的步骤包括:
获取所述智能终端对应的当前状态信息,根据所述当前状态信息确定对应的功能信息,根据所述功能信息生成对应的目标交互控制响应信息;
根据所述手势图像激活所述目标交互控制响应信息对应的目标交互控制响应区域。
在一个实施例中,所述根据所述当前位置信息确定所述交互控制响应区域的目标位置的步骤之后,包括:
检测作用于所述目标位置的手势操作,根据所述手势操作触发对应的交互控制指令;
根据所述交互控制指令控制所述智能终端执行对应的操作。
在一个实施例中,所述交互位置确定方法还包括:
识别目标区域内的人脸图像,并获取所述人脸图像在所述智能终端显示屏中的第一位置信息;
获取所述人脸图像对应的人脸图像尺寸;
根据所述人脸图像尺寸确定当前用户与所述智能终端显示屏之间的距离;
获取所述距离对应的预设距离范围,根据所述预设距离范围确定交互信息的目标显示尺寸;
根据所述第一位置信息确定所述交互信息的目标显示位置,根据所述目标显示尺寸在所述目标显示位置显示所述交互信息。
在一个实施例中,所述根据所述人脸图像在所述智能终端显示屏中的位置确定目标显示位置的步骤,包括:
获取目标区域内识别到的人脸图像的数目;
当所述人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;
根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
一种交互位置确定***,包括:
手势识别模块,用于识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;
激活模块,用于当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;
目标位置确定模块,用于根据所述当前位置信息确定所述交互控制响应区域的目标位置。
在一个实施例中,所述激活模块还用于获取所述智能终端对应的当前状态信息,根据所述当前状态信息确定对应的功能信息,根据所述功能信息生成对应的目标交互控制响应信息;根据所述手势图像激活所述目标交互控制响应信息对应的目标交互控制响应区域。
在一个实施例中,所述交互位置确定***还包括:
控制模块,用于检测作用于所述目标位置的手势操作,根据所述手势操作触发对应的交互控制指令,根据所述交互控制指令控制所述智能终端执行对应的操作。
在一个实施例中,所述交互位置确定***还包括:
人脸识别模块,用于识别目标区域内的人脸图像,并获取所述人脸图像在所述智能终端显示屏中的第一位置信息;
处理模块,用于获取所述人脸图像对应的人脸图像尺寸,根据所述人脸图像尺寸确定当前用户与所述智能终端显示屏之间的距离;
显示尺寸确定模块,用于获取所述距离对应的预设距离范围,根据所述预设距离范围确定交互信息的目标显示尺寸;
显示模块,用于根据所述第一位置信息确定所述交互信息的目标显示位置,根据所述目标显示尺寸在所述目标显示位置显示所述交互信息。
在一个实施例中,所述人脸识别模块还用于获取目标区域内识别到的人脸图像的数目;
人脸位置信息获取模块,用于当所述人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;
目标显示位置确定模块,用于根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;根据所述当前位置信息确定所述交互控制响应区域的目标位置。
一种智能终端,包括一个或多个处理器,存储器以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中并且被配置成由所述一个或多个处理器执行,所述程序用于执行以下步骤:识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;根据所述当前位置信息确定所述交互控制响应区域的目标位置。
上述交互位置确定方法、***、存储介质和智能终端,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,提高了操作的便利性。
附图说明
图1为一个实施例中交互位置确定方法的流程图;
图2为一个实施例中交互位置确定方法的流程图;
图3为一个具体实施例中交互位置确定方法的流程图;
图4为一个实施例中智能终端的交互控制界面图;
图4A为一个实施例中智能终端交互控制界面的示意图;
图5为一个实施例中交互位置确定***的结构框图;
图6为一个实施例中交互位置确定***的结构框图;
图7为另一个实施例中交互位置确定***的结构框图;
图8为一个实施例中智能终端的内部结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在一个实施例中,提供一种交互位置确定方法,包括以下内容:
步骤S110,识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息。
其中,目标区域是指智能终端的显示屏前方区域,目标区域的范围大小根据图像采集设备的采集角度来确定。图像采集设备可以为智能终端自带的设备,如智能终端的摄像机等,也可以为通过连接端口接入到智能终端的外置设备。手势图像为源自人身体运动或状态的图像,如人手的姿势和状态等。
其中,智能终端为与用户进行交互的终端,智能终端可以是智能电视、平板电脑、手机等智能设备,智能终端显示屏可以为智能终端自身携带的显示屏也可以是外接的显示屏。当前位置信息是指图像采集设备当前时刻采集到的手势图像映射到显示屏中的位置信息,能够实时反映手势图像的位置信息。
具体地,利用图像采集设备采集手势图像,采集到手势图像可以为静态图像或动态图像,当用户手势在采集设备的目标区域范围内时,采集设备自动搜索并拍摄用户的手势图像,并根据手势图像特征手势图像进行识别,根据手势识别中的手势分析能够获取手势的形状特征或运动轨迹,确定手势图像当前在智能终端显示屏中对应的当前位置信息。获取识别到的手势图像的当前位置信息。
步骤S120,当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活交互控制响应区域。
其中,手势图像可以为静态手势图像也可以为动态手势图像,预设激活手势可以根据需要预先设置,如设置滑动手势、缩放手势、抬举手势等为预设激活手势,预设激活手势可以包括一个或多个,预设激活手势形成的预设激活手势库可以存储在服务器中,将采集到的手势图像发送至服务器中进行识别,也可以将预设激活手势库存储在智能终端中,直接对采集到的手势图像进行识别。
交互控制响应区域是指能够接收用户操作并根据用户操作触发对应指令的区域。进一步地,可以对交互控制响应区域进行界面渲染,将交互控制响应区域对应的功能响应信息以菜单栏信息的形式显示在智能终端显示屏中,提示交互响应区域对应的功能。其中,菜单栏信息是指计算机及各种终端的一种功能栏,包括多种功能按键信息,便于用户查看。交互控制响应区域也可以不进行界面渲染,根据手势图像触发交互控制响应区域后,在智能终端显示屏中没有对应的菜单栏信息的显示,但智能终端对应于交互控制响应区域的区域仍然能够接收用户操作。
具体地,对手势图像进行分割识别,将当前识别到的手势图像对应的手势与预设激活手势库中的预设激活手势进行对比,当检测到当前目标区域内识别到的手势图像对应的手势与预设激活手势相同时,激活智能终端对应的显示屏中的交互控制响应区域。
步骤S130,根据当前位置信息确定交互控制响应区域的目标位置。
具体地,根据检测到的手势图像的当前位置信息确定交互控制响应区域的目标位置,例如,将手势图像在智能终端显示屏中对应的位置作为交互控制响应区域的目标位置,目标位置对应的区域能够接收用户操作。进一步地,若将目标响应区域对应的功能信息通过界面渲染以菜单栏信息的形式显示,则菜单栏信息的显示位置为交互控制响应区域对应的目标位置。
本实施例中,提供一种移动终端控制方法,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,提高了操作的便利性。
在一个实施例中,步骤S120包括:获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息;根据手势图像激活目标交互控制响应信息对应的目标交互控制响应区域。
其中,当前状态信息是指能够反映智能终端当前工作状态的信息,包括智能终端当前播放的内容信息,播放的状态信息等。智能终端的不同的状态信息对应不同的功能信息。交互控制响应信息是指能够根据用户操作进行响应并能够控制智能终端执行相关操作的信息。
具体地,获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息。例如,智能终端的当前状态信息为初始选择状态,则对应的功能信息为可供选择的节目列表信息,如按照军事、娱乐、科技等节目分类生成对应的节目列表信息作为交互控制响应信息,便于用户对节目进行选择,进一步地,也可对人脸图像进行识别,根据识别到的人脸图像信息匹配已注册用户,并根据记录的已注册用户的感兴趣类型生成对应的交互控制响应信息。若智能终端当前状态信息为某一节目的播放界面,则对应的功能信息为快进、后退、音量加减、节目切换等,根据对应的功能信息组合生成对应的交互控制响应信息。
在其他实施例中,也可将智能终端的状态信息与交互控制响应信息直接建立关联关系,通过当前播放状态获取对应的交互控制响应信息。
进一步地,根据识别到的手势图像的当前位置信息确定目标交互控制响应区域,目标交互控制响应区域为能够对目标交互控制响应信息对应的功能进行响应的区域。
本实施例中,根据智能终端的当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息,能够根据智能终端的当前工作状态生成对应的交互控制响应信息,便于用户根据智能终端当前工作状态进行相应操作,进一步地提高了操作的便利性。
在一个实施例中,步骤S130之后,还包括:检测作用于目标位置的手势操作,根据手势操作触发对应的交互控制指令;根据交互控制指令控制智能终端执行对应的操作。
其中,交互控制响应区域包括多个交互控制响应子区域,各个交互控制响应子区域分别对应不同的交互控制指令,当触发对应的交互控制响应子区域时,能够触发对应的交互控制指令,控制智能终端执行对应的操作。
具体地,当激活交互控制响应区域后,检测用户手势运动轨迹或检测各个交互控制响应子区域对应的触控操作,当检测到用户手势运动轨迹为预设手势轨迹时,获取当前手势运动轨迹对应的交互控制响应子区域对应的交互控制指令。例如,交互控制响应区域对应的交互控制响应信息为控制音量加减和节目切换,当检测到用户的手势运动轨迹为向左摆动时,触发音量增加的指令,控制智能终端显示音量信息并增加对应的音量,当检测到用户的手势运动轨迹为向上摆动时,触发节目切换指令,控制智能终端显示节目列表并将显示界面切换至当前节目的下一个节目对应的显示界面。
进一步地,也可根据交互控制响应子区域的触控操作生成对应的交互控制指令,如当前激活的交互控制响应区域对应的交互控制响应信息为控制音量加减和节目切换,则将当前交互控制响应区域分为音量增加、音量减少、切换至上一个节目以及切换至下一个节目四个功能对应的交互控制响应子区域,并在各个交互控制响应子区域设置监听事件,监听用户操作。当用户在音量增加功能对应的交互控制响应子区域的位置操作时,该交互控制响应子区域对应的监听事件监听到用户操作时,生成对应的增加音量指令,控制智能终端显示音量信息并增加对应的音量。
本实施例中,当激活交互控制响应区域后,根据作用于交互控制响应区域的手势操作触发对应的交互控制指令,根据交互控制指令控制智能终端执行相关操作。根据作用于当前交互控制响应区域的手势触发对应的交互控制指令,根据交互控制指令控制智能终端执行相应的操作,利用手势实现对智能终端的控制,不需要额外的工具辅助,进一步提高了对智能终端操作的便利性。
如图2所示,在一个实施例中,交互位置确定方法还包括:
步骤S210,识别目标区域内的人脸图像,并获取人脸图像在智能终端显示屏中的第一位置信息。
其中,目标区域是指智能终端的显示屏前方区域,目标区域的范围大小根据图像采集设备的采集角度来确定。图像采集设备可以为智能终端自带的设备,如智能终端的摄像机等,也可以为通过连接端口接入到智能终端的外置设备。手势图像为源自人身体运动或状态的图像,如人手的姿势和状态等。
具体地,利用图像采集设备采集人脸图像,当用户人脸在采集设备的目标区域范围内时,采集设备自动搜索并拍摄用户的人脸图像,根据采集到的人脸图像中的人脸特征对人脸图像进行识别,并确定人脸图像在智能终端显示屏中的位置。
进一步地,识别人脸图像信息的操作可以在识别手势图像之后或之前,也可与识别手势图像的操作同时执行。
步骤S220,获取识别到的目标区域内的人脸图像尺寸,根据人脸图像尺寸确定当前用户与智能终端显示屏之间的距离。
其中,人脸图像尺寸是指人脸图像在智能终端显示屏中的大小。
具体地,图像采集设备采集人脸图像,并将采集到的人脸图像投影到显示屏中显示,获取当前在目标区域内识别到的人脸图像尺寸,根据图像采集设备的成像原理和人脸图像尺寸计算用户此时距离智能终端显示屏的距离。
例如,根据摄像机成像原理获取当前人脸图像在摄像机中成像的大小并根据摄像机的焦距得到用户距离摄像机的距离,根据摄像机与智能终端显示屏的关系获取用户与智能终端显示屏的距离,如摄像机安装在智能终端显示屏上,则用户距离摄像机的距离即为用户距离智能终端的距离。
步骤S230,获取距离对应的预设距离范围,根据预设距离范围确定交互信息的目标显示尺寸。
其中,预设距离范围为用户到智能终端显示屏的距离范围,预设距离范围可以为多个单独的距离阈值或多个距离范围,各个预设距离范围可以根据需要设置。交互信息是指在智能终端显示屏中显示的用于与用户进行交互的信息,如智能终端中的文字或图片等提示信息,提示信息可以为不能进行操作的显示信息也可以为可操作的信息。智能终端根据交互控制指令执行相应操作后,能够显示智能终端当前状态对应的交互信息。显示尺寸是指交互信息显示的大小。
具体地,预先建立各个预设距离范围对应的信息显示尺寸,如当距离在第一预设距离范围内时,交互信息显示默认尺寸,相对于默认尺寸,当距离大于第一预设距离范围小于第二预设距离范围时,交互信息显示尺寸放大一倍显示,当距离大于第二预设距离范围时,交互信息显示尺寸放大两倍显示,当距离小于第一预设距离范围时,交互信息显示尺寸缩小一倍。交互信息的显示尺寸随着用户的移动可以缩小或放大。
需要说明的是,可以根据需要设置多个预设距离范围以及对应的放大或缩小倍数,预设距离的范围也可以根据需要任意设置。
获取当前用户与智能终端显示屏的距离,判断当前距离对应的预设距离范围区间,根据预设距离范围确定对应的交互信息显示尺寸。
步骤S240,根据第一位置信息确定交互信息的目标显示位置,根据目标显示尺寸在目标显示位置显示交互信息。
具体地,当采集到人脸图像时,获取到人脸图像在智能终端显示屏中的当前位置信息,根据人脸图像的当前位置信息确定交互信息的目标显示位置。如根据人脸图像在智能终端显示屏的当前位置信息,获取人眼对应的位置信息作为目标显示位置,将文字或图片提示信息显示在人脸图像对应的人眼位置处,便于用户查看。
在其他实施例中,若未检测到人脸图像仅检测到激活交互控制响应区域的手势图像,则根据手势图像的当前信息位置确定交互信息的目标显示位置,如将文字或图片提示信息显示在手势图像对应的当前位置,便于用户查看。
进一步地,在其他实施例中,在检测到人脸图像的基础上,可以将人脸图像与手势图像结合确定交互信息的显示位置,如将交互信息显示在人脸图像位置与手势图像位置的中间位置处,便于用户查看与操作。
将交互信息调整为目标显示尺寸对应的尺寸,在目标显示位置将交互信息以目标显示尺寸显示在目标显示位置。
本实施例中,通过识别目标区域内的人脸图像信息,并确定人脸图像对应的位置信息,根据目标区域内的人脸图像尺寸确定用户与显示屏之间的距离,从而确定交互信息的目标显示尺寸,根据人脸图像的位置信息确定交互信息目标显示位置,在目标显示位置以目标显示尺寸显示交互信息。根据用户与智能终端显示屏的距离调节交互信息的显示尺寸,方便用户阅读交互信息,进一步提高了操作的便利性。
在一个实施例中,步骤S240包括:获取目标区域内识别到的人脸图像的数目,当人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息,根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
其中,预设规则可以根据用户的阅读习惯和目标区域内的用户数目确定。
具体地,当在目标区域内识别到多个人脸图像时,获取各个人脸图像对应的位置坐标,将各个位置坐标对应的中间位置确定为目标显示位置,将交互信息显示在目标位置。如在目标区域的左侧和右侧分别识别到一个人脸图像,则在中间位置显示交互信息,方便左右两侧的用户同时查看。需要说明的是,目标显示位置可以根据实际需要设置,不一定为人脸图像的中间位置。
进一步地,也可以将用户的手势信息与人脸图像信息相结合,如检测到多个人脸图像信息,并且检测到手势信息,则将交互信息中的文字提示信息显示在多个人脸图像共同确定的位置,将能够操作的交互信息显示在手势图像对应的位置或将所有的交互信息全部显示在手势图像对应的位置。若检测到多个手势图像,则根据检测到的手势图像的时间顺序确定能够操作的交互信息显示在第一个检测到的手势图像位置。如,两个用户中第一用户首先做出了举手的手势且出现在目标区域范围内,则将交互信息或者交互信息中的能够操作的交互信息显示在第一用户对应的手势图像的对应的位置。
进一步地,当存在多个用户时,以与智能终端显示屏距离最远的用户对应的距离所在的预设距离范围确定交互信息的显示尺寸。
本实施例中,当检测到目标区域内的人脸图像大于一个时,获取各个人脸图像对应的位置信息,根据多个人脸图像位置信息和对应的预设规则确定目标显示位置。结合多个人脸图像位置信息确定目标显示位置信息,方便多个用户查看或操作交互信息,进一步地提高了操作的便利性。
如图3所示,在一个具体地实施例中,以智能终端为智能电视为例,提供一种交互位置确定方法,包括以下内容:
步骤S301,识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息。
步骤S302,获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息。
步骤S303,当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活目标交互控制响应信息对应的目标交互控制响应区域。
步骤S304,根据当前位置信息确定目标交互控制响应区域的目标位置。
步骤S305,检测作用于目标位置的手势操作,根据手势操作触发对应的交互控制指令,根据交互控制指令控制智能终端执行对应的操作,显示对应的交互信息。
步骤S306,识别目标区域内的人脸图像。
步骤S307,判断识别到的人脸图像的数目是否为一个以上,若是,则执行步骤S308,若否,则执行步骤S309。
步骤S308,获取各个人脸图像对应的当前位置信息,根据各个人脸图像的当前位置信息按照预设规则确定交互信息的目标显示位置。
步骤S309,获取人脸图像对应的当前位置信息,根据当前位置信息确定交互信息的目标显示位置。
步骤S310,获取人脸图像对应的人脸图像尺寸,根据人脸图像尺寸确定当前各个用户与智能电视显示屏之间的距离。
具体地,当识别到的人脸图像的数目为一个时,则直接根据当前人脸图像尺寸确定用户与智能电视显示屏之间的距离。若识别到的人脸图像的数目大于一个时,则获取各个人脸图像尺寸获取各个用户与智能电视显示屏之间的距离。
步骤S311,根据各个用户与智能电视显示屏之间的最远距离确定交互信息的目标显示尺寸,根据目标显示尺寸在目标显示位置显示交互信息。
具体地,当识别到的人脸图像的数目为一个时,则直接根据当前人脸图像与智能电视显示屏之间的距离确定交互信息的目标显示尺寸。若识别到的人脸图像的数目大于一个时,则将获取到的各个用户与智能电视显示屏之间的距离中的最远距离、作为目标距离,根据目标距离确定交互信息的显示尺寸。
如图4所示,当在智能终端的当前播放状态检测到手势图像400A时,激活当前智能电视显示屏对应的交互控制响应区域,并对交互显示控制进行界面渲染,在智能电视显示屏显示对应的菜单栏信息界面410。
如图4A所示,当检测到作用于菜单栏界面410的手势触发减少音量指令时,在智能终端显示屏的显示界面显示音量调节信息420并减少音量。进一步地,识别人脸图像,当识别到人脸图像400B和人脸图像400C时,分别确定人脸图像400B和人脸图像400C在显示屏中对应的位置,并确定人脸图像400B和人脸图像400C的中间位置为交互信息目标显示位置,在目标显示位置显示交互信息430。在其他实施例中,交互信息的目标显示位置可以根据需要设置。
本实施例中,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置,通过识别人脸图像确定交互信息显示的位置和尺寸。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,交互信息根据人脸图像的位置发生变化并根据人脸图像的大小确定交互信息的显示尺寸,便于用户查看交互信息,提高了操作的便利性。
如图5所示,在一个实施例中,提供一种交互位置确定***500,包括以下内容:
手势识别模块510,用于识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息;
激活模块520,用于当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活交互控制响应区域;
目标位置确定模块530,用于根据当前位置信息确定交互控制响应区域的目标位置。
本实施例中,提供一种交互位置确定***,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,提高了操作的便利性。
在一个实施例中,激活模块520还用于获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息;根据手势图像激活目标交互控制响应信息对应的目标交互控制响应区域。
如图6所示,在一个实施例中,交互位置确定***还包括:控制模块540,用于检测作用于目标位置的手势操作,根据手势操作触发对应的交互控制指令,根据交互控制指令控制智能终端执行对应的操作。
如图7所示,在一个实施例中,交互位置确定***500还包括:
人脸识别模块550,用于识别目标区域内的人脸图像,并获取人脸图像在智能终端显示屏中的第一位置信息。
处理模块560,用于获取人脸图像对应的人脸图像尺寸,根据人脸图像尺寸确定当前用户与智能终端显示屏之间的距离。
显示尺寸确定模块570,用于获取距离对应的预设距离范围,根据预设距离范围确定交互信息的目标显示尺寸。
显示模块580,用于根据第一位置信息确定交互信息的目标显示位置,根据目标显示尺寸在目标显示位置显示交互信息。
在一个实施例中,人脸识别模块550还用于获取目标区域内识别到的人脸图像的数目,当人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息。
显示模块580,还用于根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
如图8所示,为一个实施例中智能终端的内部结构示意图。该智能终端包括通过***总线连接的处理器、非易失性存储介质、内存储器和网络接口、显示屏和输入装置。其中,智能终端的非易失性存储介质可存储操作***和计算机程序,该计算机程序被执行时,可使得智能终端执行一种交互位置确定方法。该智能终端的处理器用于提供计算和控制能力,支撑整个智能终端的运行。网络接口用于与服务器进行网络通信,如发送识别的手势图像至服务器,获取服务器存储的手势图像数据等。智能终端的显示屏可以是液晶显示屏或者电子墨水显示屏等,输入装置可以是显示屏上覆盖的触摸层,也可以是智能终端外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该智能终端可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的智能终端的限定,具体的智能终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的交互位置确定***可以实现为一种计算机程序的形式,计算机程序可在如图8所示的智能终端上运行,智能终端的非易失性存储介质可存储组成该交互位置确定***的各个程序模块,比如图5中的手势识别模块510、激活模块520、目标位置确定模块530。各个程序模块中包括计算机程序,计算机程序用于使智能终端执行本说明书中描述的本申请各个实施例的交互位置确定方法中的步骤,智能终端中的处理器能够调用智能终端的非易失性存储介质中存储的交互位置确定***的各个程序模块,运行对应的程序,实现本说明书中交互位置确定***的各个模块对应的功能。例如,智能终端可以通过如图5所示的交互位置确定***中的手势识别模块510识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息,通过激活模块520当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活交互控制响应区域,并通过目标位置确定模块530根据当前位置信息确定交互控制响应区域的目标位置。
一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息;当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活交互控制响应区域;根据当前位置信息确定交互控制响应区域的目标位置。
本实施例中,提供一种计算机可读存储介质,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,提高了操作的便利性。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息;根据手势图像激活目标交互控制响应信息对应的目标交互控制响应区域。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:检测作用于目标位置的手势操作,根据手势操作触发对应的交互控制指令;根据交互控制指令控制智能终端执行对应的操作。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:识别目标区域内的人脸图像,并获取人脸图像在智能终端显示屏中的第一位置信息;获取人脸图像对应的人脸图像尺寸;根据人脸图像尺寸确定当前用户与智能终端显示屏之间的距离;获取距离对应的预设距离范围,根据预设距离范围确定交互信息的目标显示尺寸;根据第一位置信息确定交互信息的目标显示位置,根据目标显示尺寸在目标显示位置显示交互信息。
在一个实施例中,计算机程序被处理器执行时,还使得处理器执行以下步骤:获取目标区域内识别到的人脸图像的数目;当人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
一种智能终端,包括一个或多个处理器,存储器以及一个或多个程序,其中,一个或多个程序被存储在存储器中并且被配置成由一个或多个处理器执行,程序用于执行以下步骤:识别目标区域内的手势图像,并获取手势图像在智能终端显示屏中对应的当前位置信息;当检测到手势图像对应的手势为预设激活手势时,根据手势图像激活交互控制响应区域;根据当前位置信息确定交互控制响应区域的目标位置。
本实施例中,提供一种智能终端,通过识别目标区域内的手势图像激活交互控制响应区域,并根据手势图像的当前位置信息确定交互控制响应区域对应的目标位置。交互控制响应区域对应的目标位置根据识别到的手势图像在智能终端显示屏中的当前位置确定,随着手势图像当前位置的变化,交互控制响应区域的目标位置发生相应变化,便于用户对交互控制响应区域进行操作,提高了操作的便利性。
在一个实施例中,一个或多个程序被存储在存储器中并且被配置成由一个或多个处理器执行,程序还用于执行以下步骤:获取智能终端对应的当前状态信息,根据当前状态信息确定对应的功能信息,根据功能信息生成对应的目标交互控制响应信息;根据手势图像激活目标交互控制响应信息对应的目标交互控制响应区域。
在一个实施例中,一个或多个程序被存储在存储器中并且被配置成由一个或多个处理器执行,程序还用于执行以下步骤:检测作用于目标位置的手势操作,根据手势操作触发对应的交互控制指令;根据交互控制指令控制智能终端执行对应的操作。
在一个实施例中,一个或多个程序被存储在存储器中并且被配置成由一个或多个处理器执行,程序还用于执行以下步骤:识别目标区域内的人脸图像,并获取人脸图像在智能终端显示屏中的第一位置信息;获取人脸图像对应的人脸图像尺寸;根据人脸图像尺寸确定当前用户与智能终端显示屏之间的距离;获取距离对应的预设距离范围,根据预设距离范围确定交互信息的目标显示尺寸;根据第一位置信息确定交互信息的目标显示位置,根据目标显示尺寸在目标显示位置显示交互信息。
在一个实施例中,一个或多个程序被存储在存储器中并且被配置成由一个或多个处理器执行,程序还用于执行以下步骤:获取目标区域内识别到的人脸图像的数目;当人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种交互位置确定方法,所述方法包括:
识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;其中,所述目标区域是指所述智能终端的显示屏前方区域,所述当前位置信息是指图像采集设备当前时刻采集到的手势图像映射到显示屏中的位置信息;
当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;其中,所述交互控制响应区域是指能够接收用户操作并根据所述用户操作触发对应指令的区域;
根据所述当前位置信息确定所述交互控制响应区域的目标位置;其中,所述目标位置随所述当前位置信息的变化而变化;
检测作用于所述目标位置的手势操作,根据所述手势操作触发对应的交互控制指令;根据所述交互控制指令控制所述智能终端执行对应的操作。
2.根据权利要求1所述的方法,其特征在于,所述根据所述手势图像激活交互控制响应区域的步骤包括:
获取所述智能终端对应的当前状态信息,根据所述当前状态信息确定对应的功能信息,根据所述功能信息生成对应的目标交互控制响应信息;
根据所述手势图像激活所述目标交互控制响应信息对应的目标交互控制响应区域。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
识别目标区域内的人脸图像,并获取所述人脸图像在所述智能终端显示屏中的第一位置信息;
获取所述人脸图像对应的人脸图像尺寸;
根据所述人脸图像尺寸确定当前用户与所述智能终端显示屏之间的距离;
获取所述距离对应的预设距离范围,根据所述预设距离范围确定交互信息的目标显示尺寸;
根据所述第一位置信息确定所述交互信息的目标显示位置,根据所述目标显示尺寸在所述目标显示位置显示所述交互信息。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一位置信息确定所述交互信息的目标显示位置的步骤,包括:
获取目标区域内识别到的人脸图像的数目;
当所述人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;
根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
5.一种交互位置确定***,其特征在于,所述***包括:
手势识别模块,用于识别目标区域内的手势图像,并获取所述手势图像在智能终端显示屏中对应的当前位置信息;其中,所述目标区域是指所述智能终端的显示屏前方区域,所述当前位置信息是指图像采集设备当前时刻采集到的手势图像映射到显示屏中的位置信息;
激活模块,用于当检测到所述手势图像对应的手势为预设激活手势时,根据所述手势图像激活交互控制响应区域;其中,所述交互控制响应区域是指能够接收用户操作并根据所述用户操作触发对应指令的区域;
目标位置确定模块,用于根据所述当前位置信息确定所述交互控制响应区域的目标位置;其中,所述目标位置随所述当前位置信息的变化而变化;
控制模块,用于检测作用于所述目标位置的手势操作,根据所述手势操作触发对应的交互控制指令,根据所述交互控制指令控制所述智能终端执行对应的操作。
6.根据权利要求5所述的***,其特征在于,所述激活模块还用于获取所述智能终端对应的当前状态信息,根据所述当前状态信息确定对应的功能信息,根据所述功能信息生成对应的目标交互控制响应信息;根据所述手势图像激活所述目标交互控制响应信息对应的目标交互控制响应区域。
7.根据权利要求5所述的***,其特征在于,所述***还包括:
人脸识别模块,用于识别目标区域内的人脸图像,并获取所述人脸图像在所述智能终端显示屏中的第一位置信息;
处理模块,用于获取所述人脸图像对应的人脸图像尺寸,根据所述人脸图像尺寸确定当前用户与所述智能终端显示屏之间的距离;
显示尺寸确定模块,用于获取所述距离对应的预设距离范围,根据所述预设距离范围确定交互信息的目标显示尺寸;
显示模块,用于根据所述第一位置信息确定所述交互信息的目标显示位置,根据所述目标显示尺寸在所述目标显示位置显示所述交互信息。
8.根据权利要求7所述的***,其特征在于,所述人脸识别模块,还用于获取目标区域内识别到的人脸图像的数目,当所述人脸图像的数目为一个以上时,获取各个人脸图像对应的当前位置信息;
所述显示模块,还用于根据各个人脸图像的当前位置信息按照预设规则确定目标显示位置。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至4中任一项所述方法的步骤。
10.一种智能终端,其特征在于,包括一个或多个处理器,存储器以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中并且被配置成由所述一个或多个处理器执行,所述程序用于执行权利要求1至4任一项所述方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710691663.6A CN107493495B (zh) | 2017-08-14 | 2017-08-14 | 交互位置确定方法、***、存储介质和智能终端 |
JP2020508377A JP2020530631A (ja) | 2017-08-14 | 2018-08-07 | インタラクション位置決定方法、システム、記憶媒体、およびスマートデバイス |
PCT/CN2018/099219 WO2019033957A1 (zh) | 2017-08-14 | 2018-08-07 | 交互位置确定方法、***、存储介质和智能终端 |
US16/791,737 US11163426B2 (en) | 2017-08-14 | 2020-02-14 | Interaction position determination method and system, storage medium and smart terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710691663.6A CN107493495B (zh) | 2017-08-14 | 2017-08-14 | 交互位置确定方法、***、存储介质和智能终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107493495A CN107493495A (zh) | 2017-12-19 |
CN107493495B true CN107493495B (zh) | 2019-12-13 |
Family
ID=60645282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710691663.6A Active CN107493495B (zh) | 2017-08-14 | 2017-08-14 | 交互位置确定方法、***、存储介质和智能终端 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11163426B2 (zh) |
JP (1) | JP2020530631A (zh) |
CN (1) | CN107493495B (zh) |
WO (1) | WO2019033957A1 (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、***、存储介质和智能终端 |
CN112965654A (zh) * | 2018-02-27 | 2021-06-15 | 口碑(上海)信息技术有限公司 | 手势识别反馈方法及装置 |
CN110109364A (zh) * | 2019-03-25 | 2019-08-09 | 深圳绿米联创科技有限公司 | 设备控制方法、装置、摄像机以及存储介质 |
CN110197171A (zh) * | 2019-06-06 | 2019-09-03 | 深圳市汇顶科技股份有限公司 | 基于用户的动作信息的交互方法、装置和电子设备 |
CN110582014A (zh) * | 2019-10-17 | 2019-12-17 | 深圳创维-Rgb电子有限公司 | 电视机及其电视控制方法、控制装置和可读存储介质 |
CN111080537B (zh) * | 2019-11-25 | 2023-09-12 | 厦门大学 | 水下机器人智能控制方法、介质、设备及*** |
CN112882563A (zh) * | 2019-11-29 | 2021-06-01 | 中强光电股份有限公司 | 触控投影***与其方法 |
CN111142655A (zh) * | 2019-12-10 | 2020-05-12 | 上海博泰悦臻电子设备制造有限公司 | 交互方法、终端及计算机可读存储介质 |
CN113448427B (zh) | 2020-03-24 | 2023-09-12 | 华为技术有限公司 | 设备控制方法、装置及*** |
CN111538420B (zh) * | 2020-04-22 | 2023-09-29 | 掌阅科技股份有限公司 | 电子书页面的显示方法、电子设备及计算机存储介质 |
CN111645701B (zh) * | 2020-04-30 | 2022-12-06 | 长城汽车股份有限公司 | 一种车辆控制方法、装置及*** |
CN112068698A (zh) * | 2020-08-31 | 2020-12-11 | 北京市商汤科技开发有限公司 | 一种交互方法、装置及电子设备、计算机存储介质 |
CN112351325B (zh) * | 2020-11-06 | 2023-07-25 | 惠州视维新技术有限公司 | 基于手势的显示终端控制方法、终端和可读存储介质 |
CN112363621B (zh) * | 2020-11-13 | 2024-05-14 | 北京达佳互联信息技术有限公司 | 一种终端控制方法、装置、电子设备及存储介质 |
CN115210781A (zh) * | 2021-01-26 | 2022-10-18 | 京东方科技集团股份有限公司 | 控制方法、电子设备及存储介质 |
JP7484756B2 (ja) | 2021-02-05 | 2024-05-16 | 株式会社デンソー | 表示システム |
CN113010018B (zh) * | 2021-04-20 | 2022-09-20 | 歌尔股份有限公司 | 交互控制方法、终端设备及存储介质 |
CN115379001B (zh) * | 2021-05-06 | 2023-11-17 | 云米互联科技(广东)有限公司 | 智能设备位置的展示控制方法及装置 |
CN113208373A (zh) * | 2021-05-20 | 2021-08-06 | 厦门希烨科技有限公司 | 一种智能化妆镜的控制方法和智能化妆镜 |
CN113253847B (zh) * | 2021-06-08 | 2024-04-30 | 北京字节跳动网络技术有限公司 | 终端的控制方法、装置、终端和存储介质 |
CN113622911A (zh) * | 2021-08-06 | 2021-11-09 | 北斗天地股份有限公司 | 掘进机控制方法及***、可移动智能终端和掘进机 |
CN113419665B (zh) * | 2021-08-25 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 一种应用显示方法、相关装置及设备 |
CN113696904B (zh) * | 2021-08-27 | 2024-03-05 | 上海仙塔智能科技有限公司 | 基于手势控制车辆的处理方法、装置、设备与介质 |
CN113747078B (zh) * | 2021-09-18 | 2023-08-18 | 海信视像科技股份有限公司 | 显示设备及焦距控制方法 |
CN116974435A (zh) * | 2022-04-24 | 2023-10-31 | 中兴通讯股份有限公司 | 操作界面的生成方法、控制方法和装置 |
CN115202530B (zh) * | 2022-05-26 | 2024-04-09 | 当趣网络科技(杭州)有限公司 | 一种用户界面的手势交互方法和*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101030321A (zh) * | 2006-03-01 | 2007-09-05 | 松下电器产业株式会社 | 遥控器、影像设备、遥控方法及*** |
CN101437124A (zh) * | 2008-12-17 | 2009-05-20 | 三星电子(中国)研发中心 | 面向电视控制的动态手势识别信号处理方法 |
CN102184014A (zh) * | 2011-05-12 | 2011-09-14 | 浙江大学 | 基于移动设备指向的智能家电交互控制方法及装置 |
CN102508655A (zh) * | 2011-10-12 | 2012-06-20 | 宇龙计算机通信科技(深圳)有限公司 | 桌面图标展示方法及*** |
CN102831404A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势检测方法及*** |
CN106547468A (zh) * | 2016-11-09 | 2017-03-29 | 珠海格力电器股份有限公司 | 显示控制方法、显示控制装置及终端 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3847753B2 (ja) * | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20110032274A1 (en) * | 2008-04-10 | 2011-02-10 | Pioneer Corporation | Screen display system and screen display program |
JP2009265709A (ja) * | 2008-04-22 | 2009-11-12 | Hitachi Ltd | 入力装置 |
WO2010087796A1 (en) * | 2009-01-30 | 2010-08-05 | Thomson Licensing | Method for controlling and requesting information from displaying multimedia |
US8773355B2 (en) * | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
KR20110003146A (ko) * | 2009-07-03 | 2011-01-11 | 한국전자통신연구원 | 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법 |
JP5659510B2 (ja) * | 2010-03-10 | 2015-01-28 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2012058838A (ja) * | 2010-09-06 | 2012-03-22 | Sony Corp | 画像処理装置、プログラム及び画像処理方法 |
JP5957893B2 (ja) * | 2012-01-13 | 2016-07-27 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
KR102035134B1 (ko) * | 2012-09-24 | 2019-10-22 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
US9671874B2 (en) * | 2012-11-08 | 2017-06-06 | Cuesta Technology Holdings, Llc | Systems and methods for extensions to alternative control of touch-based devices |
CN108255300B (zh) * | 2014-03-12 | 2023-03-21 | 联想(北京)有限公司 | 一种电子设备的控制方法和装置 |
JP6439398B2 (ja) * | 2014-11-13 | 2018-12-19 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
US9830073B2 (en) * | 2014-12-12 | 2017-11-28 | Alpine Electronics, Inc. | Gesture assistive zoomable selector for screen |
CN106896907A (zh) * | 2015-12-21 | 2017-06-27 | 东莞酷派软件技术有限公司 | 一种根据用户手势操作终端的方法及装置 |
EP3267289B1 (en) * | 2016-07-05 | 2019-02-27 | Ricoh Company, Ltd. | Information processing apparatus, position information generation method, and information processing system |
CN107493495B (zh) * | 2017-08-14 | 2019-12-13 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、***、存储介质和智能终端 |
-
2017
- 2017-08-14 CN CN201710691663.6A patent/CN107493495B/zh active Active
-
2018
- 2018-08-07 WO PCT/CN2018/099219 patent/WO2019033957A1/zh active Application Filing
- 2018-08-07 JP JP2020508377A patent/JP2020530631A/ja active Pending
-
2020
- 2020-02-14 US US16/791,737 patent/US11163426B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101030321A (zh) * | 2006-03-01 | 2007-09-05 | 松下电器产业株式会社 | 遥控器、影像设备、遥控方法及*** |
CN101437124A (zh) * | 2008-12-17 | 2009-05-20 | 三星电子(中国)研发中心 | 面向电视控制的动态手势识别信号处理方法 |
CN102184014A (zh) * | 2011-05-12 | 2011-09-14 | 浙江大学 | 基于移动设备指向的智能家电交互控制方法及装置 |
CN102508655A (zh) * | 2011-10-12 | 2012-06-20 | 宇龙计算机通信科技(深圳)有限公司 | 桌面图标展示方法及*** |
CN102831404A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势检测方法及*** |
CN106547468A (zh) * | 2016-11-09 | 2017-03-29 | 珠海格力电器股份有限公司 | 显示控制方法、显示控制装置及终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2019033957A1 (zh) | 2019-02-21 |
CN107493495A (zh) | 2017-12-19 |
JP2020530631A (ja) | 2020-10-22 |
US20200183556A1 (en) | 2020-06-11 |
US11163426B2 (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107493495B (zh) | 交互位置确定方法、***、存储介质和智能终端 | |
US10761722B2 (en) | Black screen gesture detection method and device, storage medium, and mobile terminal | |
EP3661187A1 (en) | Photography method and mobile terminal | |
CN111182205B (zh) | 拍摄方法、电子设备及介质 | |
EP3454197A1 (en) | Method, device, and non-transitory computer-readable storage medium for switching pages of applications in a terminal device | |
CN109428969B (zh) | 双屏终端的边缘触控方法、装置及计算机可读存储介质 | |
US20150143283A1 (en) | Information processing device, display control method, and program | |
US20130088429A1 (en) | Apparatus and method for recognizing user input | |
CN104142798A (zh) | 启动应用程序的方法及触摸屏智能终端设备 | |
EP3299946B1 (en) | Method and device for switching environment picture | |
CN109086366B (zh) | 浏览器中的推荐新闻显示方法、装置、设备及存储介质 | |
US9509733B2 (en) | Program, communication apparatus and control method | |
CN107172347B (zh) | 一种拍照方法及终端 | |
CN111459363B (zh) | 信息展示方法、装置、设备及存储介质 | |
CN113253908B (zh) | 按键功能执行方法、装置、设备及存储介质 | |
EP2887648A1 (en) | Method of performing previewing and electronic device for implementing the same | |
CN108958587B (zh) | 分屏处理方法、装置、存储介质和电子设备 | |
US9350918B1 (en) | Gesture control for managing an image view display | |
US20200257396A1 (en) | Electronic device and control method therefor | |
JP5080409B2 (ja) | 情報端末装置 | |
CN113873159A (zh) | 图像处理方法、装置及电子设备 | |
CN113360048A (zh) | 一种快捷启动方法及设备 | |
CN114079729A (zh) | 拍摄控制方法、装置、电子设备及存储介质 | |
CN113110770B (zh) | 一种控制方法及装置 | |
JP7455651B2 (ja) | 電子機器及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |