CN108345387A - 用于输出信息的方法和装置 - Google Patents
用于输出信息的方法和装置 Download PDFInfo
- Publication number
- CN108345387A CN108345387A CN201810209048.1A CN201810209048A CN108345387A CN 108345387 A CN108345387 A CN 108345387A CN 201810209048 A CN201810209048 A CN 201810209048A CN 108345387 A CN108345387 A CN 108345387A
- Authority
- CN
- China
- Prior art keywords
- gesture
- type
- image
- target image
- mentioned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了用于输出信息的方法和装置。上述方法的一具体实施方式包括:获取包含手势的目标图像;提取上述手势的特征点;根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型,上述手势识别模型用于表征特征点与手势类型的对应关系;响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。该实施方式增强了人的参与感,丰富了人机交互方式。
Description
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于输出信息的方法和装置。
背景技术
随着互联网技术的发展,基于终端的娱乐活动不断增多。随着增强现实(Augmented Reality,AR)的出现,可以融合现实中的事物与虚拟环境,从而增加了人机互动的趣味性。目前的融合场景中,多依赖环境中固定的事物,人的参与感较弱。
发明内容
本申请实施例提出了用于输出信息的方法和装置。
第一方面,本申请实施例提供了一种用于输出信息的方法,包括:获取包含手势的目标图像;提取上述手势的特征点;根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型,上述手势识别模型用于表征特征点与手势类型的对应关系;响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。
在一些实施例中,上述获取包含手势的目标图像,包括:获取包含手势的视频流;将上述视频流中的多帧图像作为上述目标图像。
在一些实施例中,上述方法还包括:响应于确定上述手势类型与控制命令的对应关系列表不包括上述手势的手势类型,检测上述目标图像中是否存在至少两帧图像所包含的手势一致;响应于确定上述目标图像中存在至少两帧图像所包含的手势一致,确定上述手势在上述至少两帧图像中的位置;根据上述至少两帧图像在上述视频流中的位置以及上述手势在上述至少两帧图像中的位置,确定上述手势所形成的动作;根据预设的动作与控制命令的对应关系,确定以及输出与上述手势所形成的动作对应的控制命令。
在一些实施例中,上述获取包含手势的目标图像,包括:从上述视频流中选取一帧图像作为待检测图像;基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;响应于确定待检测图像的对比度不满足预设条件,从上述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行上述图像确定步骤。
在一些实施例中,上述获取包含手势的目标图像,包括:响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;响应于接收到上述手势识别模型,获取包含手势的目标图像。
在一些实施例中,上述手势识别模型由深度学习模型训练得到;以及上述方法还包括手势识别模型的训练步骤:获取预置的训练样本集合,上述训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像;提取上述训练样本中手势的特征点;将上述训练样本中手势的特征点输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;基于上述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使上述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
在一些实施例中,上述预先建立的手势识别模型包括多种预设手势的特征点模型,上述特征点模型是采用深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点提取后生成的;以及上述根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型,包括:确定所提取的特征点与上述多种预设手势的特征点模型之间的匹配度;将匹配度最高的特征点模型所属的预设手势的手势类型作为上述目标图像所包含的手势的手势类型。
第二方面,本申请实施例提供了一种用于输出信息的装置,包括:目标图像获取单元,用于获取包含手势的目标图像;特征点提取单元,用于提取上述手势的特征点;手势类型确定单元,用于根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型,上述手势识别模型用于表征特征点与手势类型的对应关系;控制命令输出单元,用于响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。
在一些实施例中,上述目标图像获取单元进一步用于:获取包含手势的视频流;将上述视频流中的多帧图像作为上述目标图像。
在一些实施例中,上述装置还包括:手势检测单元,用于响应于确定上述手势类型与控制命令的对应关系列表不包括上述手势的手势类型,检测上述目标图像中是否存在至少两帧图像所包含的手势一致;位置确定单元,用于响应于确定上述目标图像中存在至少两帧图像所包含的手势一致,确定上述手势在上述至少两帧图像中的位置;动作确定单元,用于根据上述至少两帧图像在上述视频流中的位置以及上述手势在上述至少两帧图像中的位置,确定上述手势所形成的动作;第二控制命令输出单元,用于根据预设的动作与控制命令的对应关系,确定以及输出与上述手势所形成的动作对应的控制命令。
在一些实施例中,上述目标图像获取单元进一步用于:从上述视频流中选取一帧图像作为待检测图像;基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;响应于确定待检测图像的对比度不满足预设条件,从上述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行上述图像确定步骤。
在一些实施例中,上述目标图像获取单元进一步用于:响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;响应于接收到上述手势识别模型,获取包含手势的目标图像。
在一些实施例中,上述手势识别模型由深度学习模型训练得到;以及上述装置还包括模型训练单元,用于:获取预置的训练样本集合,上述训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像;提取上述训练样本中手势的特征点;将上述训练样本中手势的特征点输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;基于上述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使上述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
在一些实施例中,上述预先建立的手势识别模型包括多种预设手势的特征点模型,上述特征点模型是采用深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点提取后生成的;以及上述手势类型确定单元进一步用于:确定所提取的特征点与上述多种预设手势的特征点模型之间的匹配度;将匹配度最高的特征点模型所属的预设手势的手势类型作为上述目标图像所包含的手势的手势类型。
第三方面,本申请实施例提供了一种终端,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现上述任一实施例所描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一实施例所描述的方法。
本申请的上述实施例提供的用于输出信息的方法和装置,首先获取包含手势的目标图像,然后提取上述手势的特征点,然后根据所提取的特征点以及预先建立的手势识别模型,确定手势的手势类型,结合预设的手势类型与控制命令的对应关系,确定以及输出与上述手势的手势类型对应的控制命令。本实施例的方法,可以通过识别人的手势确定控制命令,增强了人的参与感,丰富了人机交互方式。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构图;
图2是根据本申请的用于输出信息的方法的一个实施例的流程图;
图3是根据本申请的用于输出信息的方法的一个应用场景的示意图;
图4是根据本申请的用于输出信息的方法的又一个实施例的流程图;
图5是根据本申请的用于输出信息的方法中训练手势识别模型中训练样本集合的示意图;
图6是根据本申请的用于输出信息的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的终端设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于输出信息的方法或用于输出信息的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如相机类应用、游戏类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,其可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,其可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块,本实施例对此不做限定在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上处理的图像提供支持的后台服务器。后台服务器可以向终端设备101、102、103发送处理模型,以使终端设备101、102、103处理图像。
需要说明的是,本申请实施例所提供的用于输出信息的方法一般由终端设备101、102、103执行,相应地,用于输出信息的装置一般设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于输出信息的方法的一个实施例的流程200。本实施例的用于输出信息的方法,包括以下步骤:
步骤201,获取包含手势的目标图像。
在本实施例中,用于输出信息的方法的执行主体(例如图1所示的终端设备)可以通过各种方式获取目标图像。例如可以通过与其通信连接的图像拍摄软件中获取,也可以获取存储在本地的目标图像,还可以通过其中安装的社交软件获取目标图像,还可以从视频流中获取目标图像。上述目标图像为包含手势图像的图像。本实施例中,上述执行主体在获取目标图像时,可以获取一张目标图像,也可以获取多张目标图像。
步骤202,提取上述手势的特征点。
执行主体在获取到目标图像后,可以提取目标图像中手势的特征点。特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点,图像特征点能够反映图像本质特征,能够标识图像中目标物体。本实施例中,通过手势的特征点来区分不同的手势。在提取手势的特征点时,可以采用任何已知的方法提取,本实施例不再列举。
步骤203,根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型。
本实施例中,在提取了手势的特征点后,可以将提取的特征点输入预先建立的手势识别模型,得到上述手势的手势类型。上述手势类型可以用于表征不同的手势,例如手势类型可以包括手心向上平摊的手掌、手心向下平摊的手掌、食指与拇指接触其余三指分开形成的“OK”形等等。上述手势识别模型可以用于表征特征点与手势类型的对应关系,其可以由深度学习算法训练实现,也可以由预设的特征点与手势类型的对应关系列表实现。
步骤204,响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。
本实施例中,可以在列表中预先设定不同的手势与不同的控制命令的对应关系,在确定了目标图像中手势的手势类型后,可以根据上述列表确定对应的控制命令,然后将上述控制命令输出。举例来说,在AR场景中,当用户摊开手掌向上时,对应的控制命令可以为改变场景中的表情。
继续参见图3,图3是根据本实施例的用于输出信息的方法的应用场景的一个示意图。在图3的应用场景中,终端中安装的照相机软件检测到包含手势“比心”30的目标图像后,会在AR场景中显示与该手势30对应的符号31。
本申请的上述实施例提供的用于输出信息的方法,首先获取包含手势的目标图像,然后提取上述手势的特征点,然后根据所提取的特征点以及预先建立的手势识别模型,确定手势的手势类型,结合预设的手势类型与控制命令的对应关系列表,确定以及输出与上述手势的手势类型对应的控制命令。本实施例的方法,可以通过识别人的手势确定控制命令,增强了人的参与感,丰富了人机交互方式。
在本实施例的一些可选的实现方式中,目标图像可以包括多张,则步骤201具体可以由图2中未示出的以下步骤来实现:获取包含手势的视频流;将上述视频流中的多帧图像作为目标图像。
本实现方式中,执行主体可以首先获取包含手势的视频流,然后在上述视频流中选取多帧图像作为目标图像。
在本实施例的一些可选的实现方式中,用于输出信息的方法的执行主体为终端,其可以检测用户对终端的控制请求操作,该控制请求操作用于表征用户需要通过手势来生成控制命令。则步骤201还可以包括图2中未示出的以下步骤:响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;响应于接收到手势识别模型,获取包含手势的目标图像。
本实现方式中,手势识别模型可能所占用的内存容量较大,为了不影响终端的运行速度,上述模型可以存储在服务端。只有终端在检测到用户的控制请求操作时,才会向服务端发送手势识别模型获取请求。服务端在接收到上述手势识别模型获取请求后,可以将手势识别模型发送给终端。终端在接收到手势识别模型后,再通过终端中安装的照相机应用或者通过其它方式获取包含手势的目标图像。通过该实现方式,可以有效地提高终端的运行速度。
在本实施例的一些可选的实现方式中,为了进一步提高终端的处理速度,在获取目标图像时,还可以对目标图像的分辨率进行处理,将目标图像的分辨率控制在预设范围内。例如可以控制目标图像的分辨率低于100*100。
在本实施例的一些可选的实现方式中,可以设定目标对象的对比度满足预设条件,以方便提取手势的特征点,则步骤201具体还可以由图2中未示出的以下步骤来实现:从上述视频流中选取一帧图像作为待检测图像;基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;响应于确定待检测图像的对比度不满足预设条件,从上述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行图像确定步骤。
本实现方式中,可以首先从上述视频流中选取一帧图像作为待检测图像,然后基于上述待检测图像,执行图像确定步骤。上述图像确定步骤可以包括:检测待检测图像的对比度是否满足预设条件,如果待检测图像的对比度满足预设条件,则将待检测图像作为目标图像;如果待检测图像的对比度不满足预设条件,则从上述视频流中选取未被选取的一帧图像作为新的待检测图像,返回执行图像确定步骤。通过本实现方式可以保证目标图像中手势清晰,从而易于提取其特征点。
在本实施例的一些可选的实现方式中,上述手势识别模型由深度学习模型训练得到,则上述方法还可以包括手势识别模型的训练步骤:获取预置的训练样本集合;提取训练样本中手势的特征点以及确定手势的手势类型;将所述训练样本中手势的特征点输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;基于上述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使上述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
其中,训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像,即训练样本集合可以包括多个训练样本组,每个训练样本组中的图像包含同一手势在不同拍摄角度的图像。也就是说,每个训练样本为包括一种手势一种拍摄角度的图像。为了使得手势识别模型能够更准确的识别手势,一个训练样本组中包括的同一手势的角度可以尽量多。图4示出了训练样本的示意图,其中包括“手掌”这一手势在九种不同拍摄角度的图像,上述九种图像包括手势在同一平面的不同角度的图像以及上述手势在空间的不同角度的图像。
在获取了上述训练样本集合后,可以提取各训练样本中手势的特征点,然后将手势的特征点作为深度学习模型的输入,得到深度学习模型对上述特征点所对应的手势类型的预测结果,然后根据上述预测结果与该特征点所对应的已标记的手势类型之间的差异,来调整上述深度学习模型的参数,以使得调整后的深度学习模型对上述特征点所对应的手势类型的预测结果与已标记的手势类型之间的差异满足预设的收敛条件。上述收敛条件例如可以包括误差小于阈值等等。
本实现方式中,上述深度学习模型可以基于卷积神经网络算法、无监督学习算法、循环神经网络算法、玻尔兹曼机算法中的任意一种构建得到。
在本实施例的一些可选的实现方式中,上述预先建立的手势识别模型包括多个预设手势的特征点模型,上述特征点模型由深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点进行提取后生成的(图4所示的图像也可以应用于本实现方式中)。即,对于一种预设手势,深度学习算法可以首先提取该手势在不同拍摄角度的各样本图像中手势的特征点,然后对所提取的不同角度的特征点进行重构,得到包括该种手势的特征点模型。可以理解的是,该种手势的特征点模型包括该种手势在不同角度的特征点。本实现方式的特征点模型中可以是一个,也可以是多个。另外,本实现方式的特征点模型可以包括同一手势类型的一种预设手势或多种预设手势。
进一步的步骤203具体可以通过图2中未示出的以下步骤来实现:确定所提取的特征点与各预设手势的特征点模型之间的匹配度;将匹配度最高的特征点模型所属的预设手势的手势类型作为目标图像所包含的手势的手势类型。
本实现方式中,在提取到目标图像中手势的特征点之后,可以将目标图像中手势的特征点与上述特征点模型进行比较,以计算二者的匹配度,并认定匹配度最高的特征点模型中包括的预设手势的手势类型与目标图像中手势的手势类型相同,因此将匹配度最高的特征点模型所属的手势的手势类型作为目标图像所包含的手势的手势类型。在另一些实现方式中,还可以将所提取的特征点与预设的手势的特征点之间的各匹配度输出,以供用户选择目标图像中手势所属的手势。
继续参见图5,其示出了根据本申请的用于输出信息的方法中基于动作输出控制命令的实施例的流程500。如图5所示,本实施例的用于输出信息的方法在确定了来自视频流的各目标图像中包含的手势的手势类型后,还可以包括以下步骤:
步骤501,响应于确定上述手势类型与控制命令的对应关系列表不包括上述手势的手势类型,检测目标图像中是否存在至少两帧图像所包含的手势一致。
用于输出信息的方法的执行主体在确定了手势类型与控制命令的对应关系列表中不包括目标图像中包括的各手势后,可以检测目标图像中是否包括至少两帧图像所包含的手势一致。
步骤502,响应于确定目标图像中存在至少两帧图像所包含的手势一致,确定上述手势在上述至少两帧图像中的位置。
在确定了目标图像中存在至少两帧图像所包含的手势一致,则说明视频流中可能存在由手势形成的动作。可以首先确定上述手势在上述至少两帧图像中的位置,然后确定上述手势形成的动作。本实施例中,上述位置可以包括但不限于手势的大小、手势中心点的位置、手势与手臂所在的直线与图像在竖直方向的对称轴/水平方向的对称轴所成的夹角。
步骤503,根据上述至少两帧图像在视频流中的位置以及上述手势在上述至少两帧图像中的位置,确定上述手势所形成的动作。
根据上述至少两帧包含同一手势类型的手势的图像在视频流中的位置,可以确定上述至少两帧图像的拍摄时刻。根据手势在上述至少两帧图像中的位置,可以确定手势的变化情况。两者结合可以得到上述手势形成的动作。举例来说,目标图像中存在两帧图像均包含手势—手掌平摊向上,其中一个位于图像的上方,另一个位于图像的下方,则两者所形成的动作可以是由上方移动到下方,也可以是由下方移动到上方。结合上述两帧图像在视频流中的位置,可以确定两帧图像中拍摄时刻较早的图像,该图像中的手势的位置即为动作的起始位置,从而能够准确的确定手势所形成的动作。
步骤504,根据预设的动作与控制命令的对应关系,确定以及输出与上述手势所形成的动作对应的控制命令。
本实施例中,可以预先设定动作与控制命令的对应关系,在确定了上述手势所形成的动作后,可以结合上述对应关系,确定上述动作所对应的控制命令,然后将上述控制命令输出。
本申请的上述实施例提供的用于输出信息的方法,可以检测目标图像中包含的手势所形成的动作,进而可以确定上述动作对应的控制命令,进一步丰富了人机交互方式。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于输出信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于输出信息的装置600包括:目标图像获取单元601、特征点提取单元602、手势类型确定单元603以及控制命令输出单元604。
其中,目标图像获取单元601,用于获取包含手势的目标图像。
特征点提取单元602,用于提取上述手势的特征点。
手势类型确定单元603,用于根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型。上述手势识别模型用于表征特征点与手势类型的对应关系。
控制命令输出单元604,用于响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。
在本实施例的一些可选的实现方式中,上述目标图像获取单元601进一步用于:获取包含手势的视频流;将上述视频流中的多帧图像作为目标图像。
在本实施例的一些可选的实现方式中,上述装置600还可以包括图6中未示出的手势检测单元、位置确定单元、动作确定单元以及第二控制命令输出单元。
其中,手势检测单元,用于响应于确定手势类型与控制命令的对应关系列表不包括上述手势的手势类型,检测目标图像中是否存在至少两帧图像所包含的手势一致。
位置确定单元,用于响应于确定目标图像中存在至少两帧图像所包含的手势一致,确定上述手势在上述至少两帧图像中的位置。
动作确定单元,用于根据上述至少两帧图像在视频流中的位置以及上述手势在上述至少两帧图像中的位置,确定上述手势所形成的动作。
第二控制命令输出单元,用于根据预设的动作与控制命令的对应关系,确定以及输出与上述手势所形成的动作对应的控制命令。
在本实施例的一些可选的实现方式中,上述目标图像获取单元601还可以进一步用于:从视频流中选取一帧图像作为待检测图像;基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;响应于确定待检测图像的对比度不满足预设条件,从上述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行图像确定步骤。
在本实施例的一些可选的实现方式中,上述目标图像获取单元601还可以进一步用于:响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;响应于接收到手势识别模型,获取包含手势的目标图像。
在本实施例的一些可选的实现方式中,手势识别模型由深度学习模型训练得到,则上述装置600还可以包括图6中未示出的模型训练单元,用于:获取预置的训练样本集合,所述训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像;提取所述训练样本中手势的特征点;将所述训练样本中手势的特征点输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;基于所述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使所述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
在本实施例的一些可选的实现方式中,上述预先建立的手势识别模型包括多个预设手势的特征点模型,所述特征点模型是采用深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点提取后生成的,则上述手势类型确定单元603可以进一步用于:确定所提取的特征点与各预设手势的特征点模型之间的匹配度;将匹配度最高的特征点模型所属的预设手势的手势类型作为目标图像所包含的手势的手势类型。
本申请的上述实施例提供的用于输出信息的装置,首先目标图像获取单元获取包含手势的目标图像,然后特征点提取单元提取上述手势的特征点,然后手势类型确定单元根据所提取的特征点以及预先建立的手势识别模型,确定手势的手势类型,控制命令输出单元结合预设的手势类型与控制命令的对应关系列表,确定以及输出与上述手势的手势类型对应的控制命令。本实施例的装置,可以通过识别人的手势确定控制命令,增强了人的参与感,丰富了人机交互方式。
应当理解,用于输出信息的装置600中记载的单元601至单元604分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对用于合成歌声的方法描述的操作和特征同样适用于装置600及其中包含的单元,在此不再赘述。装置600的相应单元可以与服务器中的单元相互配合以实现本申请实施例的方案。
下面参考图7,其示出了适于用来实现本申请实施例的终端设备的计算机***700的结构示意图。图7示出的终端设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机***700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有***700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在机器可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所描述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括目标图像获取单元、特征点提取单元、手势类型确定单元和控制命令输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,目标图像获取单元还可以被描述为“获取包含手势的目标图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取包含手势的目标图像;提取上述手势的特征点;根据所提取的特征点以及预先建立的手势识别模型,确定上述手势的手势类型,上述手势识别模型用于表征特征点与手势类型的对应关系;响应于确定预设的手势类型与控制命令的对应关系列表包括上述手势的手势类型,确定以及输出与上述手势的手势类型对应的控制命令。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种用于输出信息的方法,包括:
获取包含手势的目标图像;
提取所述手势的特征点;
根据所提取的特征点以及预先建立的手势识别模型,确定所述手势的手势类型,所述手势识别模型用于表征特征点与手势类型的对应关系;
响应于确定预设的手势类型与控制命令的对应关系列表包括所述手势的手势类型,确定以及输出与所述手势的手势类型对应的控制命令。
2.根据权利要求1所述的方法,其中,所述获取包含手势的目标图像,包括:
获取包含手势的视频流;
将所述视频流中的多帧图像作为所述目标图像。
3.根据权利要求2所述的方法,其中,所述方法还包括:
响应于确定所述手势类型与控制命令的对应关系列表不包括所述手势的手势类型,检测所述目标图像中是否存在至少两帧图像所包含的手势一致;
响应于确定所述目标图像中存在至少两帧图像所包含的手势一致,确定所述手势在所述至少两帧图像中的位置;
根据所述至少两帧图像在所述视频流中的位置以及所述手势在所述至少两帧图像中的位置,确定所述手势所形成的动作;
根据预设的动作与控制命令的对应关系,确定以及输出与所述手势所形成的动作对应的控制命令。
4.根据权利要求2所述的方法,其中,所述获取包含手势的目标图像,包括:
从所述视频流中选取一帧图像作为待检测图像;
基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;
响应于确定待检测图像的对比度不满足预设条件,从所述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行所述图像确定步骤。
5.根据权利要求1所述的方法,其中,所述获取包含手势的目标图像,包括:
响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;
响应于接收到所述手势识别模型,获取包含手势的目标图像。
6.根据权利要求1-5任一项所述的方法,其中,所述手势识别模型由深度学习模型训练得到;以及
所述方法还包括手势识别模型的训练步骤:
获取预置的训练样本集合,所述训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像;
提取所述训练样本中手势的特征点;
将所述训练样本中手势的特征点输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;
基于所述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使所述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
7.根据权利要求1-5任一项所述的方法,其中,所述预先建立的手势识别模型包括多个预设手势的特征点模型,所述特征点模型是采用深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点提取后生成的;以及
所述根据所提取的特征点以及预先建立的手势识别模型,确定所述手势的手势类型,包括:
确定所提取的特征点与各所述预设手势的特征点模型之间的匹配度;
将匹配度最高的特征点模型所属的预设手势的手势类型作为所述目标图像所包含的手势的手势类型。
8.一种用于输出信息的装置,包括:
目标图像获取单元,用于获取包含手势的目标图像;
特征点提取单元,用于提取所述手势的特征点;
手势类型确定单元,用于根据所提取的特征点以及预先建立的手势识别模型,确定所述手势的手势类型,所述手势识别模型用于表征特征点与手势类型的对应关系;
控制命令输出单元,用于响应于确定预设的手势类型与控制命令的对应关系列表包括所述手势的手势类型,确定以及输出与所述手势的手势类型对应的控制命令。
9.根据权利要求8所述的装置,其中,所述目标图像获取单元进一步用于:
获取包含手势的视频流;
将所述视频流中的多帧图像作为所述目标图像。
10.根据权利要求9所述的装置,其中,所述装置还包括:
手势检测单元,用于响应于确定所述手势类型与控制命令的对应关系列表不包括所述手势的手势类型,检测所述目标图像中是否存在至少两帧图像所包含的手势一致;
位置确定单元,用于响应于确定所述目标图像中存在至少两帧图像所包含的手势一致,确定所述手势在所述至少两帧图像中的位置;
动作确定单元,用于根据所述至少两帧图像在所述视频流中的位置以及所述手势在所述至少两帧图像中的位置,确定所述手势所形成的动作;
第二控制命令输出单元,用于根据预设的动作与控制命令的对应关系,确定以及输出与所述手势所形成的动作对应的控制命令。
11.根据权利要求9所述的装置,其中,所述目标图像获取单元进一步用于:
从所述视频流中选取一帧图像作为待检测图像;
基于待检测图像,执行以下图像确定步骤:检测待检测图像的对比度是否满足预设条件;响应于确定待检测图像的对比度满足预设条件,将待检测图像作为目标图像;
响应于确定待检测图像的对比度不满足预设条件,从所述视频流中选取未被选取的一帧图像作为新的待检测图像,继续执行所述图像确定步骤。
12.根据权利要求8所述的装置,其中,所述目标图像获取单元进一步用于:
响应于检测到用户的控制请求操作,向服务端发送手势识别模型获取请求;
响应于接收到所述手势识别模型,获取包含手势的目标图像。
13.根据权利要求8-12任一项所述的装置,其中,所述手势识别模型由深度学习模型训练得到;以及
所述装置还包括模型训练单元,用于:
获取预置的训练样本集合,所述训练样本集合包括至少一种已标记手势类型的、不同拍摄角度的图像;
提取所述训练样本中手势的特征点;
将所述训练样本中手势的特征点作为输入待训练的深度学习模型,得到训练样本中手势的特征点对应的手势类型的预测结果;
基于所述手势类型的预测结果与标记的手势类型之间的差异迭代更新深度学习模型的参数,以使所述手势类型的预测结果与标记的手势类型之间的差异满足预设的收敛条件。
14.根据权利要求8-12任一项所述的装置,其中,所述预先建立的手势识别模型包括多种预设手势的特征点模型,所述特征点模型是采用深度学习算法对包含多种预设手势的、不同拍摄角度的样本图像进行特征点提取后生成的;以及
所述手势类型确定单元进一步用于:
确定所提取的特征点与所述多种预设手势的特征点模型之间的匹配度;
将匹配度最高的特征点模型所属的预设手势的手势类型作为所述目标图像所包含的手势的手势类型。
15.一种终端,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810209048.1A CN108345387A (zh) | 2018-03-14 | 2018-03-14 | 用于输出信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810209048.1A CN108345387A (zh) | 2018-03-14 | 2018-03-14 | 用于输出信息的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108345387A true CN108345387A (zh) | 2018-07-31 |
Family
ID=62957208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810209048.1A Pending CN108345387A (zh) | 2018-03-14 | 2018-03-14 | 用于输出信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108345387A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109032358A (zh) * | 2018-08-27 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 基于手势识别的ar交互虚拟模型的控制方法及装置 |
CN109521877A (zh) * | 2018-11-08 | 2019-03-26 | 中国工商银行股份有限公司 | 移动终端人机交互方法及*** |
CN109862274A (zh) * | 2019-03-18 | 2019-06-07 | 北京字节跳动网络技术有限公司 | 带摄像功能的耳机、用于输出控制信号的方法和装置 |
CN110134232A (zh) * | 2019-04-22 | 2019-08-16 | 东风汽车集团有限公司 | 一种基于手势识别的车载手机支架调节方法和*** |
CN110263743A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
CN110781886A (zh) * | 2019-10-25 | 2020-02-11 | 福州米鱼信息科技有限公司 | 一种基于图像及ocr识别的关键词获取方法 |
WO2020029467A1 (zh) * | 2018-08-07 | 2020-02-13 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN111049776A (zh) * | 2018-10-12 | 2020-04-21 | 中移(杭州)信息技术有限公司 | 一种手势加密、解密方法及装置 |
CN111291749A (zh) * | 2020-01-20 | 2020-06-16 | 深圳市优必选科技股份有限公司 | 手势识别方法、装置及机器人 |
CN111382644A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 手势识别方法、装置、终端设备及计算机可读存储介质 |
CN112748799A (zh) * | 2019-10-31 | 2021-05-04 | 深圳市冠旭电子股份有限公司 | 音频播放的控制方法、装置、存储介质及终端设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150002475A1 (en) * | 2013-06-27 | 2015-01-01 | Industrial Technology Research Institute | Mobile device and method for controlling graphical user interface thereof |
CN106951090A (zh) * | 2017-03-29 | 2017-07-14 | 北京小米移动软件有限公司 | 图片处理方法及装置 |
CN107272890A (zh) * | 2017-05-26 | 2017-10-20 | 歌尔科技有限公司 | 一种基于手势识别的人机交互方法和装置 |
WO2017196641A1 (en) * | 2016-05-11 | 2017-11-16 | Microsoft Technology Licensing, Llc | Continuous motion controls operable using neurological data |
CN107578023A (zh) * | 2017-09-13 | 2018-01-12 | 华中师范大学 | 人机交互手势识别方法、装置及*** |
-
2018
- 2018-03-14 CN CN201810209048.1A patent/CN108345387A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150002475A1 (en) * | 2013-06-27 | 2015-01-01 | Industrial Technology Research Institute | Mobile device and method for controlling graphical user interface thereof |
WO2017196641A1 (en) * | 2016-05-11 | 2017-11-16 | Microsoft Technology Licensing, Llc | Continuous motion controls operable using neurological data |
CN106951090A (zh) * | 2017-03-29 | 2017-07-14 | 北京小米移动软件有限公司 | 图片处理方法及装置 |
CN107272890A (zh) * | 2017-05-26 | 2017-10-20 | 歌尔科技有限公司 | 一种基于手势识别的人机交互方法和装置 |
CN107578023A (zh) * | 2017-09-13 | 2018-01-12 | 华中师范大学 | 人机交互手势识别方法、装置及*** |
Non-Patent Citations (1)
Title |
---|
殷继彬 等: "《笔+触控交互界面的设计策略与研究》", 30 June 2016, 云南大学出版社 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107256B2 (en) | 2018-08-07 | 2021-08-31 | Beijing Bytedance Network Technology Co., Ltd. | Video frame processing method and apparatus |
GB2591354B (en) * | 2018-08-07 | 2023-03-22 | Beijing Bytedance Network Tech Co Ltd | Video frame processing method and apparatus |
WO2020029467A1 (zh) * | 2018-08-07 | 2020-02-13 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
JP7182689B2 (ja) | 2018-08-07 | 2022-12-02 | 北京字節跳動網絡技術有限公司 | ビデオフレーム処理方法及び装置 |
JP2021533483A (ja) * | 2018-08-07 | 2021-12-02 | 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. | ビデオフレーム処理方法及び装置 |
GB2591354A (en) * | 2018-08-07 | 2021-07-28 | Beijing Bytedance Network Tech Co Ltd | Video frame processing method and apparatus |
CN109032358A (zh) * | 2018-08-27 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 基于手势识别的ar交互虚拟模型的控制方法及装置 |
CN111049776A (zh) * | 2018-10-12 | 2020-04-21 | 中移(杭州)信息技术有限公司 | 一种手势加密、解密方法及装置 |
CN109521877A (zh) * | 2018-11-08 | 2019-03-26 | 中国工商银行股份有限公司 | 移动终端人机交互方法及*** |
CN111382644A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 手势识别方法、装置、终端设备及计算机可读存储介质 |
CN109862274A (zh) * | 2019-03-18 | 2019-06-07 | 北京字节跳动网络技术有限公司 | 带摄像功能的耳机、用于输出控制信号的方法和装置 |
CN110134232A (zh) * | 2019-04-22 | 2019-08-16 | 东风汽车集团有限公司 | 一种基于手势识别的车载手机支架调节方法和*** |
CN110263743A (zh) * | 2019-06-26 | 2019-09-20 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
CN110263743B (zh) * | 2019-06-26 | 2023-10-13 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
CN110781886A (zh) * | 2019-10-25 | 2020-02-11 | 福州米鱼信息科技有限公司 | 一种基于图像及ocr识别的关键词获取方法 |
CN112748799A (zh) * | 2019-10-31 | 2021-05-04 | 深圳市冠旭电子股份有限公司 | 音频播放的控制方法、装置、存储介质及终端设备 |
CN111291749A (zh) * | 2020-01-20 | 2020-06-16 | 深圳市优必选科技股份有限公司 | 手势识别方法、装置及机器人 |
CN111291749B (zh) * | 2020-01-20 | 2024-04-23 | 深圳市优必选科技股份有限公司 | 手势识别方法、装置及机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108345387A (zh) | 用于输出信息的方法和装置 | |
CN108898185A (zh) | 用于生成图像识别模型的方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN108830235A (zh) | 用于生成信息的方法和装置 | |
CN108446390A (zh) | 用于推送信息的方法和装置 | |
CN108846440A (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN110188719A (zh) | 目标跟踪方法和装置 | |
CN108595628A (zh) | 用于推送信息的方法和装置 | |
CN108985257A (zh) | 用于生成信息的方法和装置 | |
CN109492160A (zh) | 用于推送信息的方法和装置 | |
CN109308490A (zh) | 用于生成信息的方法和装置 | |
CN110162670A (zh) | 用于生成表情包的方法和装置 | |
CN109101919A (zh) | 用于生成信息的方法和装置 | |
CN109063653A (zh) | 图像处理方法和装置 | |
CN109993150A (zh) | 用于识别年龄的方法和装置 | |
CN108960110A (zh) | 用于生成信息的方法和装置 | |
CN109815365A (zh) | 用于处理视频的方法和装置 | |
CN108984399A (zh) | 检测界面差异的方法、电子设备和计算机可读介质 | |
CN109377508A (zh) | 图像处理方法和装置 | |
CN109145783A (zh) | 用于生成信息的方法和装置 | |
CN108446658A (zh) | 用于识别人脸图像的方法和装置 | |
CN108882025A (zh) | 视频帧处理方法和装置 | |
CN107590484A (zh) | 用于呈现信息的方法和装置 | |
CN109389096A (zh) | 检测方法和装置 | |
CN110516099A (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180731 |