CN111859025A - 表情指令生成方法、装置、设备及存储介质 - Google Patents

表情指令生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111859025A
CN111859025A CN202010631788.1A CN202010631788A CN111859025A CN 111859025 A CN111859025 A CN 111859025A CN 202010631788 A CN202010631788 A CN 202010631788A CN 111859025 A CN111859025 A CN 111859025A
Authority
CN
China
Prior art keywords
facial expression
user
video
specific facial
quantized amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010631788.1A
Other languages
English (en)
Inventor
欧阳育军
吴怡蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Huaduo Network Technology Co Ltd
Original Assignee
Guangzhou Huaduo Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Huaduo Network Technology Co Ltd filed Critical Guangzhou Huaduo Network Technology Co Ltd
Priority to CN202010631788.1A priority Critical patent/CN111859025A/zh
Publication of CN111859025A publication Critical patent/CN111859025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/302Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a software system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开一种表情指令生成方法、装置、设备及存储介质,所述的方法包括如下步骤:监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;与监听相并行地,播放为所述特定面部表情相应提供的目标视频;跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。本申请优势明显且丰富,实现了依据用户面部表情产生相关指令的效果,属于基础技术,能够扩展和丰富各类计算机应用场景,适于满足各种基于计算机应用的现实需求。

Description

表情指令生成方法、装置、设备及存储介质
技术领域
本申请涉及计算机控制技术领域,尤其涉及一种表情指令生成方法、装置、设备及存储介质。
背景技术
随着移动通信技术的迅猛发展,各类小视频平台应运而生,视频应用越来越普遍,人们越来越习惯于通过视频应用传播和获取信息。视频作为一种信息形式的快速普及,自然也衍生出了各种基于视频图像的应用需求。其中,如何通过视频图像获取用户的实时动态,尤其是各种表现,用于视频应用相关的用户之间的交互,或者用于人机交互,便是一门亟需研究和深化的技术。
传统的人机交互或用户间交互,一般基于用户产生的文字、图像、视频、语音来承载传递用户意图,这些相关数据通常是为了实现即时交互之用,却未必符合一些特定的应用场景。例如,一些需要通过识别用户表情,借助用户表情来确认指令或判定事件触发条件的娱乐或交流场景中,未必需要即时交互,甚至可能需要设置供用户犹豫、权衡的环节以便匹配用户的延迟决策,最终才确认出相关用户指令。对于这类应用场景,以传统的即时交互方式显然无法满足应用需求。
另一方面,移动终端无论出于何种用户动因而启动摄像设备获取视频图像,摄像设备作为一个用户交互入口从未被加以***的开发和利用。互联网经济的特点在于依赖用户流量,因此,基于时下AI人脸识别技术日趋成熟而短视频消费已被授受的事实,如果能够将摄像设备获取用户视频数据作为互联网平台业务的用户访问入口,提供更丰富的交互模式,将有助于互联网平台产生更大的用户流量,提升日活量以及驻存率等指标,提升互联网平台的相关业务的软硬件运行效率。显然,要实现这样的目的,便需要进一步考虑为摄像设备的调用而提供行之有效的必要技术支持。
根据以上的分析可知,终端设备获取用户视频图像所包含的用户表情信息,存在较大的技术挖掘和利用空间,善用这些信息,有助于深化人机交互技术,有助于实现更为丰富的互联网业务形态。
发明内容
本申请的首要目的旨在提供一种表情指令生成方法,以便更为有效地利用终端设备实时获取的用户视频图像所包含的表情信息。
作为本申请的另一目的,提供一种与前述的方法相适应的表情指令生成装置。
作为本申请的又一目的,基于前述的方法而提供与之相适应的一种电子设备。
作为本申请的再一目的,提供一种适于存储依据所述的方法实现的计算机程序的非易失性存储介质。
为满足本申请的各个目的,本申请采用如下技术方案:
适应本申请的首要目的而提供的一种表情指令生成方法,包括如下步骤:
监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;
与监听相并行地,播放为所述特定面部表情相应提供的目标视频;
跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。
一类实施例中,本申请的所述方法还包括如下前置步骤:
在本机应用程序的用户界面显示访问入口,响应于用户触发该访问入口的事件而执行本方法的后续步骤。
该类实施例中,所述应用程序为本机的相机程序,所述访问入口表现为该相机程序界面的预设控件或预设触控指令;
或,所述应用程序为安装在本机的用于提供视频播放服务的应用程序,所述访问入口由该视频播放服务应用程序正在访问的一个特定类型的视频默认触发访问,或所述访问入口表现为与该特定类型的视频相关联的预设控件或预设触控指令。
较佳的实施例中,所述监听的步骤与所述播放的步骤分别运行于不同的线程。
部分实施例中,所述的目标视频为远程服务器推送的与所述特定面部表情预先相关联的视频。
一类实施例中,所述预设条件被配置为包括与所述量化幅值相对应的一个数值区间,当至目标视频播放结束时持续检测到所述量化幅值均超出或属于该数值区间时,即构成满足预设条件,否则,当在目标视频播放过程中检测到所述量化幅值属于或超出该数值区间时,则构成不满足预设条件;
或:所述预设条件被配置为包括与所述量化幅值相对应的一个阈值,当至目标视频播放结束时持续检测到所述量化幅值大于/小于该阈值时,即满足预设条件,否则,当在目标视频播放过程中检测到所述量化幅值小于/大于所述阈值时,不满足预设条件。
更具体的实施例中,当检测所述的量化幅值时,取一固定时长范围内的量化幅值的平均值用于检测其是否满足所述的预设条件。
进一步的实施例中,跟踪检测的步骤中,当满足预设条件,即输出关于满足预设条件的结果信息,该结果信息被解析为所述的表情指令,从而依据该表情指令触发预先关联的事件。
较佳的实施例中,所述预先关联的事件包括如下任意一种或任意多种:播放预设特效、向本机用户发送奖励信息、开启进一步的通关环节的权限、改变本机用户的身份特征参数、弹出分享操作界面。
进一步的实施例中,
当监听本机摄像设备实时获取的视频图像的步骤在监听过程中识别到所述特定面部表情图像未处于镜头指定范围,或识别出所述特定面部表情图像包含用户闭眼特征,重置或终止本方法的执行。
扩展的实施例中,其包括如下步骤:
与所述监听的步骤并行地,在本机的图形用户界面同步显示表情图标,用于根据所述的量化幅值对应表现所述特定面部表情图像的变化。
进一步的实施例中,所述视频图像、表情图标、目标视频均被加载于同一图形用户界面中进行可视化展示。
适用于本申请的另一目的而提供的一种表情指令生成装置,其包括:
监听单元,用于监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;
播放单元,用于与监听相并行地,播放为所述特定面部表情相应提供的目标视频;
触发单元,用于跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。
适应本申请的又一目的而提供的一种电子设备,包括中央处理器和存储器,所述中央处理器用于调用运行存储于所述存储器中的计算机程序以执行本申请所述的表情指令生成方法的步骤。
适应本申请的再一目的而提供的一种非易失性存储介质,其存储有依据所述的表情指令生成方法所实现的计算机程序,该计算机程序被计算机调用运行时,执行该方法所包括的步骤。
相对于现有技术,本申请的优势如下:
首先,本方法得以运行后,通过监听本机摄像设备实时获取的视频图像,可以从中识别出特定面部表情图像,例如喜、怒、哀、乐相应的忧郁、悲伤、微笑、大笑等表情相关的图像,在识别出其中一种特定类型的图像的基础上,进一步将这些图像进行量化,以便转换为相应的量化幅值;与此同时,通过播放一些与这些表情预先关联好的目标视频给本机用户观看,可以在某种程度上刺激用户改变其内心情绪,慢慢展现出表情变化,而持续的监听和量化,可以让应用程序相对准确地把握用户的表情变化程度,从而,利用其中的量化幅值是否达到预设条件,可以据之下达相关表情指令,以触发一些相关事件。由此,在技术上,其一,可以量化考察用户对所播放的目标视频的真实评价,所得评价指数显然可以在后续用于数据挖掘;其二,可根据设定的预期目标(预设条件),辅以技术方式实现对用户的情绪刺激;其三,通过在用户观看目标视频过程中考察用户表情的量化幅值是否满足预设条件,以此产生用于触发相关联事件的表情指令,在实际上技术性地提供了一种关于用户指令的延迟决策模式,同时也是一种依据用户真实情绪而确定的指令模式,依据这样的模式,可以为其匹配更为丰富的与用户情绪相匹配的计算机事件;其四,利用技术实现了一类基于短视频的虚拟活动,通过要求用户观看视频,同时考察量化幅值是否满足某种预设条件,来引导用户的面部表情活动达到某方面要求,当其满足要求时,触发相关联的事件,平台方可以通过预先定义这些相关联事件为电子礼品发放事件、***权限开放事件等,来实现与用户的对战交互,从而实现所述的虚拟活动。
其次,依据本方法开发的程序模块,既可以集成到一般的第三方应用程序中,例如一些直播平台提供的应用程序或者短视频服务应用程序中,在其中设置访问入口来实现调用运行,也可以将自身实现为终端设备特别是移动终端的相机程序的一个功能模块从而将相机程序作为引流入口,由此可以为相关的平台方提供更为丰富的引流渠道,同时也将移动终端的相机程序高效利用起来,能够提升各类终端设备的利用效率。
再者,程序开发人员可以通过灵活设置各种预设条件,来灵活改变满足这些预设条件的协作规则以满足各种现实目的。例如,出于刺激用户心情开朗的目的,可以将所述的预设条件设置为一个相对较高的阈值,当用户的笑容所得的量化幅值超过该阈值时,便可触发奖励事件而达成收效。又如,出于控制用户愤怒情绪的目的,可以设置一个相对较低的阈值,当用户的愤怒表情所得的量化幅值低于某阈值时,同理也可给予某种奖励,起到缓解其情绪的效果。再如,可以实现为与用户对赌保持某一形态的笑容的游戏,为此将预设条件设置为一个数值区间,当用户笑容的量化幅值超出这个区间时,用户挑战失败,否则用户挑战成功。无论成功与否,均可触发某种对应事件。如此种种,灵活多样,显然,本申请通过技术性手段提供了一种利用表情生成指令的技术路径,从而为终端设备高效利用用户表情信息提供了新的实现方式。
此外,本申请还提供一防止用户作弊的技术手段。当用户在观看视频过程中,出现移动头部或者闭眼,企图不接收视频图像信息以求满足所述预设条件时,在监听用户的特定面部表情图像的同时,将识别出这些情况,因应这些情况的出现,重置或终止本方法的执行,由此维护本方法的执行逻辑和规则,用户不能通过作弊来企图满足所述的预设条件,由此提升了本申请的方法的可靠性,确保用户观看所述的目标视频的内容,确保用户与终端设备之间人机交互始终遵守预期的规则。显然,一旦具体了这种功能,本申请的方法还适用于一些广告视频推广的应用场景中,也即,当所述的目标视频是包含广告内容时,本申请的方式可以相对确保其中的广告信息被广泛而且有效地传播和接收。
概括而言,本申请优势明显且丰富,实现了依据用户面部表情产生相关指令的效果,属于基础技术,能够扩展和丰富各类计算机应用场景,适于满足各种基于计算机应用的现实需求。
本申请附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为实施本申请的技术方案相关的一种典型的网络部署架构示意图;
图2为本申请的表情指令生成方法的典型实施例的流程示意图;
图3为本申请的表情指令生成装置的典型实施例的原理框图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“客户端”、“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,进行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他诸如个人计算机、平板电脑之类的通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(PersonalCommunications Service,个人通信***),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global PositioningSystem,全球定位***)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“客户端”、“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“客户端”、“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
本申请所称的“服务器”、“客户端”、“服务节点”等名称所指向的硬件,本质上是具备个人计算机等效能力的电子设备,为具有中央处理器(包括运算器和控制器)、存储器、输入设备以及输出设备等冯诺依曼原理所揭示的必要构件的硬件装置,计算机程序存储于其存储器中,中央处理器将存储在外存中的程序调入内存中运行,执行程序中的指令,与输入输出设备交互,借此完成特定的功能。
需要指出的是,本申请所称的“服务器”这一概念,同理也可扩展到适用于服务器机群的情况。依据本领域技术人员所理解的网络部署原理,所述各服务器应是逻辑上的划分,在物理空间上,这些服务器既可以是互相独立但可通过接口调用的,也可以是集成到一台物理计算机或一套计算机机群的。本领域技术人员应当理解这一变通,而不应以此约束本申请的网络部署方式的实施方式。
请参阅图1,本申请相关技术方案实施时所需的硬件基础可按图中所示的架构进行部署。本申请所称的服务器80部署在云端,作为一个前端的应用服务器,其可以负责进一步连接起相关数据服务器、视频流服务器以及其他提供相关支持的服务器等,以此构成逻辑上相关联的服务机群,来为相关的终端设备例如图中所示的智能手机81和个人计算机82提供服务。所述的智能手机和个人计算机均可通过公知的网络接入方式接入互联网,与云端的服务器80建立数据通信链路,以便运行所述服务器所提供的服务相关的终端应用程序。在本申请的相关技术方案中,可以由服务器80负责建立短视频推送服务,终端则对应运行与该短视频推送服务相对应的应用程序。
所述的应用程序,是指运行于终端设备上的应用程序,这一应用程序采用编程的方式实现了本申请的方法,其程序代码可被保存于终端设备能识别的非易失性存储介质中,并被中央处理器调入内存中运行,通过该应用程序在终端设备的运行而构造出本申请的相关装置。
为了支持所述的应用程序的运行,终端设备配备有相关操作***,例如IOS、Android以及其他提供同等功能的操作***,在此类操作***的支持下,适应性开发的应用程序得以正常运行,实现人机交互以及远程交互。
对时下流行的各类终端设备而言,特别是平板、手机之类的移动设备,通常都内置配备有摄像头之类的摄像设备,或者个人计算机也可外置接入所述的摄像设备,实现本申请的方法的应用程序对于这些情况下的摄像设备均可实现调用,不妨碍其利用这些摄像设备用于实现本申请的方法。
配备有所述的摄像设备的终端设备,通常内置有相应的后台驱动程序和前端相机程序,驱动程序用于在***底层驱动摄像头获取视频图像,相机程序主要用于提供人机交互界面,通过调用所述驱动程序,可以实现其摄像功能。因此,可以在所述相机程序中实现本申请的方法,以便实现利用该相机程序扩展短视频推送服务平台的访问来源的引流途径。
本申请的方法也可以被编程内置于提供网络直播的应用程序中,作为其一部分扩展功能。所述的网络直播,是指一种基于前述的网络部署架构所实现的一种直播间网络服务。
本申请所称的直播间,是指依靠互联网技术实现的一种视频聊天室,通常具备音视频播控功能,包括主播用户和观众用户,观众用户可以包括已经在平台中注册的注册用户,也可以是未注册的游客用户;可以是关注了主播用户的注册用户,也可以是未关注主播用户的注册或未注册用户。主播用户与观众用户之间可通过语音、视频、文字等公知的线上交互方式来实现互动,一般是主播用户以音视频流的形式为观众用户表演节目,并且在互动过程中还可产生经济交易行为。当然,直播间的应用形态并不局限于在线娱乐,也可推广到其他相关场景中,例如教育培训场景、视频会议场景、产品推介销售场景以及其他任何需要类似互动的场景中。
本申请相关的应用程序可以依其平台方设计的需要而产生派发电子礼品的行为,本申请所称的电子礼品,又称电子礼物,是非实体的,代表一定的有形或无形价值的电子形式的标记,这种标记的实现形式是广泛而灵活的,通常会以可视化的形式例如以图标和数量、价值的形式呈现给用户识别。电子礼品通常需要用户进行购买消费,也可以是互联网服务平台提供的赠品,但是,电子礼品一经产生后,其本身既可支持与现实证券相兑换,也可为非兑换品,视互联网服务平台技术实现而定,这本质上并不影响本申请的实施。相应的,用户购买电子礼品的行为便构成了用户消费电子礼品的行为。派发电子礼品的行为表现在程序层面,会触发相应的消费事件。电子礼品可以由用户在应用程序中购买,购买电子礼品的行为所触发的事件也同理可视为消费事件。由平台方无条件主动发放电子礼品时,也会相应向用户发送其获得相关奖励的信息,因此,当用户收到奖励信息时,往往意味着其获得了平台方所赠送的某种电子礼品。
本申请相关的应用程序可以依其平台方设计的需要而触发播放特效的行为。所述的特效,是一种计算机动画展现效果或者类似方式实现的技术控制效果,在应用程序的图形用户界面中通常用于加强交互感知氛围。特效被触发播放时,用户界面可以看到相应的动画播放效果,从而感知该特效。特效的实现形式多种多样,可由本领域技术人员灵活实现。
本申请相关的应用程序可以依其平台方设计的需要而为用户开户进一步的通关环节的权限,一般出现在应用程序以通关游戏为场景来实现的情况下。这种情况下,用户在参与前一关的游戏环节成功达成某种预设条件后,应用程序便为其开放下一关的游戏环节的访问权限,由此,用户可以进入游戏的下一关继续该游戏。
本申请相关的应用程序可以依其平台方设计的需要而改变用户的身份特征参数。通常,应用程序的使用者,会是平台方的注册用户,常处于账号登录的状态。用户通常拥有至少一种身份特征参数,例如其作为主播用户时,平时表现的用户投票数,象征着该主播用户的某一维度的评价值,直播平台依据该身份特征参数可以为该主播用户设定其在部分或所有其他主播用户之间的相对地位,例如依据其具体评价值为其标识一个相对应层级的等级标签。此类身份特征参数的获取,平台方可以根据自身需要通过设计各种活动来采集或转换,例如依据主播用户的关注用户数、直播时用户活跃度、举行直播间活动时盈利能力等等任意类似触发因素来量化确定。此类身份特征参数进而可以被直播平台用于二次数据挖掘,基于该些身份特征参数实现更为复杂的平台功能,必要时服务于该主播用户的直播间的各类活动。当然,适应本申请的方法,这些身份特征参数也可以是被表述为例如“性格值”,通过将用户的表情的量化幅值转换为该“性格值”,进行相应的增减,显然也能在某种程度上表征了该用户的身份。
本申请相关的应用程序可以依其平台方设计的需要而触发弹出分享操作界面,这种界面通常也包含了用于推广的相关信息,用户可通过在该界面的进一步操作,将相关信息分享至第三方服务平台或应用程序,或者分享至相同平台的相关用户、好友、评论区等,从而使得更多用户可以通过这些分享的信息来访问本申请的方法相关的功能,实现本申请的应用程序的裂变式推广。
本领域技术人员对此应当知晓:本申请的各种方法,虽然基于相同的概念而进行描述而使其彼此间呈现共通性,但是,除非特别说明,否则这些方法都是可以独立执行的。同理,对于本申请所揭示的各个实施例而言,均基于同一发明构思而提出,因此,对于相同表述的概念,以及尽管概念表述不同但仅是为了方便而适当变换的概念,应被等同理解。
请参阅图2,本申请的一种表情指令生成方法的典型实施例中,将其设计为一个娱乐活动来更为形象地揭示,但本领域技术人员应当理解,这种形象的表现形式并不影响该方法采取了充足的技术手段这一实质。
典型的实施例中,本申请的方法包括如下步骤:
步骤S11,监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值:
当实现了本方法的所述应用程序被启动后,开始执行本方法的各个步骤时,首先便启动调用应用程序所在的本机终端设备的摄像设备,通过该摄像设备开始实时获取视频图像。
本方法所实用的场景中,使用者通常为终端设备的使用者,手机、平板之类的手持式终端设备,此类设备通常具有前置摄像头和后置摄像头,或者具有通过朝向状态切换实现前置摄像头和后置摄像头功能的摄像装置,因此,此处所开启的摄像设备,可以默认为开启所述的前置摄像头,或者使所述的摄像装置处于适于起到前置摄像头作用的朝向状态,以便主要用于实现获取终端设备使用者本人的视频图像的目的。当然,在某些特殊的场合中,例如分屏显示本机输出的图形用户界面的场景中,也可以采用终端设备的后置摄像头代替所述的前置摄像头。可以理解,前置摄像头和后置摄像头的选择,是根据具体使用情况而确定的,用于捕捉与应用程序交互的面部表情之用,不应成之为影响本申请的创造精神的要害。
作为该应用程序惯常实现的功能之一,摄像设备获取的视频图像会被显示到本机当前的图形用户界面中,以便供本机终端设备的使用者直观地获知自身的即时表情状态。摄像设备获取的视频图像可以以半窗的形式在图形用户界面中展示,也可以全屏的方式展示;可以以半透明图层的方式展示,也可以非透明图层的方式展示,均不影响本申请的实施。
本领域技术人员熟知从所述的视频图像中识别出特定类型的面部表情图像的算法,包括机器学习获得的各种算法,以及基于AI技术实现的各种算法,均可实现从摄像设备获取的视频图像中识别出特定面部表情图像的功能和效果。在一些情况下,实现这一功能和效果的相关算法可以被编程制作成相关的SDK,后续由开发人员通过方法调用的方式加以利用即可。或者,也可由开发人员将实现同等功能和效果的已知算法具体编程实现在本方法的应用程序中。诸如此类,本领域技术人员应当知晓。
原理上,识别出特定面部表情图像通常是以视频图像的图像帧为单位来加以识别的,识别特定面部表情图像的目的无疑是为了确定使用者当前的面部表情是否属于特定类型。面部表情的特定性,是指根据人类喜怒哀乐之类的情绪在人脸上自然表现而形成的各种表情,包括但不限于微笑、大笑、狂笑、抽泣、大哭、伤心、悲伤、悲壮、激动……等等,将这些表情预先进行分类,构成各类面部表情,例如微笑、大笑、狂笑相关的面部表情可以被分类为笑脸类,抽泣、大哭可以被分类为哭脸类,等等。所谓特定面部表情,是指与其中一种类型相对应的面部表情活动状态,相应的,所谓特定面部表情图像,表现在视频图像中,便是体现出这种面部表情活动状态的一帧和数帧视频图像。可以理解,本领域技术人员可以利用技术手段确定某一特定面部表情图像,以确认使用者的面部正在呈现一种特定面部表情。
使用者的面部表情难以做到静止不动,特定是在本方法的应用程序通过播放目标视频供其观看以对其实施情绪刺激时,因此在本步骤中将监测其面部表情的变化幅度是否维持不变或者发生改变,也就是监测所述特定面部表情的变化状态。
为了便于量化使用者的面部表情的变化情况,本方法中,程序开发人员可以预先按照事实规律对人类面部表情的变化程度建立量化标准,例如,根据人脸嘴角的上翘程度和/或张嘴程度的不同,可以将其与不同的量化幅值进行对应,一般而言,闭嘴微笑对应较低的量化幅值,张嘴大笑对应较高的量化幅值,以此类推,便可确定一个量化参考系。其他特定类型的面部表情的量化办法也与此同理。由此,便可根据视频图像中特定面部表情的具体变化幅度,确定其对应量化幅值。当然,根据面部表情的变化幅度而转换为量化幅值的方法多种多样,并不局限此处的举例,本领域技术人员根据此处的示例,足以举一反三灵活实现,恕不赘述。
如前所述,视频图像是由图像帧组成的,例如60帧/秒或25帧/秒,无论如何,在进行量化时,均需采集其中的图像帧加以所述的识别,以识别出所述的特定面部表情。
本典型实施例中,可以针对每一帧进行所述的识别,以使对使用者的面部表情的识别精确到每一个细微的表情活动。而在其他实施例中,考虑到允许使用者的面部表情变化在一定的范围内变化,也可采取诸如间隔抽样之类的方式,对非相邻的图像帧进行所述的识别。无论何种实施方式,均不影响本申请的创造精神。
改进的一个实施例中,为了避免量化幅值的变化因算法的粗糙而呈现不均匀的性质,当检测所述的量化幅值时,取一固定时长例如1秒的时长范围内的量化幅值的平均值,将这一经平均后的量化幅值提供给后续步骤用于检测其是否满足所述的预设条件。
提请注意,本申请述及的跟踪特定面部表情的变化幅度实现量化,是指跟随从图像帧中识别出所述的特定面部表情后才对其进行所述的量化,但应当理解,这种跟踪也可以是非即时的,例如可以出现适当的时差,且这种时差适宜以不会导致用户对量化幅度与自身真实情感之间的差异明显有感知为准。
本步骤可以被实现为一个方便编程调用的SDK中的回调函数,由此,使其适于以独立线程的方式运行,实现与本方法的应用程序的主进程和其他线程之间的并行运行,由此可使各线程、该线程与主进程之间运行时并行不悖。
由此可以理解,通过监听摄像设备的视频图像,识别和量化特定面部表情,获得相对“实时”变化的使用者的面部表情的量化幅值,该量化幅值可以返回给回调函数的调用者做进一步的利用。
步骤S12,与监听相并行地,播放为所述特定面部表情相应提供的目标视频:
本申请的典型实施例中,为了实现本步骤与前一步骤彼此执行的功能的并行性,实现一边监听一边播放目标视频,同理可将本步骤实现为独立线程,由此,在前一步骤实施所述的监听动作的同时,可以“同步”播放为所述特定面部表情相应提供的视频。
所述的目标视频,通常是为了配合程序开发人员的设计意图而事先预备的,或存储在远程服务器中,或存储在终端设备本机中,均不影响本申请的实施。
目标视频与所述特定面部表情之间,依开发者的设计意图而建立逻辑上的关联。例如,对于一个旨在刺激使用者因观看目标视频而发笑或者控制悲伤情绪的设计意图而言,所述的目标视频优选一些用于逗笑的喜剧片段或者其他诙谐幽默的视频内容;对于一个旨在通过使用者观看目标视频而训练其面部表达能力的设计意图而言,所述的目标视频可以优选多种效果的片段,包括喜剧片段、悲剧片段等等。需要注意的是,目标视频与特定面部表情之间的这种关联性,是属于逻辑范畴的,是本领域技术人员根据程序开发意图结合此处的示例可以灵活匹配的,并且两者之间的匹配关系并不是一一对应的,而是可以多种多样的,主要视程序开发意图而定。可以理解,目标视频的具体内容与特定面部表情之间具体如何匹配,均不影响本申请的创造精神的实现。
本申请的典型实施例中,所述的目标视频可由远程服务器负责推送。具体而言,本方法的应用程序可以在首次识别出使用者的面部表情属于特定类型时,结合应用程序的设计意图,依照开发人员编程时的规范,向所述的远程服务器提交相应反帅所述特定面部表情的特定性的标签,远程服务器根据该标签从预设的视频库中选取一个或数据所述的目标视频推送到终端设备,终端设备的应用程序便可开启播放窗口并播放该目标视频。
一种改进的实施例中,终端设备的当前图形用户界面中,允许全屏播放所述的目标视频,与此同时,不在当前图形用户界面中显示摄像设备实时获取的视频图像,但应用程序依然在后台监听并检测所述的量化幅值,而在当前图形用户界面中显示一以动画形式展示的表情图标,使所述的表情图像的动画变化状态与所述监听的步骤返回的量化幅值相关联,使表情图像根据所述的量化幅值对应表现所述特定面部表情图像的变化,由此,终端设备的使用者便可通过该表情图标感知自身的面部表情的变化程度,即使此时使用者并不能实时地观看到自身的视频图像。
另一种改进的实施例中,考虑到前一步骤监听的需要和本步骤的播放的需要,为了完善用户体验,增加交互感知,可在终端设备的图形用户界面中,分上下两个半窗分别用于显示摄像设备实时获取的视频图像和播放所述的目标视频。同理也可在图形用户界面中实现前一实施例所述的表情图标,由此使得当前图形用户界面中同时加载并显示所述的视频图像、表情图标以及目标视频。
由以上的揭示可以进一步的理解,本步骤可以与关于实现监听的前一步骤在终端设计的内存中并行地运行。
步骤S13,跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件:
本步骤可由本方法的应用程序的主进程或其他并行进程负责实现。当图形用户界面正在播放所述的目标视频,同时终端设备又正在即时地输出摄像设备所获取的视频图像中的特定面部表情的量化幅值时,本申请的应用程序的一个进程可以负责并行地执行本步骤的功能。
具体而言,所述目标视频播放期间,关于监听的步骤因应使用者的实际面部表情活动持续输出所述的量化幅值,于是,本步骤便跟踪每一个输出的量化幅值,检测其是否满足预设条件。这一预设条件是依据程序设计意图而预先给出的,通常已经规范在应用程序的代码中,或者规范在供该应用程序调用的一个或数个规则文件或数据表中。
检测所述的量化幅值是否满足预设条件,视预设条件设置的不同,而采用与其相对应的多种实现方式,如下揭示若干类基于不同程序设计意图而确定的检测方法:
第一类检测方法中,所述预设条件被配置为包括与所述量化幅值相对应的一个数值区间,通过检测所获得的量化幅值是否超出或属于这一数值区间,来判断当前使用者的实际面部表情变化情况是否满足该预设条件。此处包括“超出”和“属于”两种择一的情况,适于不同的程序设计意图相对应。
例如,对于“属于”的情况,本申请的应用程序的设计意图旨在通过目标视频的播放刺激使用者发笑,其与使用者之间的对赌规则被设置为使用者必须将笑容控制在一定的变化幅度范围内,可简单形象地理解为用户若憋住微笑,则其挑战成功,若大笑或不笑,则其挑战失败。由此,将数值区间设置为(30,60),表征其使用者的面部表情的量化幅值若在30和60之间,且坚持到目标视频播放结束则视为使用者挑战成功,构成满足所述的预设条件;否则,如果目标视频播放过程中任意时刻出现量化幅值低于30或高于60,则终端设备使用者挑战失败。这种情况下,如果与监听相关的回调函数返回30至60范围之外的量化幅值,便被判定为不满足预设条件。
又如,对于“超出”的情况,与前者同理,仅在于对数值区间的用于比较时的利用方式不同,适用于例如激励使用者达到情绪大幅波动的情况,譬如只有当用户持续保持大笑(量化幅值高于60)或保持不笑(量化幅值低于30)才构成满足预设条件,如果使用者面部表情无变化且处于量化幅值为30至60的数值区间则不满足预设条件。
第二类检测方法中,可以进一步简化检测条件,其技术手段与前一类不同之处主要于其通过设置一个阈值来代替前述的数值区间,例如,将该阈值对应笑脸这一特定面部表情而设置为50。对于设置阈值的这种情况,依据程序设计者的设计意图是追求使用者大笑还是不笑的不同,而将预设条件相应配置为在目标视频播放全程直到结束时,当所获得的量化幅值均大于该阈值或是均小于该阈值,则视为满足预设条件,否则,在目标视频播放过程中的任意时刻,只要从一帧或数帧图像中检测出其中的面部表情所对应量化幅值相应小于或是大于该阈值时,则视为不满足预设条件。
可以理解,基于以上的两类检测方法,可以灵活变化设计出多种预设条件,以用于不同的程序设计用途和意图。本领域技术人员根据此处对预设条件的运用原理的揭示,可以灵活配置所述的预设条件,在程序开发过程中予以灵活实现。
概括而言,本申请的一典型应用中,在目标视频播放过程中持续检测所述的量化幅值是否满足预设条件,如果直至目标视频播放结束,所有量化幅值均满足预设条件,则可视为构成用于触发默认且预先关联的事件的表情指令的生成条件;如果在目标视频播放过程中的任意时刻出现量化幅值不满足预设条件的情况,则可另做处理,例如生成另一用于触发不同预先关联的事件的表情指令,甚至终止所述的目标视频的播放等。
依据满足预设条件便触发预先关联的事件这一技术手段,可以理解,满足预设条件(甚至不满足预设条件)在本申请的方法中被理解为某一预先设置的计算机事件的触发条件,因此可以被理解为广义的计算机指令,也即本申请所称的“表情指令”。也就是说,本申请所述的表情指令,是指通过前述过程的处理,基于所述的量化幅值是否满足所述的预设条件而对应生成的结果信息,该结果信息被本申请的应用程序解析为表情指令,可以被本申请的方法所解析,并据之触发一个预先关联的计算机事件。这些预先关联的事件,理论上可以为任何可以由计算机代码运行的任意类型的计算机事件,例如如前所述的播放预设特效、向本机用户发送奖励信息、开启进一步的通关环节的权限、改变本机用户的身份特征参数、弹出分享操作界面……等等。
至于量化幅值是否满足所述的预设条件而产生的两种结果,尽管在满足预设条件时,可以视为构成了表情指令的生成条件而触发所述的预先关联的事件,称为第一事件,然而,在不满足预设条件时,同理也可视为构成了另一表情指令的生成条件而由其触发另一预先关联的事件,即第二事件。由此可以理解,只要满足与不满足预设条件这两种结果由开发人员在编程时预设建立起其预设的不同事件之间的关联,那么,无论满足还是不满足预设条件,均可采用这种判定结果也使终端设备执行下一步动作,从而呈现相应的事件的执行结果。一种典型的应用场景中,按照程序设计意图,使用者在观看目标视频播放的过程中全程憋笑,其对应的量化幅值始终被控制在一个数值区间范围内,直至目标视频播放结束,由此被视为满足预设条件,使用者与应用程序的憋笑挑战成功,于是,应用程序获得相应的结果信息,视这一结果为表情指令的生成条件而下达表情指令,依据该表情指令而相应触发预先关联的第一事件,该第一事件首先向终端设备的图形用户界面输出“挑战成功”的通知信息,然后向应用程序的登录用户派发预设的电子礼品并将增加的电子礼品关联到该登录用户的个人账户中。另一方面,使用者在第二回合的挑战中,由于中间过程中观看目标视频的剧情导致自身发笑,使其面部表情相应的量化幅值超出所述的数值范围,导致使用者的面部表情表现不满足所述的预设条件,于是,应用程序获得相应的结果信息,同理视这一结果信息为表情指令,而触发相关联的第二事件,该第二事件仅仅在当前图形用户界面中输出“挑战失败”的通知信息。
为了便于与本申请的应用程序集成,将本申请的方法所实现的功能集成为该应用程序的一个功能模块,可以参照如下的改进的实施例为本申请的方法增设一个前置执行的步骤,在该应用程序中设置本方法的访问入口,使用户可以通过该访问入口调用利用本方法实现的应用实例,当用户操作该访问入口时,便可触发通过该访问入口调用本方法的应用实例的事件,具体如下:
一个实施例中,本申请的应用程序是一个基于短视频之类的视频播放服务的应用程序,其平台方随机或按一定策略地向应用程序的用户推送用于触发本方法的相关代码执行的所述的目标视频,终端设备的使用者在使用这一应用程序浏览短视频的过程中“刷”到此类短视频,用户(使用者)便可在终端设备的图形用户界面中观看到该目标视频,该目标视频便构成了访问入口,从而导致其自动邀请用户参与一个“憋笑”活动,用户接受邀请后,便开始执行应用实例从而实现对本申请的方法的利用。对于这一类目标视频,一般是附带了相关标签的,因为可以通过服务器推送时提供的标签来识别之。当然,在该实施例中,可以不由该目标视频默认自动邀请用户参与本方法的应用实例,而是在图形用户界面提供相应的预设控件作为所述的访问入口,或者默认一个在终端设备中操作的预设触控指令来作为所述的访问入口,无论如何,只要最终能调用本申请的方法的应用实例,均不影响本申请的实施。
另一实施例中,为了将终端设备的相机程序打造为互联网的引流入口,可以参照前一实施例,将相机程序作为本申请所述的应用程序,而在相机程序中集成本申请的方法的应用实例,并且,在相机程序的图形用户界面中提供所述的预设控件,或者在该界面中识别所述的预设触控指令,据此调用本申请的方法的实例,同理也可实现对本申请的方法的实例的调用。
可见,关于对本申请的方法的实例的调用的访问入口设置方式,是非常灵活的,可以由本领域技术人员根据以上实施例的揭示而灵活实现。
另一方面,在步骤S11实施监听的过程中,为了防止用户通过转移面部、闭眼不看目标视频、提供静止的面部表情图像等非法手段来作弊,当监听过程中识别到视频图像中的特定面部表情图像未处于镜头指定范围内,或者识别出所述的特定面部表情图像包含用户闭眼或双眼未聚焦等任意一个特征时,可以产生告警信息,据此通知本申请的应用程序控制终止或重置所述目标视频的播放,以便实现对用户(终端设备使用者)违反规则的惩罚机制。需要指出的是,从视频图像中识别出面部表情图像是否闭眼,以及双眼是否聚焦等技术手段已为本领域技术人员所知晓,故恕不赘述。
除了以上各实施例揭示过程中涉及的各种应用场景,本申请的方法还可以适用于需要智能识别使用者的态度实现延迟决策的场景,由此派生出其他各种情形下的实施例。
一类实施例中,该些目标视频可以是一些电影、电视剧、新闻等内容,本方法在播放这些目标视频的同时,在后台启动摄像设备实时获取视频图像,从中识别出观看者的面部表情,识别特定面部表情图像,包括表征不同满意程度的笑脸或者表征不同满意程度的厌恶表情等,将其相应转换为量化幅值,按照预先关联的关系,在这些量化幅值满足预设条件时生成相应的表情指令,触发预先关联的事件,例如一个评价事件。由此,可以通过本申请的方法,获取使用者观看目标视频的总体满意度,最终获得针对该目标视频的评价数据。这些评价数据自然也适用于进一步的数据挖掘。当然,适应这一场景,必要时可以适应性修改所述的预设条件及其触发机制,例如,在检测量化幅值是否满足预设条件时,可以进一步考察播放全程中,多个时间段的量化幅值的总和或均值是否达到或超出一定的阈值,以此确定为满足预设条件;而如果某一个或多个时间段的量化幅值的总和或均值未能达到所述的阈值,则视为不满足预设条件,表示观看者不喜欢该目标视频所播放的内容,而终止或重置所述目标视频的播放。
诸如此类,本领域技术人员应可根据本申请以上各种实施例的提示,将本申请的方法应用到各类应用场景中,以使本申请的方法的有益效果得以最大化地体现和发挥。
进一步,可以通过将上述各实施例所揭示的方法中的各个步骤进行功能化,构造出本申请的一种表情指令生成装置,按照这一思路,请参阅图3,其中的一个典型实施例中,该装置包括:
监听单元51,用于监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;
播放单元52,用于与监听相并行地,播放为所述特定面部表情相应提供的目标视频;
触发单元53,用于跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。
进一步,为便于本申请的执行,本申请提供一种电子设备,包括中央处理器和存储器,所述中央处理器用于调用运行存储于所述存储器中的计算机程序以执行如前所述的各实施例中所述表情指令生成方法的步骤。
可以看出,存储器适宜采用非易失性存储介质,通过将前述的方法实现为计算机程序,安装到手机或计算机之类电子设备中,相关程序代码和数据便被存储到电子设备的非易失性存储介质中,进一步通过电子设备的中央处理器运行该程序,将其从非易性存储介质中调入内存中运行,便可实现本申请所期望的目的。因此,可以理解,本申请的一个实施例中,还可提供一种非易失性存储介质,其中存储有依据所述的表情指令方法各个实施例所实现的计算机程序,该计算机程序被计算机调用运行时,执行该方法所包括的步骤。
综上所述,本申请优势明显且丰富,实现了依据用户面部表情产生相关指令的效果,属于基础技术,能够扩展和丰富各类计算机应用场景,适于满足各种基于计算机应用的现实需求。
本技术领域技术人员可以理解,本申请包括涉及用于执行本申请中所述操作、方法中的一项或多项的设备。这些设备可以为所需的目的而专门设计和制造,或者也可以包括通用计算机中的已知设备。这些设备具有存储在其存储器之内的计算机程序,这些计算机程序选择性地激活或重构。这样的计算机程序可以被存储在设备(例如,计算机)可读介质中或者存储在适于存储电子指令并分别耦联到总线的任何类型的介质中,所述计算机可读介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(Random Access Memory,随即存储器)、EPROM(ErasableProgrammable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(ElectricallyErasable Programmable Read-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,可读介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本申请公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本申请中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本申请中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本申请中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (15)

1.一种表情指令生成方法,其特征在于,包括如下步骤:
监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;
与监听相并行地,播放为所述特定面部表情相应提供的目标视频;
跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。
2.根据权利要求1所述的方法,其特征在于,还包括如下前置步骤:
在本机应用程序的用户界面显示访问入口,响应于用户触发该访问入口的事件而执行本方法的后续步骤。
3.根据权利要求2所述的方法,其特征在于,所述应用程序为本机的相机程序,所述访问入口表现为该相机程序界面的预设控件或预设触控指令;
或,所述应用程序为安装在本机的用于提供视频播放服务的应用程序,所述访问入口由该视频播放服务应用程序正在访问的一个特定类型的视频默认触发访问,或所述访问入口表现为与该特定类型的视频相关联的预设控件或预设触控指令。
4.根据权利要求1所述的方法,其特征在于,所述监听的步骤与所述播放的步骤分别运行于不同的线程。
5.根据权利要求1所述的方法,其特征在于,所述的目标视频为远程服务器推送的与所述特定面部表情预先相关联的视频。
6.根据权利要求1所述的方法,其特征在于,所述预设条件被配置为包括与所述量化幅值相对应的一个数值区间,当至目标视频播放结束时持续检测到所述量化幅值均超出或属于该数值区间时,即构成满足预设条件,否则,当在目标视频播放过程中检测到所述量化幅值属于或超出该数值区间时,则构成不满足预设条件;
或:所述预设条件被配置为包括与所述量化幅值相对应的一个阈值,当至目标视频播放结束时持续检测到所述量化幅值大于/小于该阈值时,即满足预设条件,否则,当在目标视频播放过程中检测到所述量化幅值小于/大于所述阈值时,不满足预设条件。
7.根据权利要求6所述的方法,其特征在于,当检测所述的量化幅值时,取一固定时长范围内的量化幅值的平均值用于检测其是否满足所述的预设条件。
8.根据权利要求1所述的方法,其特征在于,跟踪检测的步骤中,当满足预设条件,即输出关于满足预设条件的结果信息,该结果信息被解析为所述的表情指令,从而依据该表情指令触发预先关联的事件。
9.根据权利要求8所述的方法,其特征在于,所述预先关联的事件包括如下任意一种或任意多种:播放预设特效、向本机用户发送奖励信息、开启进一步的通关环节的权限、改变本机用户的身份特征参数、弹出分享操作界面。
10.根据权利要求1所述的方法,其特征在于,
当监听本机摄像设备实时获取的视频图像的步骤在监听过程中识别到所述特定面部表情图像未处于镜头指定范围,或识别出所述特定面部表情图像包含用户闭眼特征,重置或终止本方法的执行。
11.根据权利要求1所述的方法,其特征在于,其包括如下步骤:
与所述监听的步骤并行地,在本机的图形用户界面同步显示表情图标,用于根据所述的量化幅值对应表现所述特定面部表情图像的变化。
12.根据权利要求11所述的方法,其特征在于,所述视频图像、表情图标、目标视频均被加载于同一图形用户界面中进行可视化展示。
13.一种表情指令生成装置,其特征在于,其包括:
监听单元,用于监听本机摄像设备实时获取的视频图像,从中识别出特定面部表情图像,跟踪其中特定面部表情的变化幅度,对其进行量化,生成对应的量化幅值;
播放单元,用于与监听相并行地,播放为所述特定面部表情相应提供的目标视频;
触发单元,用于跟踪检测所述量化幅值是否满足预设条件,当目标视频播放结束后所述量化幅值均满足预设条件时,下达所述的表情指令以触发预先关联的事件。
14.一种电子设备,包括中央处理器和存储器,其特征在于,所述中央处理器用于调用运行存储于所述存储器中的计算机程序以执行如权利要求1至12中任意一项所述的表情指令生成方法的步骤。
15.一种非易失性存储介质,其特征在于,其存储有依据权利要求1至12中任意一项所述的表情指令生成方法所实现的计算机程序,该计算机程序被计算机调用运行时,执行该方法所包括的步骤。
CN202010631788.1A 2020-07-03 2020-07-03 表情指令生成方法、装置、设备及存储介质 Pending CN111859025A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010631788.1A CN111859025A (zh) 2020-07-03 2020-07-03 表情指令生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010631788.1A CN111859025A (zh) 2020-07-03 2020-07-03 表情指令生成方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111859025A true CN111859025A (zh) 2020-10-30

Family

ID=73153454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010631788.1A Pending CN111859025A (zh) 2020-07-03 2020-07-03 表情指令生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111859025A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114285933A (zh) * 2021-12-23 2022-04-05 天翼视讯传媒有限公司 一种实现手机视频、图片随人脸位置变化而变化的方法
CN115118697A (zh) * 2022-06-27 2022-09-27 北京爱奇艺科技有限公司 一种资源访问权限激活方法和装置
CN117667951A (zh) * 2024-01-31 2024-03-08 杭州海康威视数字技术股份有限公司 用于摄像机的特征数据的数据处理方法和装置

Citations (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280074A (ja) * 2006-04-07 2007-10-25 Hitachi Ltd 携帯端末および制御方法
US20090251557A1 (en) * 2008-04-08 2009-10-08 Samsung Electronics Co. Ltd. Image pickup control method and apparatus for camera
US7720784B1 (en) * 2005-08-30 2010-05-18 Walt Froloff Emotive intelligence applied in electronic devices and internet using emotion displacement quantification in pain and pleasure space
CN101999108A (zh) * 2008-01-31 2011-03-30 美国索尼电脑娱乐有限责任公司 大笑检测器以及用于追踪对媒体呈现的情绪反应的***和方法
KR20110099590A (ko) * 2010-03-02 2011-09-08 엘지전자 주식회사 콘텐츠 제어 장치 및 그 방법
JP2011237970A (ja) * 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> 顔表情変化度測定装置およびそのプログラム並びに番組興味度測定装置
KR20120035807A (ko) * 2010-10-06 2012-04-16 원광대학교산학협력단 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓***及方法
US20120222057A1 (en) * 2011-02-27 2012-08-30 Richard Scott Sadowsky Visualization of affect responses to videos
US20120259240A1 (en) * 2011-04-08 2012-10-11 Nviso Sarl Method and System for Assessing and Measuring Emotional Intensity to a Stimulus
JP2012238232A (ja) * 2011-05-12 2012-12-06 Nippon Hoso Kyokai <Nhk> 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム
CN102955565A (zh) * 2011-08-31 2013-03-06 德信互动科技(北京)有限公司 人机互动***和方法
JP2013081516A (ja) * 2011-10-06 2013-05-09 Panasonic Corp 眠気判定装置および眠気判定方法
KR20140059110A (ko) * 2012-11-07 2014-05-15 안강석 소셜 네트워크 서비스 제공방법 및 이를 위한 서버
US20140301599A1 (en) * 2013-04-04 2014-10-09 Suprema Inc. Method for face recognition
CN104298682A (zh) * 2013-07-18 2015-01-21 广州华久信息科技有限公司 一种基于人脸表情图像的信息推荐效果的评价方法及手机
KR20150033173A (ko) * 2013-09-23 2015-04-01 (주)이노지움 안면인식을 통한 관객 만족도 조사 시스템
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
CN105615902A (zh) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 情绪监控方法和装置
CN106060572A (zh) * 2016-06-08 2016-10-26 乐视控股(北京)有限公司 视频播放方法及装置
CN106855936A (zh) * 2015-12-09 2017-06-16 陕西天堃电子科技有限公司 一种智能取悦装置
JP2017121373A (ja) * 2016-01-07 2017-07-13 日本電信電話株式会社 情報処理装置、情報処理方法、及び、プログラム
CN107368495A (zh) * 2016-05-12 2017-11-21 阿里巴巴集团控股有限公司 确定用户对互联网对象的情绪的方法及装置
KR20180011664A (ko) * 2016-07-25 2018-02-02 한양대학교 에리카산학협력단 얼굴 표현 및 심리 상태 파악과 보상을 위한 얼굴 정보 분석 방법 및 얼굴 정보 분석 장치
CN108056774A (zh) * 2017-12-29 2018-05-22 中国人民解放军战略支援部队信息工程大学 基于视频刺激材料的实验范式情绪分析实现方法及其装置
US20180152666A1 (en) * 2016-11-29 2018-05-31 Facebook, Inc. Face detection for video calls
US20180303397A1 (en) * 2010-06-07 2018-10-25 Affectiva, Inc. Image analysis for emotional metric evaluation
CN109190487A (zh) * 2018-08-07 2019-01-11 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN109522818A (zh) * 2018-10-29 2019-03-26 中国科学院深圳先进技术研究院 一种表情识别的方法、装置、终端设备及存储介质
US20190147229A1 (en) * 2017-11-13 2019-05-16 Facebook, Inc. Methods and systems for playing musical elements based on a tracked face or facial feature
CN110166836A (zh) * 2019-04-12 2019-08-23 深圳壹账通智能科技有限公司 一种电视节目切换方法、装置、可读存储介质及终端设备
CN110534135A (zh) * 2019-10-18 2019-12-03 四川大学华西医院 一种基于语言引导与心率反应来评估情绪特征的方法
WO2019233075A1 (zh) * 2018-06-04 2019-12-12 珠海格力电器股份有限公司 一种动态面部表情的识别方法及装置
CN110765873A (zh) * 2019-09-19 2020-02-07 华中师范大学 一种基于表情强度标签分布的面部表情识别方法与装置
CN111079529A (zh) * 2019-11-07 2020-04-28 广州华多网络科技有限公司 信息提示方法、装置、电子设备及存储介质
US20200188629A1 (en) * 2018-01-26 2020-06-18 Trev Labs, Llc Craniaofacial emotional response influencer for audio and visual media

Patent Citations (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720784B1 (en) * 2005-08-30 2010-05-18 Walt Froloff Emotive intelligence applied in electronic devices and internet using emotion displacement quantification in pain and pleasure space
JP2007280074A (ja) * 2006-04-07 2007-10-25 Hitachi Ltd 携帯端末および制御方法
CN101999108A (zh) * 2008-01-31 2011-03-30 美国索尼电脑娱乐有限责任公司 大笑检测器以及用于追踪对媒体呈现的情绪反应的***和方法
US20090251557A1 (en) * 2008-04-08 2009-10-08 Samsung Electronics Co. Ltd. Image pickup control method and apparatus for camera
KR20110099590A (ko) * 2010-03-02 2011-09-08 엘지전자 주식회사 콘텐츠 제어 장치 및 그 방법
JP2011237970A (ja) * 2010-05-10 2011-11-24 Nippon Hoso Kyokai <Nhk> 顔表情変化度測定装置およびそのプログラム並びに番組興味度測定装置
US20180303397A1 (en) * 2010-06-07 2018-10-25 Affectiva, Inc. Image analysis for emotional metric evaluation
KR20120035807A (ko) * 2010-10-06 2012-04-16 원광대학교산학협력단 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓***及方法
CN103339649A (zh) * 2011-02-27 2013-10-02 阿弗科迪瓦公司 基于情感的视频推荐
US20120222057A1 (en) * 2011-02-27 2012-08-30 Richard Scott Sadowsky Visualization of affect responses to videos
US20120259240A1 (en) * 2011-04-08 2012-10-11 Nviso Sarl Method and System for Assessing and Measuring Emotional Intensity to a Stimulus
JP2012238232A (ja) * 2011-05-12 2012-12-06 Nippon Hoso Kyokai <Nhk> 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム
CN102955565A (zh) * 2011-08-31 2013-03-06 德信互动科技(北京)有限公司 人机互动***和方法
JP2013081516A (ja) * 2011-10-06 2013-05-09 Panasonic Corp 眠気判定装置および眠気判定方法
KR20140059110A (ko) * 2012-11-07 2014-05-15 안강석 소셜 네트워크 서비스 제공방법 및 이를 위한 서버
US20140301599A1 (en) * 2013-04-04 2014-10-09 Suprema Inc. Method for face recognition
CN104298682A (zh) * 2013-07-18 2015-01-21 广州华久信息科技有限公司 一种基于人脸表情图像的信息推荐效果的评价方法及手机
KR20150033173A (ko) * 2013-09-23 2015-04-01 (주)이노지움 안면인식을 통한 관객 만족도 조사 시스템
CN105615902A (zh) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 情绪监控方法和装置
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
CN106855936A (zh) * 2015-12-09 2017-06-16 陕西天堃电子科技有限公司 一种智能取悦装置
JP2017121373A (ja) * 2016-01-07 2017-07-13 日本電信電話株式会社 情報処理装置、情報処理方法、及び、プログラム
CN107368495A (zh) * 2016-05-12 2017-11-21 阿里巴巴集团控股有限公司 确定用户对互联网对象的情绪的方法及装置
CN106060572A (zh) * 2016-06-08 2016-10-26 乐视控股(北京)有限公司 视频播放方法及装置
KR20180011664A (ko) * 2016-07-25 2018-02-02 한양대학교 에리카산학협력단 얼굴 표현 및 심리 상태 파악과 보상을 위한 얼굴 정보 분석 방법 및 얼굴 정보 분석 장치
US20180152666A1 (en) * 2016-11-29 2018-05-31 Facebook, Inc. Face detection for video calls
US20190147229A1 (en) * 2017-11-13 2019-05-16 Facebook, Inc. Methods and systems for playing musical elements based on a tracked face or facial feature
CN108056774A (zh) * 2017-12-29 2018-05-22 中国人民解放军战略支援部队信息工程大学 基于视频刺激材料的实验范式情绪分析实现方法及其装置
US20200188629A1 (en) * 2018-01-26 2020-06-18 Trev Labs, Llc Craniaofacial emotional response influencer for audio and visual media
WO2019233075A1 (zh) * 2018-06-04 2019-12-12 珠海格力电器股份有限公司 一种动态面部表情的识别方法及装置
CN109190487A (zh) * 2018-08-07 2019-01-11 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN109522818A (zh) * 2018-10-29 2019-03-26 中国科学院深圳先进技术研究院 一种表情识别的方法、装置、终端设备及存储介质
CN110166836A (zh) * 2019-04-12 2019-08-23 深圳壹账通智能科技有限公司 一种电视节目切换方法、装置、可读存储介质及终端设备
CN110765873A (zh) * 2019-09-19 2020-02-07 华中师范大学 一种基于表情强度标签分布的面部表情识别方法与装置
CN110534135A (zh) * 2019-10-18 2019-12-03 四川大学华西医院 一种基于语言引导与心率反应来评估情绪特征的方法
CN111079529A (zh) * 2019-11-07 2020-04-28 广州华多网络科技有限公司 信息提示方法、装置、电子设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114285933A (zh) * 2021-12-23 2022-04-05 天翼视讯传媒有限公司 一种实现手机视频、图片随人脸位置变化而变化的方法
CN115118697A (zh) * 2022-06-27 2022-09-27 北京爱奇艺科技有限公司 一种资源访问权限激活方法和装置
CN115118697B (zh) * 2022-06-27 2024-04-26 北京爱奇艺科技有限公司 一种资源访问权限激活方法和装置
CN117667951A (zh) * 2024-01-31 2024-03-08 杭州海康威视数字技术股份有限公司 用于摄像机的特征数据的数据处理方法和装置
CN117667951B (zh) * 2024-01-31 2024-05-03 杭州海康威视数字技术股份有限公司 用于摄像机的特征数据的数据处理方法和装置

Similar Documents

Publication Publication Date Title
US10491859B2 (en) Communication event
CN111859025A (zh) 表情指令生成方法、装置、设备及存储介质
CN106605218B (zh) 收集和处理与基于网络的内容的交互过程中的计算机用户数据的方法
US10148911B2 (en) Communication event
US8750472B2 (en) Interactive attention monitoring in online conference sessions
CN102450032B (zh) 集成化身的共享媒体选择
US20120326866A1 (en) Method and system for providing gathering experience
US10966062B1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices
US11456887B1 (en) Virtual meeting facilitator
US11128997B1 (en) Complex computing network for improving establishment and broadcasting of audio communication among mobile computing devices and providing descriptive operator management for improving user experience
US11057232B1 (en) Complex computing network for establishing audio communication between select users on a mobile application
CN111950481A (zh) 图像中面部表情量化、识别方法及其装置、设备与介质
US10972612B1 (en) Complex computing network for enabling substantially instantaneous switching between conversation mode and listening mode on a mobile application
US11445147B2 (en) Providing for cognitive recognition in a collaboration environment
US11606465B2 (en) Systems and methods to automatically perform actions based on media content
US11115540B1 (en) Complex computing network for providing audio conversations and associated visual representations on a mobile application
US11146688B1 (en) Complex computing network for initiating and extending audio conversations among mobile device users on a mobile application
US10986469B1 (en) Complex computing network for handling dropping of users during an audio conversation on a mobile application
US11064071B1 (en) Complex computing network for generating and handling a waitlist associated with a speaker in an audio conversation on a mobile application
Dell Extending Goffman’s dramaturgy to critical discourse analysis: Ed Burkhardt’s performance after the Lac-Mégantic disaster
US20220261927A1 (en) Speed Dating Platform with Dating Cycles and Artificial Intelligence
WO2023212162A1 (en) Artificial intelligence character models with goal-oriented behavior
Bental et al. Smartening up the student learning experience with ubiquitous media
CN115623133A (zh) 线上会议方法、装置、电子设备及可读存储介质
CN113301352A (zh) 在视频播放期间进行自动聊天

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination