CN111159469B - 用户权益对象信息处理方法、装置及电子设备 - Google Patents

用户权益对象信息处理方法、装置及电子设备 Download PDF

Info

Publication number
CN111159469B
CN111159469B CN201811326722.0A CN201811326722A CN111159469B CN 111159469 B CN111159469 B CN 111159469B CN 201811326722 A CN201811326722 A CN 201811326722A CN 111159469 B CN111159469 B CN 111159469B
Authority
CN
China
Prior art keywords
user
expression
information
video image
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811326722.0A
Other languages
English (en)
Other versions
CN111159469A (zh
Inventor
施子捷
万文韬
董凌甬
李俊杰
汪志成
管裕鸿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201811326722.0A priority Critical patent/CN111159469B/zh
Publication of CN111159469A publication Critical patent/CN111159469A/zh
Application granted granted Critical
Publication of CN111159469B publication Critical patent/CN111159469B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了用户权益对象信息处理方法、装置及电子设备,该方法可以包括:获得素材信息以及表情匹配算法模型;在满足触发条件时,对用户进行视频图像采集;在视频图像采集的过程中,根据所述素材信息提供提示信息;根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。通过本申请实施例,可以提升用户参与的积极性,进而提高资源的利用率,避免造成过多的资源浪费。

Description

用户权益对象信息处理方法、装置及电子设备
技术领域
本申请涉及用户权益信息处理技术领域,特别是涉及用户权益对象信息处理方法、装置及电子设备。
背景技术
在网络销售***中,经常会向用户发放一些用户权益,例如,红包,优惠券,等等。尤其是在一些大型促销活动开始之前,这种用户权益的发放数量往往更是非常巨大。
而在传统的发放用户权益的方式下,通常是将具体的用户权益信息以卡片式的形式显示在一些特定的界面中,例如,某些活动预告页面的首页中,等等。用户通过点击“领取”按钮的方式进行领取。但是,这种方式下,由于具体的用户权益信息是静态的,以至于经常淹没在界面内其他更繁杂的信息中,容易被用户忽略。
为此,现有技术中还提供了一些改进的方案,例如,通过在特定的时间点、特定界面中提供“红包雨”等方式进行发放,用户可以在该时间点打开该特定界面,此时,会有大量“红包”从屏幕上方不断落下,用户可以通过点击具体“红包”的方式收集“红包”,每收集到一个“红包”,都可以获得相应的用户权益,例如,具体可以是一定数量的现金或者优惠券等等。但是,这种“红包雨”形式的界面处理方式已经在大量的应用中被广泛使用,因此,在网络销售平台的一些大型促销活动中,如果沿用这种处理方式,会显得缺乏新意,并且,在氛围烘托方面的作用也比较有限,以至于用户的参与度以及积极性仍然会显得不够,也造成对已经占用的相关网络资源的浪费。另外,还需要用户执行连续点击或者输入口令等的操作,因此,也会存在用户操作比较繁琐,且会对终端设备本地资源造成浪费的问题。
发明内容
本申请提供了用户权益对象信息处理方法、装置及电子设备,可以提升用户参与的积极性,简化用户操作,进而提高资源的利用率,避免造成过多的资源浪费。
本申请提供了如下方案:
一种用户权益对象信息处理方法,包括:
获得素材信息以及表情匹配算法模型;
在满足触发条件时,对用户进行视频图像采集;
在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
一种用户权益对象信息处理方法,包括:
向客户端下发素材信息以及表情匹配算法模型,以便客户端接收到领取用户权益对象的请求后,对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
接收客户端提交的用户标识以及对应的匹配结果信息;
根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
一种用户权益对象信息处理装置,包括:
资源获得单元,用于获得素材信息以及表情匹配算法模型;
视频图像采集单元,用于在满足触发条件时,对用户进行视频图像采集;
提示信息提供单元,用于在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
表情匹配单元,用于根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
匹配结果提交单元,用于将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
一种用户权益对象信息处理装置,包括:
资源提供单元,用于向客户端下发素材信息以及表情匹配算法模型,以便客户端接收到领取用户权益对象的请求后,通过终端设备的图像摄取组件对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
匹配结果接收单元,用于接收客户端提交的用户标识以及对应的匹配结果信息;
用户权益对象提供单元,用于根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得素材信息以及表情匹配算法模型;
在满足触发条件时,对用户进行视频图像采集;
在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
通过本申请实施例,可以将用户权益对象领取的过程中与视频图像采集的过程相融合,在采集用户视频图像数据的过程中,可以根据预先准备好的素材提供提示信息,用以提示用户做出对应的表情。相应的,客户端则可以利用预先获得的表情匹配算法模型,对采集到的表情图像进行表情分析,并确定是否与对应时刻的提示信息匹配。最终的匹配结果将会提交到服务器,由服务器根据该匹配结果为对应的用户提供用户权益对象。通过这种方式,使得发放用户权益对象的方式更为新颖,更能够提升用户参与的积极性,从而提高资源的利用率,避免造成过多的资源浪费。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的***架构的示意图;
图2是本申请实施例提供的第一方法的流程图;
图3-1、3-2是本申请实施例提供的界面示意图;
图4是本申请实施例提供的整体流程示意图;
图5是本申请实施例提供的第二方法的流程图;
图6是本申请实施例提供的第一装置的示意图;
图7是本申请实施例提供的第二装置的示意图;
图8是本申请实施例提供的电子设备的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,提供了新的用户权益对象发放方法,在该方法中,可以在录制视频的过程中,通过对人脸表情的识别,来进行用户权益对象的发放。具体的,可以预先提供相关的素材包,其中可以包括一些表情图片等,另外还可以预先提供表情匹配算法模型。这种素材包以及表情匹配算法模型可以预先下载到客户端所在的终端设备本地,例如,***可以提供“整点抢红包”活动,则在每个整点开始前进行素材下载,等等。具体在满足一定的触发条件后,例如,到达预订的时间点时,则可以启动视频图像采集。在采集的过程中,可以根据所述素材信息提供一些提示信息,例如,具体可以是一些图片表情等,这种提示信息可以用于提示用户做出目标表情,以赢取用户权益对象。相应的,客户端便可以根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配。这种匹配结果可以提交到服务器,服务器可以据此为所述用户提供用户权益对象。
也就是说,在本申请实施例中,可以在视频图像采集过程中,通过对人脸表情的分析,并与给出的目标表情图片等提示信息进行对比,按照匹配结果提供对应的用户权益对象。这样,可以提高用户的参与度与积极性,避免造成过多的资源浪费。
具体实现时,从***架构角度而言,参见图1,可以包括服务器与客户端两部分,其中,服务器主要用于提供各种素材信息以及相关的表情匹配算法模型等,并在最终接收到客户端提交的匹配结果后,确定出具体的用户权益对象发放方案,向对应的用户进行发放。客户端则主要用于提供前端的交互界面,与前端的用户进行交互,并进行数据采集,人脸表情的匹配运算等相关处理。其中,客户端具体可以以独立的应用程序(App)存在,或者,也可以作为一个独立应用程序(例如,可以是网络销售***提供的应用程序客户端等)中的一个功能模块等存在,或者,还可以是以网页的形式存在,用户可以通过浏览器等应用程序进行访问,等等。
下面对本申请实施例提供的具体技术方案进行详细介绍。
实施例一
首先,该实施例一从客户端的角度,提供了一种用户权益对象信息处理方法,参见图2,该方法具体可以包括:
S201:获得素材信息以及表情匹配算法模型;
其中,所谓的素材信息,就是在具体与用户进行交互的过程中所需用到的素材。具体的,在本申请实施例中,由于是在为用户采集视频图像信息的过程中,通过对人脸表情进行分析的方式,来为用户提供用户权益对象,因此,这就需要在视频图像采集的过程中,为用户提供一些提示信息。也就是说,用户可以在提示信息的提示下做出相应的表情,进而,将用户做出的表情能够与提示信息中的表情是否匹配作为最终能够获得的用户权益信息的依据。其中,这种提示信息就可以根据前述素材信息来生成,例如,具体可以是一些表情图片等。
其中,具体的素材信息通常可以是由服务器提供的。另外,除了素材信息,服务器还可以提供表情匹配算法模型,该模型可以用于进行人脸表情的分析以及匹配。例如,在某用户进行视频图像采集的过程中,在视频图像界面上层展示出提示信息,此时,用户做出相应的表情,客户端则可以进行表情分析,并利用该表情匹配算法,判断该用户做出的表情是否与提示信息相匹配。
具体实现时,客户端可以有多种方式获得上述素材信息以及表情匹配算法。例如,一种方式下,由于具体的领取用户权益对象的活动通常是一些固定的时间点举行,等等,因此,服务器可以在这种具体的时间点之前,将素材信息与表情匹配算法下发到对应的客户端。相应的,对于客户端而言,也就是在预置的时间点开始之前,接收服务器下发的素材信息以及表情匹配算法模型。这种在每次领取时间点开始之前进行下发的方式下,可以使得每个时间点的素材进行不同的配置,避免使得用户产生疲劳或者厌烦的情绪。当然,在另一种方式下,如果每个时间点都采用相同的素材信息,客户端也可以仅从服务器下载一次具体的素材以及表情匹配算法模型,之后,可以在本地进行缓存,下个时间点到达时,直接利用缓存的数据进行互动即可。
需要说明的是,在实际应用中,用户的数量众多,通常并不是所有用户都具有领取用户权益对象的需求,或者,可能并不是每个时间点都能按时参加领取。因此,如果不加区分的向每个用户都下发具体的素材以及表情匹配算法模型,则势必会造成大量的资源浪费。为此,在本申请实施例中,还可以采用报名机制,也就是说,可以在具体的领取时间点开始之前,提供相应的报名入口,在用户选择报名参加某个时间点的用户权益对象领取活动的情况下,服务器才会向其客户端下发具体的素材信息以及表情匹配算法模型,否则,将不必进行下发,以此避免造成资源的浪费。
S202:在满足触发条件时,对用户进行视频图像采集;
在本申请实施例中,是在与用户执行互动的过程中,通过收集用户的表情信息,并进行分析的方式来向其提供用户权益对象。而上述互动过程可以是由一定的触发条件来触发的。具体实现时,具体的触发条件可以有多种,例如,如前文所述,可以是时间点触发,或者,还可以是一些特定的用户行为触发,例如,某用户购买了某件商品对象后触发,等等。
在时间或者用户行为等满足预置的触发条件后,就可以启动具体的互动过程。具体的,首先就可以通过终端设备的图像摄取组件开始对用户进行视频图像采集。在本申请实施例中,由于主要是通过人脸表情分析的方式来作为提供用户权益对象的依据,因此,还可以在屏幕上提供提示框等,提示用户将人脸放入提示框内,以便获得足够清晰及完整的人脸图像。
具体实现,可以采用与当前流行的“小视频”的概念相结合的方式来进行互动。其中,所谓的“小视频”也就是时长比较短的视频,并且具体的时间长度通常可以由***来规定,例如,规定为10S,等等,也即,从录制开始进行计时,10S后自动结束录制,无需用户手动触发停止按钮,等等。在这种情况下,在通过终端设备的图像摄取组件开始对用户进行视频图像采集时,还可以进行计时,并在采集预置的时间长度后结束视频图像采集,后续步骤中的素材提供,表情分析等操作都可以是在上述视频的录制过程中来完成。也就是说,随着“小视频”的录制结束,客户端也完成了对用户表情分析以及匹配的过程。
这种通过预先统一规定视频录制时间长度的方式可以使得所有参加活动的用户都能在统一的时间内,通过表情匹配的方式来争取获得更多的用户权益,因此,可以保证公平性。当然,在其他的实现方式下,也可以是由用户自行决定何时停止录制,但是算法中仅取前N个表情进行匹配,等等。
S203:在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
如前文所述,在具体的互动过程开始之后,会启动视频图像采集的过程。在本申请实施例中,在视频采集的过程中,还可以根据具体素材信息提供相应的提示信息,例如,具体可以是一些表情图片等。具体在提供上述提示信息时,如图3-1所示,可以在采集到的实景图像的上层提供一个虚拟信息层,在该虚拟信息层中展示出具体的表情图片(如301处所示)等提示信息。另外,在互动刚开始等阶段,还可以提供文字性的提示信息,例如,在表情图片附近显示出“跟我做”等字样的提示信息,用以提示用户如何参与到互动中。
另外,在具体实现时,素材信息中的表情图片可以有多种,可以分别对应不同的表情,在视频录制的过程中,可以是多种表情图片轮流进行展示,例如,可以是表情图片从屏幕的上方开始向下方落下,等等,以使得用户可以在视频录制过程中做出多种丰富的表情。但是,在这种情况下,可能会出现多个表情图片从所述终端设备的屏幕显示区域内移动的情况,此时,用户需要去匹配哪个图片的表情,可能会是一个问题。为此,在本申请实施例中,还可以在屏幕显示区域内提供有效区域以及无效区域,其中,有效区域的面积可以比较小,例如,可以是屏幕中的一个条形区域,等等。在其中一表情图片进入所述有效区域时,可以将该表情图片进行突出显示,用于与无效区域内的表情图片相区别。例如,有效区域内的表情图片可以发出亮光,其他的表情图片则比较暗淡,等等。这样,具体在进行匹配判断时,具体可以是判断该用户的人脸表情是否与对应时刻进入到所述有效区域的表情图片中的目标表情相匹配。
S204:根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
由于能够获取到用户的人脸图像采集数据,并且提供了提示信息,因此,便可以根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配。其中,具体的表情匹配算法模型可以有多种,由于并不属于本申请实施例中保护的重点,因此这里不再详述。
为了使得用户及时获得匹配结果,还可以根据所述用户的人脸表情与对应时刻提供的提示信息中的目标表情的匹配情况,在界面中提供对应的反馈信息。例如,如图3-2所示,假设某时刻的人脸表情与该时刻对应的提示信息中的表情匹配成功,则可以做出“PERFECT”的正向反馈,如图3-2中的302处所示。否则,如果未能匹配成功,还可以给出“MISS”的负向反馈,等等。另外,还可以对正向反馈的数量进行记录,并且可以实时显示在界面中,例如,本次献上笑容数:8,等等。
S205:将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
在获得了具体的匹配结果后,可以提交到服务器中,具体实现时,可以在结束视频图像采集后,将当前关联用户的用户标识以及所述匹配结果提交到服务器,然后再由服务器以此为依据,为用户提供具体的用户权限对象。其中,具体的用户权益对象可以包括“红包”、“优惠券”等多种具体的形式。而用户权限对象的数量、权益的多少等,可以根据具体的匹配结果而定。例如,在一定时间内,成功匹配的表情数量越多,则可以获得越多的权益,等等。
另外,由于录制的过程用户的表情丰富,具有较高的趣味性,因此,在结束视频图像采集后,还可以提供用于将视频图像进行导出或者转发的操作选项。这样,用户可以将这种小视频保存在本地,或者转发给别人,除了与他人分享视频,还可以起到吸引更多用户参与到活动中来的作用。
再者,在服务器为用户分配了具体的用户权益对象后,还可以返回给对应的用户客户端。在领取了用户权益对象后,还可以为提供一些流量引导入口信息,以用于将用户流量引导至目标界面。例如,引导进入能够使用该用户权益对象的店铺页面,或者,如果在领取用户权益对象的同时,还有相关直播界面正在直播晚会类的节目,则也可以引导至具体的用户权益对象关联的直播类信息展示界面,等等。
为了刚好地理解本申请实施例提供的技术方案,下面通过一个实际应用中的例子,对本申请实施例的整体流程进行介绍。如图4所示,该例子中,可以是在一些直播类型的晚会进行过程中,提供这种互动玩法。首先,在准备期,可以预先进行资源的下载,防止在晚会直播过程中进行玩法集中下载。其中,资源的下载具体包括素材的下载及更新,算法模型的下载及更新。在客户端启动完成,可以对资源的状态进行检测,判断是否完整,等等。在晚会直播过程中,可以提供具体的玩法入口。其中,由于本申请实施例中涉及到类似于增强现实(“AR”)的技术,因此,对用户终端设备的要求相对较高,可以预先对于一些配置过低等机型生成黑名单,对于持有这类机型的用户,可以提供降级的玩法。之后,还可以再次进行资源校验,如果未下载或者不完整,则可以重新下载或者更新资源。之后,可以进行用户引导,例如,提供一些动态的提示信息等,还可以启动预览,并进行人脸检测。另外,由于可以在预置的时间点开始互动,因此,还可以在即将到达具体时间点之前进行倒计时,提示用户做好准备。在时间点到来时,则开始进行视频图像的录制。此时,玩法启动,通过在采集到的实景图像上层显示出表情图片等提示信息,提示用户做出与提示相同的表情。相应的,算法模块会进行人脸与提示信息中的表情图片的比对,并进行逻辑判断,确定是否匹配成功。根据匹配结果,还可以同步渲染出正向或者负向的反馈信息,等等。另外,在互动的过程中,还可以提供一些音乐、动画等用以烘托氛围。在互动结束后,则可以进行分数统计,并提交到服务器。服务器可以根据具体的匹配结果数据确定出需要向用户提供的用户权益对象。返回给客户端后,还可以提供流量引导,例如,引导至具体的店铺,或者具体的“晚会直播间”界面,等等。另外,还可以提供一些异常中断程序,例如,如果出现资源下载失败,或者权限获取失败,或者用户主动退出(关闭或者退出后台),或者用户被动退出(来电、关机等)等情况,可以启动异常中断处理程序。
总之,通过本申请实施例,可以将用户权益对象领取的过程中与视频图像采集的过程相融合,在采集用户视频图像数据的过程中,可以根据预先准备好的素材提供提示信息,用以提示用户做出对应的表情。相应的,客户端则可以利用预先获得的表情匹配算法模型,对采集到的表情图像进行表情分析,并确定是否与对应时刻的提示信息匹配。最终的匹配结果将会提交到服务器,由服务器根据该匹配结果为对应的用户提供用户权益对象。通过这种方式,使得发放用户权益对象的方式更为新颖,更能够提升用户参与的积极性,从而提高资源的利用率,避免造成过多的资源浪费。
实施例二
该实施例二是与实施例一相对应的,从服务器的角度,提供了一种用户权益对象信息处理方法,参见图5,该方法具体可以包括:
S501:向客户端提供素材信息以及表情匹配算法模型,以便客户端接收到领取用户权益对象的请求后,对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
S502:接收客户端提交的用户标识以及对应的匹配结果信息;
S503:根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
具体实现时,在提供用户权益对象时,还可以提供一些流量引导入口,例如,可以包括用于引导进入某店铺的入口,或者进入某直播间界面的入口,等等。
关于该实施例二的具体实现,可以参见前述实施例一中的记载,这里不再赘述。
与实施例一相对应,本申请实施例还提供了一种用户权益对象信息处理装置,参见图6,该装置具体可以包括:
资源获得单元601,用于获得素材信息以及表情匹配算法模型;
视频图像采集单元602,用于在满足触发条件时,对用户进行视频图像采集;
提示信息提供单元603,用于在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
表情匹配单元604,用于根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
匹配结果提交单元605,用于将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
具体实现时,所述资源获得单元具体可以用于在预置的时间点开始之前,接收服务器下发的素材信息以及表情匹配算法模型。
其中,所述素材信息中的提示信息包括表情图片信息,以便通过所述表情图片对所述目标表情进行提示。
所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片从所述终端设备的屏幕显示区域内移动。
具体的,所述屏幕显示区域内可以包括有效区域以及无效区域,此时,该装置还可以包括:
提出显示单元,用于在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;
所述表情匹配单元具体可以用于:
判断该用户的人脸表情是否与对应时刻进入到所述有效区域的表情图片中的目标表情相匹配。
另外,该装置还可以包括:
反馈信息提供单元,用于根据所述用户的人脸表情与对应时刻提供的提示信息中的目标表情的匹配情况,在界面中提供对应的反馈信息。
具体的,所述表情匹配单元具体还可以用于:
记录匹配成功与失败的次数信息。
具体实现时,视频图像采集单元就具体可以用于:在预置的时间点,对用户进行视频图像采集。
此时,该装置还可以包括:
时间记录单元,用于对用户进行视频图像采集时,记录开始采集的时间,并在采集预置的时间长度后结束视频图像采集;
所述匹配结果提交单元具体可以用于:
在结束视频图像采集后,将用户标识以及所述匹配结果提交到服务器。
另外,该装置还可以包括:
操作选项提供单元,用于在结束视频图像采集后,提供用于将视频图像进行导出或者转发的操作选项。
导流入口提供单元,用于在接收到服务器返回的用户权益对象分配结果后,还提供用于进行流量引导的入口,以便将用户流量引导至目标界面。
其中,所述目标界面包括所述用户权益对象关联的店铺对象对应的界面。
或者,所述目标界面包括所述用户权益对象关联的直播类信息展示界面。
与实施例二相对应,本申请实施例还提供了一种用户权益对象信息处理装置,参见图7,该装置可以包括:
资源提供单元701,用于向客户端下发素材信息以及表情匹配算法模型,以便客户端接收到领取用户权益对象的请求后,对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
匹配结果接收单元702,用于接收客户端提交的用户标识以及对应的匹配结果信息;
用户权益对象提供单元703,用于根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
另外,本申请实施例还提供了一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得素材信息以及表情匹配算法模型;
在满足触发条件时,对用户进行视频图像采集;
在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户做出目标表情;
根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配,并对匹配结果进行记录;
将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
其中,图8示例性的展示出了电子设备的架构,例如,设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图8,设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为设备800的各种组件提供电力。电源组件806可以包括电源管理***,一个或多个电源,及其他与为设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为设备800的显示器和小键盘,传感器组件814还可以检测设备800或设备800一个组件的位置改变,用户与设备800接触的存在或不存在,设备800方位或加速/减速和设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于设备800和其他设备之间有线或无线方式的通信。设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由设备800的处理器820执行以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***或***实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的***及***实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的用户权益对象信息处理方法、装置及电子设备,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。

Claims (13)

1.一种用户权益对象信息处理方法,其特征在于,包括由客户端在终端设备本地执行的以下步骤:
在用户报名参加用户权益对象领取活动的情况下,在所述用户权益对象领取活动开始之前,将对应的素材信息以及表情匹配算法模型下载到客户端所在的终端设备本地;
在满足所述用户权益对象领取活动的触发条件时,对用户进行视频图像采集;
在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户在目标时间长度内做出多种目标表情;所述提示信息包括表情图片信息,所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片在所述终端设备的屏幕显示区域内移动;所述屏幕显示区域内包括有效区域以及无效区域,在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;
根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻进入到所述有效区域的表情图片中的目标表情相匹配,并对匹配结果进行记录;
将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
2.根据权利要求1所述的方法,其特征在于,还包括:
根据所述用户的人脸表情与对应时刻提供的提示信息中的目标表情的匹配情况,在界面中提供对应的反馈信息。
3.根据权利要求1所述的方法,其特征在于:
所述对匹配结果进行记录,包括:
记录匹配成功与失败的次数信息。
4.根据权利要求1所述的方法,其特征在于,
所述在满足所述用户权益对象领取活动的触发条件时,对用户进行视频图像采集,包括:
在预置的时间点,对用户进行视频图像采集。
5.根据权利要求4所述的方法,其特征在于,还包括:
在对用户进行视频图像采集时,记录开始采集的时间,并在采集预置的时间长度后结束视频图像采集;
将用户标识以及所述匹配结果提交到服务器,包括:
在结束视频图像采集后,将用户标识以及所述匹配结果提交到服务器。
6.根据权利要求1所述的方法,其特征在于,还包括:
在结束视频图像采集后,提供用于将视频图像进行导出或者转发的操作选项。
7.根据权利要求1所述的方法,其特征在于,还包括:
在接收到服务器返回的用户权益对象分配结果后,还提供用于进行流量引导的入口,以便将用户流量引导至目标界面。
8.根据权利要求7所述的方法,其特征在于,
所述目标界面包括所述用户权益对象关联的店铺对象对应的界面。
9.根据权利要求7所述的方法,其特征在于,
所述目标界面包括所述用户权益对象关联的直播类信息展示界面。
10.一种用户权益对象信息处理方法,其特征在于,包括:
在用户报名参加用户权益对象领取活动的情况下,向客户端下发所述用户权益对象领取活动对应的素材信息以及表情匹配算法模型,以便保存在终端设备本地,客户端接收到领取用户权益对象的请求后,对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户在目标时间长度内做出多种目标表情;
其中,所述提示信息包括表情图片信息,所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片在所述终端设备的屏幕显示区域内移动;所述屏幕显示区域内包括有效区域以及无效区域,在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;以便在提供所述提示信息的过程中,根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
接收客户端提交的用户标识以及对应的匹配结果信息;
根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
11.一种用户权益对象信息处理装置,其特征在于,所述装置应用于客户端,包括:
资源获得单元,用于在用户报名参加用户权益对象领取活动的情况下,在所述用户权益对象领取活动开始之前,将对应的素材信息以及表情匹配算法模型下载到客户端所在的终端设备本地;
视频图像采集单元,用于在满足所述用户权益对象领取活动的触发条件时,对用户进行视频图像采集;
提示信息提供单元,用于在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户在目标时间长度内做出多种目标表情;所述提示信息包括表情图片信息,所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片在所述终端设备的屏幕显示区域内移动;所述屏幕显示区域内包括有效区域以及无效区域,在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;
表情匹配单元,用于根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻进入到所述有效区域的表情图片中的目标表情相匹配,并对匹配结果进行记录;
匹配结果提交单元,用于将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
12.一种用户权益对象信息处理装置,其特征在于,包括:
资源提供单元,用于在用户报名参加用户权益对象领取活动的情况下,向客户端下发所述用户权益对象领取活动对应的素材信息以及表情匹配算法模型,以便保存在终端设备本地,客户端接收到领取用户权益对象的请求后,通过终端设备的图像摄取组件对用户进行视频图像采集,在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户在目标时间长度内做出多种目标表情;
其中,所述提示信息包括表情图片信息,所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片在所述终端设备的屏幕显示区域内移动;所述屏幕显示区域内包括有效区域以及无效区域,在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;以便在提供所述提示信息的过程中,根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,并判断该用户的人脸表情是否与对应时刻提供的提示信息中的目标表情相匹配;
匹配结果接收单元,用于接收客户端提交的用户标识以及对应的匹配结果信息;
用户权益对象提供单元,用于根据所述匹配结果向所述用户对应的客户端返回用户权益对象。
13.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
在用户报名参加用户权益对象领取活动的情况下,在所述用户权益对象领取活动开始之前,将对应的素材信息以及表情匹配算法模型下载到客户端所在的终端设备本地;
在满足所述用户权益对象领取活动的触发条件时,对用户进行视频图像采集;
在视频图像采集的过程中,根据所述素材信息提供提示信息,所述提示信息用于提示用户在目标时间长度内做出多种目标表情;所述提示信息包括表情图片信息,所述表情图片为多个,在所述视频图像采集的过程中,所述多个表情图片在所述终端设备的屏幕显示区域内移动;所述屏幕显示区域内包括有效区域以及无效区域,在其中一表情图片进入所述有效区域时,将该表情图片进行突出显示,用于与无效区域内的表情图片相区别;
根据所述表情匹配算法模型,对所述所述视频图像采集过程中的人脸图像信息进行人脸表情分析,判断该用户的人脸表情是否与对应时刻进入到所述有效区域的表情图片中的目标表情相匹配,并对匹配结果进行记录;
将当前关联用户的用户标识以及所述匹配结果提交到服务器,由所述服务器根据所述匹配结果为所述用户提供用户权益对象。
CN201811326722.0A 2018-11-08 2018-11-08 用户权益对象信息处理方法、装置及电子设备 Active CN111159469B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811326722.0A CN111159469B (zh) 2018-11-08 2018-11-08 用户权益对象信息处理方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811326722.0A CN111159469B (zh) 2018-11-08 2018-11-08 用户权益对象信息处理方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111159469A CN111159469A (zh) 2020-05-15
CN111159469B true CN111159469B (zh) 2024-04-09

Family

ID=70554943

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811326722.0A Active CN111159469B (zh) 2018-11-08 2018-11-08 用户权益对象信息处理方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111159469B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887782A (zh) * 2021-01-19 2021-06-01 维沃移动通信有限公司 图像输出方法、装置及电子设备
CN113409067B (zh) * 2021-05-07 2023-06-06 支付宝(杭州)信息技术有限公司 一种用户交互方法、装置以及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016110182A1 (zh) * 2015-01-07 2016-07-14 腾讯科技(深圳)有限公司 匹配表情图像的方法、装置及终端
CN108256835A (zh) * 2018-01-10 2018-07-06 百度在线网络技术(北京)有限公司 电子红包的实现方法、装置及服务器
CN108616761A (zh) * 2018-05-23 2018-10-02 广州华多网络科技有限公司 多人视频交互方法、装置、***、存储介质和计算机设备
CN108665294A (zh) * 2017-03-30 2018-10-16 阿里巴巴集团控股有限公司 虚拟资源对象处理方法、装置及计算机***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734410B2 (en) * 2015-01-23 2017-08-15 Shindig, Inc. Systems and methods for analyzing facial expressions within an online classroom to gauge participant attentiveness

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016110182A1 (zh) * 2015-01-07 2016-07-14 腾讯科技(深圳)有限公司 匹配表情图像的方法、装置及终端
CN108665294A (zh) * 2017-03-30 2018-10-16 阿里巴巴集团控股有限公司 虚拟资源对象处理方法、装置及计算机***
CN108256835A (zh) * 2018-01-10 2018-07-06 百度在线网络技术(北京)有限公司 电子红包的实现方法、装置及服务器
CN108616761A (zh) * 2018-05-23 2018-10-02 广州华多网络科技有限公司 多人视频交互方法、装置、***、存储介质和计算机设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
从FB表情包大战看网络表情的传播优势;吴德胜;张梦宁;于娇娇;;科技传播;20160708(13);全文 *
基于人脸表情识别的呼叫中心座席服务质量监控应用研究;杨晓艺;谢俊武;张峰;;电子设计工程;20170720(14);全文 *

Also Published As

Publication number Publication date
CN111159469A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN105843615B (zh) 通知消息的处理方法及装置
CN105488112B (zh) 信息推送方法及装置
CN112069358B (zh) 信息推荐方法、装置及电子设备
CN111783001A (zh) 页面显示方法、装置、电子设备和存储介质
CN106331761A (zh) 直播列表显示方法及装置
CN109461462B (zh) 音频分享方法及装置
CN109685538B (zh) 资源领取信息处理方法、装置及电子设备
US20210311699A1 (en) Method and device for playing voice, electronic device, and storage medium
CN112633945B (zh) 落地页投放方法、投放数据处理方法、装置、设备及介质
CN106550252A (zh) 信息的推送方法、装置及设备
US20220078221A1 (en) Interactive method and apparatus for multimedia service
CN113573092B (zh) 直播数据处理方法、装置、电子设备及存储介质
CN109766473B (zh) 信息交互方法、装置、电子设备及存储介质
CN106547850B (zh) 表情注释方法及装置
CN110234030A (zh) 弹幕信息的显示方法及装置
CN112464031A (zh) 交互方法、装置、电子设备以及存储介质
CN111159469B (zh) 用户权益对象信息处理方法、装置及电子设备
CN113553472B (zh) 信息展示方法、装置、电子设备及存储介质
CN109521938B (zh) 数据评价信息的确定方法、装置、电子设备及存储介质
CN108984098B (zh) 基于社交软件的信息显示的控制方法及装置
CN112948704A (zh) 用于信息推荐的模型训练方法、装置、电子设备以及介质
CN113988021A (zh) 内容互动方法、装置、电子设备及存储介质
CN107872620B (zh) 视频录制方法及装置、计算机可读存储介质
CN107247794B (zh) 直播中的话题引导方法、直播装置及终端设备
CN111698532B (zh) 弹幕信息的处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant