CN115065835A - 直播的表情显示处理方法、服务器、电子设备及存储介质 - Google Patents

直播的表情显示处理方法、服务器、电子设备及存储介质 Download PDF

Info

Publication number
CN115065835A
CN115065835A CN202210556119.1A CN202210556119A CN115065835A CN 115065835 A CN115065835 A CN 115065835A CN 202210556119 A CN202210556119 A CN 202210556119A CN 115065835 A CN115065835 A CN 115065835A
Authority
CN
China
Prior art keywords
special effect
expression
anchor
face
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210556119.1A
Other languages
English (en)
Inventor
曾家乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Cubesili Information Technology Co Ltd
Original Assignee
Guangzhou Cubesili Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Cubesili Information Technology Co Ltd filed Critical Guangzhou Cubesili Information Technology Co Ltd
Priority to CN202210556119.1A priority Critical patent/CN115065835A/zh
Publication of CN115065835A publication Critical patent/CN115065835A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请公开了直播的表情显示处理方法、服务器、电子设备及存储介质,所述方法包括:获取主播对应的主播终端的直播视频流;从直播视频流中获取具有主播的人脸的目标图像;对目标图像进行特效处理,得到人脸特效表情;或者,将目标图像发送至主播终端,并接收主播终端对目标图像进行特效处理后所得到的人脸特效表情;将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送。通过上述方式,本申请能够丰富在直播过程中的发送的表情。

Description

直播的表情显示处理方法、服务器、电子设备及存储介质
技术领域
本申请涉及直播技术领域,特别是涉及直播的表情显示处理方法、服务器、电子设备及存储介质。
背景技术
随着直播行业的快速发展,直播成为了人们通过互联网娱乐的一种重要方式。在直播过程中,主播在主播终端进行表演,用户可以在观众终端对主播的表演进行观看,也可以通过观众终端跟主播进行互动。
用户在直观看播的过程中,可以通过观众终端在直播间界面的公屏中发表自己的评论与其他观众或者与主播进行互动,评论的内容可以包括文字,也可以包括表情,但是在现有的直播中,在评论时能够发送的表情较为单一,从而降低用户在观看直播过程中发送表情进行互动的兴趣。
发明内容
本申请主要解决的技术问题是提供直播的表情显示处理方法、服务器、电子设备及存储介质,能够丰富在直播过程中的发送的表情。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种直播的表情显示处理方法,该方法包括:获取主播对应的主播终端的直播视频流;从直播视频流中获取具有主播的人脸的目标图像;对目标图像进行特效处理,得到人脸特效表情;或者,将目标图像发送至主播终端,并接收主播终端对目标图像进行特效处理后所得到的人脸特效表情;将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种直播的表情显示处理方法,该方法包括:接收服务器发送的基于具有主播的人脸的目标图像生成的主播的人脸特效表情;在直播间界面显示人脸特效表情,以供用户在直播间界面中选择发送。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种服务器,该服务器包括:处理器、存储器和通信电路;存储器和通信电路耦接处理器,存储器存储有计算机程序,处理器能够执行计算机程序以实现如上述本申请提供的直播的表情显示处理方法。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种电子设备,该电子设备包括:处理器、存储器和通信电路;存储器和通信电路耦接处理器,存储器存储有计算机程序,处理器能够执行计算机程序以实现如上述本申请提供的直播的表情显示处理方法。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种计算机可读的存储介质,该存储介质存储有计算机程序,计算机程序能够被处理器执行以实现如上述本申请提供的直播的表情显示处理方法。
本申请的有益效果是:区别于现有技术的情况,获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,然后将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送,由于现有技术中用户在发表评论过程中可以发表的表情大多都是***中预先设定的表情,例如emoji表情,通过获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,能够使用户在选择表情进行发送的时候选择主播的人脸特效表情,如此能够丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
附图说明
图1是本申请直播***实施例的***组成示意图;
图2是本申请直播的表情显示处理方法第一实施例的流程示意图;
图3是本申请直播的表情显示处理方法第一实施例的时序示意图;
图4是本申请直播的表情显示处理方法第一实施例直播间界面的示意图;
图5是本申请直播的表情显示处理方法第二实施例的流程示意图;
图6是本申请服务器实施例的电路结构示意图;
图7是本申请电子设备实施例的电路结构示意图;
图8是本申请计算机可读的存储介质实施例的电路结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
随着直播行业的快速发展,直播成为了人们通过互联网娱乐的一种重要方式。在直播过程中,主播在主播终端进行表演,用户可以在观众终端对主播的表演进行观看,也可以通过观众终端跟主播进行互动。主播的直播画面可以在个人直播间进行呈现。在用户和主播进行互动的过程中,用户和主播都可以在发言框中输入想要表达的内容,如文字、表情等,点击发送即可将输入的内容发送到直播间的公屏中,当前处于直播间的所有用户都可以看到发送的内容,从而实现用户与用户以及用户与主播之间的评论互动。
发明人经过长期研究发现,在用户发表评论的过程中,评论的内容只能包括文字和服务器中预先设置的表情,例如emoji表情,导致所有的用户在发送的表情过于单一,并且使得表情无法与主播进行互动,从而降低直播过程中用户发送表情的兴趣,进而导致降低直播过程中用户与主播之间的互动性。为了改善上述技术问题,本申请提出以下实施例。
如图1所示,本申请直播***实施例描述的直播***1可以包括服务器10、主播终端20以及观众终端30。主播终端20和观众终端30可以为电子设备,具体地,主播终端20和观众终端30为安装有相应客户端程序的电子设备,也即客户终端。电子设备可以是移动终端、计算机、服务器或者其他终端等,移动终端可以是手机、笔记本电脑、平板电脑、智能穿戴设备等,计算机可以是台式电脑等。
服务器10可以从主播终端20中对直播数据流拉流,并可以将获取的直播数据流进行相应的处理后推流到观众终端30。观众终端30获取到直播数据流后即可观看主播或者嘉宾的直播过程。直播数据流的混流可以发生在服务器10、主播终端20和观众终端30中的至少一方。主播终端20和主播终端20之间、主播终端20和观众终端30之间均可以进行视频连麦或语音连麦。在视频连麦中,连麦方可以将包括视频流在内的直播数据流推送到服务器10,进而将相应的直播数据推送至相应的连麦方以及观众终端30。主播终端20和观众终端30能够在直播间中显示到相应的直播画面。具体地,服务器10例如可以是服务器集群,不仅可以用来进行直播数据流的采集和推流,还可以进一步用于处理业务请求和相关事项,例如存储和处理直播过程中产生的与业务相关的数据,例如可以处理虚拟礼物赠送、虚拟币充值和消费、公屏信息收发、鉴权认证、连麦以及自动鉴定敏感词/画面等。
当然,主播终端20和观众终端30是相对而言的,处于在直播过程中的终端为主播终端20,处于观看直播过程的终端为观众终端30。
如图2所示,本申请直播间评论的展示方法第一实施例可以以服务器10为执行主体。本实施例可以包括如下步骤:S100:获取主播对应的主播终端的直播视频流。S200:从直播视频流中获取具有主播的人脸的目标图像。S300:对目标图像进行特效处理,得到人脸特效表情;或者,将目标图像发送至主播终端,并接收主播终端对目标图像进行特效处理后所得到的人脸特效表情。S400:将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送。
获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,然后将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送,由于现有技术中用户在发表评论过程中可以发表的表情大多都是***中预先设定的表情,例如emoji表情,通过获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,能够使用户在选择表情进行发送的时候选择主播的人脸特效表情,如此能够丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
本实施例描述的方法可应用于对直播间界面的评论中包括的表情显示的场景,如图3和图4所示,以下对本实施例以服务器10为执行主体进行详细描述。
S100:获取主播对应的主播终端的直播视频流。。
主播可以通过主播终端20进行直播,在主播进行直播的过程中所产生直播视频流可以被存储在主播终端20。具体地,直播视频流可以是主播在直播过程中的画面采集形成的视频流,通过将直播视频流存储在主播终端20中,一方案可以通过主播终端20将直播视频流上传到服务器10中,从而通过服务器10分发到观众终端30中以供用户观看,另一方案主播可以在主播终端20回放观看存储的直播视频流。通过主播对应的主播终端20将主播在直播过程中产生的直播视频流上传到服务器10中,服务器10可以获取到对应得到直播视频流,从而服务器10可以对获取到的直播视频流进行处理。
S200:从直播视频流中获取具有主播的人脸的目标图像。
直播视频流可以是由若干帧连续的直播图像组成的视频流。具体地,从直播视频流中获取具有主播的人脸的目标图像可以是在若干帧连续的直播图像中确定具有主播的人脸的至少部分帧图像以作为目标图像。
目标图像可以是具有主播的人脸的且用于生成人脸特效的图像。具体地,主播的人脸可以是指在直播过程中,主播出现在直播画面中,并且用户能够观看到主播的人脸。
在一种实现方式中,对于如何从直播视频流中获取具有主播的人脸的目标图像,可以参考S200包括的如下步骤:
S210:从直播视频流中获取多张直播图像。
由于直播视频流可以是由若干帧连续的直播图像组成的,故在获取目标图像的过程中,可以先从直播视频流中获取多张直播图像。具体地,在获取多张直播图像的过程中,可以是在预设时长内获取预设数量的直播图像,如在10分钟内获取60张直播图像,也可以是每隔预设时长获取视频流中的一帧直播图像,从而得到多张直播图像,如在直播视频流中每隔30秒获取一帧直播图像,直到直播视频流结束,从而得到多张直播图像。
S220:通过预设人脸识别神经网络识别多张直播图像中的人脸以确定具有主播的人脸的多张待处理图像。
预设人脸识别神经网络可以是服务器10中预先设置的用于识别图像中的人脸的网络。预设人脸识别神经网络可以是服务器10通过对大量的数据进行训练得到的网络,具体地,服务器10可以采集大量具有人脸的图像,对采集到的图像进行人工标识人脸点,服务器10可以通过神经网络对进行人工标识人脸点后的图像进行训练,从而可以得到一个可以识别人脸的网络,即预设人脸识别神经网络。
通过将获取到的多张直播图像输入预设人脸识别神经网络,判断直播图像中是否具有主播的人脸,根据预设人脸识别神经网络的输出结果可以快速确定出多张直播图像中具有主播的人脸的待处理图像,有利于提高对直播图像进行识别和处理的效率和准确性。
S230:通过预设脸部表情识别网络对多张待处理图像中的脸部表情进行识别,以识别出符合预设脸部表情要求的待处理图像。
预设脸部表情要求可以是服务器10中预先设置的用于在直播图像中筛选目标图像的要求。具体地,预设脸部表情要求的直播图像可以是具有主播的人脸,并且符合表情要求的图像,通过从直播图像中确定出符合预设脸部表情要求的图像作为具有主播的人脸的目标图像,可以便于后续基于目标图像的人脸的表情对目标图像进行特效处理,进而便于生成人脸特效表情。具体地,预设脸部表情识别网络可以是服务器10通过对大量的数据进行训练得到的网络,具体地,服务器10可以采集大量具有各种表情的人脸图像,对采集到的人脸图像进行人工标识表情,服务器10可以通过神经网络对进行人工标识表情后的人脸图像进行训练,从而可以得到一个可以判别人脸表情识别的网络,即预设脸部表情识别网络。
将确定出的多张待处理图像输入预设脸部表情识别网络,通过预设脸部表情识别网络判断输入的待处理图像是否预设脸部表情要求,从而可以快速从待处理图像中确定出符合预设脸部表情要求的待处理图像。举例来说,若预设脸部表情要求为微笑,将确定出的50张待处理图像依次输入预设脸部表情识别网络,通过预设脸部表情识别网络识别出有30张脸部表情为微笑的待处理图像,从而确定出多张待处理图像中符合预设脸部表情要求的待处理图像。
在一种实现方式中,S220可以包括如下步骤:
S221:判断直播图像中的人脸在直播图像中的面积占比是否达到预设阈值以及直播图像中的人脸的呈现完整性是否符合预设条件。
直播图像中的人脸在直播图像中的面积占比可以是指直播图像中的人脸的面积在直播图像的面积中所占的比例,也可以是通过人脸所占的像素点在直播图像所占的像素点中所占的比例。
预设阈值可以是服务器10中预先设置的阈值,通过判断直播图像中的人脸在直播图像中的面积占比是否达到预设阈值,可以判断人脸的大小相对于屏幕的大小是否足够大。
预设条件可以是服务器10中预先设置的用于判断直播图像中的人脸的呈现完整性的条件,通过判断直播图像中的人脸的呈现完整性,可以判断直播图像中的人脸是否被遮挡或者是否只显示半边脸或者人脸的角度是否符合预设条件。
通过将人脸在直播图像中的面积占比控制在达到预设阈值,以及直播图像中的人脸的呈现完整性符合预设条件,能够有效提高对人脸进行特效处理的准确性。
S222:若面积占比达到预设阈值且呈现完整性符合预设条件,则将直播图像确定为待处理图像。
若面积占比达到预设阈值且呈现完整性符合预设条件,则可以认为直播图像中的人脸可以用于进行特效处理,进而可以将直播图像确定为待处理图像。举例来说,若预设阈值为50%,且呈现完整性的预设条件为人脸遮挡或缺失不超过5%,当获取到的直播图像中人脸的面积占比为70%,并且人脸在直播图像中完整呈现,没有遮挡或缺失时,此时,则可以将该直播图像确定为待处理图像。
S240:基于预设切割网络对符合预设脸部表情要求的待处理图像中从背景中分割出来,得到具有主播的人脸的目标图像。
预设切割网络可以是服务器10中预先设置的用于将待处理图像从直播图像中分割出来的网络。直播图像可以包括具有主播的人脸的目标图像和背景,具有主播的人脸的目标图像可以包括主播的人脸和主播的躯干。通过预设切割网络可以将具有主播的人脸和/或主播的躯干的目标图像从背景中分割出来,得到具有主播的人脸的目标图像,一方面可以将目标图像的大小进行压缩,从而降低服务器10处理的负载,另一方面便于在对目标图像进行特效处理时的准确性,降低背景对特效处理过程的干扰。
在一种实现方式中,在S200之后可以包括如下步骤:
S250:标注具有主播的人脸的目标图像的表情信息。
表情信息可以是对目标图像中的表情进行标识的信息,在确定出具有主播的人脸的目标图像后,可以对目标图像对应的表情信息进行标注,从而能够便于在对目标图像进行特效处理的过程中对应不同表情类型的特效。举例来说,若确定出的具有主播的人脸的目标图像中的表情为微笑,则对该具有主播的人脸的目标图像的表情信息进行标注为微笑。通过对目标图像的表情信息进行标注,一方面能够便于对不同表情类型的图像确定对应的特效,另一方面便于对目标图像进行管理和分类。
S260:将标注后的具有主播的人脸的目标图像保存到预设数据库中,以形成目标图像列表。
预设数据库可以是服务器10中用于保存目标图像的数据库,目标图像列表可以是存储于预设数据库中的列表,具体地,目标图像列表中的目标图像都具有对应的标注的表情信息。通过将标注后的具有主播人脸的目标图像保存在预设数据库中,能够便于对目标图像进行管理和保存,同时也能够便于对目标图像进行取用。
S300:对具有主播的人脸的目标图像进行特效处理,得到人脸特效表情;或者,将具有主播的人脸的目标图像发送至主播终端,并接收主播终端对具有主播的人脸的目标图像进行特效处理后所得到的人脸特效表情。
人脸特效表情可以是对目标图像中的人脸的表情进行特效处理后所得到的表情。举例来说,若目标图像中的人脸的表情为微笑,则可以通过特效处理为动漫的微笑表情,从而得到目标图像对应的人脸特效表情。
特效处理可以是通过对目标图像进行处理,从而得到呈现与目标图像不同的视觉效果的处理。在对目标图像进行处理的过程中,具有两种处理方式,一种是可以直接在服务器10中对具有主播的人脸的目标图像进行特效处理,得到人脸特效表情。另一种是可以将具有主播的人脸的目标图像发送至主播终端20,通过主播终端20对具有主播的人脸的目标图像进行特效处理得到人脸特效表情,并且可以将得到的人脸特效表情发回服务器10,服务器可以10接收主播终端20发送的人脸特效表情。在一种实现方式中,S300可以包括的如下步骤:
S310:判断预设数据库保存的主播对应的具有主播的人脸的目标图像的数量是否达到预设数量阈值。
S320:若达到预设数量阈值,则将主播对应的目标图像列表和预设表情特效列表发送至主播终端。
预设数量阈值可以是服务器10中预先设置的阈值。为了降低主播终端20多次向服务器10发送目标图像造成主播终端20和服务器10之间多次数据传输造成负载过大,可以通过判断预设数据库中保存的目标图像达到预设数量阈值之后,服务器10再一起将这些目标图像形成的目标图像列表发送给主播终端20,从而能够减少主播终端20向服务器10发送数据的次数,有利于提高处理效率并减小工作负载。
在将目标图像列表发送给主播终端20的过程中,服务器10可以同时将服务器10中预设的表情特效列表发送给主播终端20,从而使得主播终端20可以基于目标图像列表和预设表情特效列表对目标图像进行特效处理。
S330:接收主播终端利用预设表情特效列表中与表情信息对应的特效对目标图像列表中相应的具有主播的人脸的目标图像进行特效处理所得到的人脸特效表情。
主播终端20在接收到预设表情特效列表和目标图像列表后,可以基于目标图像列表中的目标图像所对应的表情信息确定相对应的预设表情特效列表中的表情特效,进而利用确定出的表情特效对相应的目标图像集进行特效处理,得到人脸特效表情,服务器10可以从主播终端20中获取到生成的人脸特效表情。
S400:将人脸特效表情发送至观众终端,以使得观众终端的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送。
服务器10在接收到主播终端20发送的人脸特效表情之后,可以将人脸特效表情发送到观众终端30中,以使用户能够在观众终端30中显示人脸特效表情,如图4所示,图4中的主播专属栏可以用于存放主播对应的人脸特效表情,进而可以供用户在直播间界面中选择发送人脸特效表情,以丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
在一种实现方式中,对于如何将人脸特效表情发送至观众终端30,可以参考S400包括的如下步骤:
S410:响应于观众终端处于主播的直播间时发送的主播表情列表打开请求,将主播的各人脸特效表情发送至观众终端。
主播表情列表可以是用于存放主播对应的人脸特效表情的列表,用户可以打开该主播表情列表,并选择主播表情列表中的人脸特效表情进行发送。具体地,主播的直播间中的主播表情列表可以是具有该主播的人脸的人脸特效表情。
当用户进入对应主播的直播间,打开主播表情列表时,用户对应的观众终端30可以向服务器10发送主播表情列表打开请求,当服务器10接收到观众终端30发出的播表情列表打开请求时,可以将该主播对应的人脸特效表情发送至对应的观众终端30,以使用户能够在观众终端的播表情列表中观看到主播的人脸特效表情,并且选择发送该人脸特效表情。
在一种实现方式中,在将人脸特效表情发送至观众终端30之后,可以包括如下步骤:
S420:响应于观众终端处于主播的直播间时发送的表情发送指令,将表情发送指令所对应的人脸特效表情发送至主播对应的直播间的其他用户终端,进而显示在直播间的公屏和/或弹幕中。
表情发送指令可以是指用户通过观众终端30选择并发送人脸特效表情时,观众终端30向服务器10发出的指令。服务器10在接收到观众终端30发出的表情发送指令后,可以将该表情发送指令对应的人脸特效表情发送至主播对应的直播间的其他用户对应的观众终端30,从而能够使主播对应的直播间的其他用户也能够通过观众终端30在直播间的公屏和/弹幕中观看到人脸特效表情。
S430:将已发送过的人脸特效表情对应的表情ID存储于观众终端对应的用户的可使用表情列表。
表情ID可以是用于标识人脸特效表情的ID,不同的人脸特效表情具有唯一对应的表情ID。可使用表情列表可以是用于存放用户可以在直播间进行选择并发送的人脸特效表情的列表。
用户在主播的直播间发送过某个主播的人脸特效表情之后,即可认为该用户获得了使用该人脸特效表情的权限,也就是说,用户可以在该人脸特效表情对应的主播的直播间,以及其他主播的直播间使用该人脸特效表情,进而可以将该人脸特效表情对应的表情ID存储于该用户对应的观众终端30中的可使用表情列表中。
S440:响应于观众终端发送的可使用表情列表打开请求,将可使用表情列表发送至观众终端,以使得观众终端在当前直播间的直播间界面上能够显示可使用表情列表的各人脸特效表情,供用户在观看当前直播间时选择发送。
可使用表情列表可以是用户对应观众终端30中用于存储用户可以进行选择并发送的表情列表,可使用表情列表中可以包括人脸特效表情。
可使用表情列表打开请求可以是用户在观众终端30中打开可使用表情列表时,观众终端30向服务器10发送的请求。服务器10在接收到观众终端30发送的可使用表情列表打开请求后,可以将可使用表情列表发送至与可使用表情列表打开请求对应的观众终端30中,以使观众终端30在当前的直播间的直播间界面上能够显示可使用表情列表的各人脸特效表情,进而可以供用户在观看当前直播间时选择发送。
S450:响应于观众终端在当前直播间的直播间界面上基于用户选择发送人脸特效表情所生成的表情发送指令,获取人脸特效表情所对应的主播的开播状态信息。
当前直播间可以是指除该人脸特效表情对应的主播的直播间以外的其他直播间。当用户在当前直播间的直播间界面上选择发送人脸特效表情时,该用户对应的观众终端30可以向服务器10发送表情发送指令,服务器10在接收到表情发送指令后,可以获取该表情发送指令对应的主播的开播状态信息,也就是该人脸特效表情对应的主播的开播状态信息。举例来说,若用户甲当前所在的直播间对应的主播为主播A,此时,用户甲想要在主播A对应的直播间中发送某个人脸特效表情a,而该人脸特效表情a对应的主播为主播B,此时,服务器10则可以响应于观众终端30发出的表情发送指令获取主播B的开播状态信息。
S460:将开播状态信息发送至观众终端,以使得观众终端在当前直播间的直播间界面的人脸特效表情进行与开播状态信息指示的开播状态相匹配的处理。
服务器10在获取到人脸特效表情对应的主播的开播状态信息后,可以将开播状态信息发送至观众终端30,观众终端30在接收到开播状态信息后,可以基于开播状态信息在观众终端30当前直播间的直播间界面的人脸特效表情进行相匹配的处理。具体地,若开播状态为开播过程中,经处理过的人脸特效表情可供触发跳转至人脸特效表情对应的主播的直播间。
在一种实现方式中,本申请直播的表情显示处理方法第一实施例还可以包括如下步骤:
S510:累计各人脸特效表情的使用以及触发的总次数。
S520:判断总次数是否达到预设使用阈值。
S530:若达到预设使用阈值,则基于人脸特效表情的使用次数以及触发次数生成使用情况数据。
S540:将使用情况数据发送给人脸表情特效对应的主播终端。
预设使用阈值可以是服务器10中预先设置的阈值。服务器10可以累计每个人脸特效表情的使用以及触发的总次数,并判断该累计的总次数是否到达预设使用阈值,若到达预设使用阈值,则可以基于人脸特效表情的使用次数和触发次数生成使用情况数据,通过服务器10将使用情况数据发送给该人脸特效表情对应的主播对应的主播终端20,以使主播能够更加直观和清楚的了解到自己的人脸特效表情的使用情况,进而便于主播对人脸特效表情进行管理。
具体地,在判断各人脸特效表情的使用以及触发的总次数是否达到预设使用阈值的过程中,可以按照预设的比例进行计算,如使用次数+触发次数*10>预设使用阈值。
获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,然后将人脸特效表情发送至观众终端30,以使得观众终端30的直播间界面上能够显示人脸特效表情,进而供用户在直播间界面中选择发送,由于现有技术中用户在发表评论过程中可以发表的表情大多都是***中预先设定的表情,例如emoji表情,通过获取基于具有主播的人脸的目标图像生成的主播的人脸特效表情,能够使用户在选择表情进行发送的时候选择主播的人脸特效表情,如此能够丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
如图5所示,本申请直播的表情显示处理方法第二实施例可以以观众终端30为执行主体,本实施例可以包括:S600:接收服务器发送的基于具有主播的人脸的目标图像生成的主播的人脸特效表情。S700:在直播间界面显示人脸特效表情,以供用户在直播间界面中选择发送。
观众终端30在接收到服务器10发送的基于具有主播的人脸的目标图像生成的主播人脸特效表情后,可以在观众终端30的直播间界面显示人脸特效表情,进而用户可以在观众终端30的直播间界面中选择发送人脸特效表情,如此能够丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
S600:接收服务器发送的基于具有主播的人脸的目标图像生成的主播的人脸特效表情。
观众终端30可以接收服务器10发送的具有主播的人脸的目标图像生成的人脸特效表情,用于在观众终端30中进行显示和供用户在直播间界面中进行选择发送。
在一种实现方式中,S600可以包括如下步骤:
S610:处于主播的直播间时向服务器发送表情发送指令。
当用户处于主播的直播间并且想要发送人脸特效表情时,可以通过观众终端30向服务器10发送表情发送指令,对于表情发送指令的具体描述可以参考本申请主播的表情显示处理方法第一实施例S420中的描述,此处不再赘述。
S620:接收服务器响应于表情发送指令所发送的人脸特效表情。
服务器10在接收到观众终端30发送的表情发送指令后,可以响应表情发送指令向观众终端30发送人脸特效表情,观众终端30可以接收服务器10发送的人脸特效表情,以使观众终端30的直播间界面能够显示人脸特效表情,进而可以供用户在观众终端30进行选择并发送人脸特效表情。
S700:在直播间界面显示人脸特效表情,以供用户在直播间界面中选择发送。
观众终端30在接收到服务器10发送的人脸特效表情后,可以在直播间界面显示人脸特效表情,用户可以通过观众终端30在直播间界面中选择发送,从而能够丰富在直播过程中可以选择发送的表情,使用户在发送表情的时候具有更多的选择性,从而有利于提高用户在直播间进行互动的兴趣,进而有利于提高用户的使用体验感。
在一种实现方式中,对于如何在直播间界面显示人脸特效表情,可以参考S700包括的如下步骤:
S710:在直播间界面显示人脸特效表情以及人脸特效表情的使用权限信息。
使用权限信息可以是人脸特效表情对应的主播进行对使用人脸特效表情的权限进行限制的信息。具体地,使用权限可以包括是否私人、直播间内用户达到一定等级后能使用,直播间内公开使用以及购买后整个平台公开使用、整个平台免费公开使用这五种形式。主播可以在主播终端20基于目标图像列表和预设表情特效列表对目标图像进行特效处理的过程中,同时对人脸特效表情的使用权限进行设置。在直播间界面显示人脸特效表情的同时,可以对人脸特效表情对应的使用权限信息进行显示。
在一种实现方式中,本申请直播的表情显示处理方法第二实施例还可以包括如下步骤:
S810:当用户在直播间使用其他主播对应的人脸特效表情时,将人脸特效表情所对应的主播ID上传到服务器中以获取主播ID对应的主播的开播情况。
对于将人脸特效表情所对应的主播ID上传到服务器10的描述可以参考本申请直播的表情显示处理方法第一实施例S230和S250的描述,此处不再赘述。
在一种实现方式中,对于如何获取主播ID对应的主播的开播情况,可以参考S810包括的如下步骤:
S811:判断主播ID是否在服务器的开播列表中。
S812:若在开播列表中,则认为开播情况为开播过程中。
S813:若不在开播列表中,则认为开播情况为未开播。
开播列表可以是服务器10中用于统计整个平台的所有正在开播的主播的列表。具体地,开播列表中可以存储整个平台中所有正在开播的主播对应的主播ID。通过判断主播对应的主播ID是否在开播列表中,则可以确定该主播是否正在开播。也就是说,若主播ID在开播列表中,则可以认为主播的开播情况为开播过程中,若主播ID不在开播列表中,则可以认为主播的开播情况为未开播。
S820:若开播情况为开播过程中,则接收服务器下发的开播信息和预设背景特效资源。
开播信息可以包括开播情况为开播过程中的主播正在进行直播的直播间ID、主播ID以及频道号等可以用于标识该直播间的信息。预设背景特效资源可以是服务器10中预先设置的。
若获取到的开播情况为正在开播中,则服务器10可以向观众终端30下发开播信息和预设背景特效资源,观众终端30可以基于接收到的开播信息和预设背景特效资源对人脸特效表情进行相匹配的处理。
S830:将预设背景特效资源加入人脸特效表情中进行显示,并在直播间中的所有用户长按人脸特效表情时跳转至人脸特效表情对应的主播的直播间。
将预设背景特效资源加入人脸特效表情中进行显示,可以是在人脸特效表情上增加外扩光圈的特效,并且在直播间中的所有用户长按人脸特效表情时,可以基于开播信息跳转至人脸特效表情对应的主播的直播间。当用户长按人脸特效表情时,可以认为用户通过人脸特效表情进行了触发,可以对该人脸特效表情对应的累计的触发次数进行加一。通过用户长按人脸特效表情跳转到对应的主播的直播间,可以实现通过人脸特效表情增加主播的影响力和人气,进而增加直播间的活跃度。
S840:若开播情况为未开播,则在直播间中的所有用户长按人脸特效表情时,显示人脸特效表情对应的主播对应的信息数据。
信息数据可以是该人脸特效表情对应的主播的主播ID、头像、昵称等可以用于让用户了解该主播的数据。
若获取到的开播情况为未开播,则可以在直播间中的所有用户长按人脸特效表情时,显示人脸特效表情对应的主播对应的信息数据。具体地,可以在直播间的所有用户长按人脸特效表情时,显示该人脸特效表情对应的主播的信息卡。
在一种实现方式中,S840可以包括如下步骤:
S841:若直播间的部分用户不满足人脸特效表情对应的权限信息,则将人脸特效表情对应的权限信息显示于直播间界面。
若直播间的部分用户不满足人脸特效表情对应的权限信息,则可以将人脸特效表情对应的权限信息显示于直播间界面,具体地,可以通过弹出提示信息,以告知用户想要该人脸特效表情可以到主播的直播间中发送该人脸特效表情后领取。
如图6所示,本申请服务器实施例描述的服务器100可以为上述的服务器10,服务器100包括处理器110、存储器120和通信电路(图未示)。存储器120和通信电路耦接处理器110。
存储器120用于存储计算机程序,可以是RAM(只读存储器,Read-Only Memory),也是可以ROM(随机存取存储器,Random Access Memory),或者其他类型的存储设备。具体地,存储器可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器中的非暂态的计算机可读存储介质用于存储至少一条程序代码。
处理器110用于控制服务器100的操作,处理器110还可以称为CPU(CentralProcessing Unit,中央处理单元)。处理器110可能是一种集成电路芯片,具有信号的处理能力。处理器110还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器110也可以是任何常规的处理器等。
处理器110用于执行存储器120中存储的计算机程序以实现本申请直播的表情显示处理方法实施例描述的直播的表情显示处理方法。
在一些实施方式中,服务器100还可以包括:***设备接口130和至少一个***设备。处理器110、存储器120和***设备接口130之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口130相连。具体地,***设备包括:射频电路140、显示屏150、音频电路160和电源170中的至少一种。
***设备接口130可被用于将I/O(Input/output,输入/输出)相关的至少一个***设备连接到处理器110和存储器120。在一些实施例中,处理器110、存储器120和***设备接口130被集成在同一芯片或电路板上;在一些其他实施方式中,处理器110、存储器120和***设备接口130中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路140用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路140通过电磁信号与通信网络以及其他通信设备进行通信。射频电路140将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路140包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路140可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路140还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏150用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏150是触摸显示屏时,显示屏150还具有采集在显示屏150的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器110进行处理。此时,显示屏150还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施方式中,显示屏150可以为一个,设置在服务器100的前面板;在另一些实施方式中,显示屏150可以为至少两个,分别设置在服务器100的不同表面或呈折叠设计;在另一些实施方式中,显示屏150可以是柔性显示屏,设置在服务器100的弯曲表面上或折叠面上。甚至,显示屏150还可以设置成非矩形的不规则图形,也即异形屏。显示屏150可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
音频电路160可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器110进行处理,或者输入至射频电路140以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在服务器100的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器110或射频电路140的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路160还可以包括耳机插孔。
电源170用于为服务器100中的各个组件进行供电。电源170可以是交流电、直流电、一次性电池或可充电电池。当电源170包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
关于本申请服务器实施例中各功能模块或者部件功能和执行过程的详细阐述,可以参照上述本申请直播的表情显示处理方法第一实施例中的阐述,在此不再赘述。
如图7所示,本申请电子设备实施例描述的电子设备200可以为上述主播终端20和观众终端30,电子设备200包括处理器210、存储器220和通信电路(图未示),存储器220和通信电路耦接处理器210。
处理器210用于控制电子设备200的操作,处理器210还可以称为CPU(CentralProcessing Unit,中央处理单元)。处理器210可能是一种集成电路芯片,具有信号的处理能力。处理器210还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器210也可以是任何常规的处理器等。
存储器220用于存储计算机程序,可以是RAM(只读存储器,Read-Only Memory),也是可以ROM(随机存取存储器,Random Access Memory),或者其他类型的存储设备。具体地,存储器可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器中的非暂态的计算机可读存储介质用于存储至少一条程序代码。
处理器210用于执行存储器220中存储的计算机程序以实现本申请直播的表情显示处理方法第二实施例描述的直播的表情显示处理方法。
在一些实施方式中,电子设备200还可以包括:***设备接口230和至少一个***设备。处理器210、存储器220和***设备接口230之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口230相连。具体地,***设备包括:射频电路240、显示屏250、音频电路260和电源270中的至少一种。
电子设备200的具体结构与服务器100的结构相同,具体描述可以参考服务器100中的描述,此处不再赘述。
关于本申请服务器实施例中各功能模块或者部件功能和执行过程的详细阐述,可以参照上述本申请直播的表情显示处理方法第二实施例和第三实施例的阐述,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的服务器100、电子设备200和显示处理方法,可以通过其它的方式实现。例如,以上所描述的服务器100、电子设备200各实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
参阅图8,上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在计算机可读存储介质300中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令/计算机程序用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种介质以及具有上述存储介质的电脑、手机、笔记本电脑、平板电脑、相机等电子设备。
关于计算机可读的存储介质中的程序数据的执行过程的阐述可以参照上述本申请直播的表情显示处理方法实施例中阐述,在此不再赘述。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (15)

1.一种直播的表情显示处理方法,其特征在于,包括:
获取主播对应的主播终端的直播视频流;
从所述直播视频流中获取具有所述主播的人脸的目标图像;
对所述目标图像进行特效处理,得到人脸特效表情;或者,将所述目标图像发送至所述主播终端,并接收所述主播终端对所述目标图像进行特效处理后所得到的所述人脸特效表情;
将所述人脸特效表情发送至观众终端,以使得所述观众终端的直播间界面上能够显示所述人脸特效表情,进而供用户在所述直播间界面中选择发送。
2.根据权利要求1所述的直播的表情显示处理方法,其特征在于:
所述从所述直播视频流中获取所述具有主播的人脸的目标图像,包括:
从所述直播视频流中获取多张直播图像;
通过预设人脸识别神经网络识别所述多张直播图像中的人脸以确定具有主播的人脸的多张待处理图像;
通过预设脸部表情识别网络对所述多张待处理图像中的脸部表情进行识别,以识别出符合预设脸部表情要求的所述待处理图像;
基于预设切割网络对符合所述预设脸部表情要求的所述待处理图像中从背景中分割出来,得到所述目标图像。
3.根据权利要求2所述的直播的表情显示处理方法,其特征在于:
所述通过预设人脸识别神经网络识别所述多张直播图像中的人脸以确定具有主播的人脸的多张待处理图像,包括:
判断所述直播图像中的人脸在所述直播图像中的面积占比是否达到预设阈值以及所述直播图像中的人脸的呈现完整性是否符合预设条件;
若所述面积占比达到所述预设阈值且所述呈现完整性符合所述预设条件,则将所述直播图像确定为所述待处理图像。
4.根据权利要求2所述的直播的表情显示处理方法,其特征在于:
所述将所述目标图像发送至所述主播终端,包括:
判断所述预设数据库保存的所述主播对应的所述目标图像的数量是否达到预设数量阈值;
若达到所述预设数量阈值,则将所述主播对应的所述目标图像列表和预设表情特效列表发送至所述主播终端;
所述接收所述主播终端对所述目标图像进行特效处理后所得到的所述人脸特效表情,包括:
接收所述主播终端利用所述预设表情特效列表中与所述表情信息对应的特效对所述目标图像列表中相应的所述目标图像进行特效处理所得到的所述人脸特效表情。
5.根据权利要求1所述的直播的表情显示处理方法,其特征在于:
在将所述人脸特效表情发送至观众终端之后,包括:
响应于所述观众终端处于所述主播的直播间时发送的表情发送指令,将所述表情发送指令所对应的所述人脸特效表情发送至所述主播对应的直播间的其他用户终端,进而显示在所述直播间的公屏和/或弹幕中;
将已发送过的所述人脸特效表情对应的表情ID存储于所述观众终端对应的用户的可使用表情列表;
响应于所述观众终端发送的可使用表情列表打开请求,将所述可使用表情列表发送至所述观众终端,以使得所述观众终端在当前直播间的直播间界面上能够显示所述可使用表情列表的各所述人脸特效表情,供用户在观看当前直播间时选择发送;
响应于所述观众终端在所述当前直播间的直播间界面上基于用户选择发送所述人脸特效表情所生成的所述表情发送指令,获取所述人脸特效表情所对应的主播的开播状态信息;
将所述开播状态信息发送至所述观众终端,以使得所述观众终端在所述当前直播间的直播间界面的所述人脸特效表情进行与所述开播状态信息指示的开播状态相匹配的处理;其中,所述开播状态为开播过程中,经处理过的所述人脸特效表情可供触发跳转至所述人脸特效表情对应的主播的直播间。
6.根据权利要求5所述的直播的表情显示处理方法,其特征在于,还包括:
累计各所述人脸特效表情的使用以及触发的总次数;
判断所述总次数是否达到预设使用阈值;
若达到所述预设使用阈值,则基于所述人脸特效表情的使用次数以及触发次数生成使用情况数据;
将所述使用情况数据发送给所述人脸表情特效对应的所述主播终端。
7.一种直播的表情显示处理方法,其特征在于,包括:
接收服务器发送的基于具有主播的人脸的目标图像生成的所述主播的人脸特效表情;
在直播间界面显示所述人脸特效表情,以供用户在所述直播间界面中选择发送。
8.根据权利要求7所述的直播的表情显示处理方法,其特征在于:
所述接收服务器发送的基于具有主播的人脸的目标图像生成的所述主播的人脸特效表情,包括:
处于所述主播的直播间时向所述服务器发送表情发送指令;
接收所述服务器响应于所述表情发送指令所发送的所述人脸特效表情。
9.根据权利要求8所述的直播的表情显示处理方法,其特征在于:
所述在直播间界面显示所述人脸特效表情,包括:
在所述直播间界面显示所述人脸特效表情以及所述人脸特效表情的使用权限信息。
10.根据权利要求9所述的直播的表情显示处理方法,其特征在于,还包括:
当用户在所述直播间使用其他主播对应的所述人脸特效表情时,将所述人脸特效表情所对应的主播ID上传到所述服务器中以获取所述主播ID对应的主播的开播情况;
若所述开播情况为开播过程中,则接收所述服务器下发的开播信息和预设背景特效资源;
将所述预设背景特效资源加入所述人脸特效表情中进行显示,并在所述直播间中的所有用户长按所述人脸特效表情时跳转至所述人脸特效表情对应的主播的直播间;
若所述开播情况为未开播,则在所述直播间中的所有用户长按所述人脸特效表情时,显示所述人脸特效表情对应的主播对应的信息数据。
11.根据权利要求10所述的直播的表情显示处理方法,其特征在于:
所述将所述人脸特效表情所对应的主播ID上传到所述服务器中以获取所述主播ID对应的主播的开播情况,包括:
判断所述主播ID是否在所述服务器的开播列表中;
若在所述开播列表中,则认为所述开播情况为开播过程中;
若不在所述开播列表中,则认为所述开播情况为未开播。
12.根据权利要求11所述的直播的表情显示处理方法,其特征在于:
所述若所述开播情况为未开播,则在所述直播间中的所有用户长按所述人脸特效表情时,显示所述人脸特效表情对应的主播对应的信息数据,包括:
若所述直播间的部分用户不满足所述人脸特效表情对应的权限信息,则将所述人脸特效表情对应的权限信息显示于所述直播间界面。
13.一种服务器,其特征在于,包括:处理器、存储器和通信电路;所述存储器和所述通信电路耦接所述处理器,所述存储器存储有计算机程序,所述处理器能够执行所述计算机程序以实现如权利要求1-6任一项所述的直播的表情显示处理方法。
14.一种电子设备,其特征在于,包括:处理器、存储器和通信电路;所述存储器和所述通信电路耦接所述处理器,所述存储器存储有计算机程序,所述处理器能够执行所述计算机程序以实现如权利要求7-12任一项所述的直播的表情显示处理方法。
15.一种计算机可读的存储介质,其特征在于,存储有计算机程序,所述计算机程序能够被处理器执行以实现如权利要求1-12任一项所述的直播的表情显示处理方法。
CN202210556119.1A 2022-05-20 2022-05-20 直播的表情显示处理方法、服务器、电子设备及存储介质 Pending CN115065835A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210556119.1A CN115065835A (zh) 2022-05-20 2022-05-20 直播的表情显示处理方法、服务器、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210556119.1A CN115065835A (zh) 2022-05-20 2022-05-20 直播的表情显示处理方法、服务器、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115065835A true CN115065835A (zh) 2022-09-16

Family

ID=83197793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210556119.1A Pending CN115065835A (zh) 2022-05-20 2022-05-20 直播的表情显示处理方法、服务器、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115065835A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911238A (zh) * 2024-01-29 2024-04-19 江苏臻星美悦健康科技有限公司 人脸识别处理的特效策略分化处理***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231434A (zh) * 2016-07-25 2016-12-14 武汉斗鱼网络科技有限公司 一种基于人脸检测的直播互动特效实现方法及***
CN106709762A (zh) * 2016-12-26 2017-05-24 乐蜜科技有限公司 直播间中虚拟礼物的推荐方法、装置及移动终端
CN107240143A (zh) * 2017-05-09 2017-10-10 北京小米移动软件有限公司 表情包生成方法及装置
CN107911738A (zh) * 2017-11-30 2018-04-13 广州酷狗计算机科技有限公司 一种制作表情礼物的方法和装置
CN111541950A (zh) * 2020-05-07 2020-08-14 腾讯科技(深圳)有限公司 表情的生成方法、装置、电子设备及存储介质
CN112423022A (zh) * 2020-11-20 2021-02-26 北京字节跳动网络技术有限公司 视频生成及显示方法、装置、设备、介质
CN114466209A (zh) * 2022-01-27 2022-05-10 腾讯科技(深圳)有限公司 直播互动方法、装置、电子设备、存储介质和程序产品

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106231434A (zh) * 2016-07-25 2016-12-14 武汉斗鱼网络科技有限公司 一种基于人脸检测的直播互动特效实现方法及***
CN106709762A (zh) * 2016-12-26 2017-05-24 乐蜜科技有限公司 直播间中虚拟礼物的推荐方法、装置及移动终端
CN107240143A (zh) * 2017-05-09 2017-10-10 北京小米移动软件有限公司 表情包生成方法及装置
CN107911738A (zh) * 2017-11-30 2018-04-13 广州酷狗计算机科技有限公司 一种制作表情礼物的方法和装置
CN111541950A (zh) * 2020-05-07 2020-08-14 腾讯科技(深圳)有限公司 表情的生成方法、装置、电子设备及存储介质
CN112423022A (zh) * 2020-11-20 2021-02-26 北京字节跳动网络技术有限公司 视频生成及显示方法、装置、设备、介质
CN114466209A (zh) * 2022-01-27 2022-05-10 腾讯科技(深圳)有限公司 直播互动方法、装置、电子设备、存储介质和程序产品

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911238A (zh) * 2024-01-29 2024-04-19 江苏臻星美悦健康科技有限公司 人脸识别处理的特效策略分化处理***

Similar Documents

Publication Publication Date Title
CN106105246B (zh) 直播显示方法、装置及***
CN109729372B (zh) 直播间切换方法、装置、终端、服务器及存储介质
CN112714327B (zh) 基于直播应用程序的互动方法、装置、设备及存储介质
CN108600778B (zh) 媒体流发送方法、装置、***及服务器、终端、存储介质
CN110418152B (zh) 进行直播提示的方法及装置
CN111583952B (zh) 音频处理方法、装置、电子设备及存储介质
CN114697742A (zh) 一种视频录制方法及电子设备
CN113573092A (zh) 直播数据处理方法、装置、电子设备及存储介质
CN114302160B (zh) 信息显示方法、装置、计算机设备及介质
CN115065836A (zh) 直播间切换展示处理方法、服务器、电子终端及存储介质
CN115065835A (zh) 直播的表情显示处理方法、服务器、电子设备及存储介质
CN112269554B (zh) 显示***及显示方法
CN115086695B (zh) 直播间进场礼物的显示方法、电子终端及存储介质
US20240031616A1 (en) Server and method
CN112258240A (zh) 内容展示方法、装置、终端、服务器以及存储介质
CN105450970A (zh) 一种信息处理方法及电子设备
CN114125476B (zh) 显示界面的显示处理方法、电子设备及存储介质
CN115665504A (zh) 事件识别方法、装置、电子设备及存储介质
CN112423008B (zh) 直播方法、装置、终端、服务器以及存储介质
CN112770124B (zh) 进入直播间的方法及装置、存储介质和电子设备
CN116132699A (zh) 直播互动的方法、计算机设备及存储介质
CN113099199A (zh) 一种新型影音娱乐***
CN111770373B (zh) 基于直播的内容同步方法、装置、设备及存储介质
CN114793289B (zh) 直播间的视频信息的显示处理方法、终端、服务器及介质
CN113542773B (zh) 多媒体资源的分享方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination