CN112749357B - 基于分享内容的交互方法、装置和计算机设备 - Google Patents

基于分享内容的交互方法、装置和计算机设备 Download PDF

Info

Publication number
CN112749357B
CN112749357B CN202010965670.2A CN202010965670A CN112749357B CN 112749357 B CN112749357 B CN 112749357B CN 202010965670 A CN202010965670 A CN 202010965670A CN 112749357 B CN112749357 B CN 112749357B
Authority
CN
China
Prior art keywords
expression
facial
dynamic user
user image
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010965670.2A
Other languages
English (en)
Other versions
CN112749357A (zh
Inventor
伍芷滢
刘立强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010965670.2A priority Critical patent/CN112749357B/zh
Publication of CN112749357A publication Critical patent/CN112749357A/zh
Application granted granted Critical
Publication of CN112749357B publication Critical patent/CN112749357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及一种基于分享内容的交互方法、装置、计算机设备和存储介质。所述方法包括:展示分享内容以及与所述分享内容对应的表情包编辑入口;当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;在所述表情包编辑页面展示动态用户形象,并展示与所述动态用户形象的实时姿态相匹配的表情元素,获得包含所述表情元素的评论表情包;在所述分享内容对应的评论区展示所述评论表情包。采用本方法能够在信息流页面生成个性化的评论表情包。

Description

基于分享内容的交互方法、装置和计算机设备
技术领域
本申请涉及计算机技术领域,特别是涉及一种基于分享内容的交互方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,人们的交际关系越来越广泛,各种社交应用的推广使得人们的信息共享和信息交互愈加频繁。例如,用户可以通过社交应用分享视频、图片、文本等,以表达情绪自己的情绪,用户使用社交应用也能够浏览到其他人分享的信息,并对其他联系人分享的信息进行评论。
由于表情包信息量大且具有动态效果,比文字要更生动,越来越多用户喜欢使用表情包来表达自己的情绪。目前的表情包往往是由内容制造商制作的,无法针对不同用户生成贴合用户形象的表情包。
发明内容
基于此,有必要针对上述技术问题,提供一种表情包的制作过程能够更贴合拍摄对象的基于分享内容的交互方法、装置、计算机设备和存储介质。
一种基于分享内容的交互方法,所述方法包括:
展示分享内容以及与所述分享内容对应的表情包编辑入口;
当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
在所述表情包编辑页面展示动态用户形象,并展示与所述动态用户形象的实时姿态相匹配的表情元素,获得包含所述表情元素的评论表情包;
在所述分享内容对应的评论区展示所述评论表情包。
一种基于分享内容的交互装置,所述装置包括:
展示模块,用于展示分享内容以及与所述分享内容对应的表情包编辑入口;
进入模块,用于当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
获得模块,用于在所述表情包编辑页面展示动态用户形象,并展示与所述动态用户形象的实时姿态相匹配的表情元素,获得包含所述表情元素的评论表情包;
返回模块,用于在所述分享内容对应的评论区展示所述评论表情包。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
展示分享内容以及与所述分享内容对应的表情包编辑入口;
当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
在所述表情包编辑页面展示动态用户形象,并展示与所述动态用户形象的实时姿态相匹配的表情元素,获得包含所述表情元素的评论表情包;
在所述分享内容对应的评论区展示所述评论表情包。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
展示分享内容以及与所述分享内容对应的表情包编辑入口;
当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
在所述表情包编辑页面展示动态用户形象,并展示与所述动态用户形象的实时姿态相匹配的表情元素,获得包含所述表情元素的评论表情包;
在所述分享内容对应的评论区展示所述评论表情包。
上述基于分享内容的交互方法、装置、计算机设备和存储介质,通过展示分享内容以及与分享内容对应的表情包编辑入口,使得用户触发对表情包编辑入口时进入用户对动态评论表情包的编辑页面。在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,使得动态用户形象与实时姿态相匹配的表情元素进行关联,使得生成的评论表情包更贴合用户形象。并且能够针对分享内容进行评论表情包的编辑,提供了生成用户个性化的评论表情包的生成方式。
附图说明
图1为一个实施例中基于分享内容的交互方法的应用环境图;
图2为一个实施例中基于分享内容的交互方法的流程示意图;
图3为一个实施例中在动态用户形象上配置与实时脸部姿态相匹配的人脸表情的界面示意图;
图4为另一个实施例中识别动态用户形象的实时脸部姿态的流程示意图;
图5为一个实施例中将人脸表情调整为与脸部颜色相匹配的颜色的界面示意图;
图6为一个实施例中识别动态用户形象的实时脸部姿态的界面示意图;
图7为一个实施例中为被遮挡物遮挡的动态用户形象配置人脸表情的界面示意图;
图8为一个实施例中获得目标人脸表情的界面示意图;
图9为一个实施例中在动态用户形象上配置与实时脸部姿态相匹配的人脸表情的界面示意图;
图10为一个实施例中在动态用户形象上配置与实时手部姿态相匹配的手势表情的界面示意图;
图11为一个实施例中根据动态用户形象的头部转动幅度切换手势表情的界面示意图;
图12为一个实施例中基于分享内容的交互方法的界面示意图;
图13为另一个实施例中基于分享内容的交互方法的界面示意图;
图14为另一个实施例中基于分享内容的交互方法的流程示意图;
图15为一个实施例中基于分享内容的交互装置的结构框图;
图16为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的基于分享内容的交互方法,可以应用于如图1所示的应用环境中。第一用户通过交互类应用账号登录第一终端110上的交互类应用,第二用户通过交互类应用账号登录第二终端120上的交互类应用,第二用户的交互类应用账号为第一用户的交互类应用账号中所添加的联系人。运行于第一终端110的交互类应用在首页面上展示信息流页面的提示入口。第一用户触发该提示入口进入信息流页面,第一终端110在信息流页面展示第二用户通过第二终端120在第二终端120的信息流页面中所分享的分享内容。并且,第一终端110在信息流页面展示对该第二用户的分享内容对应的表情包编辑入口。
当第一用户触发对表情包编辑入口的触发操作时,第一终端110进入表情包编辑页面。第一终端110在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素。第一终端110通过对动态用户形象进行识别,以确定该动态用户形象的实时姿态,并从服务器130获取与该实时姿态相匹配的表情元素。
或者,第一终端110将动态用户形象实时传送给服务器130。服务器130对该动态用户形象进行识别,并向第一终端110返回与该动态用户形象的实时姿态相匹配的表情元素。当服务器130为云服务器时,云服务器对动态用户形象进行云识别,以确定动态用户形象的实时姿态。
接着,第一终端110为该动态用户形象配置与实时姿态相匹配的表情元素,以获得包含表情元素的评论表情包。接着,第一用户触发表情包编辑页面的发表操作,第一终端110响应于该发表操作,从表情包编辑页面返回该信息流页面。第一终端110在该第二用户的分享内容对应的评论区域显示该评论表情包。第二用户通过第二终端120进入信息流页面,可在该分享内容对应的评论区域查看第一用户对该分享内容的评论表情包。
其中,服务器130可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。第一终端110和第二终端120可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。第一终端110、第二终端120以及服务器130可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
本实施例中,通过触发分享内容对应的表情包编辑入口,以编辑贴合动态用户形象的表情包,使得能够在信息流页面直接针对分享内容进行评论表情包的编辑,提供了生成用户个性化的评论表情包的生成方式。
在一个实施例中,如图2所示,提供了一种基于分享内容的交互方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤202,展示分享内容以及与分享内容对应的表情包编辑入口。
其中,分享内容是指用户在信息流页面分享的内容,信息流页面即为该分享内容所分享、展示的页面。该分享内容的分享形式包括但不限于文本、音频、图像和视频。表情包编辑入口是用于编辑、制作表情包的表情包编辑页面的提示入口。
具体地,用户通过交互类应用账号登录交互类应用,进入交互类应用首页。该交互类应用是基于交互网络进行网络互动的应用,例如,该交互类应用可以包括即时通信应用、SNS(Social Network Sites,社交网站)应用、短视频分享应用、长视频分享应用、通话应用、游戏应用、音乐分享应用、UGC(User Generated Content,用户生成内容)应用,但不限于此。终端在该交互类应用首页展示信息流页面的提示入口。当终端接收到用户对信息流页面的提示入口的触发操作时,触发进入信息流页面。用户可在该信息流页面编辑、发表分享内容,并可以对其他用户分享的分享内容进行评论。
终端在该信息流页面展示用户的分享内容,以及用户在该社交应用上的联系人分享的分享内容。进一步地,信息流页面的分享内容可按照分享时序排序展示。终端在该信息流页面展示各分享内容对应的评论区域,并展示各分享内容对应的表情包编辑入口。
步骤204,当触发对表情包编辑入口的触发操作时,进入表情包编辑页面。
具体地,用户可选择需要进行表情包评论的分享内容,并触发该分享内容对应的表情包编辑入口。终端响应于该表情包编辑入口的触发操作,进入表情包编辑页面。该触发操作可以是触摸、长按、点击、滑动以及多点触控等方式。
步骤206,在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,获得包含表情元素的评论表情包。
具体地,动态用户形象即动态的用户形象。终端在表情包编辑页面展示动态用户形象,并展示表情包的编辑类型。该表情包的编辑类型包括:配置表情元素和配置文本。该表情元素包括人脸表情和手势表情。其中,配置人脸表情是指为动态用户形象添加相匹配的人脸表情。配置手势表情是指为动态用户形象添加相匹配的手势表情。配置文本是指为动态用户形象添加文本内容。评论表情包包括动态评论表情包和静态评论表情包。
当用户选择表情包的编辑类型为配置表情元素时,终端检测该动态用户形象的实时姿态。终端获取与该动态用户形象的实时姿态相匹配的表情元素,并在该表情包编辑页面动态展示与实时姿态相匹配的表情元素。进一步地,终端将动态用户形象与实时姿态相匹配的表情元素进行关联,使得动态用户形象的各个时刻的用户形象与相匹配的表情元素相关联。
终端根据与该动态用户形象相关联的表情元素,生成包含表情元素的静态评论表情包,或动态评论表情包。其中,静态评论表情包可为包含该表情元素的图像。
在一个实施例中,终端根据动态用户形象,以及与动态用户形象相关联的表情元素,生成包含用户形象和相匹配的表情元素的评论表情包。进一步地,终端可生成包含动态的用户形象和该用户形象的实时姿态相匹配的表情元素的动态评论表情包。或者,终端可生成包含用户形象和该用户形象相匹配的表情元素的静态评论表情包。
在本实施例中,当终端从信息流页面进入该表情包编辑页面时,终端自动启动摄像头,并在表情包编辑页面中通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象。进一步地,当终端通过启动摄像头实时采集用户形象时,该动态用户形象的实时姿态为每一时刻的用户形象所对应的姿态。例如,通过摄像头实时采集用户形象时,开始展示用户形象的时刻为15时16分0秒,以秒为单位时,该展示的动态用户形象的实时姿态为15时16分1秒、15时16分2秒、15时16分3秒、......15时16分N秒时的该用户形象所对应的姿态。
在本实施例中,当终端从信息流页面进入该表情包编辑页面时,可在该表情包编辑页面展示表情包编辑选项。该表情包编辑选项包括使用已有视频制作表情包或实时拍摄视频制作表情包。当用户选择使用已有视频制作表情包时,获取用户所选择的视频,并在表情包编辑页面播放该视频,该视频中的用户形象即为动态用户形象。进一步地,当该动态用户形象为已有视频中的用户形象时,该动态用户形象的实时姿态为该已有视频中每一时刻的用户形象所对应的姿态。例如,已有视频的时长为10秒,以秒为单位时,该已有视频中的动态用户形象的实时姿态为1秒、2秒、3秒......10秒时的该用户形象所对应的姿态。
步骤208,在分享内容对应的评论区展示评论表情包。
具体地,用户在表情包编辑页面完成动态评论表情包的编辑后,可在表情包编辑页面触发的发表操作。终端响应于用户在表情包编辑页面触发的发表操作,以从表情包编辑页面返回到信息流页面,并将该动态评论表情包展示在该分享内容对应的评论区域。
上述基于分享内容的交互方法中,通过在信息流页面展示分享内容以及与分享内容对应的表情包编辑入口,使得用户触发对表情包编辑入口时进入用户对动态评论表情包的编辑页面。在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,使得动态用户形象与实时姿态相匹配的表情元素进行关联,使得生成的评论表情包更贴合用户形象。并且能够直接针对分享内容进行评论表情包的编辑,提供了生成用户个性化的评论表情包的生成方式。
在一个实施例中,该表情元素包括人脸表情;在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,获得包含表情元素的评论表情包,包括:
在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的人脸表情配置操作,识别动态用户形象的实时脸部姿态;在动态用户形象上配置与实时脸部姿态相匹配的人脸表情并展示,获得包含人脸表情的评论表情包,或者获得动态用户形象的脸部被人脸表情遮挡的评论表情包。
具体地,该表情元素包括人脸表情。终端进入表情包编辑页面后,自动开启终端的摄像头,通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象。或者,终端获取用户选择的已有视频,在该表情包编辑页面播放该已有视频,以展示视频中的动态用户形象。并且,终端在表情包编辑页面展示配置人脸表情、配置手势表情和配置文本等表情包的编辑类型。
在本实施例中,该添加人脸表情、添加手势表情和添加文本等表情包的编辑类型可通过表情包编辑页面的不同卡片选项显示。当用户选择添加人脸表情时,该人脸表情对应的卡片处于选中状态,以开始对动态用户形象配置人脸表情。终端响应于用户触发的人脸表情配置操作,对动态的用户形象进行特征提取,以识别该动态用户形象的实时脸部姿态。
接着,终端获取与动态用户形象的实时脸部姿态相匹配的人脸表情,并将人脸表情配置到该动态用户形象上。终端展示该配置人脸表情后的动态用户形象。进一步地,终端可将获取的人脸表情添加到与相匹配的脸部姿态的用户形象上,使得该人脸表情遮挡该用户形象的脸部。通过在动态用户形象上配置与实时脸部姿态匹配的人脸表情,得到配置人脸表情后的动态用户形象。接着,终端可该人脸表情保存得到静态评论表情包,或该人脸表情保存得到动态评论表情包。
在本实施例中,终端可将该配置人脸表情后的动态用户形象保存,即可得到动态用户形象的脸部被人脸表情遮挡的静态评论表情包或动态评论表情包。
例如,动态用户形象的实时脸部姿态为1秒、2秒、3秒......10秒时的该用户形象所对应的脸部姿态,则终端分别获取1秒、2秒、3秒......10秒时的该用户形象的脸部姿态对应的人脸表情,得到1秒、2秒、3秒......10秒时的该人脸表情。接着,终端将该1秒时的人脸表情配置到1秒时的用户形象上,将该2秒时的人脸表情配置到2秒时的用户形象上,直到将该10秒时的人脸表情配置到10秒时的用户形象上。接着,终端将已配置人脸表情的用户形象按照时序融合得到动态评论表情包。
在本实施例中,用户可触发表情包编辑页面的录制操作。终端响应于在表情包编辑页面触发的录制操作,开始进行录制,同时根据动态用户形象的实时脸部姿态为动态用户形象配置人脸表情,录制得到配置人脸表情后的动态用户形象,该动态用户形象的脸部被相匹配的人脸表情遮挡。录制停止后,得到录制的配置人脸表情后的动态用户形象,该录制的视频即为动态评论表情包。进一步地,当录制时长达到预设录制时长时,停止录制,得到动态评论表情包。该预设录制时长可根据需要设置,例如10秒。或者,终端响应于在表情包编辑页面触发的录制完成操作,停止录制,得到动态评论表情包。
在本实施例中,终端可根据动态用户形象的实时脸部姿态为动态用户形象配置人脸表情,录制得到包含人脸表情的动态评论表情包。或者终端从所录制的配置人脸表情后的动态用户形象的视频中,去除该视频中的动态用户形象,得到仅包含人脸表情的视频,该视频作为包含该人脸表情的动态评论表情包。
本实施例中,通过在表情包编辑页面展示动态用户形象,在触发的人脸表情配置操作后实时识别动态用户形象的实时脸部姿态,以在动态用户形象的脸部快速准确地配置与实时脸部姿态相匹配的人脸表情,使得生成的评论表情包更贴合用户的实际形象,从而生成用户个性化的评论表情包。
如图3所示,为一个实施例中在动态用户形象上配置与实时脸部姿态相匹配的人脸表情的界面示意图。
终端进入表情包编辑页面后,自动开启终端的摄像头。通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象,如图3中的(a)所示。接着,当用户选择添加人脸表情时,该人脸表情对应的卡片处于选中状态。终端快速识别该动态用户形象的实时脸部姿态,并为动态用户形象的脸部添加与实时脸部姿态相匹配的人脸表情,使得该人脸表情遮挡该用户形象的脸部,如图3中的(b)所示。
当为动态用户形象配置相匹配的人脸表情后,该人脸表情对应的卡片上显示删除选项。当用户触发该删除选项时,终端删除动态用户形象上的所有已配置的人脸表情,并重新展示当前的动态用户形象,如图3中的(c)所示。接着,终端继续识别当前的动态用户形象的实时脸部姿态,并为当前的动态用户形象的脸部添加与实时脸部姿态相匹配的人脸表情,使得该人脸表情遮挡该用户形象的脸部,如图3中的(d)所示。
在一个实施例中,动态用户形象由包含同一用户形象的各帧静态图像组成;该识别动态用户形象的实时脸部姿态,包括:对各帧静态图像进行脸部特征提取,得到各帧静态图像对应的脸部特征;根据脸部特征确定各帧静态图像分别对应的脸部姿态;基于相邻帧静态图像之间的脸部姿态变化,确定动态用户形象的实时脸部姿态。
具体地,终端可通过摄像头实时采集包含该用户形象的各帧静态图像,该各帧静态图像按照采集时序排列融合得到动态的用户形象。终端将采集的各帧静态图像进行人脸检测,并对每帧静态图像的人脸区域进行特征提取,得到每帧静态图像分别对应的脸部特征。对每帧静态图像的脸部特征进行特征分类,以识别出该帧静态图像的脸部姿态。按照相同的处理方式,得到各帧静态图像的脸部姿态。接着,终端确定各帧静态图像中的相邻帧静态图像,并确定相邻帧静态图像所对应的脸部姿态。终端根据相邻帧静态图像所对应的脸部姿态,确定相邻帧静态图像之间的脸部姿态变化。接着,终端根据相邻帧静态图像之间的脸部姿态变化确定该动态用户形象的实时脸部姿态。
在本实施例中,当该动态用户形象为已有视频中的用户形象时,终端可从该已有视频中获取包含该用户形象的各帧静态图像。
在本实施例中,终端可将相邻帧静态图像所对应的脸部姿态相融合,即按照采集时序排列融合得到实时脸部姿态。该实时脸部姿态即为该动态用户形象实时对应的脸部姿态。或者,终端可将各帧静态图像所对应的脸部姿态相融合,即按照采集时序排列融合得到实时脸部姿态。
在本实施例中,通过对静态图像进行脸部特征提取,基于脸部特征准确识别出用户形象在各帧静态图像中的脸部姿态。根据相邻帧图像之间的脸部姿态的变化,能够确定动态用户形象的脸部姿态的变化,从而准确确定动态用户形象的实时脸部姿态。
如图4所示,为一个实施例中识别动态用户形象的实时脸部姿态的流程图。
动态用户形象由包含同一用户形象的各帧静态图像组成。终端可获取包含该用户形象的各帧静态图像。接着,终端可先对所采集的静态图像进行图像去噪处理,得到去噪后的静态图像。终端根据基于静态图像的特征提取方式和基于动态图像的特征提取方式确定动态用户形象的实时姿态。静态图像呈现的是脸部表情(即脸部姿态)发生时单幅图像的表情状态,动态图像呈现的是表情在多幅静态图像之间的运动过程,相邻帧静态图像可组成动态图像。终端可对静态图像进行人脸检测,得到每帧静态图像中的人脸区域。接着,终端基于静态图像的特征提取方式捕捉图像中人脸区域的特征点,对人脸区域的特征点进行特征分类,以得到每帧静态图像的脸部姿态。接着,终端可基于动态图像的特征提取方式提取各相邻帧静态图像对应的脸部姿态的变化情况,从而得到动态图像的脸部姿态变化,从而确定动态用户形象的实时脸部姿态。
在一个实施例中,该方法还包括:确定动态用户形象的脸部颜色,将表情元素调整为与脸部颜色相匹配的颜色。
具体地,终端为动态用户形象配置相匹配的表情元素后,终端可确定动态用户形象的脸部颜色,并将表情元素调整为与脸部颜色相匹配的颜色。
当表情元素包括人脸表情时,终端为动态用户形象配置相匹配的人脸表情后,终端可确定动态用户形象的脸部颜色,并将人脸表情调整为与脸部颜色相匹配的颜色。
当表情元素包括手势表情时,终端为动态用户形象配置相匹配的手势表情后,终端可确定动态用户形象的脸部颜色,并将手势表情调整为与脸部颜色相匹配的颜色。
在本实施例中,终端识别动态用户形象的实时脸部姿态的同时,识别该动态用户形象的脸部颜色。接着,终端获取与实时脸部姿态相匹配的人脸表情,将所获取的人脸表情的颜色调整为与动态用户形象的脸部颜色相匹配的颜色。接着,终端将调整颜色后的人脸表情配置到动态用户形象上。
如图5所示,终端在表情包编辑页面展示动态用户形象,如图5中的(a)所示。终端识别动态用户形象的实时脸部姿态的同时,识别该动态用户形象的脸部颜色。接着,终端获取与实时脸部姿态相匹配的、并且颜色与动态用户形象的脸部颜色相匹配的人脸表情。接着,终端将脸部姿态、颜色均匹配的人脸表情配置到动态用户形象上,如图5中的(b)所示。可选地,当识别到与动态用户形象的实时脸部姿态相匹配的、但颜色与动态用户形象的脸部颜色不匹配的人脸表情时,将人脸表情调整为与脸部颜色相匹配的颜色。
在本实施例中,终端可检测动态用户形象脸部的光线明亮度。当动态用户形象脸部的光线明亮度小于明亮度阈值时,判定动态用户形象的脸部颜色为深颜色。当动态用户形象脸部的光线明亮度大于或等于明亮度阈值时,判定动态用户形象的脸部颜色为浅颜色。深颜色可包括黑色、棕色、深棕色等颜色,浅颜色可包括白色、黄色等颜色。
在本实施例中,将表情元素调整为与脸部颜色相匹配的颜色,使得配置在动态用户形象上的表情元素的姿态和颜色,更贴合动态用户形象的实时脸部姿态和颜色。调整颜色后的表情元素和动态用户形象的结合更自然协调,生成的评论表情包更贴近用户的实际形象。
如图6所示,为一个实施例中识别动态用户形象的实时脸部姿态的界面示意图。终端通过对动态用户形象进行颜色对比、眼部识别和嘴部识别确定实时脸部姿态。
首先,终端可检测动态用户形象脸部区域的脸型光线明亮度,并与明亮度阈值进行对比。当动态用户形象的脸型光线明亮度与明亮度阈值的比值大于或等于60%时,判定为浅色颜色。当动态用户形象的脸型光线明亮度与明亮度阈值的比值小于60%时,判定为深色颜色。
接着,终端可通过识别动态用户形象的五官,以判断动态用户形象的脸部是否被遮挡物遮挡。当终端能够完整识别出动态用户形象的五官时,判定动态用户形象的脸部未被遮挡。当终端未能完整识别出动态用户形象的五官时,判定动态用户形象的脸部被遮挡。
接着,终端可通过动态用户形象的眼部区域眼球与眼白的占比(即眼球除以眼白的比值),判断动态用户形象的眼部姿态。当眼球与眼白的占比大于或等于30%,且小于或等于80%时,判定为正常眼部姿态。当眼球与眼白的占比小于30%时,判定为正常翻白眼姿态。当眼球与眼白的占比大于80%时,并且眼型趋势为向上弧度时,判定为上弯眼姿态。当眼球与眼白的占比大于80%时,并且眼型趋势为向下弧度时,判定为下弯眼姿态。
接着,终端可通过动态用户形象的嘴部区域的嘴型开闭状态和嘴型弧度,判断动态用户形象的嘴部姿态。当动态用户形象的嘴巴呈闭合状态,且嘴型趋势是向下弧度,判定为微笑状态。当动态用户形象的嘴巴呈闭合状态、嘴型趋势是向下弧度,且持续时长超过2秒时,判定为持续微笑状态。当动态用户形象的嘴巴呈张开状态,且嘴型趋势是向下弧度,判定为大笑状态。当动态用户形象的嘴巴呈张开状态、嘴型趋势是向下弧度,且持续时长超过2秒时,判定为持续大笑状态。当动态用户形象的嘴巴呈闭合状态,且嘴型趋势是向上弧度,判定为悲伤状态。当动态用户形象的嘴巴呈闭合状态,且嘴型趋于直线,判定为冷静状态。通过对动态用户形象的脸部颜色、五官、眼部姿态和嘴部姿态的识别,能够准确识别出动态用户形象的实时脸部姿态。
在一个实施例中,该表情元素包括人脸表情;该方法还包括:当动态用户形象的至少一部分脸部被遮挡物遮挡时,获取被遮挡物遮挡至少一部分脸部的人脸表情;在动态用户形象上,配置被遮挡物遮挡至少一部分脸部的人脸表情。
具体地,终端在表情包编辑页面展示动态用户形象。终端响应于在表情包编辑页面触发的人脸表情配置操作,识别动态用户形象的脸部是否被遮挡物遮挡。
当终端识别到动态用户形象的至少一部分脸部被遮挡物遮挡时,识别该遮挡物,并获取被该遮挡物遮挡至少一部分脸部的人脸表情。接着,终端将该被该遮挡物遮挡至少一部分脸部的人脸表情添加到动态用户形象上,使得该人脸表情遮挡该用户形象的脸部。接着,终端可将该配置人脸表情后的动态用户形象保存,即可得到包含用户形象和对应的人脸表情的静态评论表情包,或得到该人脸表情遮挡该用户形象的脸部的动态评论表情包。
在本实施例中,终端获取被该遮挡物遮挡至少一部分脸部的人脸表情,得到包含人脸表情的静态评论表情包。或,终端获取被该遮挡物遮挡至少一部分脸部的人脸表情,得到包含人脸表情的动态评论表情包。
如图7所示,终端在表情包编辑页面展示动态用户形象,如图7中的(a)所示。终端响应于在表情包编辑页面触发的人脸表情配置操作,识别动态用户形象的脸部是否被遮挡物遮挡。如图7中的(a)所示,当终端检测到动态用户形象的脸部被口罩遮挡时,终端获取被口罩遮挡的人脸表情,将被口罩遮挡的人脸表情添加到动态用户形象的脸部,使得动态用户形象的脸部被佩戴口罩的人脸表情遮挡,如图7中的(b)所示。
在本实施例中,终端识别到动态用户形象的脸部未被遮挡物遮挡时,识别动态用户形象的实时脸部姿态。终端在动态用户形象上配置与实时脸部姿态相匹配的人脸表情并动态展示,获得动态用户形象的脸部被人脸表情遮挡的动态评论表情包。
本实施例中,当动态用户形象的至少一部分脸部被遮挡物遮挡时,获取被遮挡物遮挡至少一部分脸部的人脸表情,使得动态用户形象上所配置的人脸表情更贴合动态用户形象的实际脸部情况,从而生成个性化的动态评论表情包。
在一个实施例中,在动态用户形象上,配置被遮挡物遮挡至少一部分脸部的人脸表情,包括:
对动态用户形象未被遮挡物遮挡的脸部区域进行识别,获取与未被遮挡的脸部区域相匹配的人脸表情;将被遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情进行融合处理,得到目标人脸表情;在动态用户形象上配置目标人脸表情,获得包含所述目标人脸表情的评论表情包,或者获得动态用户形象的脸部被目标人脸表情遮挡的动态评论表情包。
具体地,当终端识别出动态用户形象的至少一部分脸部被遮挡物遮挡时,获取被遮挡物遮挡至少一部分脸部的人脸表情。
接着,终端对动态用户形象的未被遮挡物遮挡的脸部区域进行特征提取,以识别未被遮挡的脸部区域的姿态,从而获取与该未被遮挡的脸部区域的姿态相匹配的人脸表情。接着,终端可将遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情进行融合处理,得到目标人脸表情。该目标人脸表情被遮挡物遮挡的脸部区域与动态用户形象被遮挡的脸部区域相匹配,并且,该目标人脸表情未被遮盖的脸部区域的姿态与动态用户形象的脸部区域未被遮挡的区域相匹配。
例如,终端识别出动态用户形象佩戴口罩,口罩遮挡动态用户形象的口鼻、但未遮挡眼睛及眼睛以上的部位。则终端识别动态用户形象的眼睛及以上部位的姿态,比如识别出动态用户形象的处于翻白眼时,获取翻白眼的人脸表情。并且,终端获取佩戴口罩的人脸表情,将佩戴口罩的人脸表情和翻白眼的人脸表情相融合,得到佩戴口罩并且翻白眼的目标人脸表情。终端将该目标人脸表情添加到动态用户形象的脸部。
在本实施例中,对动态用户形象未被遮挡的脸部区域识别,以获取与未遮挡的脸部区域相匹配的人脸表情。将被遮挡的人脸表情和未被遮挡的人脸表情进行融合处理,能够准确得到贴合动态用户形象的脸部姿态的目标人脸表情。
如图8所示,为一个实施例中将被遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情进行融合处理,得到目标人脸表情的界面示意图。
如图8所示,终端可识别动态用户形象的颜色,并获取与该颜色相匹配的颜色的人脸表情,例如黑色的人脸表情。当动态用户形象的口鼻被口罩遮挡时,获取佩戴口罩的人脸表情。接着,终端可识别动态用户形象未被遮挡的眼部,并获取与眼部姿态相匹配的人脸表情,例如翻白眼的人脸表情。接着,终端可黑色的人脸表情和翻白眼的人脸表情进行叠加,得到黑色的、翻白眼的人脸表情。接着,终端可将黑色的、翻白眼的人脸表情和佩戴口罩的人脸表情进行叠加,得到黑色的、翻白眼的、口鼻被口罩遮挡的人脸表情。
如图9所示,为一个实施例中在动态用户形象上配置与实时脸部姿态相匹配的人脸表情的界面示意图。如图9所示,终端可识别动态用户形象的颜色,并获取与该颜色相匹配的颜色的人脸表情,例如黑色的人脸表情。当动态用户形象的脸部未被遮挡时,终端可识别动态用户形象的眼部,并获取与眼部姿态相匹配的人脸表情,例如翻白眼的人脸表情。接着,终端可识别动态用户形象的嘴部姿态,获取与嘴部姿态相匹配的人脸表情,例如露齿笑的人脸表情。
接着,终端可黑色的人脸表情和翻白眼的人脸表情进行叠加,得到黑色的、翻白眼的人脸表情。接着,终端可将黑色的、翻白眼的人脸表情和露齿笑的人脸表情进行叠加,得到黑色的、翻白眼的、并且露齿笑的人脸表情。
在一个实施例中,该表情元素包括手势表情;在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,获得包含表情元素的评论表情包,包括:
在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的手势表情配置操作,识别动态用户形象的实时手部姿态;为动态用户形象配置与实时手部姿态相匹配的手势表情并展示;获得包含手势表情的评论表情包,或者获得包含动态用户形象和手势表情的评论表情包。
具体地,该表情元素包括手势表情。终端进入表情包编辑页面后,自动开启终端的摄像头,通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象。或者,终端获取用户选择的已有视频,在该表情包编辑页面播放该已有视频,以展示视频中的动态用户形象。并且,终端在表情包编辑页面展示配置人脸表情、配置手势表情和配置文本等表情包的编辑类型。
当用户选择配置手势表情时,终端响应于用户触发的手势表情配置操作,对动态的用户形象进行特征提取,以识别该动态用户形象的实时手部姿态。
接着,终端获取与动态用户形象的实时手部姿态相匹配的手势表情,并为该动态用户形象配置相匹配的手势表情。终端展示该配置手势表情后的动态用户形象。进一步地,终端可将获取的手势表情添加到与相匹配的手部姿态的用户形象的预设显示区域,使得该手势表情与该相匹配手部姿态对应的用户形象的同步显示。通过为动态用户形象配置与实时手部姿态匹配的手势表情,得到配置手势表情后的动态用户形象。接着,终端可将该配置手势表情后的动态用户形象保存,即可得到静态评论表情包或动态评论表情包。或者,终端保存与动态用户形象的任一手部姿态相匹配的手势表情,得到静态评论表情包。或,终端保存与实时手部姿态相匹配的各手势表情,得到动态评论表情包。
例如,动态用户形象的实时手部姿态为1秒、2秒、3秒......10秒时的该用户形象所对应的手部姿态,则终端分别获取1秒、2秒、3秒......10秒时的该用户形象的手部姿态对应的手势表情,得到1秒、2秒、3秒......10秒时分别对应的手势表情。接着,终端为1秒时的用户形象配置1秒时的手势表情,为2秒时的用户形象配置2秒时的手势表情,直到为10秒时的用户形象配置10秒时的手势表情。接着,终端将已配置手势表情的用户形象按照时序融合得到动态评论表情包。
在本实施例中,用户可触发表情包编辑页面的录制操作。终端响应于在表情包编辑页面触发的录制操作,开始进行录制,同时根据动态用户形象的实时手部姿态为动态用户形象配置手势表情,录制得到配置手势表情后的动态用户形象。录制停止后,得到录制的配置手势表情后的动态用户形象,该录制的视频即为动态评论表情包。进一步地,当录制时长达到预设录制时长时,停止录制,得到动态评论表情包。该预设录制时长可根据需要设置,例如10秒。或者,终端响应于在表情包编辑页面触发的录制完成操作,停止录制,得到动态评论表情包。进一步地,终端可从该动态评论表情包中获取每帧配置手势表情后的动态用户形象的图像,即可得到静态评论表情包。
在本实施例中,不同的手部姿态所匹配的手势表情的数量可不相同,也可设置相同数量的手势表情。例如,“竖起大拇指”的手部姿态对应相同的3个“大拇指”手势表情,“比心”的手部姿态对应相同的2个“爱心”手势表情。
在本实施例中,相同类型的手势表情的大小可不相同。例如,相同的2个“爱心”手势表情的大小可不相同。
本实施例中,在触发的手势表情配置操作后,实时识别动态用户形象的实时手部姿态,以在动态用户形象的手部快速准确地配置与实时手部姿态相匹配的手势表情。将用户的手势转换为对应的表情,使得用户通过简单的操作即可快速准确生成用户个性化的动态或静态评论表情包。
在一个实施例中,该方法还包括:根据动态用户形象的脸部姿态变化,调整手势表情的数量,获得包含手势表情的评论表情包,或者获得包含动态用户形象和手势表情的动态评论表情包。
具体地,终端根据动态用户形象的实时手部姿态为动态用户形象配置相匹配的手势表情后,在表情包编辑页面显示配置手势表情后的动态用户形象。终端可检测动态用户形象的脸部姿态,当动态用户形象的脸部姿态发生改变时,终端可调整为动态用户形象配置的手势表情的数量。进一步地,当动态用户形象的脸部姿态发生改变时,终端可增加或减少为动态用户形象配置的手势表情的数量。接着,终端根据调整数量后的手势表情进行图像拍摄或视频录制,得到包含手势表情的动态或静态评论表情包。或者,终端根据调整数量后的手势表情和动态用户形象进行图像拍摄或视频录制,得到包含手势表情和相匹配的用户形象的静态或动态评论表情包。
例如,终端为动态用户形象配置了“比心”的手部姿态对应相同的2个“爱心”手势表情。当终端检测到用户做出“微笑”的脸部姿态时,增加为3个“爱心”手势表情。当用户的脸部姿态变化为“嘴角耷拉”时,减少1个“爱心”手势表情。
本实施例中,通过动态用户形象的脸部姿态变化调整手势表情的数量,能够将用户的脸部姿态和手势表情的数量相关联,使得用户能够通过变换脸部表情增加或减少动态用户形象的手势表情的数量,操作简单方便。
如图10所示,为一个实施例中在动态用户形象上配置与实时手部姿态相匹配的手势表情的界面示意图。
终端进入表情包编辑页面后,自动开启终端的摄像头。通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象,如图10中的(a)所示。接着,当用户选择添加手势表情时,该手势表情对应的卡片处于选中状态,如图10中的(b)所示。终端快速识别该动态用户形象的实时手部姿态,并为动态用户形象添加与实时手部姿态相匹配的预设数量的手势表情,如图10中的(c)所示。
当为动态用户形象配置相匹配的手势表情后,该手势表情对应的卡片上显示删除选项。当用户触发该删除选项时,终端删除动态用户形象上的所有已配置的手势表情,并重新展示当前的动态用户形象,如图10中的(d)所示。同时,终端继续识别当前的动态用户形象的实时手部姿态。如图10中的(d)所示,动态用户形象做出“比心”的手部姿态,终端获取与该“比心”的手部姿态相匹配的手势表情,即2个“爱心”。终端将该2个“爱心”的手势表情配置到动态用户形象上,如图10中的(e)所示。
在一个实施例中,该方法还包括:确定动态用户形象的头部转动幅度,根据动态用户形象的头部转动幅度切换不同样式的手势表情。
其中,头部转动幅度包括头部上下转动的幅度、头部左右转动的幅度。
具体地,终端根据动态用户形象的实时手部姿态,为动态用户形象配置与实时手部姿态相匹配的手势表情后,终端可检测动态用户形象的头部转动幅度。终端获取预设转动幅度,当动态用户形象的头部转动幅度大于该预设转动幅度时,终端切换当前显示在该动态用户形象的手势表情。
进一步地,终端可检测动态用户形象的头部上下转动的幅度,或头部左右转动的幅度。当动态用户形象的头部上下转动的幅度,或头部左右转动的幅度大于该预设转动幅度时,终端切换当前显示在该动态用户形象的手势表情。
其中,该不同样式的手势表情是指相同类型,但样式不同的手势表情。例如,同一类型的“爱心”手势表情的,可以为不同颜色、不同大小、不同形状的“爱心”样式,但样式不限于此。
如图11所示,终端在表情包编辑页面展示动态用户形象,并展示该添加人脸表情、添加手势表情和添加文本等表情包编辑类型。该编辑类型可通过表情包编辑页面的不同卡片选项显示。当用户选择添加手势表情时,该手势表情对应的卡片处于选中状态,如图11中的(a)所示。终端响应于用户触发的手势表情配置操作,识别该动态用户形象的实时手部姿态,并为该动态用户形象配置与该实时手部姿态相匹配的手部表情,如图11中的(b)所示,识别的实时手部姿态为“比心”,则在动态用户形象上配置“爱心”手势表情。
接着,终端可检测动态用户形象的头部转动幅度。当动态用户形象的头部转动幅度大于该预设转动幅度时,终端切换当前显示在该动态用户形象的手势表情的样式。如图11中的(b)、(c)、(d)所示,动态用户形象的头部转动幅度大于该预设转动幅度,终端切换不同样式的“爱心”手势表情。
在本实施例中,通过动态用户形象的头部转动幅度切换不同样式的手势表情,使得用户能够通过左右转动头部、或上下转动头部快速简单地切换不用样式的手势表情。
在一个实施例中,该方法还包括:响应于在表情包编辑页面的文本添加操作,获取音频;将所获取的音频转换为对应的文本内容,并在动态用户形象对应的文本区域显示文本内容;
获得包含表情元素的动态评论表情包,包括:获得包含表情元素和文本内容的评论表情包;或获得包含动态用户形象、表情元素和文本内容的评论表情包。
其中,音频可以是已录制音频或实时录制的音频。
具体地,终端进入表情包编辑页面后,自动开启终端的摄像头,通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象。或者,终端获取用户选择的已有视频,在该表情包编辑页面播放该已有视频,以展示视频中的动态用户形象。并且,终端在表情包编辑页面展示配置人脸表情、配置手势表情和配置文本等表情包的编辑类型。
在本实施例中,该添加人脸表情、添加手势表情和添加文本等表情包的编辑类型可通过表情包编辑页面的不同卡片选项显示。当用户选择配置文本时,该配置文本对应的卡片处于选中状态。终端响应于用户触发的文本添加操作,开启录制音频,当停止录制时,得到实时录制的音频。终端可对该实时录制的音频进行文本识别,得到对应的文本内容。接着,终端将该文本内容添加到动态用户形象对应的文本区域中。
在本实施例中,终端可获取用户选择的录制好的音频,对该音频进行文本识别,得到对应的文本内容。接着,终端将该文本内容添加到动态用户形象对应的文本区域中。
在本实施例中,当终端将该文本内容添加到动态用户形象对应的文本区域后,在该配置文本对应的卡片中显示删除选项。当用户选择触发该删除操作时,终端删除该文本区域内的文本内容。
接着,终端可根据配置文本、且配置表情元素后的动态用户形象生成动态评论表情包。该动态评论表情包由动态的用户形象和该用户形象的实时姿态相匹配的表情元素、以及文本内容组成。进一步地,终端可从该动态评论表情包中获取每帧包含用户形象、表情元素和文本的图像,将每帧图像确定为静态评论表情包。
在本实施例中,终端可根据所配置的文本和所配置的表情元素生成动态评论表情包。进一步地,终端可从该动态评论表情包中获取每帧包含表情元素和文本的图像,得到静态评论表情包。
本实施例中,通过将所获取的音频转换为对应的文本内容,能够添加符合动态用户形象所体现的实时姿态的文本内容,从而生成具有文字的个性化动态或静态评论表情包。
如图12所示,为一个实施例中基于分享内容的交互方法的界面示意图。
终端在表情包编辑页面展示动态用户形象,并展示该添加人脸表情、添加手势表情和添加文本等表情包编辑类型。该编辑类型可通过表情包编辑页面的不同卡片选项显示。当用户选择添加手势表情时,该手势表情对应的卡片处于选中状态,如图12中的(a)所示。终端响应于用户触发的手势表情配置操作,识别该动态用户形象的实时手部姿态,并为该动态用户形象配置与该实时手部姿态相匹配的手部表情,如图12中的(b)所示。
当用户触发配置文本操作时,该配置文本对应的卡片处于选中状态,如图12中的(c)所示。终端响应于该文本配置操作,获取音频,并将音频转换为对应的文本内容。终端将该文本内容配置到该动态用户形象对应的文本区域,如图12中所示的(c)、(d)所示。
该手势表情对应的卡片处于选中状态、该配置文本对应的卡片处于选中状态,表示终端即要识别动态用户形象的实时手部姿态,并配置与实时手部姿态相匹配的手势表情。同时,还需要检测用户上传的音频或实时录制的音频,并将音频转换为文本内容并添加到文本区域。
当用户触发配置人脸表情操作时,该人脸表情对应的卡片处于选中状态,如图12中的(e)所示。终端响应于该人脸表情配置操作,对动态的用户形象进行特征提取,以识别该动态用户形象的实时脸部姿态。接着,终端获取与动态用户形象的实时脸部姿态相匹配的人脸表情,并将人脸表情配置到该动态用户形象上,如图12中的(f)所示。
当该手势表情对应的卡片处于选中状态、该配置文本对应的卡片处于选中状态、该人脸表情对应的卡片处于选中状态时,表示终端即要识别动态用户形象的实时手部姿态,并配置与实时手部姿态相匹配的手势表情。同时,还需要检测用户上传的音频或实时录制的音频,并将音频转换为文本内容并添加到文本区域。同时,终端还需要识别动态用户形象的实时脸部姿态,并配置与实时脸部姿态相匹配的人脸表情。终端展示配置文本内容、配置手势表情,且配置人脸表情后的动态用户形象。
在一个实施例中,在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,获得包含表情元素的动态评论表情包,包括:
在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的录制操作,动态展示为动态用户形象添加的与动态用户形象的实时姿态相匹配的表情元素,录制获得包含表情元素的动态评论表情包,或者录制获得包含动态用户形象和表情元素的动态评论表情包。
具体地,当终端从信息流页面进入该表情包编辑页面时,终端自动启动摄像头,并在表情包编辑页面中通过摄像头实时采集用户形象,从而在该表情包编辑页面展示动态用户形象。终端在表情包编辑页面展示表情包的编辑类型。该表情包的编辑类型包括:配置表情元素和配置文本。
当用户选择表情包的编辑类型为配置表情元素时,终端检测该动态用户形象的实时姿态。终端获取与该动态用户形象的实时姿态相匹配的表情元素,并为该动态用户形象配置与实时姿态相匹配的表情元素。当终端触发表情包编辑页面触发的录制操作时,终端开始录制,同时终端继续获取识别该动态用户形象的实时姿态,并为该动态用户形象配置与实时姿态相匹配的表情元素。录制停止后,终端获得所录制的配置表情元素后的动态用户形象,该录制的视频即为动态评论表情包。进一步地,终端可将该录制的视频中的动态用户形象去除,保留所配置的表情元素,得到包含表情元素的动态评论表情包。
在本实施例中,当录制时长达到预设录制时长时,自动停止录制,得到动态评论表情包。或者,终端响应于用户在表情包编辑页面触发的录制完成操作,停止录制,得到动态评论表情包。
在本实施例中,通过实时拍摄采集动态用户形象,为动态用户形象配置与实时姿态相匹配的表情元素,并通过录制生成动态评论表情包,使得动态评论表情包的生成过程与更贴合动态用户形象的采集过程,从而生成用户个性化的动态评论表情包。
在一个实施例中,在表情包编辑页面展示动态用户形象,包括:在表情包编辑页面的预设区域展示动态用户形象;
该录制获得包含表情元素的动态评论表情包,或者录制获得包含动态用户形象和表情元素的动态评论表情包,包括:响应于在表情包编辑页面触发的录制完成操作,获得包含表情元素的动态评论表情包,或获得包含动态用户形象和表情元素的动态评论表情包;在预设区域播放动态评论表情包。
具体地,终端可该表情包编辑页面的预设区域展示动态用户形象。当终端触发表情包编辑页面触发的录制操作时,终端开始录制,同时终端继续获取识别该动态用户形象的实时姿态,并为该动态用户形象配置与实时姿态相匹配的表情元素。录制停止后,终端获得所录制的配置表情元素后的动态用户形象,该录制的视频即为动态评论表情包。进一步地,终端可将该录制的视频中的动态用户形象去除,保留所配置的表情元素,得到包含表情元素的动态评论表情包。
接着,终端在该表情包编辑页面的预设区域播放该动态评论表情包。进一步地,终端在该表情包编辑页面的预设区域循环播放该动态评论表情包。
在本实施例中,获得动态评论表情包后,在预设区域播放该动态评论表情包,使得用户能够预览所生成的动态评论表情包。
如图13所示,为另一个实施例中基于分享内容的交互方法的界面示意图。
终端在信息流页面,展示分享内容以及与分享内容对应的表情包编辑入口,如图13中的(a)所示。当触发对表情包编辑入口的触发操作时,终端进入表情包编辑页面,展示该添加人脸表情、添加手势表情和添加文本等表情包编辑类型。该编辑类型可通过表情包编辑页面的不同卡片选项显示。终端进入表情包编辑页面时,自动启动终端摄像头捕捉场景,如图13中的(b)所示。用户可调整终端摄像头的拍摄方向,以捕捉用户形象,从而在表情包编辑页面展示动态用户形象。
当该手势表情对应的卡片处于选中状态、该配置文本对应的卡片处于选中状态、该人脸表情对应的卡片处于选中状态时,表示终端即要识别动态用户形象的实时手部姿态,并配置与实时手部姿态相匹配的手势表情。同时,还需要检测用户上传的音频或实时录制的音频,并将音频转换为文本内容并添加到文本区域。同时,终端还需要识别动态用户形象的实时脸部姿态,并配置与实时脸部姿态相匹配的人脸表情。终端展示配置文本内容、配置手势表情,且配置人脸表情后的动态用户形象。终端展示配置文本内容、配置手势表情,且配置人脸表情后的动态用户形象,如图13中的(c)所示。
当用户触发在表情包编辑页面触发的录制操作时,终端继续展示配置文本内容、实时配置手势表情,且实时配置人脸表情后的动态用户形象,如图13中的(d)所示。
当用户在表情包编辑页面触发录制完成操作时,获得包含动态用户形象和表情元素的动态评论表情包。终端在显示动态用户形象的区域播放该动态评论表情包,如图13中的(e)所示。用户可触发表情包编辑页面的评论操作,从表情包编辑页面返回到信息流页面,在分享内容对应的评论区展示动态评论表情包,如图13中的(f)所示。
如图14,为一个实施例中基于分享内容的交互方法,该方法包括:
终端可预先制作表情模板,包括以下步骤:
终端调用摄像头拍摄动态用户形象,并选择配置人脸表情、配置文本和配置手势表情中的至少一种。
当选择配置人脸表情时,终端通过云识别动态用户形象的实时脸部姿态,并通过云搜索获取与实时脸部姿态相匹配的人脸表情。接着,终端将人脸表情配置到动态用户形象上。
当选择配置文本时,终端开启麦克风录制用户的音频,通过云识别将音频转译为对应的文本内容,并将文本内容添加到动态用户形象对应的文本区域。
当选择配置手势表情时,终端通过云识别动态用户形象的实时手部姿态,并通过云搜索获取与实时手部姿态相匹配的手势表情。接着,终端为动态用户形象配置手势表情。
终端保存为动态用户形象配置人脸表情、配置文本和配置手势表情中的至少一种后所得到的表情模板。
终端编辑动态评论表情包,包括以下步骤:
当用户进入表情包编辑页面时,终端拍摄并展示动态用户形象。终端根据用户选择的表情包编辑类型,为动态用户形象配置相匹配的表情模板,以生成动态评论表情包。
终端从表情包编辑页面返回到信息流页面,在分享内容对应的评论区展示动态评论表情包。
在一个实施例中,提供了一种基于分享内容的交互方法,该方法包括:
终端在信息流页面,展示分享内容以及与分享内容对应的表情包编辑入口。
当触发对表情包编辑入口的触发操作时,终端进入表情包编辑页面。
终端在表情包编辑页面调用摄像头,采集各帧包含同一用户形象的静态图像组成动态用户形象,在表情包编辑页面展示动态用户形象。
可选地,终端响应于在表情包编辑页面触发的人脸表情配置操作,对各帧静态图像进行脸部特征提取,以识别用户形象的脸部是否被遮挡物遮挡。
当动态用户形象的脸部未被遮挡物遮挡时,终端对各帧静态图像进行脸部特征提取,得到各帧静态图像对应的脸部特征;终端根据脸部特征确定各帧静态图像分别对应的脸部姿态;终端基于相邻帧静态图像之间的脸部姿态变化,确定动态用户形象的实时脸部姿态。终端在动态用户形象上配置与实时脸部姿态相匹配的人脸表情并动态展示,获得动态用户形象的脸部被人脸表情遮挡的动态评论表情包,或者获得包含人脸表情的动态评论表情包。进一步地,终端可从该动态评论表情包中获取每帧用户形象的脸部被人脸表情遮挡的图像,得到静态评论表情包。或者,终端可从包含人脸表情的动态评论表情包中获取每帧包含人脸表情的图像,得到静态评论表情包。
可选地,当动态用户形象的至少一部分脸部被遮挡物遮挡时,终端获取被遮挡物遮挡至少一部分脸部的人脸表情;终端对动态用户形象的未被遮挡物遮挡的脸部区域进行识别,获取与未被遮挡的脸部区域相匹配的人脸表情;终端将被遮挡物遮挡盖至少一部分脸部的人脸表情和未被遮挡的脸部区域相匹配的人脸表情进行融合处理,得到目标人脸表情;终端在动态用户形象上配置目标人脸表情,获得动态用户形象的脸部被目标人脸表情遮挡的动态评论表情包。
可选地,终端确定动态用户形象的脸部颜色,将人脸表情调整为与脸部颜色相匹配的颜色。
终端响应于在表情包编辑页面触发的手势表情配置操作,识别动态用户形象的实时手部姿态。
终端为动态用户形象配置与实时手部姿态相匹配的手势表情并动态展示;
终端根据动态用户形象的脸部姿态变化,调整手势表情的数量,获得包含动态用户形象和手势表情的动态评论表情包。
终端确定动态用户形象的头部转动幅度,根据动态用户形象的头部转动幅度切换不同样式的手势表情。
终端响应于在表情包编辑页面的文本添加操作,开启麦克风以录制音频。
终端将所录制的音频转换为对应的文本内容,并在动态用户形象对应的文本区域显示文本内容;获得包含动态用户形象、表情元素和文本内容的动态评论表情包。进一步地,终端可从该包含动态用户形象、表情元素和文本内容的动态评论表情包中,获取每帧包含用户形象、表情元素和文本内容的图像,得到静态评论表情包。
终端响应于在表情包编辑页面触发的录制操作,为动态用户形象添加的与动态用户形象的实时脸部姿态相匹配的人脸表情、为动态用户形象添加的与动态用户形象的实时手部姿态相匹配的手势表情、为动态用户形象添加文本内容,录制停止时获得动态评论表情包。进一步地,终端可从该包含动态用户形象、人脸表情、手势表情和文本内容的动态评论表情包中,获取每帧包含用户形象、人脸表情、手势表情和文本内容的图像,得到静态评论表情包。
终端在预设区域播放动态评论表情包或展示静态评论表情包。
进一步地,终端从表情包编辑页面返回到信息流页面,在分享内容对应的评论区展示动态评论表情包或静态评论表情包。
在本实施例中,在表情包编辑页面展示动态用户形象,当用户触发的人脸表情配置操作时,识别动态用户形象的实时脸部姿态,为动态用户形象配置与实时脸部姿态相匹配的人脸表情,使得人脸表情和动态用户形象更贴近。并且,将人脸表情调整为与脸部颜色相匹配的颜色,使得人脸表情与动态用户形象更协调自然。
当用户触发手势表情配置操作时,识别动态用户形象的实时手部姿态,为动态用户形象配置与实时手部姿态相匹配的手势表情,从而将手势转换为对应的表情,操作简单。通过动态用户形象的头部转动幅度调整手势表情的样式,以简单快速切换不同样式的手势表情,以展示更丰富的手势表情。
当用户触发文本配置操作时,将音频转换为对应的文本内容,并未动态用户形象配置该文本内容,使得能够添加符合动态用户形象所体现的实时姿态的文本内容。
通过配置人脸表情、手势表情和文本内容,能够将动态用户形象与实时姿态相匹配的表情元素、以及文本进行关联,使得生成的动态评论表情包更贴合动态用户形象。并且能够在信息流页面直接针对分享内容进行动态评论表情包的编辑,提供了生成用户个性化的动态表情包的生成方式。
应该理解的是,虽然图2-图14的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-图14中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图15所示,提供了一种基于分享内容的交互装置,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:展示模块1502、进入模块1504、获得模块1506和返回模块1508,其中:
展示模块1502,用于展示分享内容以及与分享内容对应的表情包编辑入口。
进入模块1504,用于当触发对表情包编辑入口的触发操作时,进入表情包编辑页面。
获得模块1506,用于在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,获得包含表情元素的评论表情包。
返回模块1508,用于在分享内容对应的评论区展示评论表情包。
上述基于分享内容的交互装置,通过在信息流页面展示分享内容以及与分享内容对应的表情包编辑入口,使得用户触发对表情包编辑入口时进入用户对动态评论表情包的编辑页面。在表情包编辑页面展示动态用户形象,并展示与动态用户形象的实时姿态相匹配的表情元素,使得动态用户形象与实时姿态相匹配的表情元素进行关联,使得生成的评论表情包更贴合用户形象。并且能够直接针对分享内容进行评论表情包的编辑,生成用户个性化的评论表情包。
在一个实施例中,该表情元素包括人脸表情;获得模块1506还用于在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的人脸表情配置操作,识别动态用户形象的实时脸部姿态;在动态用户形象上配置与实时脸部姿态相匹配的人脸表情并展示,获得包含人脸表情的评论表情包,或者获得动态用户形象的脸部被人脸表情遮挡的动态评论表情包。
本实施例中,通过在表情包编辑页面展示动态用户形象,在触发的人脸表情配置操作后实时识别动态用户形象的实时脸部姿态,以在动态用户形象的脸部快速准确地配置与实时脸部姿态相匹配的人脸表情,使得生成的评论表情包更贴合用户的实际形象,从而生成用户个性化的评论表情包。
在一个实施例中,该动态用户形象由包含同一用户形象的各帧静态图像组成;该获得模块1506还用于对各帧静态图像进行脸部特征提取,得到各帧静态图像对应的脸部特征;根据脸部特征确定各帧静态图像分别对应的脸部姿态;基于相邻帧静态图像之间的脸部姿态变化,确定动态用户形象的实时脸部姿态。
在本实施例中,通过对静态图像进行脸部特征提取,基于脸部特征准确识别出用户形象在各帧静态图像中的脸部姿态。根据相邻帧图像之间的脸部姿态的变化,能够确定动态用户形象的脸部姿态的变化,从而准确确定动态用户形象的实时脸部姿态。
在一个实施例中,该装置还包括:调整模块。该调整模块还用于:确定动态用户形象的脸部颜色,将表情元素调整为与脸部颜色相匹配的颜色。
在本实施例中,将表情元素调整为与脸部颜色相匹配的颜色,使得配置在动态用户形象上的表情元素的脸部姿态和颜色,更贴合动态用户形象的实时脸部姿态和颜色。调整颜色后的表情元素和动态用户形象的结合更自然协调,生成的动态评论表情包更贴近用户的实际形象。
在一个实施例中,表情元素包括人脸表情;该获得模块1506还用于:当动态用户形象的至少一部分脸部被遮挡物遮挡时,获取被遮挡物遮挡至少一部分脸部的人脸表情;在动态用户形象上,配置被遮挡物遮挡至少一部分脸部的人脸表情。
本实施例中,当动态用户形象的至少一部分脸部被遮挡物遮挡时,获取被遮挡物遮挡至少一部分脸部的人脸表情,使得动态用户形象上所配置的人脸表情更贴合动态用户形象的实际脸部情况,从而生成个性化的动态评论表情包。
在一个实施例中,该获得模块1506还用于:对动态用户形象的未被遮挡物遮挡的脸部区域进行识别,获取与未被遮挡的脸部区域相匹配的人脸表情;将被遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情进行融合处理,得到目标人脸表情;在动态用户形象上配置目标人脸表情,获得包含目标人脸表情的评论表情包,或者获得动态用户形象的脸部被目标人脸表情遮挡的动态评论表情包。
在本实施例中,对动态用户形象未被遮挡的脸部区域识别,以获取与未遮挡的脸部区域相匹配的人脸表情。将被遮挡的人脸表情和未被遮挡的人脸表情进行融合处理,能够准确得到贴合动态用户形象的脸部姿态的目标人脸表情。
在一个实施例中,该表情元素包括手势表情;该获得模块1506还用于在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的手势表情配置操作,识别动态用户形象的实时手部姿态;为动态用户形象配置与实时手部姿态相匹配的手势表情并动态展示;根据动态用户形象的脸部姿态变化,调整手势表情的数量,获得包含手势表情的评论表情包,或者获得包含动态用户形象和手势表情的评论表情包。
本实施例中,在触发的手势表情配置操作后,实时识别动态用户形象的实时手部姿态,以在动态用户形象的手部快速准确地配置与实时手部姿态相匹配的手势表情。将用户的手势转换为对应的表情,使得用户通过简单的操作即可快速准确生成用户个性化的评论表情包。并且,能够通过变换脸部表情增加或减少动态用户形象的手势表情的数量,操作简单方便。
在一个实施例中,该装置还包括:切换模块。该切换模块用于:确定动态用户形象的头部转动幅度,根据动态用户形象的头部转动幅度切换不同样式的手势表情。
在本实施例中,通过动态用户形象的头部转动幅度切换不同样式的手势表情,使得用户能够通过左右转动头部、或上下转动头部快速简单地切换不用样式的手势表情。
在一个实施例中,该装置还包括:文本添加模块。该文本添加模块用于响应于在表情包编辑页面的文本添加操作,获取音频;将所获取的音频转换为对应的文本内容,并在动态用户形象对应的文本区域显示文本内容;
获得模块1506还用于获得包含表情元素和文本内容的评论表情包;或获得包含动态用户形象、表情元素和文本内容的评论表情包。
本实施例中,通过将所获取的音频转换为对应的文本内容,能够添加符合动态用户形象所体现的实时姿态的文本内容,从而生成具有文字的个性化评论表情包。
在一个实施例中,该获得模块1506还用于:在表情包编辑页面展示动态用户形象;响应于在表情包编辑页面触发的录制操作,展示为动态用户形象添加的与动态用户形象的实时姿态相匹配的表情元素,录制获得包含表情元素的动态评论表情包,或者录制获得包含动态用户形象和表情元素的动态评论表情包。
在本实施例中,通过实时拍摄采集动态用户形象,为动态用户形象配置与实时姿态相匹配的表情元素,并通过录制生成动态评论表情包,使得动态评论表情包的生成过程与更贴合动态用户形象的采集过程,从而生成用户个性化的动态评论表情包。
在一个实施例中,该获得模块1506还用于:在表情包编辑页面的预设区域展示动态用户形象;响应于在表情包编辑页面触发的录制完成操作,获得包含表情元素的动态评论表情包,或获得包含动态用户形象和表情元素的动态评论表情包;在预设区域播放动态评论表情包。
在本实施例中,获得动态评论表情包后,在预设区域播放该动态评论表情包,使得用户能够预览所生成的动态评论表情包。
关于基于分享内容的交互装置的具体限定可以参见上文中对于基于分享内容的交互方法的限定,在此不再赘述。上述基于分享内容的交互装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图16所示。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于分享内容的交互数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于分享内容的交互方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图16所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种基于分享内容的交互方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图16中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (16)

1.一种基于分享内容的交互方法,其特征在于,所述方法包括:
在信息流页面,展示分享内容以及与所述分享内容对应的表情包编辑入口;
当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
当进入所述表情包编辑页面,通过摄像头实时采集用户形象,以在所述表情包编辑页面展示动态用户形象;
响应于在所述表情包编辑页面触发的人脸表情配置操作,当所述动态用户形象的脸部未被遮挡物遮挡,识别所述动态用户形象的实时脸部姿态和所述动态用户形象的脸部颜色;
获取与所述实时脸部姿态相匹配的人脸表情,将所述人脸表情调整为与所述脸部颜色相匹配的颜色;
在所述动态用户形象的脸部配置调整颜色后的人脸表情并展示,获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的评论表情包;
当所述动态用户形象的至少一部分脸部被遮挡物遮挡,获取被所述遮挡物遮挡至少一部分脸部的人脸表情;
获取未被所述遮挡物遮挡的动态用户形象的脸部区域相匹配的人脸表情;
由所述被遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情,得到目标人脸表情;
将所述目标人脸表情调整为与所述脸部颜色相匹配的颜色,在所述动态用户形象上配置调整颜色后的目标人脸表情,获得所述动态用户形象的脸部被调整颜色后的目标人脸表情遮挡的评论表情包;
从所述表情包编辑页面返回所述信息流页面,在所述分享内容对应的评论区展示所述评论表情包。
2.根据权利要求1所述的方法,其特征在于,所述动态用户形象由包含同一用户形象的各帧静态图像组成;所述识别所述动态用户形象的实时脸部姿态,包括:
对所述各帧静态图像进行脸部特征提取,得到所述各帧静态图像对应的脸部特征;
根据所述脸部特征确定所述各帧静态图像分别对应的脸部姿态;
基于相邻帧静态图像之间的脸部姿态变化,确定所述动态用户形象的实时脸部姿态。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述表情包编辑页面展示动态用户形象;
响应于在所述表情包编辑页面触发的手势表情配置操作,识别所述动态用户形象的实时手部姿态;
为所述动态用户形象配置与所述实时手部姿态相匹配的手势表情并展示;
根据所述动态用户形象的脸部姿态变化,调整所述手势表情的数量,获得包含所述手势表情的评论表情包,或者获得包含所述动态用户形象和所述手势表情的评论表情包。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
确定所述动态用户形象的头部转动幅度,根据所述动态用户形象的头部转动幅度切换不同样式的手势表情。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于在所述表情包编辑页面的文本添加操作,获取音频;
将所获取的音频转换为对应的文本内容,并在所述动态用户形象对应的文本区域显示所述文本内容;
所述获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的评论表情包,包括:
获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡、且包含所述文本内容的评论表情包。
6.根据权利要求1所述的方法,其特征在于,所述在所述动态用户形象的脸部配置调整颜色后的人脸表情并展示,获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的评论表情包,包括:
响应于在所述表情包编辑页面触发的录制操作,展示为所述动态用户形象添加的与所述实时脸部姿态相匹配的、调整颜色后的人脸表情,录制获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的动态评论表情包。
7.根据权利要求6所述的方法,其特征在于,所述在所述表情包编辑页面展示动态用户形象,包括:
在所述表情包编辑页面的预设区域展示动态用户形象;
所述录制获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的动态评论表情包,包括:
响应于在所述表情包编辑页面触发的录制完成操作,获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的动态评论表情包;
在所述预设区域播放所述动态评论表情包。
8.一种基于分享内容的交互装置,其特征在于,所述装置包括:
展示模块,用于在信息流页面,展示分享内容以及与所述分享内容对应的表情包编辑入口;
进入模块,用于当触发对所述表情包编辑入口的触发操作时,进入表情包编辑页面;
获得模块,用于当进入所述表情包编辑页面,通过摄像头实时采集用户形象,以在所述表情包编辑页面展示动态用户形象;响应于在所述表情包编辑页面触发的人脸表情配置操作,当所述动态用户形象的脸部未被遮挡物遮挡,识别所述动态用户形象的实时脸部姿态和所述动态用户形象的脸部颜色;获取与所述实时脸部姿态相匹配的人脸表情,将所述人脸表情调整为与所述脸部颜色相匹配的颜色;在所述动态用户形象的脸部配置调整颜色后的人脸表情并展示,获得所述动态用户形象的脸部被调整颜色后的人脸表情遮挡的评论表情包;
所述获得模块,还用于当所述动态用户形象的至少一部分脸部被遮挡物遮挡,获取被所述遮挡物遮挡至少一部分脸部的人脸表情;获取未被所述遮挡物遮挡的动态用户形象的脸部区域相匹配的人脸表情;由所述被遮挡物遮挡至少一部分脸部的人脸表情,和未被遮挡的脸部区域相匹配的人脸表情,得到目标人脸表情;将所述目标人脸表情调整为与所述脸部颜色相匹配的颜色,在所述动态用户形象上配置调整颜色后的目标人脸表情,获得所述动态用户形象的脸部被调整颜色后的目标人脸表情遮挡的评论表情包;
返回模块,用于从所述表情包编辑页面返回所述信息流页面,在所述分享内容对应的评论区展示所述评论表情包。
9.根据权利要求8所述的装置,其特征在于,所述动态用户形象由包含同一用户形象的各帧静态图像组成;所述获得模块,还用于对所述各帧静态图像进行脸部特征提取,得到所述各帧静态图像对应的脸部特征;根据所述脸部特征确定所述各帧静态图像分别对应的脸部姿态;基于相邻帧静态图像之间的脸部姿态变化,确定所述动态用户形象的实时脸部姿态。
10.根据权利要求8所述的装置,其特征在于,所述获得模块,还用于在所述表情包编辑页面展示动态用户形象;响应于在所述表情包编辑页面触发的手势表情配置操作,识别所述动态用户形象的实时手部姿态;为所述动态用户形象配置与所述实时手部姿态相匹配的手势表情并展示;根据所述动态用户形象的脸部姿态变化,调整所述手势表情的数量,获得包含所述手势表情的评论表情包,或者获得包含所述动态用户形象和所述手势表情的评论表情包。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
切换模块,用于确定所述动态用户形象的头部转动幅度,根据所述动态用户形象的头部转动幅度切换不同样式的手势表情。
12.根据权利要求8所述的装置,其特征在于,所述装置还包括:
文本添加模块,用于响应于在所述表情包编辑页面的文本添加操作,获取音频;将所获取的音频转换为对应的文本内容,并在所述动态用户形象对应的文本区域显示所述文本内容;
所述获得模块,还用于获得所述动态用户形象的脸部被所述人脸表情遮挡且包含所述文本内容的评论表情包。
13.根据权利要求8所述的装置,其特征在于,所述获得模块,还用于响应于在所述表情包编辑页面触发的录制操作,展示为所述动态用户形象添加的与所述实时脸部姿态相匹配的人脸表情,录制获得所述动态用户形象的脸部被所述人脸表情遮挡的动态评论表情包。
14.根据权利要求13所述的装置,其特征在于,所述获得模块,还用于在所述表情包编辑页面的预设区域展示动态用户形象;响应于在所述表情包编辑页面触发的录制完成操作,获得所述动态用户形象的脸部被所述人脸表情遮挡的动态评论表情包;在所述预设区域播放所述动态评论表情包。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
16.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202010965670.2A 2020-09-15 2020-09-15 基于分享内容的交互方法、装置和计算机设备 Active CN112749357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010965670.2A CN112749357B (zh) 2020-09-15 2020-09-15 基于分享内容的交互方法、装置和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010965670.2A CN112749357B (zh) 2020-09-15 2020-09-15 基于分享内容的交互方法、装置和计算机设备

Publications (2)

Publication Number Publication Date
CN112749357A CN112749357A (zh) 2021-05-04
CN112749357B true CN112749357B (zh) 2024-02-06

Family

ID=75645720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010965670.2A Active CN112749357B (zh) 2020-09-15 2020-09-15 基于分享内容的交互方法、装置和计算机设备

Country Status (1)

Country Link
CN (1) CN112749357B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230115639A1 (en) * 2021-10-13 2023-04-13 Lemon Inc. System and method for dynamic profile photos

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107370887A (zh) * 2017-08-30 2017-11-21 维沃移动通信有限公司 一种表情生成方法及移动终端
CN108197206A (zh) * 2017-12-28 2018-06-22 努比亚技术有限公司 表情包生成方法、移动终端及计算机可读存储介质
CN108648061A (zh) * 2018-05-18 2018-10-12 北京京东尚科信息技术有限公司 图像生成方法和装置
CN109120866A (zh) * 2018-09-27 2019-01-01 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备
CN110717974A (zh) * 2019-09-27 2020-01-21 腾讯数码(天津)有限公司 展示状态信息的控制方法、装置、电子设备和存储介质
CN111046814A (zh) * 2019-12-18 2020-04-21 维沃移动通信有限公司 图像处理方法及电子设备
CN111530088A (zh) * 2020-04-17 2020-08-14 完美世界(重庆)互动科技有限公司 一种生成游戏角色的实时表情图片的方法和装置
CN111638784A (zh) * 2020-05-26 2020-09-08 浙江商汤科技开发有限公司 人脸表情互动方法、互动装置以及计算机存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107370887A (zh) * 2017-08-30 2017-11-21 维沃移动通信有限公司 一种表情生成方法及移动终端
CN108197206A (zh) * 2017-12-28 2018-06-22 努比亚技术有限公司 表情包生成方法、移动终端及计算机可读存储介质
CN108648061A (zh) * 2018-05-18 2018-10-12 北京京东尚科信息技术有限公司 图像生成方法和装置
CN109120866A (zh) * 2018-09-27 2019-01-01 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备
CN110717974A (zh) * 2019-09-27 2020-01-21 腾讯数码(天津)有限公司 展示状态信息的控制方法、装置、电子设备和存储介质
CN111046814A (zh) * 2019-12-18 2020-04-21 维沃移动通信有限公司 图像处理方法及电子设备
CN111530088A (zh) * 2020-04-17 2020-08-14 完美世界(重庆)互动科技有限公司 一种生成游戏角色的实时表情图片的方法和装置
CN111638784A (zh) * 2020-05-26 2020-09-08 浙江商汤科技开发有限公司 人脸表情互动方法、互动装置以及计算机存储介质

Also Published As

Publication number Publication date
CN112749357A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN105791692B (zh) 一种信息处理方法、终端及存储介质
KR102292537B1 (ko) 이미지 처리 방법 및 장치, 및 저장 매체
JP7112508B2 (ja) 動画スタンプの生成方法並びにそのコンピュータプログラム及びコンピュータ装置
US20220284735A1 (en) Identifying and addressing offensive actions in visual communication sessions
TWI751161B (zh) 終端設備、智慧型手機、基於臉部識別的認證方法和系統
CN105825486B (zh) 美颜处理的方法及装置
JP2024028390A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
CN107911736B (zh) 直播互动方法及***
WO2022237129A1 (zh) 视频录制方法、装置、设备、介质及程序
US20110007174A1 (en) Identifying Facial Expressions in Acquired Digital Images
WO2018137595A1 (zh) 一种面部识别方法
US20140223474A1 (en) Interactive media systems
US11778263B2 (en) Live streaming video interaction method and apparatus, and computer device
CN109167877A (zh) 终端屏幕控制方法、装置、终端设备和存储介质
US20170047096A1 (en) Video generating system and method thereof
WO2023279713A1 (zh) 特效展示方法、装置、计算机设备、存储介质、计算机程序和计算机程序产品
US9807301B1 (en) Variable pre- and post-shot continuous frame buffering with automated image selection and enhancement
CN111643900A (zh) 一种展示画面控制方法、装置、电子设备和存储介质
CN108737903B (zh) 一种多媒体处理***及多媒体处理方法
CN109379623A (zh) 视频内容生成方法、装置、计算机设备和存储介质
CN111638784A (zh) 人脸表情互动方法、互动装置以及计算机存储介质
CN112749357B (zh) 基于分享内容的交互方法、装置和计算机设备
WO2020215776A1 (zh) 多媒体数据的处理方法以及装置
JP5776471B2 (ja) 画像表示システム
WO2024114584A1 (zh) 信息提示方法、信息提示装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40044225

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant