CN116126177A - 一种数据交互控制方法、装置、电子设备和存储介质 - Google Patents

一种数据交互控制方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN116126177A
CN116126177A CN202211662253.6A CN202211662253A CN116126177A CN 116126177 A CN116126177 A CN 116126177A CN 202211662253 A CN202211662253 A CN 202211662253A CN 116126177 A CN116126177 A CN 116126177A
Authority
CN
China
Prior art keywords
target
digital person
man
video
interaction interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211662253.6A
Other languages
English (en)
Inventor
林建彪
沈亚阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Black Mirror Technology Co ltd
Original Assignee
Xiamen Black Mirror Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Black Mirror Technology Co ltd filed Critical Xiamen Black Mirror Technology Co ltd
Priority to CN202211662253.6A priority Critical patent/CN116126177A/zh
Publication of CN116126177A publication Critical patent/CN116126177A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种数据交互控制方法、装置、电子设备和存储介质,该方法包括:获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面,由专用的预设渲染服务器执行交互过程中的渲染操作,从而提高了数字人的交互响应速度,并提升了用户体验。

Description

一种数据交互控制方法、装置、电子设备和存储介质
技术领域
本申请涉及计算机技术领域,更具体地,涉及一种数据交互控制方法、装置、电子设备和存储介质。
背景技术
数字人,是一种利用信息科学的方法对人体在不同水平的形态和功能进行虚拟仿真。
现有技术中,比较多的数字人交互技术是通过调用本地用户终端加载数字人以及进行渲染和交互,但这种方式对本地用户终端的硬件要求比较高,同时在交互过程中,对数字人的渲染时间和对动作视频流的输出时间过长,严重影响了交互过程中的响应速度,使用户的体验感较差。
因此,如何提高数字人的交互响应速度,是目前有待解决的技术问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请实施例提供一种数据交互控制方法、装置、电子设备和存储介质,用以提高数字人的交互响应速度。
第一方面,提供一种数据交互控制方法,所述方法包括:获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面。
第二方面,提供一种数据交互控制装置,所述装置包括:获取模块,用于获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;视频渲染模块,用于调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;视频展示模块,用于将所述视频流展示在所述人机交互界面。
第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行第一方面所述的数据交互控制方法。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的数据交互控制方法。
通过应用以上技术方案,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面,由专用的预设渲染服务器执行交互过程中的渲染操作,从而提高了数字人的交互响应速度,并提升了用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提出的一种数据交互控制方法的流程示意图;
图2示出了本发明另一实施例提出的一种数据交互控制方法的流程示意图;
图3示出了本发明又一实施例提出的一种数据交互控制方法的流程示意图;
图4示出了本发明实施例提出的一种数据交互控制装置的结构示意图;
图5示出了本发明实施例提出的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求部分指出。
应当理解的是,本申请并不局限于下面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
本申请实施例提供一种数据交互控制方法,如图1所示,该方法包括以下步骤:
步骤S101,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数。
本实施例中,人机交互界面可以为客户端的人机交互界面,客户端安装在终端设备中,用户在终端设备中打开客户端后进入人机交互界面。终端设备包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、自助服务终端和可穿戴式电子设备等。用户通过人机交互界面与目标数字人进行交互,目标数字人可以是实时生成的,也可以是用户上传的,也可以是从其他服务器或终端接收的。交互触发事件由用户在人机交互界面上的输入操作触发,该输入操作可包括输入文本、输入语音、动作触发、按键触发等操作。用户可根据交互需求主动在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。用户也可根据人机交互界面上文字信息或语音信息的指引在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。
在获取交互触发事件后,根据交互触发事件确定目标数字人的视频渲染参数,该视频渲染参数用于驱动目标数字人产生与交互触发事件对应的互动行为,视频渲染参数为包括声音渲染数据、表情渲染数据、动作渲染数据中的一项或几项。
步骤S102,调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流。
预设渲染服务器基于3D引擎实现渲染功能,3D引擎可以是UE4、Unity等。可直接调用预设渲染服务器,也可通过预设WebRTC(Web Real-Time Communication,网页实时通信)服务器调用预设渲染服务器。预设渲染服务器按视频渲染参数对目标数字人进行渲染,得到相应的视频流,视频流中目标数字人会展现出相应的互动行为。
举例来说,若交互触发事件对应的输入操作是输入了一段语音“今天天气怎么样”,视频流中目标数字人会做出“今天有雨,温度10-20度”的口型动画,并发出相应的语音。若交互触发事件对应的输入操作是输入一个代表“我们击掌吧”击掌手势,该击掌手势可以贴在人机交互界面上做出,也可以隔空做出,那么相应的视频流中,目标数字人会做出相应的击掌动作,并做出与击掌动作相应的面部表情(如灿烂的微笑),还可发出相应的语音(如“耶”)。若交互触发事件对应的输入操作是输入文本内容“如何洗手”,视频流中目标数字人会通过语音回答“如何洗手”这一问题,同时做出与语音相匹配的表情、动作,并用肢体动作来演示如何洗手。
步骤S103,将所述视频流展示在所述人机交互界面。
本实施例中,可在人机交互界面设置一个视频展示区域,在该视频展示区域中展示视频流,在展示该视频流的同时可显示播放进度,用户可随时调整播放进度。还可显示静音选项,使用户控制视频流是否发出声音,以满足用户在不同场景下的静音需求。还可显示全屏选项,便于用户可全屏观看该视频流。
在本申请一些实施例中,在获取人机交互界面上的交互触发事件之前,所述方法还包括:
获取所述人机交互界面上的创建触发事件,根据所述创建触发事件确定数字人创建参数;
调用所述预设渲染服务器按所述数字人创建参数创建出初始数字人;
保存所述初始数字人,并将所述初始数字人展示在所述人机交互界面。
本实施例中,用户可基于人机交互界面进行数字人的创建,创建触发事件由在人机交互界面中的创建操作触发,该创建操作是单一操作或一组操作。根据创建触发事件确定数字人创建参数,然后调用预设渲染服务器按数字人创建参数创建出初始数字人,根据保存指令保存初始数字人,或自动保存该初始数字人,并将初始数字人展示在人机交互界面,从而实现高效的进行数字人的创建,提升了用户体验。
可选的,创建操作包括上传一张人脸照片,输入性别和画风类型;数字人创建参数包括性别、画风类型和从人脸照片中提取的人脸特征数据。其中,人脸照片中包括目标人脸,以目标人脸为基础创建出初始数字人。性别用于指定数字人的性别,画风类型数据用于指定数字人的画风类型,如拟真、美漫、唯美、可爱等画风类型,每种画风类型均可通过样例图片进行预览,方便用户根据自己的需求进行选择。为了使数字人与人脸照片中的目标人脸匹配,保证较好的视觉效果,照片的内容、光照、格式、大小等需要满足预设条件,例如必须是正脸照片,光照均匀充足,表情自然放松,属于预设格式(如JPG或PNG等格式),图片大小不超过预设大小(如10MB)等。
在本申请一些实施例中,在将所述初始数字人展示在所述人机交互界面之后,所述方法还包括:
获取所述人机交互界面上的编辑触发事件,根据所述编辑触发事件确定所述初始数字人的编辑参数;
调用所述预设渲染服务器按所述编辑参数对所述初始数字人进行编辑,得到所述目标数字人;
将所述目标数字人展示在所述人机交互界面。
本实施例中,用户可基于人机交互界面对已创建的数字人进行编辑,编辑触发事件由在人机交互界面中的编辑操作触发,该编辑操作是单一操作或一组操作,编辑操作产生相应的编辑参数。根据编辑触发事件确定初始数字人的编辑参数,然后调用预设渲染服务器按编辑参数对初始数字人进行编辑,编辑完成后得到目标数字人,并将目标数字人展示在人机交互界面,从而可高效的进行数字人的编辑,提升了用户体验。
可选的,编辑参数为包括场景、动作、物品、字幕、配音、文字、素材、滤镜、音乐、转场、镜头中的至少一种。其中,场景为数字人所处的场景,可设置不同的场景、调整场景的位置、场景与人物的角度、场景大小等;动作为使数字人展现相应的动作,例如演讲播报、日常互动、站姿或坐姿的POSE、社交表达、情绪表达、即兴表演、运动等;物品可以是数字人携带或周围环境中的物品;字幕可以是与配音对应的文字;配音可以为来自TTS(Text ToSpeech,语音合成)自动合成,也可以是用户自己录制的声音以及音乐;文字是除字幕以外的文字;素材可以是预先设置的图片或视频信息,也可以是用户自行上传的内容,可调整素材的位置、素材的摆放方式、比例大小、透明度等;滤镜为呈现的拍摄效果;音乐可以是呈现的背景音乐;转场为使数字人进入不同的场景;镜头为虚拟摄像机的设置参数,如镜头位置、镜头角度、镜头切换参数等。
在本申请一些实施例中,在将所述目标数字人展示在所述人机交互界面之后,所述方法还包括:
获取所述人机交互界面上的本地存储触发事件,根据所述本地存储触发事件确定本地存储路径和数字人标识;
将所述目标数字人按所述数字人标识保存在所述本地存储路径。
本实施例中,本地存储触发事件由在人机交互界面上的本地保存操作触发,本地保存操作包括指定本地存储路径和对目标数字人命名一个数字人标识,根据本地存储触发事件确定本地存储路径和数字人标识,然后将目标数字人按数字人标识保存在本地存储路径,后续可基于数字人标识查询到目标数字人,从而便于用户高效的对目标数字人进行后续访问。
可选的,本地存储触发事件也可在满足预设触发条件时自动触发。
在本申请一些实施例中,在将所述目标数字人按所述数字人标识保存在所述本地存储路径之后,所述方法还包括:
获取所述人机交互界面上对所述目标数字人的调用触发事件,根据所述调用触发事件确定用户标识;
判断所述用户标识是否满足预设鉴权规则;
若是,将所述目标数字人和所述数字人标识展示在所述人机交互界面;
若否,在所述人机交互界面上展示拒绝访问的提示信息。
本实施例中,调用触发事件由用户在人机交互界面上对目标数字人的调用操作触发,根据调用触发事件确定用户标识,若用户标识满足预设鉴权规则,则确定该用户是合法用户,可以调用目标数字人,将目标数字人和数字人标识展示在人机交互界面;若用户标识不满足预设鉴权规则,则确定该用户为非法用户,不能调用目标数字人,在人机交互界面上展示拒绝访问的提示信息,从而提高了访问数字人时的安全性。
通过应用以上技术方案,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面,由专用的预设渲染服务器执行交互过程中的渲染操作,从而提高了数字人的交互响应速度,并提升了用户体验。
本申请实施例还提出了一种数据交互控制方法,如图2所示,该方法包括以下步骤:
步骤S201,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定用户的操作数据。
本实施例中,用户通过人机交互界面与目标数字人进行交互,目标数字人可以是实时生成的,也可以是用户上传的,也可以是从其他服务器或终端接收的。交互触发事件由用户在人机交互界面上的输入操作触发,该输入操作可包括输入文本、输入语音、动作触发、按键触发等操作。用户可根据交互需求主动在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。用户也可根据人机交互界面上文字信息或语音信息的指引在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。由于交互触发事件由输入操作触发,根据交互触发事件可确定用户的操作数据。
步骤S202,根据所述操作数据查询预设对应关系表,得到目标配置文件。
本实施例中,预先根据不同操作数据和不同配置文件之间的对应关系建立预设对应关系表,配置文件中包括使目标数字人执行互动行为的视频渲染参数,根据操作数据查询预设对应关系表后,得到目标配置文件。
步骤S203,根据所述目标配置文件确定所述视频渲染参数。
本实施例中,该视频渲染参数用于驱动目标数字人产生与交互触发事件对应的互动行为,视频渲染参数为包括声音渲染数据、表情渲染数据、动作渲染数据中的一项或几项,根据目标配置文件可快速的确定视频渲染参数,进而可提高互动时的响应速度。
步骤S204,调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流。
预设渲染服务器基于3D引擎实现渲染功能,3D引擎可以是UE4、Unity等。可直接调用预设渲染服务器,也可通过预设WebRTC服务器调用预设渲染服务器。预设渲染服务器按视频渲染参数对目标数字人进行渲染,得到相应的视频流。
步骤S205,将所述视频流展示在所述人机交互界面。
本实施例中,可在人机交互界面设置一个视频展示区域,在该视频展示区域中展示视频流,在展示该视频流的同时可显示播放进度,用户可随时调整播放进度。还可显示静音选项,使用户控制视频流是否发出声音,以满足用户在不同场景下的静音需求。还可显示全屏选项,便于用户可全屏观看该视频流。
通过应用以上技术方案,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定用户的操作数据;根据所述操作数据查询预设对应关系表,得到目标配置文件;根据所述目标配置文件确定所述视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面,由专用的预设渲染服务器执行交互过程中的渲染操作,并根据查表得到的目标配置文件确定视频渲染参数,从而提高了数字人的交互响应速度,并提升了用户体验。
本申请实施例还提出了一种数据交互控制方法,如图3所示,包括以下步骤:
步骤S301,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数。
本实施例中,用户通过人机交互界面与目标数字人进行交互,目标数字人可以是实时生成的,也可以是用户上传的,也可以是从其他服务器或终端接收的。交互触发事件由用户在人机交互界面上的输入操作触发,该输入操作可包括输入文本、输入语音、动作触发、按键触发等操作。用户可根据交互需求主动在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。用户也可根据人机交互界面上文字信息或语音信息的指引在人机交互界面上进行输入操作,以在人机交互界面上产生交互触发事件。
在获取交互触发事件后,根据交互触发事件确定目标数字人的视频渲染参数,该视频渲染参数用于驱动目标数字人产生与交互触发事件对应的互动行为,视频渲染参数为包括声音渲染数据、表情渲染数据、动作渲染数据中的一项或几项。
步骤S302,调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流。
预设渲染服务器基于3D引擎实现渲染功能,3D引擎可以是UE4、Unity等。可直接调用预设渲染服务器,也可通过预设WebRTC服务器调用预设渲染服务器。预设渲染服务器按视频渲染参数对目标数字人进行渲染,得到相应的视频流,视频流中目标数字人会展现出相应的互动行为。
步骤S303,将所述视频流展示在所述人机交互界面。
可在人机交互界面设置一个视频展示区域,在该视频展示区域中展示视频流,在展示该视频流的同时可显示播放进度,用户可随时调整播放进度。还可显示静音选项,使用户控制视频流是否发出声音,以满足用户在不同场景下的静音需求。还可显示全屏选项,便于用户可全屏观看该视频流。
步骤S304,获取所述人机交互界面上的存储触发事件,根据所述存储触发事件确定目标视频格式和目标存储路径。
本实施例中,用户通过在人机交互界面进行存储操作对视频流进行存储,存储操作触发存储触发事件,根据存储触发事件确定目标视频格式和目标存储路径。
可选的,目标视频格式为包括wmv、asf、asx、rm、rmvb、mpg、mpeg、mpe、3gp、mov、mp4、m4v、avi、dat、mkv、flv、vob等格式中的任一种,目标存储路径为本地存储路径或云端路径(如云端URL、或指定邮箱地址等)。
步骤S305,按所述目标视频格式将所述视频流导出为目标视频文件,并将所述目标视频文件存储在所述目标存储路径。
本实施例中,先按目标视频格式将视频流导出为目标视频文件,然后将目标视频文件存储在目标存储路径,实现将视频流进行存储,便于用户随时进行观看,提升了用户体验。
可选的,可在所述人机交互界面显示导出附加选项,提高存储方式的灵活性,导出附加选项为包括清晰度选项、导出视频成片或预览样片的选项、是否需要加密的选项中的一种或多种。
在一些实施例中,在将所述目标视频文件存储在所述目标存储路径之后,所述方法还包括:
获取所述人机交互界面上的新的交互触发事件;
若所述新的交互触发事件与所述交互触发事件一致,从所述目标存储路径调用所述目标视频文件;
在所述人机交互界面上播放所述目标视频文件。
本实施例中,在获取人机交互界面上的新的交互触发事件时,判断新的交互触发事件与之前获取的交互触发事件是否一致,若一致,说明用户需要使数字人再次展示之前视频流中的互动行为,由于已经将目标视频文件存储在目标存储路径,此时直接从目标存储路径调用目标视频文件,并在人机交互界面上播放目标视频文件,向用户展示出相应的数字人互动行为。
举例来说,若新的交互触发事件仍由一个代表“我们击掌吧”击掌手势触发,则直接从目标存储路径调用目标视频文件,播放目标视频文件,展示出目标数字人做出相应的击掌动作,并做出与击掌动作相应的面部表情(如灿烂的微笑),发出相应的语音(如“耶”)。
由于不再调用预设渲染服务器重新进行渲染,直接从目标存储路径调用目标视频文件进行互动行为展示,提高了数字人的交互响应速度。
通过应用以上技术方案,获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;将所述视频流展示在所述人机交互界面;获取所述人机交互界面上的存储触发事件,根据所述存储触发事件确定目标视频格式和目标存储路径;按所述目标视频格式将所述视频流导出为目标视频文件,并将所述目标视频文件存储在所述目标存储路径,由专用的预设渲染服务器执行交互过程中的渲染操作,并可将视频流进行存储,从而提高了数字人的交互响应速度,并提升了用户体验。
本申请实施例还提出了一种数据交互控制装置,如图4所示,所述装置包括:
获取模块401,用于获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;
视频渲染模块402,用于调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;
视频展示模块403,用于将所述视频流展示在所述人机交互界面。
在具体的应用场景中,获取模块401,具体用于:
根据所述交互触发事件确定用户的操作数据;
根据所述操作数据查询预设对应关系表,得到目标配置文件;
根据所述目标配置文件确定所述视频渲染参数;
其中,所述预设对应关系表是根据不同操作数据和不同配置文件之间的对应关系建立的。
在具体的应用场景中,所述装置还包括第一存储模块,用于:
获取所述人机交互界面上的存储触发事件,根据所述存储触发事件确定目标视频格式和目标存储路径;
按所述目标视频格式将所述视频流导出为目标视频文件,并将所述目标视频文件存储在所述目标存储路径。
在具体的应用场景中,所述装置还包括调用模块,用于:
获取所述人机交互界面上的新的交互触发事件;
若所述新的交互触发事件与所述交互触发事件一致,从所述目标存储路径调用所述目标视频文件;
在所述人机交互界面上播放所述目标视频文件。
在具体的应用场景中,所述装置还包括创建模块,用于:
获取所述人机交互界面上的创建触发事件,根据所述创建触发事件确定数字人创建参数;
调用所述预设渲染服务器按所述数字人创建参数创建出初始数字人;
保存所述初始数字人,并将所述初始数字人展示在所述人机交互界面。
在具体的应用场景中,所述装置还包括编辑模块,用于:
获取所述人机交互界面上的编辑触发事件,根据所述编辑触发事件确定所述初始数字人的编辑参数;
调用所述预设渲染服务器按所述编辑参数对所述初始数字人进行编辑,得到所述目标数字人;
将所述目标数字人展示在所述人机交互界面。
在具体的应用场景中,所述装置还包括第二存储模块,用于:
获取所述人机交互界面上的本地存储触发事件,根据所述本地存储触发事件确定本地存储路径和数字人标识;
将所述目标数字人按所述数字人标识保存在所述本地存储路径。
通过应用以上技术方案,数据交互控制装置包括:获取模块,用于获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;视频渲染模块,用于调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;视频展示模块,用于将所述视频流展示在所述人机交互界面,由专用的预设渲染服务器执行交互过程中的渲染操作,从而提高了数字人的交互响应速度,并提升了用户体验。
本发明实施例还提供了一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,
存储器503,用于存储处理器的可执行指令;
处理器501,被配置为经由执行所述可执行指令来执行:
获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;
调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;
将所述视频流展示在所述人机交互界面。
上述通信总线可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(Extended Industry Standard Architecture,扩展工业标准结构)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括RAM(Random Access Memory,随机存取存储器),也可以包括非易失性存储器,例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括CPU(Central Processing Unit,中央处理器)、NP(Network Processor,网络处理器)等;还可以是DSP(Digital Signal Processing,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的数据交互控制方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上所述的数据交互控制方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘)等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种数据交互控制方法,其特征在于,所述方法包括:
获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;
调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;
将所述视频流展示在所述人机交互界面。
2.如权利要求1所述的方法,其特征在于,所述根据所述交互触发事件确定目标数字人的视频渲染参数,包括:
根据所述交互触发事件确定用户的操作数据;
根据所述操作数据查询预设对应关系表,得到目标配置文件;
根据所述目标配置文件确定所述视频渲染参数;
其中,所述预设对应关系表是根据不同操作数据和不同配置文件之间的对应关系建立的。
3.如权利要求1所述的方法,其特征在于,在将所述视频流展示在所述人机交互界面之后,所述方法还包括:
获取所述人机交互界面上的存储触发事件,根据所述存储触发事件确定目标视频格式和目标存储路径;
按所述目标视频格式将所述视频流导出为目标视频文件,并将所述目标视频文件存储在所述目标存储路径。
4.如权利要求3所述的方法,其特征在于,在将所述目标视频文件存储在所述目标存储路径之后,所述方法还包括:
获取所述人机交互界面上的新的交互触发事件;
若所述新的交互触发事件与所述交互触发事件一致,从所述目标存储路径调用所述目标视频文件;
在所述人机交互界面上播放所述目标视频文件。
5.如权利要求1所述的方法,其特征在于,在获取人机交互界面上的交互触发事件之前,所述方法还包括:
获取所述人机交互界面上的创建触发事件,根据所述创建触发事件确定数字人创建参数;
调用所述预设渲染服务器按所述数字人创建参数创建出初始数字人;
保存所述初始数字人,并将所述初始数字人展示在所述人机交互界面。
6.如权利要求5所述的方法,其特征在于,在将所述初始数字人展示在所述人机交互界面之后,所述方法还包括:
获取所述人机交互界面上的编辑触发事件,根据所述编辑触发事件确定所述初始数字人的编辑参数;
调用所述预设渲染服务器按所述编辑参数对所述初始数字人进行编辑,得到所述目标数字人;
将所述目标数字人展示在所述人机交互界面。
7.如权利要求6所述的方法,其特征在于,在将所述目标数字人展示在所述人机交互界面之后,所述方法还包括:
获取所述人机交互界面上的本地存储触发事件,根据所述本地存储触发事件确定本地存储路径和数字人标识;
将所述目标数字人按所述数字人标识保存在所述本地存储路径。
8.一种数据交互控制装置,其特征在于,所述装置包括:
获取模块,用于获取人机交互界面上的交互触发事件,根据所述交互触发事件确定目标数字人的视频渲染参数;
视频渲染模块,用于调用预设渲染服务器按所述视频渲染参数对所述目标数字人进行渲染,得到包括所述目标数字人的视频流;
视频展示模块,用于将所述视频流展示在所述人机交互界面。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的数据交互控制方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的数据交互控制方法。
CN202211662253.6A 2022-12-23 2022-12-23 一种数据交互控制方法、装置、电子设备和存储介质 Pending CN116126177A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211662253.6A CN116126177A (zh) 2022-12-23 2022-12-23 一种数据交互控制方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211662253.6A CN116126177A (zh) 2022-12-23 2022-12-23 一种数据交互控制方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN116126177A true CN116126177A (zh) 2023-05-16

Family

ID=86300063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211662253.6A Pending CN116126177A (zh) 2022-12-23 2022-12-23 一种数据交互控制方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN116126177A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117519663A (zh) * 2024-01-08 2024-02-06 广州趣丸网络科技有限公司 一种数字人智能生产平台

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117519663A (zh) * 2024-01-08 2024-02-06 广州趣丸网络科技有限公司 一种数字人智能生产平台
CN117519663B (zh) * 2024-01-08 2024-04-26 广州趣丸网络科技有限公司 一种数字人智能生产平台

Similar Documents

Publication Publication Date Title
WO2019086037A1 (zh) 视频素材的处理方法、视频合成方法、终端设备及存储介质
CN109120866B (zh) 动态表情生成方法、装置、计算机可读存储介质和计算机设备
US10607382B2 (en) Adapting content to augumented reality virtual objects
US20140188997A1 (en) Creating and Sharing Inline Media Commentary Within a Network
CN111800668B (zh) 弹幕的处理方法、装置、设备及存储介质
US20140193138A1 (en) System and a method for constructing and for exchanging multimedia content
CN111880874A (zh) 媒体文件的分享方法、装置、设备及计算机可读存储介质
US11178468B2 (en) Adjustments to video playing on a computer
US20160275989A1 (en) Multimedia management system for generating a video clip from a video file
CN107515870B (zh) 一种搜索方法和装置、一种用于搜索的装置
CN114880062B (zh) 聊天表情展示方法、设备、电子设备及存储介质
US10698744B2 (en) Enabling third parties to add effects to an application
CN116126177A (zh) 一种数据交互控制方法、装置、电子设备和存储介质
CN105744338B (zh) 一种视频处理方法及其设备
CN108469991B (zh) 多媒体数据处理方法及装置
CN115981769A (zh) 页面显示方法、装置、设备、计算机可读存储介质及产品
CN115393484A (zh) 虚拟形象动画的生成方法、装置、电子设备和存储介质
KR101221540B1 (ko) 인터랙티브 미디어 매핑 시스템 및 그 방법
CN110366002B (zh) 视频文件合成方法、***、介质和电子设备
CN114554231A (zh) 一种信息显示方法、装置、电子设备及存储介质
TWI652600B (zh) Online integration of augmented reality editing devices and systems
CN113301436A (zh) 播放控制方法、装置及计算机可读存储介质
CN110909204A (zh) 视频发布方法、装置及电子设备
TWM560053U (zh) 線上整合擴增實境的編輯裝置
CN111666793A (zh) 视频处理方法、视频处理装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination