CN112379812A - 仿真3d数字人交互方法、装置、电子设备及存储介质 - Google Patents

仿真3d数字人交互方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112379812A
CN112379812A CN202110019675.0A CN202110019675A CN112379812A CN 112379812 A CN112379812 A CN 112379812A CN 202110019675 A CN202110019675 A CN 202110019675A CN 112379812 A CN112379812 A CN 112379812A
Authority
CN
China
Prior art keywords
target
image
digital human
user
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110019675.0A
Other languages
English (en)
Other versions
CN112379812B (zh
Inventor
杨国基
陈泷翔
王鑫宇
刘云峰
吴悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhuiyi Technology Co Ltd
Original Assignee
Shenzhen Zhuiyi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhuiyi Technology Co Ltd filed Critical Shenzhen Zhuiyi Technology Co Ltd
Priority to CN202110019675.0A priority Critical patent/CN112379812B/zh
Publication of CN112379812A publication Critical patent/CN112379812A/zh
Application granted granted Critical
Publication of CN112379812B publication Critical patent/CN112379812B/zh
Priority to PCT/CN2021/123815 priority patent/WO2022148083A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例提供了一种仿真3D数字人交互方法、装置、电子设备及存储介质,涉及人机交互技术领域。该方法包括:获取采集装置采集的场景数据;若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的第一相对位置;若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取第一相对位置对应的目标仿真数字人图像,目标仿真数字人图像包括面部朝向目标用户的仿真数字人,预设区域为与显示屏的距离小于预设数值的区域;在显示屏上显示目标仿真数字人图像。本申请实施例可以根据目标用户的位置,生成面部朝向目标用户的逼真的数字人图像,从而实现3D立体的视觉效果,提高了用户的交互体验。

Description

仿真3D数字人交互方法、装置、电子设备及存储介质
技术领域
本申请涉及人机交互技术领域,更具体地,涉及一种仿真3D数字人交互方法、装置、电子设备及存储介质。
背景技术
近年来,随着科技的进步,智能化的人机交互方式已逐渐成为国内外研究的热点,一些智能设备或者应用中设置有虚拟形象,以通过虚拟形象实现与用户的可视化交互,从而提高用户的人机交互体验。但是当前的大多数场景下,基于虚拟形象的人机交互方式较为单一,不能根据用户位置的改变对显示的虚拟形象进行改变,无法模拟真实环境下的人与人之间的交互状态,用户的交互体验较差。
发明内容
鉴于上述问题,本申请提出了一种仿真3D数字人交互方法、装置、电子设备及存储介质,能够解决上述问题。
第一方面,本申请实施例提供了一种仿真3D数字人交互方法,其特征在于,包括:获取采集装置采集的场景数据;若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置;若所述目标用户位于预设区域内,则基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,所述目标仿真数字人图像包括面部朝向所述目标用户的仿真数字人,所述预设区域为与所述显示屏的距离小于预设数值的区域;在所述显示屏上显示所述目标仿真数字人图像。
可选地,所述预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个所述样本图像对应的参考参数训练得到的模型,所述仿真数字人模型用于根据输入的参考参数,输出所述样本图像对应的仿真数字人图像,所述基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,包括:根据所述相对位置,在预设的多个参考参数中确定目标参考参数,所述参考参数用于表征所述样本图像包含的所述真人模特相对于采集所述样本图像的图像采集装置的位姿;将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像。
可选地,所述根据所述相对位置,在预设的多个参考参数中确定目标参考参数,包括:根据所述相对位置确定用户视角参数,所述用户视角参数用于表征所述目标用户朝向所述显示屏的预设位置的视角;在所述预设的多个参考参数中,根据所述用户视角参数确定所述目标参考参数。
可选地,所述根据所述相对位置确定用户视角参数,包括:根据所述相对位置确定所述显示屏的目标显示位置,所述目标显示位置为所述目标仿真数字人图像在所述显示屏上的显示位置;根据所述相对位置和所述目标显示位置确定所述用户视角参数。
可选地,在所述基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像之前,所述方法还包括:获取交互信息;处理所述交互信息以获取应答语音信息;所述将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像,包括:将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,所述图像序列由多帧连续的所述目标仿真数字人图像构成;所述在所述显示屏上显示所述目标仿真数字人图像,包括:根据所述图像序列生成并输出仿真数字人的视频,同步播放所述应答语音信息。
可选地,所述仿真数字人模型包括特征生成模型和图像生成模型,所述将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,包括:将所述目标参考参数输入所述特征生成模型以获取初始特征参数,所述初始特征参数用于表征所述样本图像对应的所述真人模特的形态;根据所述应答语音信息,对所述初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到参数序列,所述参数序列包括多个目标特征参数;基于所述图像生成模型,获取每个所述目标特征参数对应的目标仿真数字人图像,以得到所述参数序列对应的所述图像序列。
可选地,所述目标仿真数字人图像中所述仿真数字人的朝向角度与所述目标参考参数对应的所述样本图像中的所述真人模特的朝向角度相同。
可选地,所述目标仿真数字人图像中所述仿真数字人的体貌特征与所述目标参考参数对应的样本图像中的所述真人模特的体貌特征相同。
可选地,所述场景数据包括场景图像,所述若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置,包括:判断所述场景图像内是否存在所述目标用户;若是,则识别所述场景图像以获取所述目标用户在相机坐标系中的三维坐标,其中,所述相机坐标系以所述采集装置的位置为原点;获取所述采集装置与所述显示屏的位置关系,根据所述位置关系确定所述相机坐标系与空间坐标系的转换关系,其中,所述空间坐标系以所述显示屏的位置为原点;基于所述转换关系和所述三维坐标,在所述空间坐标系中确定所述目标用户与所述显示屏的所述相对位置,所述相对位置包括相对距离和相对角度中的至少一个。
可选地,所述场景数据包括场景图像,若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置,包括:识别所述场景图像中的人头信息;根据所述人头信息获取所述场景图像中用户的数量;若所述用户的数量为一个,则将所识别到的用户作为所述目标用户;处理所述场景图像以获取所述目标用户与显示屏的相对位置。
可选地,若所述用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到所述用户输入的交互指令,则将所述交互指令对应的用户作为所述目标用户。
可选地,所述场景数据为实时采集的数据,所述在所述显示屏上显示所述目标仿真数字人图像之后,所述方法还包括:若检测到所述相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在所述显示屏上显示所述新的目标仿真数字人图像。
第二方面,本申请实施例提供了一种仿真3D数字人交互装置,所述装置包括数据采集模块,位置获取模块,图像获取模块,以及显示模块,其中,数据采集模块,用于获取采集装置采集的场景数据;位置获取模块,用于若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置;图像获取模块,用于若所述目标用户位于预设区域内,则基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,所述目标仿真数字人图像包括面部朝向所述目标用户的仿真数字人,所述预设区域为与所述显示屏的距离小于预设数值的区域;显示模块,用于在所述显示屏上显示所述目标仿真数字人图像。
可选地,所述预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个所述样本图像对应的参考参数训练得到的模型,所述仿真数字人模型用于根据输入的参考参数,输出所述样本图像对应的仿真数字人图像,所述图像获取模块包括参数确定子模块和参数输入子模块,其中,所述参数确定子模块,用于根据所述相对位置,在预设的多个参考参数中确定目标参考参数,所述参考参数用于表征所述样本图像包含的所述真人模特相对于采集所述样本图像的图像采集装置的位姿,所述参数输入子模块用于将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像。
可选地,所述参数确定子模块包括第一参数确定单元和第二参数确定单元,其中,所述第一参数确定单元用于根据所述相对位置确定用户视角参数,所述用户视角参数用于表征所述目标用户朝向所述显示屏的预设位置的视角;所述第二参数确定单元用于在所述预设的多个参考参数中,根据所述用户视角参数确定所述目标参考参数。
可选地,所述第一参数确定单元包括位置确定子单元和视角参数确定子单元,其中,所述位置确定子单元用于根据所述相对位置确定所述显示屏的目标显示位置,所述目标显示位置为所述目标仿真数字人图像在所述显示屏上的显示位置;所述视角参数确定子单元,用于根据所述相对位置和所述目标显示位置确定所述用户视角参数。
可选地,所述仿真3D数字人交互装置还包括交互信息获取模块,语音信息获取模块,所述交互信息获取模块用于获取交互信息,所述语音信息获取模块用于处理所述交互信息以获取应答语音信息,所述参数输入子模块包括图像序列获取单元,所述图像序列获取单元用于将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,所述图像序列由多帧连续的所述目标仿真数字人图像构成,所述显示模块包括视频输出单元,所述视频输出单元用于根据所述图像序列生成并输出仿真数字人的视频,同步播放所述应答语音信息。
可选地,所述述仿真数字人模型包括特征生成模型和图像生成模型,所述图像序列获取单元包括初始特征参数获取子单元,参数序列获取子单元和图像序列获取子单元,其中,所述初始特征参数获取子单元,用于将所述目标参考参数输入所述特征生成模型以获取初始特征参数,所述初始特征参数用于表征所述样本图像对应的所述真人模特的形态;所述参数序列获取子单元,用于根据所述应答语音信息,对所述初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到参数序列,所述参数序列包括多个目标特征参数;所述图像序列获取子单元,用于基于所述图像生成模型,获取每个所述目标特征参数对应的目标仿真数字人图像,以得到所述参数序列对应的所述图像序列。
可选地,所述目标仿真数字人图像中所述仿真数字人的朝向角度与所述目标参考参数对应的所述样本图像中的所述真人模特的朝向角度相同。
可选地,所述目标仿真数字人图像中所述仿真数字人的体貌特征与所述目标参考参数对应的样本图像中的所述真人模特的体貌特征相同。
可选地,所述位置获取模块包括判断子模块、坐标获取子模块、转换关系确定子模块和位置确定子模块,所述判断子模块用于判断所述场景图像内是否存在所述目标用户,所述坐标获取子模块用于若是,则识别所述场景图像以获取所述目标用户在相机坐标系中的三维坐标,其中,所述相机坐标系以所述采集装置的位置为原点;所述转换关系确定子模块,用于获取所述采集装置与所述显示屏的位置关系,根据所述位置关系确定所述相机坐标系与空间坐标系的转换关系,其中,所述空间坐标系以所述显示屏的位置为原点;所述位置确定子模块,用于基于所述转换关系和所述三维坐标,在所述空间坐标系中确定所述目标用户与所述显示屏的所述相对位置,所述相对位置包括相对距离和相对角度中的至少一个。
可选地,所述位置获取模块包括图像识别子模块,用户数量获取子模块,第一处理子模块,其中,所述图像识别子模块用于识别所述场景图像中的人头信息,所述用户数量获取子模块,用于根据所述人头信息获取所述场景图像中用户的数量,所述第一处理子模块,用于若所述用户的数量为一个,则将所识别到的用户作为所述目标用户。
可选地,所述仿真3D数字人交互装置还包括指令监测子模块和第二处理子模块,所述指令监测子模块,用于若所述用户的数量为多个,则监测是否获取到用户输入的交互指令;所述第二处理子模块,用于若获取到所述用户输入的交互指令,则将所述交互指令对应的用户作为所述目标用户。
可选地,所述场景数据为实时采集的数据,所述在所述显示屏上显示所述目标仿真数字人图像之后,所述仿真3D数字人交互装置还包括位置检测模块,显示更新模块,所述位置检测模块,用于若检测到所述相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;所述显示更新模块,用于在所述显示屏上显示所述新的目标仿真数字人图像。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储器;一个或多个程序, 其中所述一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行, 所述一个或多个程序配置用于执行上述第一方面所述的方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如上述第一方面所述的方法。
本申请实施例提供了一种仿真3D数字人交互方法、装置、电子设备及存储介质,涉及人机交互技术领域。该方法包括:获取采集装置采集的场景数据;若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的第一相对位置;若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取第一相对位置对应的目标仿真数字人图像,目标仿真数字人图像包括面部朝向目标用户的仿真数字人,预设区域为与显示屏的距离小于预设数值的区域;在显示屏上显示目标仿真数字人图像。本申请实施例可以根据目标用户的位置,生成面部朝向目标用户的逼真的数字人图像,从而实现3D立体的视觉效果,提高了用户的交互体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了一种适用于本申请实施例的应用环境示意图;
图2示出了本申请一个实施例提供的仿真3D数字人交互方法的流程示意图;
图3示出了本申请又一个实施例提供的仿真3D数字人交互方法的流程示意图;
图4示出了本申请另一个实施例提供的仿真3D数字人交互方法的流程示意图;
图5示出了本申请再一个实施例提供的仿真3D数字人交互方法的流程示意图;
图6示出了本申请还一个实施例提供的仿真3D数字人交互方法的流程示意图;
图7示出了本申请又另一个实施例提供的仿真3D数字人交互方法的流程示意图;
图8示出了本申请又再一个实施例提供的仿真3D数字人交互方法的流程示意图;
图9示出了本申请实施例提供的仿真3D数字人交互装置的结构框图;
图10示出了本申请实施例的用于执行根据本申请实施例的仿真3D数字人交互方法的电子设备的结构框图;
图11示出了本申请实施例的用于保存或者携带实现根据本申请实施例的仿真3D数字人交互方法的程序代码的存储单元。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
术语定义
3D数字人:通过3D建模、渲染等计算机图形学技术现实的数字人。
仿真数字人:通过深度学习模型生成每一帧画质近乎于相机拍摄的逼真图像,数字人如同相机拍摄的真人的效果。可选地,可以由连贯的逼真图像生成视频数字人。
仿真3D数字人:以仿真数字人技术生成数字人,并考虑到数字人及观众的空间位置及展现视角,通过仿真数字人实现立体逼真的效果。可选地,可以由多张仿真数字人图像序列生成出立体逼真的视频数字人。
目前,大多数应用虚拟形象的交互场景中,为了提高呈现画面的逼真度,通常会采用根据真人模特生成的虚拟形象,也就是数字人,来与用于进行交互。并且,可以对数字人预先设计一些动作,该动作可以与交互的语音内容或文字内容相配合,以提升用户的观感体验。虽然将动作与交互内容的方式能够使数字人的动作姿态接近真人模特,但是,该种方式仅将交互内容与动作进行配合,没有建立用户的位置与数字人之间的联系。在实际应用时,若用户在播放数字人画面的屏幕相对较偏的区域,即用户相对屏幕中心的角度较大时,该屏幕中的数字人通常还是处于固定地正视于屏幕正前方。而真实生活中,人与人进行交流时,通常是面对面的交流状态,此时数字人的角度显然与真实环境下的人与人之间的交互状态不符。因此,现有技术中的数字人的呈现方式未深入考虑用户的行为,进而导致数字人呈现画面的逼真程度较低,交互不自然,用户的交互体验较差。
虽然3D数字人可以呈现立体的视觉效果,但是3D数字人是通过3D建模、渲染等计算机图形学技术现实的数字人,呈现的数字人效果通常为动画效果,不能实现如相机拍摄真人般的效果。
为了改善上述问题,本申请发明人研究了如何在用户与数字人进行交互时,更多地考虑用户的行为,以实现自然拟人的交互效果。基于此,发明人提出了仿真3D数字人交互方法、装置、电子设备及介质,以使用户在进行人机交互的过程中,能够根据用户的位置,显示面部朝向目标用户的仿真数字人来与用户进行交互,仿真数字人不但逼真如同相机拍摄的真人,并且可以模拟用户与真人模特面对面交流的交互效果,实现了拟人化的自然交互,提高了用户的交互体验。
请参阅图1,图1示出了一种适用于本申请实施例的应用环境示意图。本申请实施例提供的仿真3D数字人交互方法可以应用于如图1所示的交互***10。交互***10包括终端设备101以及服务器102。服务器102与终端设备101之间通过无线或者有线网络连接,以基于该网络连接实现终端设备101与服务器102之间的数据传输,传输的数据包括但不限于音频、视频、文字、图像等。
其中,服务器102可以是单独的服务器,也可以是服务器集群,还可以是多台服务器构成的服务器中心,可以是本地服务器,也可以是云端服务器。服务器102可用于为用户提供后台服务,该后台服务可包括但不限于仿真3D数字人交互服务等,在此不作限定。
在一些实施方式中,终端设备101可以是具有显示屏且支持数据输入的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机和可穿戴式电子设备等。具体的,数据输入可以是基于智能终端设备101上具有的语音模块输入语音、字符输入模块输入字符、图像输入模块输入图像、视频输入模块输入视频等,还可以是基于智能终端设备101上安装有的手势识别模块,使得用户可以实现手势输入等交互方式。
在一些实施方式中,终端设备101上可以安装有客户端应用程序,用户可以基于客户端应用程序(例如APP等)与服务器102进行通信。具体地,终端设备101可以获取用户的输入信息,基于终端设备101上的客户端应用程序与服务器102进行通信,服务器102可以对接收到的用户输入信息进行处理,服务器102还可以根据该信息返回对应的输出信息至终端设备101,终端设备101可执行输出信息对应的操作。其中,用户的输入信息可以是语音信息、基于屏幕的触控操作信息、手势信息、动作信息等,输出信息可以是图像、视频、文字、音频等,在此不做限定。
在一些实施方式中,客户端应用程序可以基于仿真数字人提供人机交互服务,人机交互服务可以基于场景需求的不同而不同。例如,客户端应用程序可以用于在商场、银行、展厅等公共区域,向用户提供产品展示信息或服务指引,针对不同的应用场景,可以提供不同的交互服务。
在一些实施方式中,终端设备101在获取与用户输入的信息对应的回复信息后,可以在终端设备101的显示屏或与其连接的其他图像输出设备上显示对应与该回复信息的仿真数字人。其中,仿真数字人可以是根据用户自身或其他人的形态建立的形似真人的形象,也可以是动漫效果式的机器人,例如动物形态或卡通人物形态的机器人。作为一种方式,在显示仿真数字人图像的同时,可以通过终端设备101的扬声器或与其连接的其他音频输出设备播放与仿真数字人图像对应的音频,还可以在终端设备101的显示屏上显示与该回复信息对应的文字或图形,实现在图像、语音、文字等多个方面上与用户的多态交互。
在一些实施方式中,对用户输入信息进行处理的装置也可以设置于终端设备101上,使得终端设备101无需依赖与服务器102建立通信即可实现与用户的交互,实现基于数字人的人机交互,此时交互***10可以只包括终端设备101。
上述的应用环境仅为方便理解所作的示例,可以理解的是,本申请实施例不仅局限于上述应用环境。
下面将通过具体实施例对本申请实施例提供的仿真3D数字人交互方法、装置、电子设备及介质进行详细说明。
请参阅图2,图2为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S110至步骤S140。
步骤S110:获取采集装置采集的场景数据。
采集装置可以是设置在终端设备内部的装置,也可以是与终端设备连接的装置。其中,采集装置可以是图像采集装置、红外传感器、麦克风、激光测距传感器等。具体地,图像采集装置可以是普通摄像头,也可以是双目摄像头、结构光摄像头、TOF摄像头等可获取空间深度信息的摄像头。红外传感器可以是具有红外功能的距离传感器等。在一些实施方式中,图像采集装置也自动可以改变镜头角度,从而获取不同角度的图像。
采集装置用于采集当前场景中的场景数据,当前场景为终端设备当前所处的场景。其中,根据采集装置的不同种类,场景数据可以为视觉数据、红外数据、声音数据中的至少一种。
步骤S120:若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置。
在获取到场景数据后,可以通过分析场景数据以判断该场景中是否存在目标用户,目标用户为该场景内的真人用户。若分析场景数据确定场景内存在目标用户时,可以处理场景数据以获取目标用户与显示屏的相对位置。
其中,相对位置用于表征目标用户与显示屏之间的位置关系,可以包括目标用户与显示屏之间的相对距离、相对角度等信息。作为一种方式,相对位置可以是目标用户的关键点与显示屏上预设位置之间的位置关系,其中,关键点可以是目标用户的眼睛、面部中心点、肢体部位等,可以通过图像检测、处理传感器数据等方式确定关键点的位置,在此不做限定;预设位置可以是显示屏的中心点、显示屏的边框、用于显示仿真数字人图像的显示位置等,在此不做限定。
具体地,当根据所述场景数据确定场景内存在目标用户时,可以获取目标用户与采集装置的相对位置信息,进一步地根据相对位置信息确定目标用户与显示屏的相对位置。
作为一种方式,可以获取采集装置与显示屏的位置关系,根据位置关系确定相机坐标系与空间坐标系的转换关系,其中,空间坐标系以显示屏的位置为原点;基于转换关系和三维坐标,在空间坐标系中确定目标用户与显示屏的相对位置。通过这种方式,可以得到用户相对显示屏的更为准确的相对位置。
作为另一种方式,也可以将目标用户与采集装置的相对位置信息作为目标用户与显示屏的相对位置。可以理解的是,当采集装置为终端设备中内置的装置,或者采集装置与终端设备连接并且距离较近时,相对位置信息和相对位置之间相差较小,可以将目标用户与采集装置的相对位置信息作为目标用户与显示屏的相对位置,从而无需在使用前预先获取采集装置与显示屏的位置关系,采集装置的位置可以变化,灵活性更好。
可以理解的是,根据采集装置的不同,采集得到的场景数据也不同。
作为一种方式,当场景数据为图像采集装置采集的视觉数据时,可以通过分析视觉数据以判断场景中是否存在目标用户。例如,可以通过人脸检测、行人识别等方式确定场景中是否存在目标用户。当确定场景内存在目标用户时,可以通过图像测距或者分析深度图像数据进一步地获取目标用户与采集装置的相对位置信息。
作为另一种方式,当场景数据为红外传感器采集的红外数据时,可以通过分析红外数据以判断场景中是否存在目标用户。具体地,红外传感器可以发送红外光,当红外光遇到障碍物时会发生反射,红外传感器可以获取反射回来的红外光强度,并且该红外光强度与障碍物之间的距离成正比。因此,可以通过分析红外数据确定场景内是否存在目标用户,并在确定场景内存在目标用户时,进一步地确定该目标用户与采集装置的相对位置信息。
作为又一种方式,当场景数据为麦克风等声音采集装置采集的声音数据时,可以通过分析声音数据以判断场景中是否存在目标用户。具体地,可以通过人声检测等方式确定当前场景中是否存在目标用户,若存在,则可以通过声音测距等方式进一步地获取目标用户与采集装置的相对位置信息。
在一些实施方式中,当根据场景数据确定场景内不存在目标用户时,可以在显示屏上显示预设的待唤醒状态的仿真数字人图像。作为一种方式,预设的待唤醒状态的仿真数字人图像可以为面部朝向正前方的仿真数字人图像。作为另一种方式,预设的待唤醒状态的仿真数字人图像也可以是动态地转向的仿真数字人图像序列,即一个动态的仿真数字人视频,以向用户展示仿真数字人可以呈现不同的角度这一特性。例如,可以是从朝向左15度动态变化到朝向右15度的仿真数字人。可选地,预设的仿真数字人图像或者仿真数字人图像序列,还可以是打招呼的仿真数字人,以提醒用户进行交互。
步骤S130:若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像。
预设区域为预先设置的与该区域内的目标用户进行交互的区域。其中,预设区域可以是与显示屏的距离小于预设数值的区域。在一些实施方式中,预设区域还可以是与显示屏的距离小于预设数值,并且与显示屏的角度小于预设角度的区域。具体地,可以通过比较相对位置和预设数值,来判断预设区域内是否存在目标用户。
作为一种方式,可以将场景数据所对应的场景内的区域作为预设区域,也就是说,预设区域为采集装置可以采集到场景数据的区域,若根据场景数据确定场景内存在目标用户,则判定目标用户位于预设区域内。通过这种方式,可以在人流密度低、用户较少的区域,在检测到目标用户时主动地交互。
作为另一种方式,预设区域为与场景数据的区域相比更小的区域。例如,当采集装置为可以获取距离显示屏10米以内场景数据的传感器时,预设区域可以是与显示屏的距离小于5米的区域。通过这种方式,可以在人流密度高,用户较多的区域,在检测到目标用户时进一步根据用户距离显示屏的距离,来确定用户的交互意图。
通过设置进行交互的预设区域,可以根据目标用户是否位于预设区域,从而确定是否与该目标用户进行交互,通过这种方式,一方面,可以在用户无感知的情况进行交互,交互更为自然;另一方面,在多人交互场景中,可以根据预设区域进一步地确定用户的交互意图,将预设区域内的用户视为有交互意图的用户,从而准确地进行交互。例如,在终端设备为公司大厅中设置的大屏设备,预设区域为公司前台位置时,在人流量较多的情况下公司大厅中可能存在多个用户,终端设备无法得知与哪个用户进行交互,而当存在用户位于公司前台位置时,则可以将该用户作为目标用户以进行交互。
在一些实施方式中,预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个样本图像对应的参考参数训练得到的模型,仿真数字人模型用于根据输入的参考参数,输出样本图像对应的仿真数字人图像。根据相对位置,在预设的多个参考参数中确定目标参考参数;将目标参考参数输入预设的仿真数字人模型,将输出的仿真数字人图像作为目标仿真数字人图像。其中,参考参数可用于表征样本图像包含的真人模特与采集样本图像的图像采集装置的相对位置,相对位置可以是相对角度,也可以是相对距离。具体地,请参阅后续实施例。
可以理解的是,通过3D建模获取立体的3D数字人的过程,非常依赖于建模师人工的先验经验,通过大量地人为的调整来实现与真人接近的3D数字人,获取不同模特对应3D数字人需要重复进行建模过程,耗费大量的人工成本。而预设的仿真数字人模型是通过训练得到的深度学习模型,由仿真数字人模型得到目标仿真数字人图像的过程无需3D建模,得到的仿真数字人也更接近真人模特,效果更加逼真,适用于实际应用中对可能需要对不同真人模特进行建模以获取仿真数字人的情况。
在一些实施方式中,场景数据可以包括场景图像,可以识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将所识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置。可选地,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为目标用户。具体地,请参见后续实施例。
在一些实施方式中,也可以获取交互信息;处理交互信息以获取应答语音信息;将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列,图像序列由多帧连续的目标仿真数字人图像构成。具体地,请参见后续实施例。
步骤S140:在显示屏上显示目标仿真数字人图像。
在获取目标仿真数字人图像后,可以在显示屏的显示位置显示目标仿真数字人图像。其中,显示屏可以是终端设备的显示屏,也可以是与终端设备相连的其他图像显示装置,显示位置可以是预先设置的显示仿真数字人的位置,也可以是根据相对位置确定的显示位置。可选地,还可以在显示目标仿真数字人后,通过语音或者文字进行人机交互的提示,以引导用户进一步进行交互。例如,在银行使用场景下,待唤醒界面可以显示“请问您需要什么帮助
Figure DEST_PATH_IMAGE002
您可以试试问我‘如何办理存款业务
Figure 26531DEST_PATH_IMAGE002
’”。
在一些实施方式中,当获取由多帧连续的目标仿真数字人图像构成的图像序列时,可以根据该图像序列生成包含目标仿真数字人的视频,在显示屏上显示该视频。例如,在未检测到目标用户前,在显示屏上可以显示有预设的面部朝向正前方的仿真数字人,基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像,可以是面部朝向正前方的仿真数字人转向相对位置对应的仿真数字人对应的多张图像序列。根据图像序列合成仿真数字人对应的视频,可以实现仿真数字人自然地转向的效果。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。具体地,请参见后续实施例。
在一些实施方式中,可以检测目标用户是否离开预设区域,若目标用户已经离开,则显示预设的待唤醒状态的仿真数字人图像。
可以理解的是,步骤S120和S130可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据,若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置,若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像,在显示屏上显示目标仿真数字人图像。可以模拟用户与仿真数字人面对面交流的交互效果,实现了拟人化的仿真数字人交互,提高了用户的交互体验。
请参阅图3,图3为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S210至步骤S250。
步骤S210:获取采集装置采集的场景数据。
步骤S220:若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置。
在一些实施方式中,场景数据可以包括场景图像,可以识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将所识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置。可选地,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为目标用户。具体地,请参见后续实施例。
步骤S230:若目标用户位于预设区域内,则根据相对位置,在预设的多个参考参数中确定目标参考参数。
其中,参考参数用于表征训练预设的仿真数字人模型所采用的样本图像包含的所述真人模特相对于采集所述样本图像的图像采集装置的位姿,其中,位姿可以包括位置信息和姿态信息,相应地,参考参数可以包括真人模特与图像采集装置的距离参数和角度参数中的至少一个。距离参数用于表征真人模特与图像采集装置的相对距离,即位置信息,角度参数用于表征真人模特与图像采集装置的相对角度,即姿态信息。
可以理解的是,在实际应用中,可以将图像采集装置视为目标用户的眼睛,目标仿真数字人图像是根据图像采集装置采集得到的真人模特的样本图像,即实现了仿佛通过图像采集装置观看真人模特般的效果。虽然在训练仿真数字人模型时,可以获取尽可能多的参考参数对应的样本图像,以获取目标用户不同的位置对应的仿真数字人图像,但是在实际应用中,可能出现目标用户与显示屏的相对位置没有一模一样的参考参数的情况。因此,通过根据相对位置在预设的多个参考参数中确定目标参考参数,可以实现生成与当前目标用户的位置最为接近的仿真数字人的位姿。
在一些实施方式中,可以设定相对位置和预设的多个参考参数之间的映射关系,根据映射关系确定相对位置对应的目标参考参数。通过这种方式,一方面可以降低对相对位置的精度的要求,只要确定相对位置大概的范围就可以实现仿真数字人的3D效果,从而降低对采集装置的要求,并减少处理场景数据以获取第一相对位置所需的功耗;另一方面,也可以减少训练预设的仿真数字人图像所需的不同参考参数的样本图像数量。
作为一种方式,当参考参数包括相对角度时,可以预先设定角度映射关系,基于角度映射关系确定相对位置对应的目标参考参数。具体地,角度映射关系包括多个角度区间和每个角度区间对应的角度参数,可以由角度映射关系确定相对位置所属于的角度区间,进而将该角度区间对应的角度参数作为目标参考参数。
作为另一种方式,当参考参数包括相对距离时,可以预先设定距离映射关系,基于距离映射关系确定相对位置对应的目标参考参数。具体地,距离映射关系包括多个距离区间和每个距离区间对应的距离参数,可以由距离映射关系确定相对位置所属于的距离区间,进而将该距离区间对应的距离参数作为目标参考参数。
在一些实施方式中,可以基于最优路径求解算法,在预设的多个参考参数中确定相对位置对应的目标参考参数。其中,最优路径求解算法可以是Dijkstra算法、A*算法、SPFA算法、Bellman-Ford算法和Floyd-Warshall算法等,在此不做限定。通过最优路径求解算法,可以在多个参考参数中确定与相对位置最为接近的参考参数,作为目标参考参数,进而实现仿真数字人的朝向角度与用户当前的相对位置最为接近。
步骤S240:将目标参考参数输入预设的仿真数字人模型,将输出的仿真数字人图像作为目标仿真数字人图像。
其中,预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个样本图像对应的参考参数训练得到的模型,仿真数字人模型用于根据输入的参考参数,输出样本图像对应的仿真数字人图像。具体地,可以通过图像采集装置采集不同参考参数对应的包含真人模特的多个图像作为样本图像,并获取每个样本图像所对应的参考参数。可选地,每一个参考参数还可以对应有不同姿态的多个真人模特的样本图像。例如,可以通过相同的相机的视角采集包含喜怒哀乐四种表情的真人模特的四张图像作为该参考参数对应的样本图像。
其中,仿真数字人模型可以包括特征生成模型和图像生成模型,特征生成模型和图像生成模型都是预设的基于深度学习的模型。具体地,特征生成模型用于根据输入的参考参数获取该参考参数对应的样本图像中真人模特的特征参数,其中,真人模特的特征参数是通过提取图像中真人模特的面部关键点、姿态关键点、轮廓关键点等得到的特征。图像生成模型,用于根据真人模特的特征参数生成对应的仿真数字人图像。
在获取目标参考参数后,可以将目标参考参数输入预设的仿真数字人模型,通过深度生成模型获取该目标参考参数对应的样本图像中真人模特的特征参数,通过图像生成模型,根据特征参数生成对应的仿真数字人图像,作为目标仿真数字人图像。
作为一种方式,目标仿真数字人图像中仿真数字人的朝向角度与目标参考参数对应的样本图像中的真人模特的朝向角度相同。其中,朝向角度用于表征样本图像中的真人模特相对于正面朝前的旋转角度。可选地,朝向角度可以包括水平角度和竖直角度中至少一个。水平角度可用于表征水平方向上真人模特的角度。例如,位于真人模特左侧的采集装置,和位于真人模特右侧的采集装置采集得到的样本图像对应真人模特的不同的水平角度。竖直角度可以用于表征上竖直方向上真人模特的角度。例如,位于高处俯拍的采集装置,和位于低处仰拍的采集装置采集得到的样本图像对应真人模特不同的竖直角度。
作为一种方式,目标仿真数字人图像中仿真数字人的体貌特征与目标参考参数对应的样本图像中的真人模特的体貌特征相同。其中,体貌特征包括表情、体形、动作姿态、纹理等特征。通过这种方式,得到的仿真数字人如同真人模特般逼真,视觉上如同观看相机拍摄的真人模特。
作为一种方式,目标仿真数字人图像中仿真数字人的朝向角度与目标参考参数对应的样本图像中的真人模特的朝向角度相同,并且,目标仿真数字人图像中仿真数字人的体貌特征与目标参考参数对应的样本图像中的真人模特的体貌特征相同。通过这种方式,可以进一步地提高仿真数字人的逼真程度。
通过在预设的多个参考参数中确定相对位置对应的目标参考参数,可以将目标用户相对于显示屏上仿真数字人的当前位置,转换为采集样本图像时的图像采集装置相对于真人模特的位置。通过获取目标参考参数对应的目标仿真数字人图像,可以实现目标用户由图像采集装置的位置看向真人模特的视觉体验,以使仿真数字人图像呈现立体逼真的3D效果。
例如,当目标用户在显示屏的左侧时,目标仿真数字人图像包括数字人左侧的脸,即仿真数字人由正面向右侧转动后对应的角度;当目标用户正对显示屏时,目标仿真数字人包括数字人正脸;当目标用户在显示屏的右侧时,目标仿真数字人图像包括数字人右侧的脸,即仿真数字人由正面向左转动后的角度。根据用户的不同位置,都会显示面部朝向目标用户的仿真数字人图像,从而实现仿真数字人与目标用户面对面交互的效果。又如,当目标用户距离显示屏不同的距离时,目标仿真数字人图像中,仿真数字人的大小尺寸也可以是不同的。
步骤S250:在显示屏上显示目标仿真数字人图像。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。具体地,请参见后续实施例。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
可以理解的是,步骤S210至S240可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据,若目标用户位于预设区域内,则根据相对位置,在预设的多个参考参数中确定目标参考参数,将目标参考参数输入预设的仿真数字人模型,将输出的仿真数字人图像作为目标仿真数字人图像,在显示屏上显示目标仿真数字人图像。通过在预设的多个参考参数中确定目标参考参数,并生成目标参考参数对应的目标仿真数字人,可以使仿真数字人的呈现角度朝向目标用户,并且目标仿真数字人图像是根据包含真人模特的样本图像生成的,可以实现近似真人模特的逼真效果。
请参阅图4,图4为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S310至步骤S360。
步骤S310:获取采集装置采集的场景数据。
步骤S320:若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置。
在一些实施方式中,场景数据可以包括场景图像,可以识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将所识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置。可选地,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为目标用户。具体地,请参见后续实施例。
步骤S330:若目标用户位于预设区域内,则根据所述相对位置确定用户视角参数。
其中,用户视角参数用于表征目标用户朝向显示屏的预设位置的视角。预设位置可以是显示屏的中心点、显示屏的边框等不会发生变化的位置,也可以是用于仿真数字人图像的显示位置,在此不做限定。
具体地,可以通过处理场景数据来识别目标用户,从而确定用户视角参数。例如,可以通过图像检测算法检测目标用户的人脸,从而确定目标用户的眼睛的位置,进而根据目标用户的眼睛的位置和显示屏的预设位置,确定用户视角参数。
通过先判断目标用户位于预设区域内,若目标用户位于预设区域内根据相对位置确定用户视角参数,可以减少对不在预设区域内的目标用户进行识别来获取视角参数所需的功耗,提高了资源的利用效率。
在一些实施方式中,可以根据相对位置确定显示屏的目标显示位置,其中,目标显示位置为目标仿真数字人图像在显示屏上的显示位置;根据相对位置和目标显示位置确定用户视角参数。
具体地,可以获取预设的显示位置和用户的相对位置之间的对应关系,在获取相对位置后,根据对应关系将相对位置所对应的显示位置,作为目标显示位置。例如,当目标用户位于显示屏右侧时,目标显示位置为显示屏的右侧区域,而当目标用户位于显示屏左侧时,目标显示位置为显示屏的左侧区域。可选地,当目标用户由左侧走向右侧时,仿真数字人也可以由显示屏的左侧区域走向显示屏的右侧区域,仿佛是目标用户与仿真数字人并肩走路。可选地,目标显示位置也可以是目标仿真数字人图像中,仿真数字人眼睛的显示位置。这样,可以获取目标用户看向仿真数字人眼睛的视角参数,从而实现仿真数字人如同真人般注视目标用户的效果。
通过这种方式,不同的相对位置可以对应有不同的目标显示位置,以使仿真数字人更加逼真和生动。特别是在显示屏为大屏幕的情况下,可以根据目标用户不同的位置确定不同的目标显示位置,从而拉近数字人与目标用户之间的距离,可以更为自然的人际交互。
步骤S340:在预设的多个参考参数中,根据用户视角参数确定所述目标参考参数。
通过根据用户视角参数确定目标参考参数,可以将图像采集装置视为目标用户的眼睛,由于,目标仿真数字人图像是根据图像采集装置采集得到的真人模特的样本图像,真人模特相对于图像采集装置的位姿,即为仿真数字人相对于目标用户的位姿,实现了目标用户仿佛通过图像采集装置观看真人模特般的效果。具体地,请参阅步骤S230。
步骤S350:将目标参考参数输入预设的仿真数字人模型,将输出的仿真数字人图像作为目标仿真数字人图像。
步骤S360:在所述显示屏上显示所述目标仿真数字人图像。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。具体地,请参见后续实施例。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
可以理解的是,步骤S310至S350可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据,若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置,若目标用户位于预设区域内,则根据所述相对位置确定用户视角参数,在预设的多个参考参数中,根据用户视角参数确定所述目标参考参数,将目标参考参数输入预设的仿真数字人模型,将输出的仿真数字人图像作为目标仿真数字人图像,在所述显示屏上显示所述目标仿真数字人图像。通过确定用户视角参数,从而得到与用于视角参数对应的目标仿真数字人图像,进一步地增加了仿真数字人的逼真度,优化了人机交互体验。
请参阅图5,图5为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S410至步骤S470。
步骤S410:获取采集装置采集的场景数据。
步骤S420:若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置。
在一些实施方式中,场景数据可以包括场景图像,可以识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将所识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置。可选地,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为目标用户。具体地,请参见后续实施例。
步骤S430:若目标用户位于预设区域内,则获取交互信息。
若目标用户位于预设区域内,则可以监测是否获取目标用户输入的交互信息,其中,交互信息可以是语音信息、动作信息、触控操作信息等多模态信息。可选地,交互信息可以是目标用户输入的预设的交互指令的信息,也可以是能够被终端设备所识别的多模态信息。
可以理解的是,由于实时地监测用户输入的交互信息需要较多的功耗,通过设定预设区域,当检测到预设区域内存在目标用户时才监测是否获取交互信息,可以减少在无目标用户时监测交互信息的浪费的功耗。
步骤S440:处理交互信息以获取应答语音信息。
在一些实施方式中,当交互信息为预设的交互指令的信息时,可以预先设置有交互指令和对应的应答语音信息的对应关系,基于该对应关系获取应答语音信息。例如,当交互信息为预设的唤醒词时,对应的应答语音信息可以是“您好,可以帮助您做些什么吗
Figure DEST_PATH_IMAGE003
”。
在一些实施方式中,当交互信息为目标用户输入的语音信息时,可以通过自动语音识别技术(ASR,Automatic Speech Recognition)将语音信息转换为文本后,对该文本执行自然语言理解操作((Natural Language Understanding,NLU),以实现对语音信息的解析,根据解析的结果获取应答文本信息。进一步地,可以通过文本转语音技术(Text ToSpeech,TTS)得到应答文本信息对应的应答语音信息。其中,自然语言理解操作可以通过意图识别模型实现,意图识别模型可以采用循环神经网络(Recurrent Neural Network,RNN)模型、卷积神经网络(Convolutional Neural Networks,CNN)模型、变分自编码器(Variational Autoencoder,VAE)模型、变压器的双向编码器表示(BidirectionalEncoder Representations from Transformers,BERT)和支持向量机(Support VectorMachine,SVM)等机器学习模型,在此不做限定。
步骤S450:根据相对位置,在预设的多个参考参数中确定目标参考参数。
具体地,请参阅步骤S230。
步骤S460:将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列。
其中,图像序列由多帧连续的目标仿真数字人图像构成,图像中仿真数字人的动作姿态或者面部表情可以是连续变化的。具体地,可以获取应答语音对应的应答文本信息对应的语义信息,以及语音音素信息。根据目标参考参数确定对应的仿真数字人的朝向角度,可以获取面部朝向目标用户的仿真数字人,进而根据应答语音信息可以获取动作姿态或者面部表情与应答语音信息对应的仿真数字人的图像序列。图像序列中的目标仿真数字人图像为面部朝向目标用户,并且动作状态与语音信息相对应仿真数字人的图像。
在一些实施方式中,仿真数字人模型可以包括特征生成模型和图像生成模型,可以将目标参考参数输入特征生成模型以获取初始特征参数,初始特征参数用于表征样本图像对应的真人模特的形态;根据应答语音信息,对初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到参数序列,参数序列包括多个目标特征参数;基于图像生成模型,获取每个目标特征参数对应的目标仿真数字人图像,以得到参数序列对应的图像序列。
其中,样本图像对应的真人模特的形态可以包括朝向角度和体貌特征中至少一个,也就是说根据初始特征参数得到的仿真数字人的朝向角度和体貌特征都可以与真人模特是相同的。预设的仿真数字人模型还可以包括音频视觉预测模型,可以根据输入的应答语音信息和初始特征参数,获取与应答语音信息对应的特征参数。通过音频视觉预测模型,可以对初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到多个目标特征参数所组成的参数序列,以使仿真数字人的外在表现与应答语音信息相对应。进而可以基于图像生成模型,获取每个目标特征参数对应的目标仿真数字人图像,以得到参数序列对应的图像序列。通过这种方式,可以获取更精准的仿真数字人的特征参数,使得仿真数字人的形象更加逼真和自然。
例如,当目标用户位于屏幕的左侧,根据交互信息确定应答语音信息为“你好”时,可以根据用户的相对位置确定对应的目标参考参数,进而确定该目标参考参数确定样本图像,得到仿真数字人朝向符合目标用户位置的初始特征参数,进而根据应答语音信息将初始特征参数中的动作参数修改为招手打招呼这一动作的动作参数,并且将仿真数字人的嘴型参数也修改为“你好”所对应的嘴型参数,从而得到动作和嘴型都与应答语音信息对应的多个目标特征参数,进而得到对应连续变化的图像序列。从而可以显示面部朝向用户,招手打招呼的仿真数字人。
步骤S470:根据图像序列生成并输出仿真数字人的视频,同步播放应答语音信息。
在获取得到图像序列后,可以根据应答语音信息,将图像序列中的多个目标仿真数字人图像合成与养大语音信息匹配的仿真数字人的视频,并在显示屏上显示仿真数字人的视频的同时,同步地播放应答语音信息。这样,仿真数字人不仅会根据目标用户的位置显示相应的角度,以实现面部朝向目标用户来进行交互,还可以根据具有与应答语音信息相对应的动作状态。通过这种方式,可以提高仿真数字人的逼真程度,从而提升用户的人机交互体验。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。也就是说,仿真数字人不仅与应答语音信息对应,也与目标用户的实时的相对位置对应。从而仿真数字人更加灵活和生动。具体地,请参见后续实施例。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
可以理解的是,步骤S410至S470可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据;若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置;若目标用户位于预设区域内,则获取交互信息;处理交互信息以获取应答语音信息;根据相对位置,在预设的多个参考参数中确定目标参考参数;将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列;根据图像序列生成并输出仿真数字人的视频,同步播放应答语音信息。这样,不仅会根据目标用户的位置显示面部朝向目标用户的仿真数字人,还可以根据使数字人具有与应答语音信息对应的动作状态,通过显示视频的同时播放应答语音信息,进一步地增加了仿真数字人的逼真度,优化了人机交互体验。
请参阅图6,图6为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S510至步骤S570。
步骤S510:获取采集装置采集的场景图像。
其中,采集装置是可以是普通的摄像头,也可以是获取空间深度信息的图像采集装置。例如,图像采集装置可以是双目摄像头、结构光摄像头、TOF摄像头等。
相应地,场景图像可以是当前场景下的普通的图像,也可以是包含深度信息和彩色信息的深度图像。
步骤S520:判断场景图像内是否存在目标用户。
可以通过分析场景图像以判断场景内是否存在目标用户。例如,可以采集检测算法识别场景图像中的人头信息,检测算法可以是YOLO(You Only Look Once)算法、RCNN、SSD(Single Shot MultiBox Detector)等可以识别图像中自然人的算法进行判断。可选地,也可以通过其他类型的场景数据来判断场景内是否存在目标用户。根据场景数据确定场景内存在目标用户的具体描述请参阅步骤S120,在此不再赘述。
步骤S530:若是,则识别场景图像以获取目标用户在相机坐标系中的三维坐标。
其中,相机坐标系以采集装置的位置为原点。根据不同采集装置得到的场景图像,可以采用不同的方式对场景图像进行处理,以识别场景图像中的目标用户,从而得到目标用户在相机坐标系中的三维坐标。当图像为普通摄像头采集得到的图像时,可以通过深度估计算法等获取图像中目标用户对应的深度信息,从而确定三维坐标。当图像为深度图像时,可以给深度信息计算目标用户在相机坐标系中的三维坐标。例如,当采集装置为双目摄像头时,可以采用双目测距以确定目标用户对应的三维坐标;当采集装置为结构光摄像头时,可以采用三角视差测距确定目标用户对应的三维坐标;当采集装置为TOF摄像头时,可以计算光脉冲从TOF摄像头的发射器到目标对象,再以像素格式返回到TOF摄像头的接收器的运行,从而确定目标用户对应的三维坐标。
可选地,也可以预先对采集装置进行相机标定,以获取采集装置的相机外参数和相机内参数,结合相机参数来准确地获取目标用户的三维坐标。
步骤S540:获取采集装置与显示屏的位置关系,根据位置关系确定相机坐标系与空间坐标系的转换关系。
其中,空间坐标系以显示屏的位置为原点,空间坐标系可用于表征真实世界中的位置坐标。可以预先获取采集装置和显示屏的位置关系,根据该位置关系确定图像采集装置在空间坐标系中的坐标,进而得到相机坐标系与空间坐标系的转换关系。
其中,显示屏的位置可以是显示屏的中心点、显示屏的边框等不会发生变化的位置,也可以是用于仿真数字人图像的显示位置,在此不做限定。在一些实施方式中,仿真数字人图像的显示位置可以根据目标用户与显示屏的相对位置而改变。
步骤S550:基于转换关系和三维坐标,在空间坐标系中确定目标用户与显示屏的相对位置。
其中,相对位置包括相对距离和相对角度中的至少一个。可以基于转换关系和三维坐标,在空间坐标系中确定目标用户与显示屏的相对位置。通过这种方式,可以获取目标用户相对显示屏的较为精准的第一相对位置。
在一些实施方式中,可以通过检测算法识别目标用户的眼睛,以眼睛的位置作为目标用户在相机坐标系中的三维坐标。根据采集装置与显示屏上仿真数字人图像的显示位置,确定相机坐标系与空间坐标系的转换关系。其中,显示位置可以是仿真数字人的眼睛的位置。通过这种方式,可以在空间坐标系中确定目标用户的眼睛与显示屏上仿真数字人眼睛之间的相对位置,从而可以根据该相对位置,获取不仅角度朝向目标用户,并且眼睛也看向目标用户的仿真数字人。
步骤S560:若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像。
在一些实施方式中,也可以获取交互信息;处理交互信息以获取应答语音信息;将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列,图像序列由多帧连续的目标仿真数字人图像构成。具体地,请参见前述实施例。
步骤S570:在显示屏上显示目标仿真数字人图像。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。具体地,请参见后续实施例。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
可以理解的是,步骤S510至S560可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据;判断场景图像内是否存在目标用户;若是,则识别场景图像以获取目标用户在相机坐标系中的三维坐标,获取采集装置与显示屏的位置关系,根据位置关系确定相机坐标系与空间坐标系的转换关系;基于转换关系和三维坐标,在空间坐标系中确定目标用户与显示屏的相对位置;若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像;在显示屏上显示目标仿真数字人图像。通过根获取采集装置和显示屏的位置关系,可以较为精确地确定目标用户与显示屏的位置,从而根据位置获取面部精准地朝向目标用户的仿真数字人,虚拟形象的画面逼真度更高。
请参阅图7,图7为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S610至步骤S670。
步骤S610:获取采集装置采集的场景数据。
步骤S620:识别场景图像中的人头信息。
其中,场景数据包括场景图像,可以通过检测算法识别场景图像中的人头信息。其中,检测算法可以是YOLO(You Only Look Once)算法、RCNN、SSD(Single Shot MultiBoxDetector)等可以识别图像中自然人的算法。
在一些实施方式中,也可以通过传感器得到的场景数据判断场景内是否存在目标用户,当判定场景内存在目标用户时,再识别场景图像中的人头信息。由于根据传感器判断是否存在目标用户所需的功耗较小,进行图像识别所需功耗较大,当场景内存在目标用户才进一步地图像识别,可以减少图像识别所需的功耗。
步骤S630:根据人头信息获取场景图像中用户的数量。
通过识别场景图像中的人头信息,可以确定场景图像中用户的数量,即确定当前的场景中用户的数量。
在一些实施方式中,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为所述目标用户。例如,当有多个目标用户位于预设区域时,可以保持仿真数字人正面朝前的姿态,仿真数字人可以向所有人打招呼,也可以不打招呼,当某个目标用户跟数字人讲话时,数字人转向该目标用户进行交互。当用户离开交互区域时,可以显示预设的待唤醒状态的仿真数字人图像。
其中,交互指令可以是预设的多模态信息。具体地,交互指令可以是语音信息、动作指令、触控操作等多模态信息。其中,语音信息可以是包含预设关键词的语音信息,可以通过对语音信息进行意图识别以获取用户的交互意图;动作指令可以预设的用于交互的动作、手势等,例如面向屏幕招手等。本实施例对此不作限定。
作为一种方式,可以通过麦克风采集场景中的声音信息,通过人声检测判断声音信息中是否包含用户的语音信息。可选地,还可以通过声学模型对预设关键词进行检测,以进一步确定是否获取用户输入的交互指令。当交互指令为语音信息时,作为一种方式,可以通过声音测距等方式确定该语音信息的音源的方位,从而将该方位的用户作为目标用户;作为另一种方式,可以对场景图像进行处理以识别多个用户的唇部动作,通过唇语识别可以确定输入交互指令的用户,将该用户作为目标用户。
作为另一种方式,可以通过对场景图像进行动作识别以确定是否有用户输入的动作指令,将输入该动作指令的用户作为目标用户。例如,可以对场景图像中进行手势识别,以检测是否有用户面向屏幕招手。
作为又一种方式,可以通过屏幕传感器检测是否获取用户输入的触控操作,若是,则将输入触控操作的用户作为目标用户。
在又一些实施方式中,当用户数量为多个,可以将场景图像中的每一个用户分别作为目标用户,获取多个目标用户与显示屏的多个第一相对位置,若多个目标用户位于预设区域内,则基于预设的虚拟形象模型,获取与多个第一相对位置对应的多个目标虚拟形象图像,在显示屏上显示多个目标虚拟形象图像,以分别与目标用户进行交互。从而在显示屏上显示多个目标虚拟形象,以分别与多个目标用户进行交互。这样,使每个目标用户都可以与虚拟形象进行面对面地交互,提高了交互的效率。
步骤S640:若用户的数量为一个,则将识别到的用户作为目标用户。
当场景图像中用户的数量为一个时,即当前场景中用户的数量为一个时,则将该用户作为目标用户。
步骤S650:处理场景图像以获取目标用户与显示屏的相对位置。
步骤S660:若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像。
在一些实施方式中,也可以获取交互信息;处理交互信息以获取应答语音信息;将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列,图像序列由多帧连续的目标仿真数字人图像构成。具体地,请参见前述实施例。
步骤S670:在显示屏上显示目标仿真数字人图像。
在一些实施方式中,场景数据为实时采集的数据,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;在显示屏上显示新的目标仿真数字人图像。具体地,请参见后续实施例。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
可以理解的是,步骤S610至S660可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据;识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置;若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像;在显示屏上显示目标仿真数字人图像。通过识别场景图像以确定场景中的用户数量,根据预设区域内目标用户的不同数量,采用不同的方式显示面部朝向用户的虚拟形象,从而丰富了交互的方式,提高了人机交互的效率。
请参阅图9,图9为本申请一实施例提供的一种仿真3D数字人交互方法的流程示意图,应用于上述终端设备,该方法包括步骤S710至步骤S760。
步骤S710:获取采集装置采集的场景数据。
其中,场景数据为实时采集的数据。
步骤S720:若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置。
在一些实施方式中,场景数据可以包括场景图像,可以识别场景图像中的人头信息;根据人头信息获取场景图像中用户的数量;若用户的数量为一个,则将所识别到的用户作为目标用户;处理场景图像以获取目标用户与显示屏的相对位置。可选地,若用户的数量为多个,则监测是否获取到用户输入的交互指令;若获取到用户输入的交互指令,则将交互指令对应的用户作为目标用户。具体地,请参见前述实施例。
步骤S730:若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像。
在一些实施方式中,也可以获取交互信息;处理交互信息以获取应答语音信息;将目标参考参数和应答语音信息输入预设的仿真数字人模型,得到输出的图像序列,图像序列由多帧连续的目标仿真数字人图像构成。具体地,请参见前述实施例。
步骤S740:在显示屏上显示目标仿真数字人图像。
步骤S750:若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像。
在显示屏上显示目标仿真数字人图像之后,可以实时地检测目标用户与显示屏之间的相对位置,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像。通过检测相对位置的改变,可以根据用户实时的相对位置生成对应的目标仿真数字人,以使仿真数字人在每时每刻都是面部朝向目标用户的,交互更加自然和生动。
在一些实施方式中,若预设时间内相对位置的改变小于预设阈值,则不更新显示屏显示的所述目标仿真数字人图像。其中,预设阈值可以是位移阈值、旋转角度阈值中的至少一种。具体地,可以确定预设时间内改变位置的目标用户相对于初始的相对位置的变化参数,变化参数包括相位移参数和旋转角度参数,若变化参数小于相应的预设阈值,则不根据改变后的相对位置生成新的目标仿真数字人图像,也不对显示屏所显示的图像进行更新。由此,只有当目标用户在预设时间内的位置改变大于预设阈值时,才获取新的目标仿真数字人图像,从而在用户预设时间内位姿变化不大的情况下,无需确定新的目标仿真数字人,从而既实现了根据目标用户相对位置的改变实时地调整显示的仿真数字人的朝向以更自然地交互,又节省了实时生成仿真数字人的算力和功耗。
在一些实施方式中,还可以根据改变前的目标用户的相对位置,以及改变后的相对位置,生成包含多张目标仿真数字人图像的图像序列,即获取由之前的目标仿真数字人图像变为改变后的相对位置对应的目标仿真数字人图像的具有时序的多张图像。可以根据图像序列和时序生成仿真数字人视频,以呈现逐渐变化的动态的仿真数字人。例如,用户与显示屏的相对位置改变时,目标用户看向显示屏的视角也在变化,目标用户看到仿真数字人的图像也在切换,显示屏上显示的数字人,就如同行走的摄像机围绕真人模特走一圈拍到的视频的效果,呈现一个立体的真人模特的视觉效果。
在一些实施方式中,当检测到目标用户离开预设区域,可以在新的目标仿真数字人图像可以是预设的待唤醒状态的仿真数字人图像。同时也可以将终端设备的状态切换为待唤醒状态,降低进行实时交互所需的功耗。可选地,当检测目标用户离开预设区域时,也可以将预设的动作的仿真数字人图像作为新的目标仿真数字人图像,例如挥手告别等。
步骤S760:在显示屏上显示新的目标仿真数字人图像。
在显示屏上显示新的目标仿真数字人图像。在一些实施方式中,也可以显示由包含多张目标仿真数字人图像的图像序列生成的数字人视频。
可以理解的是,步骤S710至S750可以由终端设备在本地进行,也可以在服务器中进行,还可以由终端设备与服务器分工进行,根据实际应用场景的不同,可以按照需求进行任务的分配,在此不做限定。
需要说明的是,本实施例中未详细描述的部分可以参考前述实施例,在此不再赘述。
本实施例提供的仿真3D数字人交互方法,获取采集装置采集的场景数据,若根据场景数据确定场景内存在目标用户,则处理场景数据以获取目标用户与显示屏的相对位置,若目标用户位于预设区域内,则基于预设的仿真数字人模型,获取相对位置对应的目标仿真数字人图像,在显示屏上显示目标仿真数字人图像,若检测到相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像,在显示屏上显示新的目标仿真数字人。通过实时地检测用户的位置,根据用户与显示屏的相对位置实时地更新目标仿真数字人图像,以实现目标用户与仿真数字人进行实时地面对面地交互。
可以理解的是,上述示例仅为本申请实施例提供的方法在一种具体场景进行应用的示意性说明,并不对本申请实施例构成限定。基于本申请实施例提供的方法还可实现更多不同的应用。
请参阅图9,图9示出了本申请实施例提供的仿真3D数字人交互装置800的结构框图。下面将针对图9所示的框图进行阐述,该基于仿真3D数字人交互装置800包括:数据采集模块810、位置获取模块820、图像获取模块830以及显示模块840,其中:
数据采集模块810,用于获取采集装置采集的场景数据;位置获取模块820,用于若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置;图像获取模块830,用于若所述目标用户位于预设区域内,则基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,所述目标仿真数字人图像包括面部朝向所述目标用户的仿真数字人,所述预设区域为与所述显示屏的距离小于预设数值的区域;显示模块840,用于在所述显示屏上显示所述目标仿真数字人图像。
进一步地,所述预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个所述样本图像对应的参考参数训练得到的模型,所述仿真数字人模型用于根据输入的参考参数,输出所述样本图像对应的仿真数字人图像,所述图像获取模块830包括参数确定子模块和参数输入子模块,其中,所述参数确定子模块,用于根据所述相对位置,在预设的多个参考参数中确定目标参考参数,所述参考参数用于表征所述样本图像包含的所述真人模特相对于采集所述样本图像的图像采集装置的位姿,所述参数输入子模块用于将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像。
进一步地,所述参数确定子模块包括第一参数确定单元和第二参数确定单元,其中,所述第一参数确定单元用于根据所述相对位置确定用户视角参数,所述用户视角参数用于表征所述目标用户朝向所述显示屏的预设位置的视角;所述第二参数确定单元用于在所述预设的多个参考参数中,根据所述用户视角参数确定所述目标参考参数。
进一步地,所述第一参数确定单元包括位置确定子单元和视角参数确定子单元,其中,所述位置确定子单元用于根据所述相对位置确定所述显示屏的目标显示位置,所述目标显示位置为所述目标仿真数字人图像在所述显示屏上的显示位置;所述视角参数确定子单元,用于根据所述相对位置和所述目标显示位置确定所述用户视角参数。
进一步地,所述仿真3D数字人交互装置800还包括交互信息获取模块,语音信息获取模块,所述交互信息获取模块用于获取交互信息,所述语音信息获取模块用于处理所述交互信息以获取应答语音信息,所述参数输入子模块包括图像序列获取单元,所述图像序列获取单元用于将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,所述图像序列由多帧连续的所述目标仿真数字人图像构成,所述显示模块840包括视频输出单元,所述视频输出单元用于根据所述图像序列生成并输出仿真数字人的视频,同步播放所述应答语音信息。
进一步地,所述述仿真数字人模型包括特征生成模型和图像生成模型,所述图像序列获取单元包括初始特征参数获取子单元,参数序列获取子单元和图像序列获取子单元,其中,所述初始特征参数获取子单元,用于将所述目标参考参数输入所述特征生成模型以获取初始特征参数,所述初始特征参数用于表征所述样本图像对应的所述真人模特的形态;所述参数序列获取子单元,用于根据所述应答语音信息,对所述初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到参数序列,所述参数序列包括多个目标特征参数;所述图像序列获取子单元,用于基于所述图像生成模型,获取每个所述目标特征参数对应的目标仿真数字人图像,以得到所述参数序列对应的所述图像序列。
进一步地,所述目标仿真数字人图像中所述仿真数字人的朝向角度与所述目标参考参数对应的所述样本图像中的所述真人模特的朝向角度相同。
进一步地,所述目标仿真数字人图像中所述仿真数字人的体貌特征与所述目标参考参数对应的样本图像中的所述真人模特的体貌特征相同。
进一步地,所述位置获取模块820包括判断子模块、坐标获取子模块、转换关系确定子模块和位置确定子模块,所述判断子模块用于判断所述场景图像内是否存在所述目标用户,所述坐标获取子模块用于若是,则识别所述场景图像以获取所述目标用户在相机坐标系中的三维坐标,其中,所述相机坐标系以所述采集装置的位置为原点;所述转换关系确定子模块,用于获取所述采集装置与所述显示屏的位置关系,根据所述位置关系确定所述相机坐标系与空间坐标系的转换关系,其中,所述空间坐标系以所述显示屏的位置为原点;所述位置确定子模块,用于基于所述转换关系和所述三维坐标,在所述空间坐标系中确定所述目标用户与所述显示屏的所述相对位置,所述相对位置包括相对距离和相对角度中的至少一个。
进一步地,所述位置获取模块820还包括图像识别子模块,用户数量获取子模块,第一处理子模块,其中,所述图像识别子模块用于识别所述场景图像中的人头信息,所述用户数量获取子模块,用于根据所述人头信息获取所述场景图像中用户的数量,所述第一处理子模块,用于若所述用户的数量为一个,则将所识别到的用户作为所述目标用户。
进一步地,所述仿真3D数字人交互装置800还包括指令监测子模块和第二处理子模块,所述指令监测子模块,用于若所述用户的数量为多个,则监测是否获取到用户输入的交互指令;所述第二处理子模块,用于若获取到所述用户输入的交互指令,则将所述交互指令对应的用户作为所述目标用户。
进一步地,所述场景数据为实时采集的数据,所述在所述显示屏上显示所述目标仿真数字人图像之后,所述仿真3D数字人交互装置800还包括位置检测模块,显示更新模块,所述位置检测模块,用于若检测到所述相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;所述显示更新模块,用于在所述显示屏上显示所述新的目标仿真数字人图像。
请参考图10,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备900可以是智能手机、平板电脑、电子书等能够运行应用程序的电子设备。本申请中的电子设备900可以包括一个或多个如下部件:处理器910、存储器920以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器920中并被配置为由一个或多个处理器910执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器910可以包括一个或者多个处理核。处理器910利用各种接口和线路连接整个电子设备900内的各个部分,通过运行或执行存储在存储器920内的指令、程序、代码集或指令集,以及调用存储在存储器920内的数据,执行电子设备900的各种功能和处理数据。可选地,处理器910可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器910可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作***、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器910中,单独通过一块通信芯片进行实现。
存储器920可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器920可用于存储指令、程序、代码、代码集或指令集。存储器920可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备900在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
请参阅图11,其示出了本申请实施例提供的一种计算机可读取存储介质的结构框图。该计算机可读取存储介质1000中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读取存储介质1000可以是诸如闪存、电可擦除可编程只读存储器(electrically-erasable programmable read-only memory,EEPROM)、可擦除可编程只读存储器(erasable programmable read only memory,EPROM)、硬盘或者ROM之类的电子存储器。可选地,计算机可读取存储介质1000包括非易失性计算机可读介质(non-transitorycomputer-readable storage medium)。计算机可读取存储介质1000具有执行上述方法中的任何方法步骤的程序代码1010的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1010可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (15)

1.一种仿真3D数字人交互方法,其特征在于,包括:
获取采集装置采集的场景数据;
若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置;
若所述目标用户位于预设区域内,则基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,所述目标仿真数字人图像包括面部朝向所述目标用户的仿真数字人,所述预设区域为与所述显示屏的距离小于预设数值的区域;
在所述显示屏上显示所述目标仿真数字人图像。
2.根据权利要求1所述的方法,其特征在于,所述预设的仿真数字人模型为预先根据包含真人模特的多个样本图像和每个所述样本图像对应的参考参数训练得到的模型,所述仿真数字人模型用于根据输入的参考参数,输出所述样本图像对应的仿真数字人图像,所述基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,包括:
根据所述相对位置,在预设的多个参考参数中确定目标参考参数,所述参考参数用于表征所述样本图像包含的所述真人模特相对于采集所述样本图像的图像采集装置的位姿;
将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述相对位置,在预设的多个参考参数中确定目标参考参数,包括:
根据所述相对位置确定用户视角参数,所述用户视角参数用于表征所述目标用户朝向所述显示屏的预设位置的视角;
在所述预设的多个参考参数中,根据所述用户视角参数确定所述目标参考参数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述相对位置确定用户视角参数,包括:
根据所述相对位置确定所述显示屏的目标显示位置,所述目标显示位置为所述目标仿真数字人图像在所述显示屏上的显示位置;
根据所述相对位置和所述目标显示位置确定所述用户视角参数。
5.根据权利要求2所述的方法,其特征在于,在所述基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像之前,所述方法还包括:
获取交互信息;
处理所述交互信息以获取应答语音信息;
所述将所述目标参考参数输入所述预设的仿真数字人模型,将输出的仿真数字人图像作为所述目标仿真数字人图像,包括:
将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,所述图像序列由多帧连续的所述目标仿真数字人图像构成;
所述在所述显示屏上显示所述目标仿真数字人图像,包括:
根据所述图像序列生成并输出仿真数字人的视频,同步播放所述应答语音信息。
6.根据权利要求5所述的方法,其特征在于,所述仿真数字人模型包括特征生成模型和图像生成模型,所述将所述目标参考参数和所述应答语音信息输入所述预设的仿真数字人模型,得到输出的图像序列,包括:
将所述目标参考参数输入所述特征生成模型以获取初始特征参数,所述初始特征参数用于表征所述样本图像对应的所述真人模特的形态;
根据所述应答语音信息,对所述初始特征参数的表情参数、动作参数、嘴型参数中至少一个参数进行调整以得到参数序列,所述参数序列包括多个目标特征参数;
基于所述图像生成模型,获取每个所述目标特征参数对应的目标仿真数字人图像,以得到所述参数序列对应的所述图像序列。
7.根据权利要求2-6任一项所述的方法,其特征在于,所述目标仿真数字人图像中所述仿真数字人的朝向角度与所述目标参考参数对应的所述样本图像中的所述真人模特的朝向角度相同。
8.根据权利要求7所述的方法,其特征在于,所述目标仿真数字人图像中所述仿真数字人的体貌特征与所述目标参考参数对应的样本图像中的所述真人模特的体貌特征相同。
9.根据权利要求1-6任一项所述的方法,其特征在于,所述场景数据包括场景图像,所述若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置,包括:
判断所述场景图像内是否存在所述目标用户;
若是,则识别所述场景图像以获取所述目标用户在相机坐标系中的三维坐标,其中,所述相机坐标系以所述采集装置的位置为原点;
获取所述采集装置与所述显示屏的位置关系,根据所述位置关系确定所述相机坐标系与空间坐标系的转换关系,其中,所述空间坐标系以所述显示屏的位置为原点;
基于所述转换关系和所述三维坐标,在所述空间坐标系中确定所述目标用户与所述显示屏的所述相对位置,所述相对位置包括相对距离和相对角度中的至少一个。
10.根据权利要求1所述的方法,其特征在于,所述场景数据包括场景图像,若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置,包括:
识别所述场景图像中的人头信息;
根据所述人头信息获取所述场景图像中用户的数量;
若所述用户的数量为一个,则将所识别到的用户作为所述目标用户;
处理所述场景图像以获取所述目标用户与显示屏的相对位置。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
若所述用户的数量为多个,则监测是否获取到用户输入的交互指令;
若获取到所述用户输入的交互指令,则将所述交互指令对应的用户作为所述目标用户。
12.根据权利要求1所述的方法,其特征在于,所述场景数据为实时采集的数据,所述在所述显示屏上显示所述目标仿真数字人图像之后,所述方法还包括:
若检测到所述相对位置改变,则根据改变后的相对位置生成新的目标仿真数字人图像;
在所述显示屏上显示所述新的目标仿真数字人图像。
13.一种仿真3D数字人交互装置,其特征在于,包括:
数据采集模块,用于获取采集装置采集的场景数据;
位置获取模块,用于若根据所述场景数据确定场景内存在目标用户,则处理所述场景数据以获取所述目标用户与显示屏的相对位置;
图像获取模块,用于若所述目标用户位于预设区域内,则基于预设的仿真数字人模型,获取所述相对位置对应的目标仿真数字人图像,所述目标仿真数字人图像包括面部朝向所述目标用户的仿真数字人,所述预设区域为与所述显示屏的距离小于预设数值的区域;
显示模块,用于在所述显示屏上显示所述目标仿真数字人图像。
14.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个程序, 其中所述一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行, 所述一个或多个程序配置用于执行如权利要求1-12任一项所述的仿真3D数字人交互方法。
15.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-12任一项所述的仿真3D数字人交互方法。
CN202110019675.0A 2021-01-07 2021-01-07 仿真3d数字人交互方法、装置、电子设备及存储介质 Active CN112379812B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110019675.0A CN112379812B (zh) 2021-01-07 2021-01-07 仿真3d数字人交互方法、装置、电子设备及存储介质
PCT/CN2021/123815 WO2022148083A1 (zh) 2021-01-07 2021-10-14 仿真3d数字人交互方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110019675.0A CN112379812B (zh) 2021-01-07 2021-01-07 仿真3d数字人交互方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112379812A true CN112379812A (zh) 2021-02-19
CN112379812B CN112379812B (zh) 2021-04-23

Family

ID=74590186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110019675.0A Active CN112379812B (zh) 2021-01-07 2021-01-07 仿真3d数字人交互方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN112379812B (zh)
WO (1) WO2022148083A1 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669846A (zh) * 2021-03-16 2021-04-16 深圳追一科技有限公司 交互***、方法、装置、电子设备及存储介质
CN112800206A (zh) * 2021-03-24 2021-05-14 南京万得资讯科技有限公司 一种基于生成式多轮对话意图识别的骚扰电话屏蔽方法
CN112927260A (zh) * 2021-02-26 2021-06-08 商汤集团有限公司 一种位姿生成方法、装置、计算机设备和存储介质
CN113031768A (zh) * 2021-03-16 2021-06-25 深圳追一科技有限公司 客服服务方法、装置、电子设备及存储介质
CN113050791A (zh) * 2021-03-16 2021-06-29 深圳追一科技有限公司 交互方法、装置、电子设备及存储介质
CN113485633A (zh) * 2021-07-30 2021-10-08 京东方智慧物联科技有限公司 一种内容展示方法、装置、电子设备和非瞬态计算机可读存储介质
CN114115527A (zh) * 2021-10-29 2022-03-01 北京百度网讯科技有限公司 增强现实ar信息显示方法、装置、***及存储介质
CN114356092A (zh) * 2022-01-05 2022-04-15 花脸数字技术(杭州)有限公司 一种基于多模态的数字人信息处理用人机交互***
WO2022148083A1 (zh) * 2021-01-07 2022-07-14 深圳追一科技有限公司 仿真3d数字人交互方法、装置、电子设备及存储介质
CN116796478A (zh) * 2023-06-09 2023-09-22 南通大学 天线阵列可视区域的数据展示方法、装置
CN117115321A (zh) * 2023-10-23 2023-11-24 腾讯科技(深圳)有限公司 虚拟人物眼睛姿态的调整方法、装置、设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953521B (zh) * 2023-03-14 2023-05-30 世优(北京)科技有限公司 远程数字人渲染方法、装置及***
CN116563432B (zh) * 2023-05-15 2024-02-06 摩尔线程智能科技(北京)有限责任公司 三维数字人生成方法及装置、电子设备和存储介质
CN117473880B (zh) * 2023-12-27 2024-04-05 中国科学技术大学 样本数据生成方法及无线跌倒检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130197887A1 (en) * 2012-01-31 2013-08-01 Siemens Product Lifecycle Management Software Inc. Semi-autonomous digital human posturing
US20170061043A1 (en) * 2015-08-25 2017-03-02 Dassault Systèmes Americas Corp. Method and System for Vision Measure for Digital Human Models
CN111290682A (zh) * 2018-12-06 2020-06-16 阿里巴巴集团控股有限公司 交互方法、装置及计算机设备
CN111309153A (zh) * 2020-03-25 2020-06-19 北京百度网讯科技有限公司 人机交互的控制方法和装置、电子设备和存储介质
CN111443854A (zh) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 基于数字人的动作处理方法、装置、设备及存储介质
CN111443853A (zh) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 数字人的控制方法及装置
CN111736699A (zh) * 2020-06-23 2020-10-02 上海商汤临港智能科技有限公司 基于车载数字人的交互方法及装置、存储介质
CN111880659A (zh) * 2020-07-31 2020-11-03 北京市商汤科技开发有限公司 虚拟人物控制方法及装置、设备、计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206063A (ja) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 画像認識装置及び画像認識方法
CN112379812B (zh) * 2021-01-07 2021-04-23 深圳追一科技有限公司 仿真3d数字人交互方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130197887A1 (en) * 2012-01-31 2013-08-01 Siemens Product Lifecycle Management Software Inc. Semi-autonomous digital human posturing
US20170061043A1 (en) * 2015-08-25 2017-03-02 Dassault Systèmes Americas Corp. Method and System for Vision Measure for Digital Human Models
CN111290682A (zh) * 2018-12-06 2020-06-16 阿里巴巴集团控股有限公司 交互方法、装置及计算机设备
CN111309153A (zh) * 2020-03-25 2020-06-19 北京百度网讯科技有限公司 人机交互的控制方法和装置、电子设备和存储介质
CN111443854A (zh) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 基于数字人的动作处理方法、装置、设备及存储介质
CN111443853A (zh) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 数字人的控制方法及装置
CN111736699A (zh) * 2020-06-23 2020-10-02 上海商汤临港智能科技有限公司 基于车载数字人的交互方法及装置、存储介质
CN111880659A (zh) * 2020-07-31 2020-11-03 北京市商汤科技开发有限公司 虚拟人物控制方法及装置、设备、计算机可读存储介质

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022148083A1 (zh) * 2021-01-07 2022-07-14 深圳追一科技有限公司 仿真3d数字人交互方法、装置、电子设备及存储介质
CN112927260A (zh) * 2021-02-26 2021-06-08 商汤集团有限公司 一种位姿生成方法、装置、计算机设备和存储介质
CN112927260B (zh) * 2021-02-26 2024-04-16 商汤集团有限公司 一种位姿生成方法、装置、计算机设备和存储介质
CN113031768A (zh) * 2021-03-16 2021-06-25 深圳追一科技有限公司 客服服务方法、装置、电子设备及存储介质
CN113050791A (zh) * 2021-03-16 2021-06-29 深圳追一科技有限公司 交互方法、装置、电子设备及存储介质
CN112669846A (zh) * 2021-03-16 2021-04-16 深圳追一科技有限公司 交互***、方法、装置、电子设备及存储介质
CN112800206A (zh) * 2021-03-24 2021-05-14 南京万得资讯科技有限公司 一种基于生成式多轮对话意图识别的骚扰电话屏蔽方法
CN112800206B (zh) * 2021-03-24 2021-08-24 南京万得资讯科技有限公司 一种基于生成式多轮对话意图识别的骚扰电话屏蔽方法
CN113485633B (zh) * 2021-07-30 2024-02-02 京东方智慧物联科技有限公司 一种内容展示方法、装置、电子设备和非瞬态计算机可读存储介质
CN113485633A (zh) * 2021-07-30 2021-10-08 京东方智慧物联科技有限公司 一种内容展示方法、装置、电子设备和非瞬态计算机可读存储介质
CN114115527A (zh) * 2021-10-29 2022-03-01 北京百度网讯科技有限公司 增强现实ar信息显示方法、装置、***及存储介质
CN114356092A (zh) * 2022-01-05 2022-04-15 花脸数字技术(杭州)有限公司 一种基于多模态的数字人信息处理用人机交互***
CN114356092B (zh) * 2022-01-05 2022-09-09 花脸数字技术(杭州)有限公司 一种基于多模态的数字人信息处理用人机交互***
CN116796478B (zh) * 2023-06-09 2023-12-26 南通大学 天线阵列可视区域的数据展示方法、装置
CN116796478A (zh) * 2023-06-09 2023-09-22 南通大学 天线阵列可视区域的数据展示方法、装置
CN117115321A (zh) * 2023-10-23 2023-11-24 腾讯科技(深圳)有限公司 虚拟人物眼睛姿态的调整方法、装置、设备及存储介质
CN117115321B (zh) * 2023-10-23 2024-02-06 腾讯科技(深圳)有限公司 虚拟人物眼睛姿态的调整方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112379812B (zh) 2021-04-23
WO2022148083A1 (zh) 2022-07-14

Similar Documents

Publication Publication Date Title
CN112379812B (zh) 仿真3d数字人交互方法、装置、电子设备及存储介质
WO2021043053A1 (zh) 一种基于人工智能的动画形象驱动方法和相关装置
CN110850983B (zh) 视频直播中的虚拟对象控制方法、装置和存储介质
CN110163054B (zh) 一种人脸三维图像生成方法和装置
CN110390704B (zh) 图像处理方法、装置、终端设备及存储介质
CN110868635B (zh) 视频处理方法、装置、电子设备及存储介质
KR101894573B1 (ko) 3d 디지털 액터형 스마트폰 인터페이스 운용시스템
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
CN110555507B (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN111294665A (zh) 视频的生成方法、装置、电子设备及可读存储介质
CN115909015B (zh) 一种可形变神经辐射场网络的构建方法和装置
CN111327772B (zh) 进行自动语音应答处理的方法、装置、设备及存储介质
CN111432267A (zh) 视频调整方法、装置、电子设备及存储介质
WO2022108662A1 (en) Multiple device sensor input based avatar
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
CN110794964A (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN112673400A (zh) 化身动画
CN113436602A (zh) 虚拟形象语音交互方法、装置、投影设备和计算机介质
CN114787759A (zh) 交流支持程序、交流支持方法、交流支持***、终端装置以及非语言表达程序
CN117036583A (zh) 视频生成方法、装置、存储介质及计算机设备
CN112435316B (zh) 一种游戏中的防穿模方法、装置、电子设备及存储介质
CN117370605A (zh) 一种虚拟数字人驱动方法、装置、设备和介质
CN114979789A (zh) 一种视频展示方法、装置以及可读存储介质
CN112767520A (zh) 数字人生成方法、装置、电子设备及存储介质
JP7184835B2 (ja) コンピュータプログラム、方法及びサーバ装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Yang Guoji

Inventor after: Chang Xiangyue

Inventor after: Chen Longxiang

Inventor after: Wang Xinyu

Inventor after: Liu Yunfeng

Inventor after: Wu Yue

Inventor before: Yang Guoji

Inventor before: Chen Longxiang

Inventor before: Wang Xinyu

Inventor before: Liu Yunfeng

Inventor before: Wu Yue