CN109637518B - 虚拟主播实现方法及装置 - Google Patents
虚拟主播实现方法及装置 Download PDFInfo
- Publication number
- CN109637518B CN109637518B CN201811320949.4A CN201811320949A CN109637518B CN 109637518 B CN109637518 B CN 109637518B CN 201811320949 A CN201811320949 A CN 201811320949A CN 109637518 B CN109637518 B CN 109637518B
- Authority
- CN
- China
- Prior art keywords
- virtual anchor
- model
- voice
- image
- synthesis model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 116
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 116
- 238000012549 training Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 27
- 238000002372 labelling Methods 0.000 claims description 18
- 238000006748 scratching Methods 0.000 claims description 8
- 230000002393 scratching effect Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L2013/021—Overlap-add techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种虚拟主播实现方法及装置,所述方法包括:接收输入文本;利用预先构建的语音合成模型得到对应所述输入文本的语音序列,利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列,所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。本发明可以大大提高虚拟主播的视觉效果。
Description
技术领域
本发明涉及动画技术,具体涉及一种虚拟主播实现方法及装置。
背景技术
目前,随着自媒体人的快速崛起以及一些短视频平台的崛起,网络流量正在从文字向视频加速聚集。一些视频平台能够为用户提供更丰富的展现方式,但以真人来进行的主播由于受到主播自身等条件的限制,其表现形式单一,影响观众体验。为此,业界出现了以虚拟形象代替真人的视频产品,即虚拟主播,顾名思议,所述虚拟主播是通过虚拟形象向用户展现相关视频内容,比如,由一个虚拟形象来主导一档视频栏目、播报新闻等。但这类产品中的虚拟形象通常为动画制作的角色,不仅制作周期长,而且视觉效果欠佳。
发明内容
本发明实施例提供一种在线虚拟主播实现方法及装置,以提高虚拟主播的视觉效果。
为此,本发明提供如下技术方案:
一种虚拟主播实现方法,所述方法包括:
接收输入文本;
利用预先构建的语音合成模型得到对应所述输入文本的语音序列,利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列,所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;
同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。
可选地,所述方法还包括:
利用采集的音频数据及视频数据构建所述时长模型、语音合成模型、以及生物状态合成模型。
可选地,所述音频数据和视频数据包括:所述虚拟主播对应对象的同步音频数据和视频数据。
可选地,所述音频数据还包括:所述虚拟主播对应对象的纯音频数据。
可选地,所述利用采集的音频数据及视频数据构建生物状态合成模型包括:
将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注及类别标注,对所述音频数据进行语音参数标注;所述生物特征参数和所述语音参数中均包括基于所述时长模型确定的时长参数;
分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数;
利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
可选地,所述生物状态合成模型包括;唇形模型和/或眼位模型。
可选地,所述方法还包括:
获取虚拟主播对应对象图片;
抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;
所述利用所述生物状态合成模型得到对应所述输入文本的虚拟主播图像序列包括:
利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;
将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,得到对应所述输入文本的虚拟主播图像序列。
可选地,所述方法还包括:
预先录制背景图像序列;
所述同步叠加所述语音序列及所述虚拟主播图像序列的步骤包括:
同步叠加所述语音序列、所述背景图像序列及所述虚拟主播图像序列。
可选地,所述背景图像序列至少包括如下任一项:
虚拟主播头部动作图像序列;
虚拟主播手部动作图像序列。
一种虚拟主播实现装置,所述装置包括:
接收模块,用于接收输入文本;
语音合成模块,用于利用预先构建的语音合成模型得到对应所述输入文本的语音序列;
图像合成模块,用于利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列;所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;
叠加处理模块,用于同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。
可选地,所述装置还包括:
模型构建模块,用于利用采集的音频数据及视频数据构建所述时长模型、语音合成模型、以及生物状态合成模型;
所述模型构建模块包括:
数据采集模块,用于采集音频数据及视频数据;
时长模型构建模块,用于构建时长模型;
语音合成模型构建模块,用于基于所述时长模型构建语音合成模型;
生物状态合成模型构建模块,用于基于所述时长模型构建生物状态合成模型。
可选地,所述音频数据和视频数据包括:所述虚拟主播对应对象的同步音频数据和视频数据。
可选地,所述音频数据还包括:
所述虚拟主播对应对象的纯音频数据。
可选地,所述生物状态合成模型构建模块包括:
信息标注单元,用于将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注及类别标注;对所述音频数据进行语音参数标注;所述生物特征参数和所述语音参数中均包括基于所述时长模型确定的时长参数;
特征提取单元,用于分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数;
训练单元,用于利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
可选地,所述生物状态合成模型包括;唇形模型和/或眼位模型。
可选地,所述装置还包括:
图片处理模块,用于获取虚拟主播对应对象图片,并抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;
所述图像合成模块包括:
特定生物状态图像生成单元,用于利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;
图像叠加单元,用于将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,得到对应所述输入文本的虚拟主播图像序列。
可选地,所述装置还包括:
背景图像采集模块,用于预先录制背景图像序列;
所述叠加处理模块,用于同步叠加所述语音序列、所述背景图像序列及所述虚拟主播图像序列。
可选地,所述背景图像序列至少包括如下任一项:
虚拟主播头部动作图像序列;
虚拟主播手部动作图像序列。
一种电子设备,包括:一个或多个处理器、存储器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现前面所述的方法。
一种可读存储介质,其上存储有指令,所述指令被执行以实现前面所述的方法。
本发明实施例提供的虚拟主播实现方法及装置,在接收到输入文本后,利用预先基于同一时长模型构建的语音合成模型和生物状态合成模型,分别得到对应所述输入文本的语音序列及虚拟主播图像序列;然后同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。由于采用了同样的时长模型,从而可以保证语音与虚拟主播图像状态对应的更符合真人状态,使画面更自然、流畅,提高了视觉效果。
进一步地,通过抠取局部图像,大大降低了图像合成处理中的数据量,提高了处理速度,从而使本发明方案不仅可以对离线文本实现虚拟主播,而且可以对实时输入文本实现虚拟主播的直播,不会出现画面卡顿现象。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本发明实施例虚拟主播实现方法的一种流程图;
图2是本发明实施例虚拟主播实现装置的一种框图;
图3是本发明实施例虚拟主播实现装置的另一种框图;
图4是本发明实施例虚拟主播实现装置的另一种框图;
图5是根据一示例性实施例示出的一种用于实现虚拟主播的装置的框图;
图6是本发明实施例中服务器的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明实施例的方案,下面结合附图和实施方式对本发明实施例作进一步的详细说明。
本发明实施例提供的虚拟主播实现方法及装置,在接收到输入文本后,利用预先基于同一时长模型构建的语音合成模型和生物状态合成模型,分别得到对应所述输入文本的语音序列及虚拟主播图像序列;然后同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。
在构建所述语音合成模型和生物状态合成模型时,需要用到基于发音单元的状态时长信息,为此在本发明实施例中,基于同一时长模型来构建所述语音合成模型和生物状态合成模型,以保证音、视频更好地同步,提高视觉效果。各模型需要利用预先采集的音频数据和视频数据训练得到。
需要说明的是,在本发明实施例中,所述虚拟主播可以是基于真人的虚拟形象。因此,在实际应用中,采集的音频、视频数据可以是所述虚拟主播对应对象的同步音频数据和视频数据,也就是说,同步录制真人的音频数据和视频数据。当然,在训练语音合成模型时,还需要得到对应所述音频数据的文本数据。为了进一步提高语音合成效果,还可以另外单独采集一些所述虚拟主播对应对象的语音数据,以增加训练数据量,确保语音合成效果。
所述时长模型是基于发音单元的模型,用来预测每个发音单元持续的时长。对于中文,所述发音单元具体可以是以音节、音素、状态等为单位的发音单元,对此本发明实施例不做限定。所述时长模型的构建可以采用现有技术,比如利用统计方法或模型方法等。
在实际应用中,针对所述输入文本的语音合成可以采用参数方式、拼接方式或者其它现有方式。所述参数方式的语音合成,在建模阶段需要对语音参数或韵律参数(比如频谱、基频、时长等)进行建模,得到语音合成模型;在语音合成阶段,利用语音合成模型对输入文本进行语音参数预测,然后利用预测出来的语音参数还原出时域语音信号。所述拼接方式的语音合成,在建模阶段需要对发音单元(比如音素)建模,也就是说,建立每个发音单元对应的音频片段;在语音合成阶段,通过一些算法或者模型计算输入文本对应的每个发音单元的目标代价和连接代价,进而拼接出合成语音。
相应地,在本发明实施例中,构建语音合成模型可以采用现有技术,对此不再详细描述。
所述生物状态合成模型是与语音相关联的生物状态合成模型,所述生物状态可以包括单一局部生物状态,比如唇形模型或眼位模型;也可以包括多个局部生物状态,比如面部表情模型。
所述虚拟主播最终呈现的图像可以是半身图像、全身图像、头部图像等、姿态可以是坐姿、站姿等,对此本发明实施例均不做限定。相应地,在采集视频数据时,录制的图像中真人的图像的姿态等可以根据应用需要来确定。
在构建生物状态合成模型时,可以将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注(比如内外唇线、唇宽度、唇高度、唇突度等)及类别标注,对所述音频数据进行语音参数标注,分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数,利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
需要说明的是,生物状态的类别可以通过统计或聚类的方式来确定。
另外,可以对所述视频数据进行降维处理,以提高模型训练速度。
基于上述预先构建的各模型,本发明实施例提供的虚拟主播实现方法及装置,在接收到输入文本后,即可实时生成对应该文本的虚拟主播视频。
如图1所示,是本发明实施例虚拟主播实现方法的一种流程图,包括以下步骤:
步骤101,接收输入文本;
步骤102,利用语音合成模型得到对应所述输入文本的语音序列;
步骤103,利用生物状态合成模型得到对应所述输入文本的虚拟主播图像序列,所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;
需要说明的是,上述步骤103与步骤102是同步进行的,没有时间上的先后顺序。
步骤104,同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。
在实际应用中,可以利用所述虚拟主播音视频数据进行直播。
前面提到,所述生物状态合成模型可以是针对单一局部生物状态的模型,也可以是针对多个局部生物状态的模型。
如果采用针对单一局部生物状态的生物状态合成模型,比如唇形模型,在这种情况下,为了增加虚拟主播图像的生动性,提高视觉效果,还可以在最终生成的虚拟主播状态图像中叠加上其它局部生物状态的变化状态,比如随机添加眼部状态变化图像,使最终呈现的虚拟主播图像不仅有随音频变化唇形变化的视觉效果,而且具有眨眼睛的视觉效果。进一步地,还可以预先针对虚拟主播对应对象录制一些背景图像,生成背景图像序列,比如虚拟主播头部动作图像序列、虚拟主播手部动作图像序列,将所述背景图像序列同步叠加到所述虚拟主播图像序列中,可以使直播图像更具真人效果。
另外,如果采用针对单一局部生物状态的生物状态合成模型,在对采集的视频数据处理时,可以仅标注相应局部生物特征参数,进一步减少训练数据量,提高处理速度。相应地,在进行图像合成时,可以预先获取虚拟主播对应对象图片;抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;然后,利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,即可得到对应所述输入文本的虚拟主播图像序列。
本发明实施例提供的虚拟主播实现方法,在接收到输入文本后,利用预先基于同一时长模型构建的语音合成模型和生物状态合成模型,分别得到对应所述输入文本的语音序列及虚拟主播图像序列;然后同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。由于采用了同样的时长模型,从而可以保证语音与虚拟主播图像状态对应的更符合真人状态,使画面更自然、流畅,提高了视觉效果。
进一步地,可以通过抠取局部图像,大大降低了图像合成处理中的数据量,提高了处理速度,从而使本发明方案不仅可以对离线文本实现虚拟主播,而且可以对实时输入文本实现虚拟主播的直播,不会出现画面卡顿现象。
相应地,本发明实施例还提供一种虚拟主播实现装置,如图2所示,是该装置的一种框图,包括以下各模块:
接收模块202,用于接收输入文本;
语音合成模块203,用于利用预先构建的语音合成模型得到对应所述输入文本的语音序列;
图像合成模块204,用于利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列;
叠加处理模块205,用于同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。
上述各模型可以由模型构建模块(未图示)预先利用采集的音频数据及视频数据来构建,所述模型构建模块可以集成于本发明装置中,也可以独立于本发明装置,对此不做限定。
所述模型构建模块具体可以包括以下各模块:
数据采集模块,用于采集音频数据及视频数据;
时长模型构建模块,用于构建时长模型;
语音合成模型构建模块,用于基于所述时长模型构建语音合成模型;
生物状态合成模型构建模块,用于基于所述时长模型构建生物状态合成模型。
需要说明的是,所述时长模型是基于发音单元的模型,用来预测每个发音单元持续的时长。所述发音单元可以是音节、音素、状态等,对此本发明实施例不做限定。所述时长模型的构建可以采用现有技术,比如利用统计方法或模型方法等。
另外,在本发明实施例中,需要基于同一时长模型来构建所述语音合成模型和生物状态合成模型,以保证音、视频更好地同步,提高视觉效果。
在实际应用中,所述数据采集模块采集的音频、视频数据可以是所述虚拟主播对应对象的同步音频数据和视频数据,也就是说,同步录制真人的音频数据和视频数据。当然,在训练语音合成模型时,还需要得到对应所述音频数据的文本数据。为了进一步提高语音合成效果,还可以另外单独采集一些所述虚拟主播对应对象的语音数据,以增加训练数据量。
在训练语音合成模型时,可以仅将同步录制的音频数据作为训练数据,也可以将同步录制的音频数据以及单独录制的音频数据作为训练数据,以提高训练数据的数量,得到更准确的模型参数。同样,所述语音合成模型的训练也可以采用现有技术,对此不再详细描述。
所述生物状态合成模型构建模块具体可以包括以下各单元:
信息标注单元,用于将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注及类别标注;对所述音频数据进行语音参数标注;所述生物特征参数和所述语音参数中均包括基于所述时长模型确定的时长参数;
特征提取单元,用于分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数;
训练单元,用于利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
需要说明的是,所述生物状态合成模型可以是针对单一局部生物状态的模型,比如,唇形模型、眼位模型等;也可以是针对多个局部生物状态的模型,比如面部表情模型。
本发明实施例提供的虚拟主播实现装置,利用预先基于同一时长模型构建的语音合成模型和生物状态合成模型,在接收到输入文本后,分别得到对应所述输入文本的语音序列及虚拟主播图像序列;然后同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据。由于采用了同样的时长模型,从而可以保证语音与虚拟主播图像状态对应的更符合真人状态,使画面更自然、流畅,提高了视觉效果。
如图3所示,是本发明虚拟主播实现装置的另一种框图。
与图2所示实施例不同的是,在该实施例中,所述装置还包括:
背景图像采集模块301,用于预先录制背景图像序列,比如虚拟主播头部动作图像序列、虚拟主播手部动作图像序列等。
相应地,在该实施例中,所述叠加处理模块205可以同步叠加所述语音序列、所述背景图像序列及所述虚拟主播图像序列。
通过叠加背景图像,进一步增加了虚拟主播图像的生动性,提高了视觉效果。
如图4所示,是本发明虚拟主播实现装置的另一种框图。
与图2所示实施例不同的是,在该实施例中,所述装置还包括:
图片处理模块401,用于获取虚拟主播对应对象图片,并抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;
相应地,在该实施例中,所述图像合成模块204可以包括以下各单元:
特定生物状态图像生成单元,用于利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;
图像叠加单元,用于将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,得到对应所述输入文本的虚拟主播图像序列。
上述图片处理模块401同样可以应用于上述图3所示实施例中。
该实施例提供的虚拟主播实现装置,不仅可以保证语音与虚拟主播图像状态对应的更符合真人状态,使画面更自然、流畅,而且通过抠取局部图像,大大降低了图像合成处理中的数据量,提高了处理速度,从而使本发明方案不仅可以对离线文本实现虚拟主播,而且可以对实时输入文本实现虚拟主播。
图5是根据一示例性实施例示出的一种实现虚拟主播的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类别的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类别的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理***,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述按键误触纠错方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本发明还提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述本发明方法实施例中的全部或部分步骤。
图6是本发明实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(CentralProcessing Units,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作***1941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种虚拟主播实现方法,其特征在于,所述方法包括:
接收输入文本;
利用预先构建的语音合成模型得到对应所述输入文本的语音序列,利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列,所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据;
所述方法还包括:
利用采集的音频数据及视频数据构建所述生物状态合成模型;
所述利用采集的音频数据及视频数据构建生物状态合成模型包括:
将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注及类别标注,对所述音频数据进行语音参数标注;所述生物特征参数和所述语音参数中均包括基于所述时长模型确定的时长参数;
分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数;
利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
利用采集的音频数据及视频数据构建所述时长模型以及语音合成模型。
3.根据权利要求2所述的方法,其特征在于,所述音频数据和视频数据包括:所述虚拟主播对应对象的同步音频数据和视频数据。
4.根据权利要求3所述的方法,其特征在于,所述音频数据还包括:
所述虚拟主播对应对象的纯音频数据。
5.根据权利要求1所述的方法,其特征在于,所述生物状态合成模型包括;唇形模型和/或眼位模型。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取虚拟主播对应对象图片;
抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;
所述利用所述生物状态合成模型得到对应所述输入文本的虚拟主播图像序列包括:
利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;
将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,得到对应所述输入文本的虚拟主播图像序列。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述方法还包括:
预先录制背景图像序列;
所述同步叠加所述语音序列及所述虚拟主播图像序列的步骤包括:
同步叠加所述语音序列、所述背景图像序列及所述虚拟主播图像序列。
8.根据权利要求7所述的方法,其特征在于,所述背景图像序列至少包括如下任一项:
虚拟主播头部动作图像序列;
虚拟主播手部动作图像序列。
9.一种虚拟主播实现装置,其特征在于,所述装置包括:
接收模块,用于接收输入文本;
语音合成模块,用于利用预先构建的语音合成模型得到对应所述输入文本的语音序列;
图像合成模块,用于利用预先构建的生物状态合成模型得到对应所述输入文本的虚拟主播图像序列;所述生物状态合成模型与所述语音合成模型是基于同一时长模型构建的;
叠加处理模块,用于同步叠加所述语音序列及所述虚拟主播图像序列,得到虚拟主播音视频数据;
所述装置还包括:
模型构建模块,用于利用采集的音频数据及视频数据构建所述生物状态合成模型;
所述模型构建模块包括:
生物状态合成模型构建模块,用于基于所述时长模型构建生物状态合成模型;
所述生物状态合成模型构建模块包括:
信息标注单元,用于将同步采集的音频数据和视频数据作为训练数据,并对所述视频数据进行生物特征参数标注及类别标注;对所述音频数据进行语音参数标注;所述生物特征参数和所述语音参数中均包括基于所述时长模型确定的时长参数;
特征提取单元,用于分别提取所述训练数据中音频数据的语音参数及视频数据的生物特征参数;
训练单元,用于利用所述语音参数、生物特征参数、以及标注信息,训练得到生物状态合成模型。
10.根据权利要求9所述的装置,其特征在于,所述模型构建模块,还用于利用采集的音频数据及视频数据构建所述时长模型以及语音合成模型;
所述模型构建模块还包括:
数据采集模块,用于采集音频数据及视频数据;
时长模型构建模块,用于构建时长模型;
语音合成模型构建模块,用于基于所述时长模型构建语音合成模型。
11.根据权利要求10所述的装置,其特征在于,所述音频数据和视频数据包括:所述虚拟主播对应对象的同步音频数据和视频数据。
12.根据权利要求11所述的装置,其特征在于,所述音频数据还包括:
所述虚拟主播对应对象的纯音频数据。
13.根据权利要求9所述的装置,其特征在于,所述生物状态合成模型包括;唇形模型和/或眼位模型。
14.根据权利要求9所述的装置,其特征在于,所述装置还包括:
图片处理模块,用于获取虚拟主播对应对象图片,并抠取所述图片中特定生物区域,得到特定生物区域图像及抠像后的图像;
所述图像合成模块包括:
特定生物状态图像生成单元,用于利用所述生物状态合成模型得到对应所述输入文本的虚拟主播特定生物状态图像序列;
图像叠加单元,用于将所述抠像后的图像叠加到所述虚拟主播特定生物状态图像序列中的每个图像中,得到对应所述输入文本的虚拟主播图像序列。
15.根据权利要求9至14任一项所述的装置,其特征在于,所述装置还包括:
背景图像采集模块,用于预先录制背景图像序列;
所述叠加处理模块,用于同步叠加所述语音序列、所述背景图像序列及所述虚拟主播图像序列。
16.根据权利要求15所述的装置,其特征在于,所述背景图像序列至少包括如下任一项:
虚拟主播头部动作图像序列;
虚拟主播手部动作图像序列。
17.一种电子设备,其特征在于,包括:一个或多个处理器、存储器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现如权利要求1至8任一项所述的方法。
18.一种可读存储介质,其上存储有指令,所述指令被执行以实现如权利要求1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811320949.4A CN109637518B (zh) | 2018-11-07 | 2018-11-07 | 虚拟主播实现方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811320949.4A CN109637518B (zh) | 2018-11-07 | 2018-11-07 | 虚拟主播实现方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109637518A CN109637518A (zh) | 2019-04-16 |
CN109637518B true CN109637518B (zh) | 2022-05-24 |
Family
ID=66067462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811320949.4A Active CN109637518B (zh) | 2018-11-07 | 2018-11-07 | 虚拟主播实现方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109637518B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347867B (zh) * | 2019-07-16 | 2022-04-19 | 北京百度网讯科技有限公司 | 用于生成嘴唇动作视频的方法和装置 |
CN110493613B (zh) * | 2019-08-16 | 2020-05-19 | 江苏遨信科技有限公司 | 一种视频音唇同步的合成方法及*** |
CN110534085B (zh) * | 2019-08-29 | 2022-02-25 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN111050187B (zh) * | 2019-12-09 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 一种虚拟视频处理的方法、装置及存储介质 |
CN110913259A (zh) * | 2019-12-11 | 2020-03-24 | 百度在线网络技术(北京)有限公司 | 视频播放方法、装置、电子设备和介质 |
CN111010586B (zh) * | 2019-12-19 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 基于人工智能的直播方法、装置、设备及存储介质 |
CN111010589B (zh) * | 2019-12-19 | 2022-02-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的直播方法、装置、设备及存储介质 |
CN111369967B (zh) * | 2020-03-11 | 2021-03-05 | 北京字节跳动网络技术有限公司 | 基于虚拟人物的语音合成方法、装置、介质及设备 |
CN111508467A (zh) * | 2020-04-13 | 2020-08-07 | 湖南声广信息科技有限公司 | 一种音乐广播电台主持语音拼接方法 |
CN113689879B (zh) * | 2020-05-18 | 2024-05-14 | 北京搜狗科技发展有限公司 | 实时驱动虚拟人的方法、装置、电子设备及介质 |
CN111883107B (zh) * | 2020-08-03 | 2022-09-16 | 北京字节跳动网络技术有限公司 | 语音合成、特征提取模型训练方法、装置、介质及设备 |
CN112002005A (zh) * | 2020-08-25 | 2020-11-27 | 成都威爱新经济技术研究院有限公司 | 一种基于云端的远程虚拟协同主持的方法 |
CN112820265B (zh) * | 2020-09-14 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
CN112233210B (zh) * | 2020-09-14 | 2024-06-07 | 北京百度网讯科技有限公司 | 生成虚拟人物视频的方法、装置、设备和计算机存储介质 |
CN112333179B (zh) | 2020-10-30 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 虚拟视频的直播方法、装置、设备及可读存储介质 |
CN112420014A (zh) * | 2020-11-17 | 2021-02-26 | 平安科技(深圳)有限公司 | 虚拟人脸构建方法、装置、计算机设备及计算机可读介质 |
CN112560622B (zh) * | 2020-12-08 | 2023-07-21 | 中国联合网络通信集团有限公司 | 虚拟对象动作控制方法、装置及电子设备 |
CN112633110B (zh) * | 2020-12-16 | 2024-02-13 | 中国联合网络通信集团有限公司 | 数据处理方法和装置 |
CN112770062B (zh) * | 2020-12-22 | 2024-03-08 | 北京奇艺世纪科技有限公司 | 一种图像生成方法及装置 |
CN112887747B (zh) * | 2021-01-25 | 2023-09-12 | 百果园技术(新加坡)有限公司 | 直播间控制方法、装置及电子设备 |
CN113570686A (zh) * | 2021-02-07 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 虚拟视频直播处理方法及装置、存储介质、电子设备 |
CN113178206B (zh) * | 2021-04-22 | 2022-05-31 | 内蒙古大学 | Ai合成主播生成方法、电子设备及可读存储介质 |
CN113642394B (zh) * | 2021-07-07 | 2024-06-11 | 北京搜狗科技发展有限公司 | 一种虚拟对象的动作处理方法、装置和介质 |
CN113891150A (zh) * | 2021-09-24 | 2022-01-04 | 北京搜狗科技发展有限公司 | 一种视频处理方法、装置和介质 |
CN114630144A (zh) * | 2022-03-03 | 2022-06-14 | 广州方硅信息技术有限公司 | 直播间内的音频替换方法、***、装置及计算机设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218842A (zh) * | 2013-03-12 | 2013-07-24 | 西南交通大学 | 一种语音同步驱动三维人脸口型与面部姿势动画的方法 |
CN106653052A (zh) * | 2016-12-29 | 2017-05-10 | Tcl集团股份有限公司 | 虚拟人脸动画的生成方法及装置 |
CN107170030A (zh) * | 2017-05-31 | 2017-09-15 | 珠海金山网络游戏科技有限公司 | 一种虚拟主播直播方法及*** |
CN107277599A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的直播方法、装置和*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8224652B2 (en) * | 2008-09-26 | 2012-07-17 | Microsoft Corporation | Speech and text driven HMM-based body animation synthesis |
-
2018
- 2018-11-07 CN CN201811320949.4A patent/CN109637518B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218842A (zh) * | 2013-03-12 | 2013-07-24 | 西南交通大学 | 一种语音同步驱动三维人脸口型与面部姿势动画的方法 |
CN106653052A (zh) * | 2016-12-29 | 2017-05-10 | Tcl集团股份有限公司 | 虚拟人脸动画的生成方法及装置 |
CN107170030A (zh) * | 2017-05-31 | 2017-09-15 | 珠海金山网络游戏科技有限公司 | 一种虚拟主播直播方法及*** |
CN107277599A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的直播方法、装置和*** |
Also Published As
Publication number | Publication date |
---|---|
CN109637518A (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109637518B (zh) | 虚拟主播实现方法及装置 | |
US11503377B2 (en) | Method and electronic device for processing data | |
CN109446876B (zh) | 手语信息处理方法、装置、电子设备和可读存储介质 | |
CN108363706B (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
US20170304735A1 (en) | Method and Apparatus for Performing Live Broadcast on Game | |
CN112199016B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN109429078B (zh) | 视频处理方法和装置、用于视频处理的装置 | |
WO2019153925A1 (zh) | 一种搜索方法及相关装置 | |
CN111954063B (zh) | 视频直播间的内容显示控制方法及装置 | |
WO2022198934A1 (zh) | 卡点视频的生成方法及装置 | |
CN113691833B (zh) | 虚拟主播换脸方法、装置、电子设备及存储介质 | |
EP3340077B1 (en) | Method and apparatus for inputting expression information | |
CN110490164B (zh) | 生成虚拟表情的方法、装置、设备及介质 | |
EP4300431A1 (en) | Action processing method and apparatus for virtual object, and storage medium | |
US20210029304A1 (en) | Methods for generating video, electronic device and storage medium | |
CN109033423A (zh) | 同传字幕显示方法及装置、智能会议方法、装置及*** | |
CN110730360A (zh) | 视频上传、播放的方法、装置、客户端设备及存储介质 | |
CN110990534A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN113806570A (zh) | 图像生成方法和生成装置、电子设备和存储介质 | |
WO2021232875A1 (zh) | 一种驱动数字人的方法、装置及电子设备 | |
KR20130096983A (ko) | 얼굴을 포함하는 영상 처리 방법 및 장치 | |
CN111145080B (zh) | 一种图像生成模型的训练方法、图像生成方法及装置 | |
CN105635573B (zh) | 摄像头视角调整方法和装置 | |
CN111698532B (zh) | 弹幕信息的处理方法及装置 | |
CN110636377A (zh) | 视频处理方法、装置、存储介质、终端及服务器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |