CN112562721B - 一种视频翻译方法、***、装置及存储介质 - Google Patents
一种视频翻译方法、***、装置及存储介质 Download PDFInfo
- Publication number
- CN112562721B CN112562721B CN202011375314.1A CN202011375314A CN112562721B CN 112562721 B CN112562721 B CN 112562721B CN 202011375314 A CN202011375314 A CN 202011375314A CN 112562721 B CN112562721 B CN 112562721B
- Authority
- CN
- China
- Prior art keywords
- video
- voice
- synthesized
- text
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000013519 translation Methods 0.000 title claims abstract description 50
- 239000012634 fragment Substances 0.000 claims abstract description 57
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 56
- 230000001360 synchronised effect Effects 0.000 claims description 20
- 230000009471 action Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 4
- 230000000875 corresponding effect Effects 0.000 claims 9
- 230000002596 correlated effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 abstract description 14
- 238000004891 communication Methods 0.000 abstract description 4
- 230000004888 barrier function Effects 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/043—Time compression or expansion by changing speed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明公开了一种视频翻译方法、***、装置及存储介质,其中方法包括以下步骤:获取视频数据;对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段;对所述语音片段进行语音识别,获得第一文本,对所述第一文本进行翻译,获得第二文本;根据所述第二文本获取合成语音,通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配;检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配。本发明实现了对视频自动翻译的功能,能够生成目标语言声音的音频,并生成声音与唇形匹配的视频,解决了不同语种间的交流障碍,无需人工配音,降低了翻译成本,可广泛应用于视频处理领域。
Description
技术领域
本发明涉及视频处理领域,尤其涉及一种视频翻译方法、***、装置及存储介质。
背景技术
随着互联网的不断发展,视频已经成为信息传递的新载体。但不同语种的客观存在,使信息在交流中遇到了较大阻碍,而目前的解决方法则大多是用添加指定语言字幕或使用人工配音的方式。基于目前的方法,仍存在以下几个缺点:(1)字幕会使观众的注意力集中于文字信息上,容易忽视整体画面;(2)配音需要配音者按照新语种的剧本重新录音,要求其掌握专业技能并擅长目标语言,对配音者要求极高;(3)配音与视频人物的声音不甚相同,缺少原声韵味;(4)配音直接叠加于原始视频后,相对语音会有不同步的嘴唇运动,从而导致较差的用户观感。
发明内容
为至少一定程度上解决现有技术中存在的技术问题之一,本发明的目的在于提供一种视频翻译方法、***、装置及存储介质。
本发明所采用的技术方案是:
一种视频翻译方法,包括以下步骤:
获取视频数据;
对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段;
对所述语音片段进行语音识别,获得第一文本,对所述第一文本进行翻译,获得第二文本;
根据所述第二文本获取合成语音,通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配;
检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配;
其中,所述语音片段记录有起始时间和说话人编号。
进一步,所述对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段,包括:
从所述视频数据中获取音频数据,根据所述音频数据获取语音数据;
对所述语音数据进行分割,获得多个所述语音片段,根据所述语音片段获取与之时间上对应的所述视频片段;
提取所述语音片段的特征向量,对提取到的所述特征向量进行聚类,确定说话人的数量,以及为每一个说话人配置编号;
记录每一个所述语音片段的所述起始时间和所述说话人编号。
进一步,所述对所述语音片段进行语音识别,获得第一文本,包括:
对所述语音片段进行语音增强后再进行语音识别,获得第一文本。
进一步,所述根据所述第二文本获取合成语音,包括:
将所述第二文本输入训练好的多对多模型,获得待转换音频;
分离所述语音片段的内容特征以提取说话人特征;
将所述说话人特征与所述待转换音频的内容特征相结合获得频谱图,采用声码器将所述频谱图生成合成语音。
进一步,所述根据所述第二文本获取合成语音,包括:
预先训练获得说话人风格模型,将说话人编号输入所述说话人风格模型,输出说话人风格编码向量;
根据所述第二文本获取字符发音编码向量,将所述字符发音编码向量与所述说话人风格编码向量进行拼接,获得拼接向量;
将所述拼接向量输入预先训练好的解码模型进行解码,获得声音频谱图,采用声码器将所述声音频谱图生成合成语音。
进一步,所述通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配,包括
比较所述合成语音的时间长度和所述视频片段的时间长度,确定变速参数;
对所述视频片段中的人物动作进行检测,根据动作幅度大小调整所述变速参数;
根据调整后的所述变速参数对合成语音和所述视频片段进行调整,以使所述合成语音的时间长度和所述视频片段的时间长度一致。
进一步,所述检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配,包括:
对所述视频片段中说话人的人脸区域进行检测,获得人脸位置信息;
将所述人脸位置信息向下巴方向延伸多个像素,获取人脸区域图像;
将所述人脸区域图像中包含唇形的下半部分的像素全置于0,以及从所述人脸区域图像选择参考帧,所述参考帧用于编码人物特征信息;
将像素处理后的所述人脸区域图像和所述参考帧进行编码,获得第一个n维的向量,将所述合成语音进行编码,获得第二个n维的向量;
将两个n维的向量进行拼接,将拼接后的向量输入基于生成对抗网络的人物唇形生成模型,获得上半部分与原始图像一致,下半部分与所述合成语音同步的唇形。
进一步,所述对所述视频片段中说话人的人脸区域进行检测,获得人脸位置信息,包括:
采用比较连续帧的颜色直方图的方法进行镜头检测,将所述视频片段切分成多个镜头;
采用第一预设模型对所述镜头进行人脸检测,得到每个所述镜头的每一帧的人脸框;
采用交并比的计算方法,对检测到的所述人脸框进行分组并平滑处理;
采用第二预设模型对分好组的所述人脸框及所述人脸框对应的所述语音片段进行同步检测,获得人脸位置信息。
本发明所采用的另一技术方案是:
一种视频翻译***,包括:
数据获取模块,用于获取视频数据;
数据分割模块,用于对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段;
语音翻译模块,用于对所述语音片段进行语音识别,获得第一文本,对所述第一文本进行翻译,获得第二文本;
长度调整模块,用于根据所述第二文本获取合成语音,通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配;
唇形调整模块,用于检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配;
其中,所述语音片段记录有起始时间和说话人编号。
本发明所采用的另一技术方案是:
一种视频翻译装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上所述一种视频翻译方法。
本发明所采用的另一技术方案是:
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行如上所述一种视频翻译方法。
本发明的有益效果是:本发明实现了对视频自动翻译的功能,能够生成目标语言声音的音频,并生成声音与唇形匹配的视频,解决了不同语种间的交流障碍,无需人工配音,降低了翻译成本。
附图说明
为了更清楚地说明本发明实施例或者现有技术中的技术方案,下面对本发明实施例或者现有技术中的相关技术方案附图作以下介绍,应当理解的是,下面介绍中的附图仅仅为了方便清晰表述本发明的技术方案中的部分实施例,对于本领域的技术人员而言,在无需付出创造性劳动的前提下,还可以根据这些附图获取到其他附图。
图1是本发明实施例中一种视频翻译方法的步骤流程图;
图2是本发明实施例中一种视频翻译方法的结构示意图;
图3是本发明实施例中一种视频翻译方法中预处理的结构示意图;
图4是本发明实施例中语音片段记录的示意图;
图5是本发明实施例中语音片段语音识别的示意图;
图6是本发明实施例中语音片段文本翻译的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
如图1所示,本实施例提供了一种视频翻译方法,包括以下步骤:
S0、获取视频数据。
该视频数据包括电影、演讲、访谈、新闻联播以及电视综艺节目等数据,这些数据包括视频画面数据和音频数据(包括人的语音声音和其他声音)。
S1、对视频数据进行语音分割,获得语音片段以及与语音片段对应的视频片段;其中,语音片段记录有起始时间和说话人编号。
其中,步骤S1包括步骤S11-S14:
S11、从视频数据中获取音频数据,根据音频数据获取语音数据;
S12、对语音数据进行分割,获得多个语音片段,根据语音片段获取与之时间上对应的视频片段;
S13、提取语音片段的特征向量(embedding特征向量,例如i-vector、d-vector等),对提取到的特征向量进行聚类,确定说话人的数量,以及为每一个说话人配置编号;
S14、记录每一个语音片段的起始时间和说话人编号。
语音及说话人分割可采用以下方式实现:(1)首先进行语音分割,将非语音部分(比如背景音乐、自然环境中的声音(如风、交通杂声)或动物的叫声等)去除,剩下人的话语部分,将输入的话语分割成小段。(2)从分割好的语音片段提取embedding特征向量,例如i-vector、 d-vector等。(3)对每个语音片段提取的embedding进行聚类,确定说话人的数量,并将说话人的身份分配给每个片段。(4)重新分割,通过强制附加约束,进一步细化分类结果,并记录时间点。
具体采用了一个无界交错状态的回归神经网络(uis-rnn),每个说话者由一个RNN(神经网络)实例建模,这些实例具有相同的参数。可以生成无界数量的RNN实例,将不同的RNN实例的状态(对应不同的说话者)在时域中交叉。通过贝叶斯非参数过程自动学习每个语音中说话者的数量,并通过RNN携带时间序列上的信息,对说话者进行聚类。
S2、对语音片段进行语音识别,获得第一文本,对第一文本进行翻译,获得第二文本。
使用语音翻译文字技术,对语音片段进行识别,得到一句句识别的文字。
语音识别(speech to text)采用了一个由卷积层、循环层和全连接层三个部分组成的神经网络模型,输入要识别的语音,归一化后转换成为频谱图,输入模型,模型输出识别出来的文本。进一步作为可选的实施方式,在对语音片段进行识别前,先对语音片段进行语音增强处理,从而提高语音识别的准确度。
使用文本翻译技术,将语音识别到的文本(即第一文本)转换成目标语言的文本(即第二文本)。
在本实施例中,文本翻译采用了M2M-100模型,该模型不依赖以英语为中心的数据,可以实现100种语言之间的相互翻译(100x100个语言对)。采用了多样化的多对多MMT数据集(跨越100种语言的75亿句子对)进行训练。本实施例提出了一种新的桥梁挖掘(bridgemining)策略,其中按照语言分类、地域和文化相似性将100种语言分成了14个语系。并用一个超大的神经网络进行训练(150亿个参数的MMT模型)。
S3、根据第二文本获取合成语音,通过调整合成语音和与之对应的视频片段,使合成语音与视频片段匹配。
通过上述步骤S1和S2,获得切割好的语音及其对应的说话人编号、翻译好的文本和时间信息。用时间信息对视频进行切割,可以得到对应的视频片段。为了提高观众的观看体验,需要合成语音与原视频说话人的声音相似,可采用多种方式实现这种效果,以下列举两种实现方式,这里应该注意的是,不仅以下列举的方式,其他方式同样适用于本方案,都应该属于本方案的保护范围之内。
第一种实施方式,包括步骤A1-A3:
A1、将第二文本输入训练好的多对多模型,获得待转换音频;
A2、分离语音片段的内容特征以提取说话人特征;
A3、将说话人特征与待转换音频的内容特征相结合获得频谱图,采用声码器将频谱图生成合成语音。
该实现方式为基于深度学习的通过文本生成特定说话人语音的方法,该方法采用训练好的多对多模型,输入文本生成待转换音频,分离原始音频中的内容特征来提取说话人特征(一个256维向量),然后将说话人特征与待转换音频的内容特征相结合生成频谱图,再利用 WaveNet等声码器生成语音。
第二种实施方式,包括步骤B1-B3:
B1、预先训练获得说话人风格模型,将说话人编号输入说话人风格模型,输出说话人风格编码向量;
B2、根据第二文本获取字符发音编码向量,将字符发音编码向量与说话人风格编码向量进行拼接,获得拼接向量;
B3、将拼接向量输入预先训练好的解码模型进行解码,获得声音频谱图,采用声码器将声音频谱图生成合成语音。
该实现方式由指定说话人跨语言的语音合成模型来实现,具体步骤如下:采用多人多语言数据集训练的基于注意力机制的自编码-解码模型和说话人风格编码器。输入说话人对应编号,输出说话人风格编码向量。输入段落文本,输出字符发音编码向量,与说话人风格编码向量拼接。拼接好的说话人风格编码向量和字符发音编码向量输入自编码-解码模型,进行解码,输出声音频谱图,最后基于声音频谱图使用声码器合成语音。
为了避免合成语音播放完,而画面中的人物口型还在说话,给观众带来突兀感,需要使合成语音与原始视频片段的时间长度不一致,为解决该问题,本实施例采用一种合成语音与原始视频长度匹配方法,对合成语音与其对应视频及进行变速。具体步骤如步骤C1-C3:
C1、比较合成语音的时间长度和视频片段的时间长度,确定变速参数;
C2、对视频片段中的人物动作进行检测,根据动作幅度大小调整变速参数;
C3、根据调整后的变速参数对合成语音和视频片段进行调整,以使合成语音的时间长度和视频片段的时间长度一致。
通过比较视频及语音长度,确定变速参数;对人物动作进行检测,根据动作幅度大小,对视频不同片段进行不同的变速参数调整(比如动作幅度较大的,变速参数可调大些,而动作幅度较小的,变速参数可调小些);分别对视频和合成语音进行变速处理,得到长度匹配的合成语音及视频。
S4、检测并调整视频片段中的唇形,以使唇形与合成语音同步匹配。
其中,步骤S4包括步骤S41-S45:
S41、对视频片段中说话人的人脸区域进行检测,获得人脸位置信息;
S42、将人脸位置信息向下巴方向延伸多个像素,获取人脸区域图像;
S43、将人脸区域图像中包含唇形的下半部分的像素全置于0,以及从人脸区域图像选择参考帧,参考帧用于编码人物特征信息;
S44、将像素处理后的人脸区域图像和参考帧进行编码,获得第一个n维的向量,将合成语音进行编码,获得第二个n维的向量;
S45、将两个n维的向量进行拼接,将拼接后的向量输入基于生成对抗网络的人物唇形生成模型,获得上半部分与原始图像一致,下半部分与合成语音同步的唇形。
步骤S41具体包括步骤S411-S414:
S411、采用比较连续帧的颜色直方图的方法进行镜头检测,将视频片段切分成多个镜头;
S412、采用第一预设模型对镜头进行人脸检测,得到每个镜头的每一帧的人脸框;
S413、采用交并比的计算方法,对检测到的人脸框进行分组并平滑处理;
S414、采用第二预设模型对分好组的人脸框及人脸框对应的语音片段进行同步检测,获得人脸位置信息。
由于不同的语种发音不同,为了避免合成语音会与原始视频的人物唇形不同步的问题(比如发音是张唇,而画面却是闭唇),需要对原始视频进行查找,找到与原始语音唇形同步的说话人人脸区域,然后生成与合成语音同步的唇形,替换掉原始视频中说话人的唇形。其中,采用了一种视频中说话人定位的方法,来查找与原始语音唇形同步的说话人人脸区域;采用一种高清视频人物同步唇形的生成方法,生成新的与合成语音同步的唇形。
具体地,一种视频中说话人定位的方法具体步骤如下:
步骤一:视频片段中可能由多个镜头组成,可能是由过场片段、素材、人物画面等组成。采用比较连续帧的颜色直方图的方法进行镜头检测,将视频片段切分成多个镜头;
步骤二:采用S3FD模型(即第一预设模型)进行人脸检测,得到每个镜头的每一帧的人脸框;
步骤三:采用交并比的计算方法,对检测到的人脸框进行分组并平滑;
步骤四:采用SyncNet模型(即第二预设模型),输入分好组的人脸框及其对应的原始语音进行同步检测;即可以得到与原始语音匹配的说话人人脸区域,用于后续的唇形替换。
一种高清视频人物同步唇形的生成方法,具体步骤如下:
步骤一:通过一种视频中说话人定位的方法得到了说话人的人脸区域,将得到的人脸位置信息向下巴方向延伸5-50个像素,确保人脸检测框能够覆盖整个人脸。
步骤二:对人脸区域图像进行预处理,将每一帧图像包含唇形的下半部分全置于0,让基于条件GAN(生成对抗网络)来生成补全唇形图像。同时从人脸区域图像中选择参考帧,用于编码人物特征信息,即得到了下半部分为0的待生成人脸区域序列和参考帧。
步骤三:对图像及语音进行编码,图像和语音分别输入各自的卷积神经网络,分别得到一个n维的向量;
步骤四:将得到的图像及语音的两个向量进行拼接得到(n,2)的向量,输入训练好的基于条件GAN(生成对抗网络)的高清人物唇形生成模型,可以得到上半部分与原始图像一致,下半部分与合成语音同步的唇形,最后与合成语音合并成视频。
以下结合图2-图6对上述视频翻译方法进行详细解释说明。该视频翻译方法的主要流程为:输入需要翻译的视频,然后经过一个前处理模块,切分成一句句翻译好的文字片段,以及对应的音频片段,视频片段,如图3所示。然后经过说话人定位、语音与视频长度匹配及指定说话人的文本到语音三个模块,生成说话人人脸区域的视频片段及合成语音片段;输入到人物唇部同步视频生成模块,合成并拼接视频,最后生成翻译好的视频,如图2所示。
一种视频翻译方法,包括以下步骤:
步骤一:输入待翻译的视频,并提取其音频。
步骤二:通过说话人分割技术,对提取的音频进行处理,将非语音部分去除,分割成一段段语音片段,并标记每句话的说话人、起始和结束的时间点,如图4所示。
步骤三:通过语音识别技术,将分割好的语音识别成一句句文本,如图5所示。
步骤四:通过文本翻译技术,将语音识别的文本,翻译成目标语言的文本,得到翻译好的文本片段,如图6所示。
步骤五:通过获取到的时间节点,有每句话的起始和结束的时间,可以对视频和提取的音频进行剪辑,得到每句文本与其对应的音频片段和视频片段。
步骤六:通过一种视频中说话人定位的方法,输入音频片段及视频片段,可以得到需要修改的人脸区域视频片段。
步骤七:通过一种指定说话人的文本到语音的方法,将翻译好的文本和说话人编号,生成和指定说话人同样声音的语音。
步骤八:通过一种合成语音与原始视频长度匹配的方法,对语音片段和视频片段进行变速计算,获得语音和视频的速度参数,返回步骤七,重新调整合成语音的语速,和用FFMPEG 对视频片段进行变速,得到变速的语音和视频对。
步骤九:通过一种高清视频人物同步唇形的生成方法,输入变速的语音和视频对,生成语音与唇形匹配的高清视频。
输入视频,通过前处理模块,可以得到处理好的切割好的语音及其对应的说话人编号、翻译好的文本和时间信息;用时间信息对视频进行切割,我们可以得到对应的视频片段(步骤一至步骤五)。因为视频翻译的需要生成目标语言的合成语音,将会有以下几个问题需要解决:
(1)合成语音需要与原视频说话人相似的声音;
(2)合成语音与原始视频片段长度不一致;
(3)合成语音会与原始视频的人物唇形不同步。
在本实施例中,针对问题(1),采用一种基于深度学习的通过文本生成特定说话人语音的方法或指定说话人跨语言的语音合成模型合成与指定说话人相似的声音的语音。
一种基于深度学习的通过文本生成特定说话人语音的方法,具体步骤如下:采用训练好的多对多模型,输入文本生成待转换音频,分离原始音频中的内容特征以提取说话人特征(一个256维向量),然后将说话人特征与待转换音频的内容特征相结合生成频谱图,再利用WaveNet等声码器生成语音。
指定说话人跨语言的语音合成模型,具体步骤如下:采用多人多语言数据集训练的基于注意力机制的自编码-解码模型和说话人风格编码器。输入说话人对应编号,输出说话人风格编码向量。输入段落文本,输出字符发音编码向量,与说话人风格编码向量拼接。输入拼接好的说话人风格编码向量和字符发音编码向量,解码,输出声音频谱图,最后使用声码器合成语音。
针对问题(2),采用了一种合成语音与原始视频长度匹配方法,对合成语音与其对应视频及进行变速。具体步骤如下:通过比较视频及语音长度,确定变速参数;对人物动作进行检测,根据动作幅度大小,对视频不同片段进行不同的变速参数调整;分别对视频和合成语音进行变速处理,得到长度匹配的合成语音及视频。针对问题(3),需要对原始视频进行查找,找到与原始语音唇形同步的说话人人脸区域,然后生成与合成语音同步的唇形,替换掉原始视频中说话人的唇形。其中,采用了一种视频中说话人定位的方法,来查找与原始语音唇形同步的说话人人脸区域;采用一种高清视频人物同步唇形的生成方法,生成新的与合成语音同步的唇形。
综上所述,本实施例的方法相对于现有技术,具有如下有益效果:
(1)、本实施例实现了对视频的翻译功能,能够生成目标语言且同样人物声音的音频,并生成声音与唇形匹配的视频,解决了不同语种间的交流障碍。
(2)、具有自动化:只需输入原始视频即可,不需要额外提供字幕,时间信息,就可以得到分割好的语音及其对应的说话人编号、翻译好的文本、时间信息。
(3)、可以指定说话人,合成与原始视频说话人声音相似的语音,提升观众体验。
(4)、更自然的语音及视频变速,用于匹配合成语音及原始视频长度,避免出现画面与语音不同步的突兀。
(5)、能对多人交替说话的视频自动定位说话人人脸区域,例如两个人讲相声,可以检测出每个字的说话人的人脸区域,用于唇形替换,避免嘴唇画面与语音发音不同步的突兀。
(6)、生成与合成语音同步的高清唇形图像,替换掉原始视频说话人的唇形。
本实施例还提供一种视频翻译***,包括:
数据获取模块,用于获取视频数据;
数据分割模块,用于对视频数据进行语音分割,获得语音片段以及与语音片段对应的视频片段;
语音翻译模块,用于对语音片段进行语音识别,获得第一文本,对第一文本进行翻译,获得第二文本;
长度调整模块,用于根据第二文本获取合成语音,通过调整合成语音和与之对应的视频片段,使合成语音与视频片段匹配;
唇形调整模块,用于检测并调整视频片段中的唇形,以使唇形与合成语音同步匹配;
其中,语音片段记录有起始时间和说话人编号。
本实施例的一种视频翻译***,可执行本发明方法实施例所提供的一种视频翻译方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还提供一种视频翻译装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现图1所示的一种视频翻译方法。
本实施例的一种视频翻译装置,可执行本发明方法实施例所提供的一种视频翻译方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本申请实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行图1所示的一种视频翻译方法。
本实施例还提供了一种存储介质,存储有可执行本发明方法实施例所提供的一种视频翻译方法的指令或程序,当运行该指令或程序时,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM, Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的上述描述中,参考术语“一个实施方式/实施例”、“另一实施方式/实施例”或“某些实施方式/实施例”等的描述意指结合实施方式或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施方式,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施方式进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于上述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (9)
1.一种视频翻译方法,其特征在于,包括以下步骤:
获取视频数据;
对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段;
对所述语音片段进行语音识别,获得第一文本,对所述第一文本进行翻译,获得第二文本;
根据所述第二文本获取合成语音,通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配;
检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配;
其中,所述语音片段记录有起始时间和说话人编号;
所述通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配,包括
比较所述合成语音的时间长度和所述视频片段的时间长度,确定变速参数;
对所述视频片段中的人物动作进行检测,根据动作幅度大小调整所述变速参数;其中,所述变速参数的大小与所述动作幅度的大小正相关;
根据调整后的所述变速参数对合成语音和所述视频片段进行调整,以使所述合成语音的时间长度和所述视频片段的时间长度一致。
2.根据权利要求1所述的一种视频翻译方法,其特征在于,所述对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段,包括:
从所述视频数据中获取音频数据,根据所述音频数据获取语音数据;
对所述语音数据进行分割,获得多个所述语音片段,根据所述语音片段获取与之时间上对应的所述视频片段;
提取所述语音片段的特征向量,对提取到的所述特征向量进行聚类,确定说话人的数量,
以及为每一个说话人配置编号;
记录每一个所述语音片段的所述起始时间和所述说话人编号。
3.根据权利要求1所述的一种视频翻译方法,其特征在于,所述根据所述第二文本获取合成语音,包括:
将所述第二文本输入训练好的多对多模型,获得待转换音频;
分离所述语音片段的内容特征以提取说话人特征;
将所述说话人特征与所述待转换音频的内容特征相结合获得频谱图,采用声码器将所述频谱图生成合成语音。
4.根据权利要求1所述的一种视频翻译方法,其特征在于,所述根据所述第二文本获取合成语音,包括:
预先训练获得说话人风格模型,将说话人编号输入所述说话人风格模型,输出说话人风格编码向量;
根据所述第二文本获取字符发音编码向量,将所述字符发音编码向量与所述说话人风格编码向量进行拼接,获得拼接向量;
将所述拼接向量输入预先训练好的解码模型进行解码,获得声音频谱图,采用声码器将所述声音频谱图生成合成语音。
5.根据权利要求1所述的一种视频翻译方法,其特征在于,所述检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配,包括:
对所述视频片段中说话人的人脸区域进行检测,获得人脸位置信息;
将所述人脸位置信息向下巴方向延伸多个像素,获取人脸区域图像;
将所述人脸区域图像中包含唇形的下半部分的像素全置于0,以及从所述人脸区域图像选择参考帧,所述参考帧用于编码人物特征信息;
将像素处理后的所述人脸区域图像和所述参考帧进行编码,获得第一个n维的向量,将所述合成语音进行编码,获得第二个n维的向量;
将两个n维的向量进行拼接,将拼接后的向量输入基于生成对抗网络的人物唇形生成模型,获得上半部分与原始图像一致,下半部分与所述合成语音同步的唇形。
6.根据权利要求5所述的一种视频翻译方法,其特征在于,所述对所述视频片段中说话人的人脸区域进行检测,获得人脸位置信息,包括:
采用比较连续帧的颜色直方图的方法进行镜头检测,将所述视频片段切分成多个镜头;
采用第一预设模型对所述镜头进行人脸检测,得到每个所述镜头的每一帧的人脸框;
采用交并比的计算方法,对检测到的所述人脸框进行分组并平滑处理;
采用第二预设模型对分好组的所述人脸框及所述人脸框对应的所述语音片段进行同步检测,获得人脸位置信息。
7.一种视频翻译***,其特征在于,包括:
数据获取模块,用于获取视频数据;
数据分割模块,用于对所述视频数据进行语音分割,获得语音片段以及与所述语音片段对应的视频片段;
语音翻译模块,用于对所述语音片段进行语音识别,获得第一文本,对所述第一文本进行翻译,获得第二文本;
长度调整模块,用于根据所述第二文本获取合成语音,通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配;
唇形调整模块,用于检测并调整所述视频片段中的唇形,以使所述唇形与所述合成语音同步匹配;
其中,所述语音片段记录有起始时间和说话人编号;
所述通过调整所述合成语音和与之对应的所述视频片段,使所述合成语音与所述视频片段匹配,包括
比较所述合成语音的时间长度和所述视频片段的时间长度,确定变速参数;
对所述视频片段中的人物动作进行检测,根据动作幅度大小调整所述变速参数;其中,所述变速参数的大小与所述动作幅度的大小正相关;
根据调整后的所述变速参数对合成语音和所述视频片段进行调整,以使所述合成语音的时间长度和所述视频片段的时间长度一致。
8.一种视频翻译装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现权利要求1-6任一项所述的一种视频翻译方法。
9.一种存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行如权利要求1-6任一项所述的一种视频翻译方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011375314.1A CN112562721B (zh) | 2020-11-30 | 2020-11-30 | 一种视频翻译方法、***、装置及存储介质 |
PCT/CN2020/136743 WO2022110354A1 (zh) | 2020-11-30 | 2020-12-16 | 一种视频翻译方法、***、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011375314.1A CN112562721B (zh) | 2020-11-30 | 2020-11-30 | 一种视频翻译方法、***、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112562721A CN112562721A (zh) | 2021-03-26 |
CN112562721B true CN112562721B (zh) | 2024-04-16 |
Family
ID=75045508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011375314.1A Active CN112562721B (zh) | 2020-11-30 | 2020-11-30 | 一种视频翻译方法、***、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112562721B (zh) |
WO (1) | WO2022110354A1 (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11587591B2 (en) * | 2021-04-06 | 2023-02-21 | Ebay Inc. | Identifying and removing restricted information from videos |
CN113194348B (zh) * | 2021-04-22 | 2022-07-22 | 清华珠三角研究院 | 一种虚拟人讲课视频生成方法、***、装置及存储介质 |
CN113259778A (zh) * | 2021-04-22 | 2021-08-13 | 清华珠三角研究院 | 将虚拟人物用于视频自动生产的方法、***和存储介质 |
CN113192161B (zh) * | 2021-04-22 | 2022-10-18 | 清华珠三角研究院 | 一种虚拟人形象视频生成方法、***、装置及存储介质 |
CN113179449B (zh) * | 2021-04-22 | 2022-04-12 | 清华珠三角研究院 | 语音及动作驱动图像的方法、***、装置及存储介质 |
CN113132797A (zh) * | 2021-04-22 | 2021-07-16 | 北京房江湖科技有限公司 | 视频生成方法和装置、计算机可读存储介质、电子设备 |
CN113207044A (zh) * | 2021-04-29 | 2021-08-03 | 北京有竹居网络技术有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN113329190B (zh) * | 2021-05-27 | 2022-04-08 | 深圳市点维文化传播有限公司 | 一种动漫设计视频制作分析管理方法、设备、***及计算机存储介质 |
CN113379572A (zh) * | 2021-06-07 | 2021-09-10 | 北京房江湖科技有限公司 | 房源讲解方法和装置、计算机可读存储介质、电子设备 |
CN113380269B (zh) * | 2021-06-08 | 2023-01-10 | 北京百度网讯科技有限公司 | 视频图像生成方法、装置、设备、介质和计算机程序产品 |
CN113572978A (zh) | 2021-07-30 | 2021-10-29 | 北京房江湖科技有限公司 | 全景视频的生成方法和装置 |
CN113721704A (zh) * | 2021-08-30 | 2021-11-30 | 成都华栖云科技有限公司 | 一种视频流的同声传译***及其实现方法 |
CN113722513B (zh) * | 2021-09-06 | 2022-12-20 | 抖音视界有限公司 | 多媒体数据的处理方法及设备 |
CN113823300B (zh) * | 2021-09-18 | 2024-03-22 | 京东方科技集团股份有限公司 | 语音处理方法及装置、存储介质、电子设备 |
US20230093405A1 (en) * | 2021-09-23 | 2023-03-23 | International Business Machines Corporation | Optimization of lip syncing in natural language translated video |
CN113923521B (zh) * | 2021-12-14 | 2022-03-08 | 深圳市大头兄弟科技有限公司 | 一种视频的脚本化方法 |
CN115174825A (zh) * | 2022-06-30 | 2022-10-11 | 北京有竹居网络技术有限公司 | 一种配音方法、装置、电子设备以及存储介质 |
CN115278111A (zh) * | 2022-07-20 | 2022-11-01 | 武汉简视科技有限公司 | 一种视频机器配音的方法、装置、设备及可读介质 |
CN114945075B (zh) * | 2022-07-26 | 2022-11-04 | 中广智诚科技(天津)有限公司 | 一种视频内容同步新配音音频内容的方法及装置 |
CN115643466A (zh) * | 2022-09-09 | 2023-01-24 | 阿里巴巴(中国)有限公司 | 视频处理方法及电子设备 |
CN115312029B (zh) * | 2022-10-12 | 2023-01-31 | 之江实验室 | 一种基于语音深度表征映射的语音翻译方法及*** |
CN116248974A (zh) * | 2022-12-29 | 2023-06-09 | 南京硅基智能科技有限公司 | 一种视频语言转化的方法和*** |
CN116564336A (zh) * | 2023-05-15 | 2023-08-08 | 珠海盈米基金销售有限公司 | 一种ai交互方法、***、装置及介质 |
CN117253486A (zh) * | 2023-09-22 | 2023-12-19 | 北京中科金财科技股份有限公司 | 一种基于深度学习的实时多语言处理的直播方法及*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103873808A (zh) * | 2012-12-13 | 2014-06-18 | 联想(北京)有限公司 | 数据处理的方法和装置 |
CN104239394A (zh) * | 2013-06-18 | 2014-12-24 | 三星电子株式会社 | 包括显示装置和服务器的翻译***及其控制方法 |
CN108566558A (zh) * | 2018-04-24 | 2018-09-21 | 腾讯科技(深圳)有限公司 | 视频流处理方法、装置、计算机设备及存储介质 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和*** |
KR20190114150A (ko) * | 2018-03-29 | 2019-10-10 | 네오사피엔스 주식회사 | 비디오 번역 및 립싱크 방법 및 시스템 |
CN111356010A (zh) * | 2020-04-01 | 2020-06-30 | 上海依图信息技术有限公司 | 一种获取音频最适播放速度的方法与*** |
CN111760265A (zh) * | 2020-06-24 | 2020-10-13 | 北京字节跳动网络技术有限公司 | 一种操作控制的方法及装置 |
CN111916053A (zh) * | 2020-08-17 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
CN111953922A (zh) * | 2019-05-16 | 2020-11-17 | 南宁富桂精密工业有限公司 | 视频会议的人脸辨识方法、服务器及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9619891B2 (en) * | 2010-08-26 | 2017-04-11 | Blast Motion Inc. | Event analysis and tagging system |
US8655152B2 (en) * | 2012-01-31 | 2014-02-18 | Golden Monkey Entertainment | Method and system of presenting foreign films in a native language |
JP2014035541A (ja) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム |
KR101378811B1 (ko) * | 2012-09-18 | 2014-03-28 | 김상철 | 단어 자동 번역에 기초한 입술 모양 변경 장치 및 방법 |
-
2020
- 2020-11-30 CN CN202011375314.1A patent/CN112562721B/zh active Active
- 2020-12-16 WO PCT/CN2020/136743 patent/WO2022110354A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103873808A (zh) * | 2012-12-13 | 2014-06-18 | 联想(北京)有限公司 | 数据处理的方法和装置 |
CN104239394A (zh) * | 2013-06-18 | 2014-12-24 | 三星电子株式会社 | 包括显示装置和服务器的翻译***及其控制方法 |
KR20190114150A (ko) * | 2018-03-29 | 2019-10-10 | 네오사피엔스 주식회사 | 비디오 번역 및 립싱크 방법 및 시스템 |
CN108566558A (zh) * | 2018-04-24 | 2018-09-21 | 腾讯科技(深圳)有限公司 | 视频流处理方法、装置、计算机设备及存储介质 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和*** |
CN111953922A (zh) * | 2019-05-16 | 2020-11-17 | 南宁富桂精密工业有限公司 | 视频会议的人脸辨识方法、服务器及计算机可读存储介质 |
CN111356010A (zh) * | 2020-04-01 | 2020-06-30 | 上海依图信息技术有限公司 | 一种获取音频最适播放速度的方法与*** |
CN111760265A (zh) * | 2020-06-24 | 2020-10-13 | 北京字节跳动网络技术有限公司 | 一种操作控制的方法及装置 |
CN111916053A (zh) * | 2020-08-17 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语音生成方法、装置、设备和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112562721A (zh) | 2021-03-26 |
WO2022110354A1 (zh) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112562721B (zh) | 一种视频翻译方法、***、装置及存储介质 | |
CN113192161B (zh) | 一种虚拟人形象视频生成方法、***、装置及存储介质 | |
CN112562720B (zh) | 一种唇形同步的视频生成方法、装置、设备及存储介质 | |
CN113194348B (zh) | 一种虚拟人讲课视频生成方法、***、装置及存储介质 | |
Hong et al. | Dynamic captioning: video accessibility enhancement for hearing impairment | |
CN114401438B (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
Sargin et al. | Analysis of head gesture and prosody patterns for prosody-driven head-gesture animation | |
Pan et al. | Selective listening by synchronizing speech with lips | |
CN113077537B (zh) | 一种视频生成方法、存储介质及设备 | |
CN118043884A (zh) | 音频和视频转换器 | |
US9905221B2 (en) | Automatic generation of a database for speech recognition from video captions | |
CN112800263A (zh) | 一种基于人工智能的视频合成***、方法及介质 | |
JP2023155209A (ja) | ビデオ翻訳プラットフォーム | |
Oghbaie et al. | Advances and challenges in deep lip reading | |
Liz-Lopez et al. | Generation and detection of manipulated multimodal audiovisual content: Advances, trends and open challenges | |
Taylor et al. | A mouth full of words: Visually consistent acoustic redubbing | |
CN116828129A (zh) | 一种超清2d数字人生成方法及*** | |
KR102541008B1 (ko) | 화면해설 컨텐츠를 제작하는 방법 및 장치 | |
KR102555698B1 (ko) | 인공지능을 이용한 자동 자막 동기화 방법 및 장치 | |
Jitaru et al. | Lrro: a lip reading data set for the under-resourced romanian language | |
CN116561294A (zh) | 手语视频的生成方法、装置、计算机设备及存储介质 | |
Fernandez-Lopez et al. | Optimizing phoneme-to-viseme mapping for continuous lip-reading in spanish | |
Sahrawat et al. | " Notic My Speech"--Blending Speech Patterns With Multimedia | |
Meyer et al. | What Do Classifiers Actually Learn? a Case Study on Emotion Recognition Datasets. | |
Kadam et al. | A Survey of Audio Synthesis and Lip-syncing for Synthetic Video Generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |