KR20200145315A - Method of predicting lip position for synthesizing a person's speech video based on modified cnn - Google Patents
Method of predicting lip position for synthesizing a person's speech video based on modified cnn Download PDFInfo
- Publication number
- KR20200145315A KR20200145315A KR1020190074167A KR20190074167A KR20200145315A KR 20200145315 A KR20200145315 A KR 20200145315A KR 1020190074167 A KR1020190074167 A KR 1020190074167A KR 20190074167 A KR20190074167 A KR 20190074167A KR 20200145315 A KR20200145315 A KR 20200145315A
- Authority
- KR
- South Korea
- Prior art keywords
- cnn
- predicting
- present disclosure
- synthesizing
- image
- Prior art date
Links
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 title claims description 17
- 230000001364 causal effect Effects 0.000 claims abstract description 11
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims 2
- 230000008859 change Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시는, 특정 인물의 말하는 영상 합성에 관한 것으로, 보다 구체적으로는 해당 인물의 말하는 영상 합성을 위하여 입술 위치를 예측하는 방법 등에 관한 것이다.The present disclosure relates to synthesizing a spoken image of a specific person, and more specifically, to a method of predicting a lip position for synthesizing a speaking image of a corresponding person.
근래, 인공지능 분야 기술 발전에 따라, 다양한 유형의 컨텐츠가 인공지능 기술에 기초하여 생성되어 활용되고 있다. 그러한 흐름의 일환으로서, 최근에는 어떤 전달하고자 하는 메시지가 있을 때, 그러한 메시지를 특정한 인물, 예컨대 어떤 유명 인물이 마치 그러한 메시지를 말하는 것과 같은 영상을 생성하여 제공함으로써 사람들의 주의를 끌고자 하는 경우가 있다. 특정 인물에 관한 영상을 기초로, 그 특정 인물이 마치 어떤 특정한 말을 하는 것처럼 (실제로는 그러한 말을 하지 않았음에도) 입모양 등을 그 특정한 말에 맞게 생성함으로써, 해당 인물이 그 말을 하는 것과 같은 동영상을 합성하는 기술이 관심을 모으고 있다. In recent years, with the development of technology in the field of artificial intelligence, various types of contents are created and utilized based on artificial intelligence technology. As part of such a trend, recently, when there is a message to be conveyed, there are cases in which such a message is intended to attract people's attention by creating and providing a video that looks as if a certain person, for example, a famous person speaks such a message. have. Based on the video about a specific person, by creating a mouth shape or the like according to the specific speech, as if the specific person was saying a specific word (even though he didn’t actually say such a word), Technology that synthesizes the same video is attracting attention.
이와 관련하여, 복수의 말하는 영상 데이터들로부터 각 음성 신호별로 그 영상 상의 얼굴에서 입술 등 발화와 관련된 얼굴 부분의 좌표를 따고, 그 좌표 값 학습 및 예측을 통해, 음성 신호가 주어질 경우 그에 맞는 영상 합성시 해당 음성에 맞게 입모양을 위 좌표 값 예측의 적용에 의해 출력해주는 방식이 있다(예컨대, http://grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf, https://arxiv.org/pdf/1801.01442.pdf, https://www.youtube.com/watch?v=9Yq67Cj Dqvw, https://ritheshkumar.com/obamanet/ 등을 참조할 수 있음). 이러한 종래의 딥러닝 모델 방식은, 배경이 된 영상에서 입 부분만 까맣게 가린 다음, 음성에 기초한 좌표를 출력하고 그 영상의 가려진 부분에 입술 좌표를 얹고 이를 더해서 영상을 합성하는 모델에 넣어 최종적으로 그 음성에 대한 합성된 비디오 영상이 나오는 구조를 따른다. 즉, 종래에는, 먼저 음성과 관련된 랜드마크 또는 키포인트를 먼저 생성한 후 그 정보를 이용해서 영상을 이미지를 합성하는 두 단계 과정을 거쳐야 했다.In this regard, the coordinates of the face part related to speech, such as lips, are obtained from the face on the image for each voice signal from a plurality of spoken image data, and through learning and prediction of the coordinate value, the appropriate image synthesis when a voice signal is given. There is a method of outputting the shape of the mouth by applying the above coordinate value prediction according to the corresponding voice (eg, http://grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf, https://arxiv. org/pdf/1801.01442.pdf, https://www.youtube.com/watch?v=9Yq67Cj Dqvw, https://ritheshkumar.com/obamanet/, etc.). In such a conventional deep learning model method, only the mouth part is covered in the background image, then the coordinates based on the voice are output, and the lip coordinates are placed on the hidden part of the image, and then added to the model to synthesize the image. It follows the structure in which the synthesized video image of voice appears. That is, in the prior art, a landmark or key point related to a voice was first created, and then a two-step process was required to synthesize an image by using the information.
통상적으로, 이러한 말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측하는 경우, 어떤 음성은 그 앞부분이 현재의 발화의 맥락에 영향을 미치기 때문에 앞부분을 고려해서 현재 입모양을 예측해야 한다. 아울러, 실험적으로는 또한 뒤에 오는 부분도 현재의 입모양에 약간의 영향을 줄 수 있으므로, 그 일부 뒷부분의 내용도 현재의 입모양 예측에 고려될 필요가 있다. 이러한 관점에서, 종래의 입술 좌표 등의 예측을 위해서는, LSTM RNN 모델에 기초하여 그러한 입술 좌표 등의 키포인트를 예측하는 모델이 주로 이용되어 왔다. 그런데, 실제 LSTM RNN 모델에 따르는 경우, 입모양의 변화가 느리고 변화가 크지 않아서 생동감이 떨어지는 문제가 있어 왔다. 또한, LSTM RNN 모델에 의할 경우, 입을 완벽하게 다물지 않는 경우가 있어서 그러한 점도 문제로 지적되어 왔다.In general, when predicting key points such as lip coordinates for synthesizing speech images, the shape of the current mouth should be predicted by considering the front part of some voices because the front part of the voice influences the context of the current speech. In addition, experimentally, the following part may have a slight influence on the current mouth shape, so the content of the part of the back part needs to be considered in the current mouth shape prediction. From this point of view, for the conventional prediction of lip coordinates or the like, a model for predicting key points such as lip coordinates based on an LSTM RNN model has been mainly used. However, in the case of the actual LSTM RNN model, there has been a problem that the change in the shape of the mouth is slow and the change is not large, resulting in a loss of vitality. In addition, in the case of the LSTM RNN model, it has been pointed out as a problem because there are cases where the mouth is not completely closed.
본 개시는, 발화와 관련된 이미지 정보, 예컨대 입술 좌표 등의 예측에 있어서, 변화가 좀 더 빠르고 정확한 신경망 모델을 제공하고자 한다. The present disclosure is intended to provide a neural network model that changes faster and more accurately in prediction of image information related to speech, such as lip coordinates.
본 개시에 의하면, 말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측함에 있어서, 기존의 LSTM RNN 모델을 대신하여 변형된 CNN을 적용한다.According to the present disclosure, in predicting key points such as lip coordinates for synthesizing an image, a modified CNN is applied instead of the existing LSTM RNN model.
본 개시에 의하면, 말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측을 위하여 이용되는 CNN은, 주로 앞부분, 즉 이전 부분을 고려하되 현재 이후의 뒷부분도 약간은 고려할 수 있게 비대칭으로 정보를 고려하도록 변형된 CNN 형태일 수 있다. 본 개시에 의하면, 주어진 입력은, 은닉층을 올라가면서 정보가 점점 합쳐질 수 있고, 이전 데이터와의 인과 관계를 고려하여 현재의 타겟값을 예측하는 인과적 CNN 형태에 의해 원하는 키포인트, 즉 타겟값의 예측에 이용될 수 있다.According to the present disclosure, the CNN used for predicting key points, such as lip coordinates for synthesizing an image, is modified to consider information asymmetrically so that the front part, that is, the previous part, is mainly considered, but the latter part is also slightly considered. It may be in the form of CNN. According to the present disclosure, a given input can be gradually combined with information as it goes up the hidden layer, and prediction of a desired key point, that is, a target value by a causal CNN form that predicts the current target value by considering a causal relationship with previous data. Can be used for
본 개시에 의하면, 비대칭적으로 구성된 CNN을 통해 입술 위치 등 키포인트를 예측함으로써, 종래 RNN 방식에 의하는 경우에 비해 결과적인 합성 영상에서의 입모양의 움직임이 크고 빠르게 변화할 수 있다.According to the present disclosure, by predicting a key point such as a lip position through an asymmetrically configured CNN, the movement of a mouth shape in a resultant composite image can be large and rapidly changed compared to the case of a conventional RNN method.
도 1은, 종래 기술에 다른 LSTM RNN 방식에 의하여 입술 위치 등을 예측하는 과정을 개략적으로 보여주는 도면이다.
도 2는, 본 개시에 따른, 비대칭적 변형된 CNN 방식에 의하여, 말하는 영상 합성을 위한 인물의 입술 위치 등을 예측하는 과정을 개략적으로 보여주는 도면이다. 1 is a diagram schematically showing a process of predicting a lip position and the like according to an LSTM RNN scheme different from the prior art.
FIG. 2 is a diagram schematically illustrating a process of predicting a position of a person's lips for synthesizing a talking image using an asymmetrically modified CNN method according to the present disclosure.
이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Hereinafter, when it is determined that there is a possibility that the subject matter of the present disclosure may be unnecessarily obscured, detailed descriptions of functions and configurations already known are omitted. In addition, it should be understood that the contents described below are only related to an embodiment of the present disclosure, and the present disclosure is not limited thereto.
본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.The terms used in the present disclosure are only used to describe specific embodiments, and are not intended to limit the present disclosure. For example, a component expressed in the singular should be understood as a concept including a plurality of components unless the context clearly means only the singular. It is to be understood that the term "and/or" as used in this disclosure encompasses any and all possible combinations by one or more of the listed items. The terms "comprise" or "have" used in the present disclosure are only intended to designate the existence of features, numbers, steps, actions, components, parts, or a combination thereof described in the present disclosure. It is not intended to exclude the possibility of the presence or addition of one or more other features or numbers, steps, actions, components, parts, or combinations thereof by use.
본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In an embodiment of the present disclosure, a'module' or'unit' means a functional part that performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of'modules' or'units' may be integrated into at least one software module and implemented by at least one processor, except for'modules' or'units' that need to be implemented with specific hardware. have.
말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측하는 경우, 어떤 음성은 그 앞부분이 현재의 발화의 맥락에 영향을 미치기 때문에 앞부분을 고려해서 현재 입모양을 예측해야 한다. 또한 뒤에 오는 부분도 현재의 입모양에 약간의 영향을 줄 수 있으므로, 그 일부 뒷부분의 내용도 현재의 입모양 예측에 고려될 필요가 있다. 이러한 관점에서, 종래의 입술 좌표 등의 예측을 위해서는, LSTM RNN 모델에 기초하여 그러한 입술 좌표 등의 키포인트를 예측하는 모델이 주로 이용되어 왔는데, 실제 이러한 LSTM RNN 모델에 따르는 경우, 입모양의 변화가 느리고 변화가 크지 않아서 생동감이 떨어지는 문제가 있어 왔다. When predicting key points such as lip coordinates for synthesizing speech images, the shape of the current mouth should be predicted by considering the front part because the front part of the voice affects the context of the current speech. In addition, since the following part may have some influence on the current mouth shape, the content of the latter part needs to be considered in the current mouth shape prediction. From this point of view, for the conventional prediction of lip coordinates, etc., a model that predicts key points such as lip coordinates based on the LSTM RNN model has been mainly used.In fact, when the LSTM RNN model is followed, the change in the shape of the mouth There has been a problem that it is slow and the change is not so great that the liveliness decreases.
본 개시는, 종래의 LSTM에 의한 시간-지연 방식의 로스(손실)을 구성하는 방식을 대신하여, CNN 방식으로 발화와 관련된 이미지 정보, 예컨대 입술 좌표 등의 예측에 있어서, 변화가 좀 더 빠르고 정확한 신경망 모델을 제공할 수 있다. 본 개시에 의하면, 말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측함에 있어서, 기존의 LSTM RNN 모델을 대신하여 변형된 CNN을 적용한다.In the present disclosure, instead of the method of configuring the loss (loss) of the time-delay method according to the conventional LSTM, in the prediction of image information related to speech, such as lip coordinates, in the CNN method, the change is faster and more accurate. Neural network model can be provided. According to the present disclosure, in predicting key points such as lip coordinates for synthesizing an image, a modified CNN is applied instead of the existing LSTM RNN model.
참고로, RNN(Recurrent Neural Network)는 이전 스텝의 출력 값이 다시 입력으로 연결되는 순환 신경망으로서, 시계열 데이터 분석에 주로 사용된다. LSTM(Long Short-Term Memory)는 RNN 계열의 네트워크로서 RNN의 구조에 장/단기 기억을 가능하게 설계한 신경망 구조이다. CNN(Convolution Neural Network)는 여러 계층의 컨볼루셔널 계층을 붙인 네트워크를 말한다.For reference, a recurrent neural network (RNN) is a recurrent neural network in which an output value of a previous step is connected to an input again, and is mainly used for time series data analysis. LSTM (Long Short-Term Memory) is a network of RNN series, and is a neural network structure designed to enable long/short memory in the structure of RNN. CNN (Convolution Neural Network) refers to a network to which multiple layers of convolutional layers are attached.
본 개시에 의하면, 말하는 영상 합성을 위한 입술 좌표 등 키포인트를 예측을 위하여 이용되는 CNN은, 주로 앞부분, 즉 이전 부분을 고려하되 현재 이후의 뒷부분도 약간은 고려할 수 있게 비대칭으로 정보를 고려하도록 변형된 CNN 형태일 수 있다. 따라서, 본 개시의 CNN은 인과적 CNN(Causal CNN)이라고 할 수 있다. 본 개시에 따른 인과적 CNN에 의하면, 주어진 입력은, 은닉층을 올라가면서 정보가 점점 합쳐질 수 있고, 따라서 이전 데이터와의 인과 관계를 고려하여 현재의 타겟값이 예측될 수 있다. 본 개시의 실시예에 의하면, 또한 인과적 CNN은 Auto-Regressive, 즉 과거 예측 값을 기반으로 현재의 타겟값을 예측하는 특징을 가질 수 있다. 본 개시에 의하면, 비대칭적으로 구성된 CNN을 통해 입술 위치 등 키포인트를 예측함으로써, 종래 RNN 방식에 의하는 경우에 비해 결과적인 합성 영상에서의 입모양의 움직임이 크고 빠르게 변화할 수 있다.According to the present disclosure, the CNN used for predicting key points, such as lip coordinates for synthesizing an image, is modified to consider information asymmetrically so that the front part, that is, the previous part, is mainly considered, but the latter part is also slightly considered. It may be in the form of CNN. Accordingly, the CNN of the present disclosure may be referred to as a causal CNN. According to the causal CNN according to the present disclosure, information may be gradually combined as a given input goes up the hidden layer, and thus a current target value may be predicted in consideration of a causal relationship with previous data. According to an embodiment of the present disclosure, the causal CNN may also have a feature of predicting a current target value based on an auto-regressive, that is, a past predicted value. According to the present disclosure, by predicting a key point such as a lip position through an asymmetrically configured CNN, the movement of a mouth shape in a resultant composite image can be large and rapidly changed compared to the case of a conventional RNN method.
당업자라면 알 수 있듯이, 본 개시가 본 명세서에 기술된 예시에 한정되는 것이 아니라 본 개시의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 본 명세서에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있음을 알아야 한다.As will be appreciated by those skilled in the art, the present disclosure is not limited to the examples described herein, but may be variously modified, reconfigured, and substituted without departing from the scope of the present disclosure. It should be understood that the various techniques described herein may be implemented by hardware or software, or a combination of hardware and software.
본 개시의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있다. 본 개시의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.A computer program according to an embodiment of the present disclosure includes a storage medium readable by a computer processor, such as EPROM, EEPROM, a nonvolatile memory such as a flash memory device, a magnetic disk such as an internal hard disk and a removable disk, a magneto-optical disk, and It can be implemented in a form stored in various types of storage media, including a CDROM disk. Further, the program code(s) may be implemented in assembly language or machine language. It is intended to cover all modifications and changes belonging to the true spirit and scope of the present disclosure by the following claims.
Claims (3)
상기 소정 인물에 관한 배경 영상을 수신하는 단계;
음성 데이터를 수신하는 단계;
상기 음성 데이터로부터 상기 음성 데이터에 대응하는 일련의 핵심 좌표들을 획득하는 단계; 및
상기 획득된 일련의 핵심 좌표들을 이용해서, 상기 배경 영상으로부터 상기 말하는 영상을 합성하는 단계를 포함하고,
상기 일련의 핵심 좌표들을 획득하는 단계는 인과적 CNN 신경망 모델에 기초하여 수행되는, 인물 영상 합성 방법.As a method of synthesizing a talking image of a predetermined person according to a neural network model,
Receiving a background image of the predetermined person;
Receiving voice data;
Acquiring a series of core coordinates corresponding to the voice data from the voice data; And
Using the obtained series of core coordinates, comprising the step of synthesizing the talking image from the background image,
The step of obtaining the set of core coordinates is performed based on a causal CNN neural network model.
상기 일련의 핵심 좌표들은, 상기 소정 인물에 관한 일련의 입술 좌표들인, 인물 영상 합성 방법. The method of claim 1,
The series of core coordinates are a series of lip coordinates related to the predetermined person.
상기 인과적 CNN 신경망 모델은, 이전 데이터와의 인과 관계를 고려하여 현재 데이터를 예측하도록 구성된, 인물 영상 합성 방법.The method of claim 1,
The causal CNN neural network model is configured to predict current data in consideration of a causal relationship with previous data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190074167A KR20200145315A (en) | 2019-06-21 | 2019-06-21 | Method of predicting lip position for synthesizing a person's speech video based on modified cnn |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190074167A KR20200145315A (en) | 2019-06-21 | 2019-06-21 | Method of predicting lip position for synthesizing a person's speech video based on modified cnn |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200145315A true KR20200145315A (en) | 2020-12-30 |
Family
ID=74087736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190074167A KR20200145315A (en) | 2019-06-21 | 2019-06-21 | Method of predicting lip position for synthesizing a person's speech video based on modified cnn |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200145315A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096223A (en) * | 2021-04-25 | 2021-07-09 | 北京大米科技有限公司 | Image generation method, storage medium, and electronic device |
KR20230027744A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Personal digitalization device and method using artificial neural network |
KR20230027746A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Apparatus and method for synthesizing animation style using artificial neural network |
KR20230027745A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Apparatus and method for creating virtual influencers using artificial neural networks |
-
2019
- 2019-06-21 KR KR1020190074167A patent/KR20200145315A/en unknown
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096223A (en) * | 2021-04-25 | 2021-07-09 | 北京大米科技有限公司 | Image generation method, storage medium, and electronic device |
KR20230027744A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Personal digitalization device and method using artificial neural network |
KR20230027746A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Apparatus and method for synthesizing animation style using artificial neural network |
KR20230027745A (en) | 2021-08-20 | 2023-02-28 | (주)라이언로켓 | Apparatus and method for creating virtual influencers using artificial neural networks |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200145315A (en) | Method of predicting lip position for synthesizing a person's speech video based on modified cnn | |
Sadoughi et al. | Speech-driven animation with meaningful behaviors | |
US20210248801A1 (en) | Style-aware audio-driven talking head animation from a single image | |
US9818409B2 (en) | Context-dependent modeling of phonemes | |
US9552811B2 (en) | Speech recognition system and a method of using dynamic bayesian network models | |
US7388586B2 (en) | Method and apparatus for animation of a human speaker | |
US20230118412A1 (en) | Stylizing Text-to-Speech (TTS) Voice Response for Assistant Systems | |
US11545136B2 (en) | System and method using parameterized speech synthesis to train acoustic models | |
CN115362497A (en) | Sequence-to-sequence speech recognition with delay threshold | |
US11544886B2 (en) | Generating digital avatar | |
CN113299312B (en) | Image generation method, device, equipment and storage medium | |
JP2022530726A (en) | Interactive target drive methods, devices, devices, and recording media | |
US11983808B2 (en) | Conversation-driven character animation | |
WO2023046016A1 (en) | Optimization of lip syncing in natural language translated video | |
Yu et al. | Mining audio, text and visual information for talking face generation | |
Majumder et al. | Active audio-visual separation of dynamic sound sources | |
CN116934953A (en) | Method, device, computing equipment and system for driving virtual person to speak and model training | |
CN114882862A (en) | Voice processing method and related equipment | |
US11301870B2 (en) | Method and apparatus for facilitating turn-based interactions between agents and customers of an enterprise | |
US20230419579A1 (en) | Three-dimensional face animation from speech | |
KR20230130580A (en) | Autonomous generation, deployment, and personalization of real-time interactive digital agents | |
Liu et al. | Real-time speech-driven animation of expressive talking faces | |
CN114627898A (en) | Voice conversion method, apparatus, computer device, storage medium and program product | |
CN116615731A (en) | Hybrid data enhancement for knowledge distillation framework | |
US11889168B1 (en) | Systems and methods for generating a video summary of a virtual event |