BRPI0904540B1 - método para animar rostos/cabeças/personagens virtuais via processamento de voz - Google Patents

método para animar rostos/cabeças/personagens virtuais via processamento de voz Download PDF

Info

Publication number
BRPI0904540B1
BRPI0904540B1 BRPI0904540-6A BRPI0904540A BRPI0904540B1 BR PI0904540 B1 BRPI0904540 B1 BR PI0904540B1 BR PI0904540 A BRPI0904540 A BR PI0904540A BR PI0904540 B1 BRPI0904540 B1 BR PI0904540B1
Authority
BR
Brazil
Prior art keywords
animation
fact
recognition
facial
energy
Prior art date
Application number
BRPI0904540-6A
Other languages
English (en)
Inventor
Paulo Cesar Cortez
Rodrigo Carvalho Souza Costa
Robson Da Silva Siqueira
Cincinato Furtado Leite Neto
Fabio Cisne Ribeiro
Francisco José Marques Anselmo
Raphael Torres Santos Carvalho
Antonio Carlos Da Silva Barros
César Lincoln Cavalcante Mattos
Jose Marques Soares
Original Assignee
Samsung Eletrônica Da Amazônia Ltda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Eletrônica Da Amazônia Ltda filed Critical Samsung Eletrônica Da Amazônia Ltda
Priority to BRPI0904540-6A priority Critical patent/BRPI0904540B1/pt
Priority to US12/819,164 priority patent/US8725507B2/en
Publication of BRPI0904540A2 publication Critical patent/BRPI0904540A2/pt
Publication of BRPI0904540B1 publication Critical patent/BRPI0904540B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0356Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for synchronising with other signals, e.g. video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

MÉTODO DE SÍNTESE DE MOVIMENTO LABIAL PARA ANIMAÇÃO DE CABEÇAS VIRTUAIS ATRAVÉS DO PROCESSAMENTO DE VOZ EM DISPOSITIVOS PORTÁTEIS. Aspectos da presente invenção especificam um método de comunicação utilizando um humanóide virtual animado durante chamadas convencionais. De acordo com a presente invenção, a animação é feita utilizando um sistema de reconhecimento das vogais faladas para animação dos lábios, associado ao reconhecimento de tons DTMF para animação dos movimentos da cabeça e feições faciais. Esse sistema se diferencia dos sistemas conhecidos por usar técnicas computacionalmente eficientes. Isto implica em um trabalho de otimização e ajuste de técnicas de processamento digital de sinais para viabilizar sua implementação em dispositivos portáteis. O método aqui descrito pode ser implementado de forma genérica em dispositivos portáteis como PDAs, celulares e Smart Phones que possuam acesso ao serviço de telefonia móvel.

Description

Campo da Invenção
[001] A presente invenção refere-se a um método de comunicação áudio-visual que utiliza dispositivos portáteis. A comunicação é feita através de um humanóide virtual 3D animado a partir de técnicas de reconhecimento de padrões de voz aplicadas a um canal de áudio.
Antecedentes da Invenção
[002] Atualmente, muitos sistemas interativos utilizam faces falantes para se comunicar com o usuário final. Por exemplo, aplicações como secretárias eletrônicas, contadores de histórias e realidade virtual têm ganhado mais atenção através da reprodução da voz sincronizada com um movimento facial realista.
[003] Personagens animados por computador podem ser representados em duas ou três dimensões. Conhecidos como humanóides virtuais ou avatares, os quais podem ser controlados por diferentes técnicas. Por exemplo, é possível animar um avatar através de comandos presentes em interfaces gráficas, nas quais o usuário deve escolher os comandos dentre um conjunto finito de botões ou através de um mouse ou teclado.
[004] A codificação MPEG4 fornece meios para implementar um humanóide virtual. Nesta codificação, existem parâmetros especializados que possibilitam a geração e transmissão do vídeo de uma “cabeça falante” sintética para fins de comunicação multimídia.
[005] A codificação MPEG4 inclui um conjunto de Parâmetros de Animação Facial (FAP - Facial Animation Parameters). Estes parâmetros foram concebidos a partir do estudo de pequenas ações faciais, sendo relacionados ao movimento realizado pelos músculos da face. Esta codificação é capaz de reproduzir expressões faciais e movimentos da cabeça realizados por uma pessoa.
[006] As referidas expressões podem ser agrupadas em duas classes: simples e complexas. Exemplos das primeiras expressões são: piscar os olhos, abrir e fechar a boca, levantar as sobrancelhas. Expressões complexas representam emoções como, por exemplo, feliz, triste, assustado.
[007] A representação visual de um fonema constitui um visema. Os visemas são utilizados para a animação facial sincronizada com a fala, ou seja, o formato do lábio, enquanto um fonema é pronunciado.
[008] Vários métodos de visão artificial utilizam as características de pigmentação dos lábios para realizar a sua detecção e a partir da segmentação, avaliar a forma do lábio para reconhecer o visema.
[009] Entretanto, o contraste existente entre as cores dos lábios (não adornados) e da região facial é muito pequeno. Isto dificulta a etapa de segmentação dos lábios e torna o contorno do mesmo muito impreciso e conseqüentemente extrair as características dos lábios não se mostra eficiente. Por este motivo, o reconhecimento da forma da boca através de técnicas de visão computacional é uma tarefa complexa. Além disso, com os lábios adornados (isto é, com o uso de batom, por exemplo) se torna ainda mais complexo devido a uma grande variedade de cores existentes, dificultando, ainda mais, a concepção de um sistema automático para identificação de visemas.
[0010] Existem ainda outras dificuldades adicionais, que estão relacionadas à qualidade da imagem adquirida pela câmera digital. No caso particular das câmeras integradas a dispositivos portáteis, como é o caso dos telefones celulares, Smart Phones e PDAs, o tempo de exposição dos elementos sensores deixa a imagem obtida “borrada” devido ao movimento. Por esse motivo, para se conseguir uma boa definição dos movimentos da boca, faz-se necessário que a boca ocupe uma grande porção na imagem para possibilitar uma estimação eficiente da forma dos lábios. Ao fazer isso a câmera acaba não visualizando outras partes importantes da face que são muito importantes para a comunicação.
[0011] Por isso, um sistema automático para reconhecimento de formato labial exige um custo computacional elevado para realizar as etapas de detecção e identificação das formas. Em qualquer dispositivo eletrônico, um alto custo computacional causa um aumento de consumo de energia e uma maior produção de calor.
[0012] Em dispositivos portáteis, um alto consumo de energia faz com que a bateria se descarregue mais rápido e seu uso prolongado causa uma diminuição na vida útil da bateria, visto que qualquer bateria tem o número finito de recargas. Por exemplo, uma bateria de um dispositivo portátil pode durar cerca de 300 horas em standby (apenas o aparelho ligado) e 7 horas em conversação.
[0013] Como o custo computacional para processar o vídeo é bem maior do que o necessário para fazer uma chamada convencional, espera-se que a duração da mesma seja bem inferior, podendo chegar a no máximo 2 horas de utilização.
[0014] Por causa dos problemas supracitados, os métodos baseados em visão artificial se concentram em apenas detectar a boca, por exemplo, aberta ou fechada. Uma vez que a percepção da fala não depende apenas da informação acústica, o formato da boca auxilia na inteligibilidade da fala. Por exemplo, em ambientes ruidosos, o formato da boca pode compensar alguma perda de uma sílaba no canal de áudio.
[0015] Desta forma, uma maneira de tornar mais realista a comunicação através de um humanóide virtual é utilizar a voz para animar o movimento da boca, deixando os outros gestos faciais (piscar os olhos, modificação do olhar e da sobrancelha) a cargo do reconhecimento de tons DTMF.
[0016] Uma animação visual eficiente do movimento feito pela boca é útil para muitas aplicações, como, por exemplo, o treinamento da fala de pessoas com dificuldades de audição, produção de jogos e filmes, formas de interação através de agentes virtuais e comércio eletrônico.
[0017] Os métodos para o desenvolvimento deste tipo de animação são baseados em parâmetros matemáticos, nas características físicas da face, em visão artificial e no processamento de áudio.
[0018] Um exemplo de metodologia para rastreamento do movimento labial através de visão computacional foi proposto por A. W. Senior no trabalho intitulado “Face and Feature Finding for a Face Recognition System” publicado nos anais do “International Conference on Audio and Video-based Biometric Person Authentication” p. 154 - 159 em março de 1999. Nesse trabalho, é feita uma busca da região da face utilizando um conjunto de janelas modelos de candidatos de face e de características faciais. Através de uma análise piramidal (multi-resolução), obtida através da escala das janelas modelos, é localizada a face e em seguida o processo é repetido para encontrar os elementos faciais (olhos, boca, nariz e orelhas). Uma informação extraída através deste método é um conjunto dos quatro pontos de canto da boca. Através destes, são identificadas a largura e a altura da boca que podem ser utilizadas como parâmetros para definir a sua forma, podendo ser usados para animar um humanóide virtual. No entanto, esta técnica não é vantajosa devido à quantidade de combinações de janelas realizadas para encontrar a face e os elementos faciais, tornando estes métodos complexos computacionalmente, o que dificulta a implementação em dispositivos portáteis devido ao seu limitado poder de processamento.
[0019] O documento de patente brasileiro PI 99096110, titular: Eyematic Interfaces, Inc, publicado em 21 de outubro de 1999 descreve um método de reconhecimento de feições para animação de um avatar baseado em Wavelets. Este documento utiliza uma série de Wavelets para detectar pontos extremos da boca e, a partir destes, realiza-se o rastreamento do movimento labial. Cada ponto extremo da boca é encontrado a partir da aplicação de uma Transformada Wavelet com característica específica. Como de conhecimento ordinário para uma pessoa versada na técnica, para aplicar uma Wavelet, é necessário fazer várias convoluções durante a etapa de identificação de pontos importantes da face. Para calcular a convolução, em cada ponto da imagem, uma grande quantidade de multiplicações e somas se faz necessária. Isto torna o método muito complexo para ser utilizado em dispositivos portáteis, devido a sua limitação de memória e poder de processamento.
[0020] O artigo proposto por M-T Yang et. al. intitulado “Lip Contour Extraction for Language Learning in VEC3D” publicado no Journal of Machine Vision and Applications em abril de 2008 utiliza a segmentação dos lábios através de contornos ativos. No entanto, esse método é bastante robusto, e a procura inicial do contorno ativo e as interações subsequentes podem levar muito tempo. Em aplicações como as de vídeo-chamada, nas quais o movimento do avatar deve ser sincronizado com o som, esta abordagem não deve ser utilizada devido à longa duração dos procedimentos de procura e interações subsequentes.
[0021] Devido ao fato do formato labial ser o principal responsável pela formação das vogais e estas serem os principais componentes da sílaba, o reconhecimento das vogais através do processamento de voz é capaz de identificar eficientemente o formato labial e por consequência animar o humanóide virtual.
[0022] Um trabalho de reconhecimento de voz que está relacionado ao movimento facial foi proposto por D. V. McAlister et. al intitulado “Lip Synchronization for Animation”, publicado nos anais do SIGGRAPH em janeiro de 1997. Este método aplica a Transformada rápida de Fourier (FFT) para extrair as características da voz e, a partir destas, realiza a animação do movimento labial. Dependendo do tempo de aquisição e da taxa de amostragem do sinal, este método pode se tornar custoso computacionalmente, e por isso, não é vantajoso para aplicação em dispositivos portáteis com baixo poder computacional, como os dispositivos em utilização preferencial na presente invenção.
[0023] Um método similar foi proposto por G. Zoric e I. S. Pandzic no trabalho intitulado “Real-time Language Independent Lip Synchronization Method Using a Genetic Algorithm” publicado no Journal of Signal Processing, p. 3644 a 3656 em dezembro 2006. Nesse trabalho, o resultado da Transformada rápida de Fourier (FFT) é convertido em uma nova escala. No sinal convertido, é aplicada a Transformada discreta do cosseno (DCT) e, após todas estas etapas, são extraídos os coeficientes que representam o movimento labial. Para aplicações com processadores dedicados ou em ambiente PC, o método é capaz de operar em tempo real. Contudo, a quantidade de operações necessárias para realizar este procedimento é muito maior do que o método proposto por McAlister, tornando-se inviável para aplicações em dispositivos portáteis devido ao custo computacional de todas estas operações.
[0024] Na patente US 6,735,566, concedida em 11 de maio de 2004, é proposto um método que utiliza o reconhecimento de voz para uma animação facial realista. Este método utiliza um treinamento associando o vídeo da boca à voz para modelar o movimento labial. Este método utiliza um Modelo Escondido de Markov (Hidden Markov Model) para a extração das características labiais de cada som falado. Este tipo de abordagem possui altas taxas de acerto e uma grande confiabilidade, no entanto, é um método de reconhecimento de padrões muito complexo computacionalmente, o que o torna impraticável devido ao custo computacional elevado.
[0025] Outro exemplo de animação facial a partir da voz foi descrito na patente US 6,665,643, concedida em 16 de dezembro de 2003, titular: Telecom Italia Lab S.P.A. De acordo com os ensinamentos da presente invenção, o reconhecimento de fonemas (vogais e consoantes) falados é realizado para animar um modelo virtual. Na referida patente, cada palavra falada é transformada em um texto e a partir do texto, são identificados os fonemas. A referida solução se mostra bastante eficiente, contudo requer o reconhecimento de muitos fonemas. O melhor desempenho é obtido identificando o conteúdo de toda a mensagem falada, sendo indicado para comunicação off-line.
[0026] O artigo proposto por S. Kshiragas e N. Magnenat-Thalmann intitulado “Lip Synchronization Using Linear Predictive Analysis” publicado no IEEE em julho de 2000 realiza o reconhecimento de vogais utilizando a codificação por predição linear (LPC - Linear Predictive Coding’) para a extração de características e estas são processadas por uma rede neural.
[0027] Um método similar foi proposto por O. Farooq e S. Datta em seu trabalho intitulado “Phoneme Recognition using Wavelet Based Features” publicado no Journal of Information Sciences vol. 150, p. 5 - 15 em março de 2003. Este utiliza a Transformada rápida Wavelet para extrair as características do sinal de áudio e também utiliza uma rede neural para reconhecer fonemas na língua inglesa.
[0028] A extração de características por predição linear ou Wavelet seguida de sua aplicação em uma rede neural possui baixa complexidade computacional. Em ambos os métodos, o reconhecimento das vogais é feito para falantes da língua inglesa. Contudo, é importante ressaltar que a pronuncia em outras línguas, como, por exemplo, a língua portuguesa, possui uma variedade de fonemas muito maior. Isso se deve ao fato de que uma mesma vogal pode ter algumas variações tônicas e nasais graças aos diferentes sotaques das diversas regiões brasileiras. Consequentemente, os métodos baseados em predição linear ou Wavelet possuem o inconveniente de gerar falsos reconhecimentos devido a esta variedade.
[0029] O documento de patente US 20090158184, titular: AOL LLC, publicado em 18 de junho de 2009 reivindica um sistema e um método para animar um avatar com base na animação percebida em um segundo avatar, o método compreendendo as etapas de representar graficamente um primeiro usuário com um primeiro avatar capaz de ser animado; representar graficamente um segundo usuário com um segundo avatar capaz de ser animado, em que mensagens de comunicação são enviadas entre o primeiro e o segundo usuário; receber uma indicação de uma animação de um primeiro avatar; acessar informação associando animações com o avatar; identificar, com base na informação acessada, uma animação para o segundo avatar que é responsiva à animação indicada do primeiro avatar e em resposta à indicação recebida, animar o segundo avatar com base na animação responsiva identificada. De acordo com os ensinamentos do referido documento de patente, o avatar é animado através de uma aplicação tipo mensagens on-line (como, por exemplo, MSN ou Skype). O avatar se mexe em função das palavras escritas no sistema. Assim, não há qualquer tipo de reconhecimento de sons.
[0030] A patente US 7,176,956, concedida em 13 de fevereiro de 2007, titular: MOTOROLA INC, trata da animação de avatares em uma comunicação entre dispositivos portáteis (vídeo chamada). Os avatares se mexem através das mudanças de parâmetros obtidos através de técnicas de reconhecimento de imagens providas pela câmera do celular.
[0031] A patente US 7,231,205, concedida em 12 de junho de 2007, titular: Telefonaktiebolaget LM Ericsson trata da animação de avatares em uma comunicação entre dispositivos portáteis. O sistema é conectado a um servidor que promove o enlace entre os dispositivos e é ele que provê o serviço de avatares. O estado dos avatares pode ser modificado através do teclado do celular, mas não prevê o reconhecimento de sons.
[0032] A patente US 6,665,640, concedida em 16 de dezembro de 2003, titular: Phoenix Solutions, Inc apresenta um avatar animado utilizando a voz. O avatar usa FAPs como parâmetros de movimentação. Os FAPs são obtidos diretamente de um stream MPEG4. Este sistema não faz a simplificação dos visemas, nem é otimizado para dispositivos com pouco poder de processamento, como os telefones móveis atuais.
[0033] A patente US 7123262, concedida em 17 de outubro de 2006, titular: Telecom Italia Lab S.p.A usa visemas e gera FAPs sobre um rosto previamente parametrizado com Active Shape Model. De acordo com o referido documento, a voz e a imagem são unidas para fazer a movimentação do modelo de rosto, o que não constitui um avatar, mas sim uma técnica de animação de um rosto modelado. Estas técnicas são, em geral, pesadas e complexas, o que inviabiliza a aplicação das mesmas em dispositivos portáteis.
[0034] O documento WO 2008031955, publicado em 20 de março de 2008, descreve um método e sistema para a animação de um avatar em um aparelho móvel com base no sinal de som correspondendo à voz de um interlocutor em uma conversação telefônica. O referido método propõe a aparência e movimentação dos avatares em tempo real ou quase real, sendo o avatar escolhido e/ ou configurado através de um serviço online na rede. O sistema do documento WO 2008031955 compreende um aparelho de comunicação móvel, servidor de recepção de sinal, bem como meios de cálculo e análise do sinal de som para movimentar o avatar e simular conversação em tempo real.
[0035] Aspectos da presente invenção especificam um método de comunicação utilizando um humanóide virtual animado durante chamadas convencionais. De acordo com a presente invenção, a animação é feita utilizando um sistema de reconhecimento das vogais faladas para animação dos lábios, associado ao reconhecimento de tons DTMF para animação dos movimentos da cabeça e feições faciais. Esse sistema se diferencia dos sistemas conhecidos por usar técnicas computacionalmente eficientes. Isto implica em um trabalho de otimização e ajuste de técnicas de processamento digital de sinais para viabilizar sua implementação em dispositivos portáteis.
[0036] O método aqui descrito pode ser implementado de forma genérica em dispositivos portáteis como PDAs, celulares e Smart Phones que possuam acesso ao serviço de telefonia móvel.
[0037] A presente invenção se diferencia das soluções conhecidas por propiciar as seguintes vantagens diante do estado da técnica:
[0038] - Baixo custo computacional: os processamentos realizados possuem um baixo esforço computacional e podem ser utilizados para comunicação em tempo real, portanto, em dispositivos portáteis.
[0039] - Independência à intensidade da fala: a animação da abertura da boca é feita a partir da avaliação da energia dos últimos segundos da comunicação. Independentemente da intensidade (alta ou baixa) do sinal de áudio, o avatar move os lábios naturalmente.
[0040] - Reconhecimento de vogais preferencialmente adaptado para o reconhecimento do idioma português: o método proposto foi adaptado para reconhecer as vogais sob condições diferentes de sotaques regionais, como ocorre, por exemplo na língua portuguesa.
[0041] - Gerador sintético de expressões faciais: o método proposto possui a capacidade de gerar expressões faciais sintéticas de forma próxima às expressões faciais reais.
[0042] - Movimentação do humanóide virtual através de tons DTMF: o sistema proposto possibilita a reprodução de movimentos da cabeça e expressões faciais utilizando o canal de voz, não requisitando o envio de informação nos canais de dados durante a comunicação.
[0043] - Novas formas de vídeo-chamada: o método proposto pela presente invenção pode ser utilizado em diferentes aplicações a fim de agregar valor ao serviço de chamadas convencionais das operadoras de telefonia móvel através de sua utilização ao receber uma chamada originada de um telefone fixo ou móvel.
[0044] - Recurso Stand Alone: apenas um dos terminais envolvidos na conversação precisa ter um dispositivo para exibição do avatar. O segundo terminal pode interagir com o primeiro que contém os meios de exibição pressionando uma das teclas de um telefone convencional, por exemplo.
[0045] - Diminuição no tráfego da rede: a transmissão pelo canal de voz utiliza bem menos tráfego que uma comunicação utilizando vídeo-chamadas e deixa-o disponível para outras aplicações como, por exemplo, o vídeo streaming.
[0046] - Utilização de dispositivos portáteis de baixo custo: a presente invenção pode ser utilizada em celulares de baixo custo que não possuem componentes adicionais, como por exemplo, câmera, touch-scren, acesso à rede 3G.
Sumário da Invenção
[0047] O método proposto pela presente invenção realiza a reprodução do movimento labial do humanóide virtual através do reconhecimento das vogais faladas. A utilização de vogais é vantajosa, pois estas são produzidas a partir da acústica da cavidade oral, influenciando o formato do lábio.
[0048] Além disto, o sistema proposto propiciará a animação dos movimentos da cabeça e expressões faciais através da associação desses gestos com os tons de duas freqüências utilizados na discagem dos telefones (Dual-Tone Multi-Frequential - DTMF). Por exemplo, ao receber o tom DTMF da tecla 2, o humanóide pisca o olho esquerdo. Os tons DTMF são formados a partir da combinação de dois impulsos elétricos de freqüências especificadas. A probabilidade de a voz humana gerar a combinação de duas freqüências utilizadas neste padrão é baixíssima, por isto, elas são simples de serem detectadas e filtradas.
[0049] Com base no princípio acima exemplificado, o sistema da presente invenção tornará mais agradável a comunicação em chamadas de áudio, visto que o sistema é capaz de passar a sensação, para o usuário, de uma conversa utilizando vídeo-chamada. A partir da utilização deste sistema, não seria necessário adquirir o vídeo, comprimi-lo e enviar os dados pela rede.
[0050] Além disto, o humanóide possibilitará às pessoas idosas e pessoas com dificuldade de audição compreender melhor a conversa, pois a percepção da fala não depende apenas da informação acústica. As informações visuais como, por exemplo, os movimentos labiais e expressões faciais influenciam na percepção da informação falada.
[0051] Um grande diferencial da invenção é que esta possibilita uma inserção de novas funcionalidades a dispositivos portáteis e móveis, sem a necessidade de modificação no seu desenho, seja na sua placa de montagem ou pela adição de teclas extras no seu layout. Tudo isso sem a inclusão de um servidor intermediário para tratamento de dados, o que possibilita a utilização da presente invenção em dispositivos atualmente disponíveis no mercado a partir de uma simples atualização de software.
[0052] A presente invenção fornece uma nova funcionalidade aos dispositivos portáteis existentes no mercado através da sua utilização ao acessar caixa-postal, atendentes virtuais ou receber chamadas. Por exemplo, uma atendente virtual poderia interagir com o usuário dependendo dos comandos enviados pelo usuário. Neste caso, ao apertar uma tecla que não está nas opções disponíveis no serviço, o avatar começa a balançar a cabeça indicando ao usuário que ele fez algo errado ou fica com as feições tristes.
[0053] Para diminuir o esforço computacional e tornar viável a aplicação em um dispositivo portátil, na presente invenção, as vogais são utilizadas para animar o humanóide virtual. A vogal constitui a base da sílaba e sua emissão é feita basicamente pelo movimento labial. Por exemplo, ao fazer os lábios ficarem com a forma utilizada para pronunciar a vogal “o”, não é possível pronunciar a nenhuma das outras vogais.
[0054] Além disso, a presente invenção é especialmente adaptada a um método de extração de características otimizado para idiomas com maior número de variações fonológicas, como, por exemplo, o português do Brasil, realizando adaptações para tornar robusto o método quanto a estas variações de entonações.
Breve Descrição das Figuras
[0055] Os objetivos e as vantagens da presente invenção tornar-se-ão mais evidentes a partir da descrição detalhada a seguir de um exemplo de concretização da invenção e desenhos anexos fornecidos a título de exemplo não- limitativo, em que:
[0056] A figura 1 apresenta um diagrama esquemático do funcionamento do sistema proposto.
[0057] A figura 2 apresenta um modelo genérico de dispositivo portátil, no qual a presente invenção pode ser implementada.
[0058] A figura 3 apresenta um diagrama de blocos do método para animação do humanóide virtual.
[0059] A figura 4 apresenta uma visão geral do funcionamento do método proposto pela presente invenção.
[0060] A figura 5 apresenta um diagrama detalhado da etapa de reconhecimento do formato labial e amplitude de abertura da boca, de acordo com a modalidade preferida da presente invenção.
[0061] A figura 6 apresenta um diagrama detalhado da etapa de reconhecimento do formato labial utilizando Wavelets e Rede Neural, de acordo com a modalidade preferida da presente invenção
[0062] A figura 7 apresenta uma vista frontal do humanóide virtual e principais pontos característicos utilizados nesta proposta de patente de invenção para animação facial.
Descrição das Concretizações Preferidas da Invenção
[0063] Na figura 1, é ilustrado o funcionamento do sistema da presente invenção. Um usuário 100 realiza uma conversação através de chamada convencional utilizando um dispositivo portátil 101. Esta chamada pode ser efetuada entre o dispositivo portátil e um usuário 110 utilizando um telefone fixo 111 ou um telefone celular 112. Além disto, o usuário 100 pode utilizar o sistema proposto para acessar serviços da operadora de telefonia móvel 120, como, por exemplo, a caixa postal 121, o serviço de auto-atendimento 122 ou reproduzir mensagens de voz 123.
[0064] Durante a chamada, o usuário 100 tem a liberdade de iniciar o sistema proposto e passar a visualizar o humanóide virtual. A cada sílaba reconhecida, a vogal e a boca do humanóide é animada na tela 131 do dispositivo portátil 101. Eventualmente, ao receber um tom DTMF, o dispositivo portátil 101 realiza a modificação da feição do humanóide 132 ou ativa um gesto específico 133. Caso os dois dispositivos utilizados na comunicação possuam o sistema proposto, ambos poderão ter a sensação de uma vídeo-chamada, em que cada cliente pode controlar as feições do humanóide virtual e tem a boca animada pelo sistema proposto. Isto tornará mais interessante e divertida a chamada tradicional, pois emoções e sentimentos poderão ser mais perceptíveis através da utilização do humanóide virtual, bem como auxiliará na inteligibilidade da comunicação para pessoas que possuem alguma dificuldade de audição causada pelo ruído do ambiente.
[0065] De acordo com a modalidade preferida da invenção, o dispositivo computacional deve ser composto por unidade de processamento central ou outro elemento de processamento para executar instruções computacionais com memória para armazenamento de informações e instruções, display ou outro dispositivo que exiba ou forneça saída visual de informações, teclado ou outro dispositivo de entrada para inserção de informações, componentes de entrada e saída de áudio tais como microfone e alto falante; e componentes que forneçam o acesso a rede de telefonia móvel, conforme mostrado na figura 2.
[0066] O método aqui proposto permite a animação dos movimentos da cabeça, a seleção de feições e o reconhecimento do movimento labial.
[0067] O método da presente invenção utiliza os parâmetros FAP para animar o humanóide virtual. Esses parâmetros FAP são compostos por um conjunto de 68 parâmetros que definem a modificação da forma ou movimentos faciais. O método de reconhecimento de voz da presente invenção combina uma série de algoritmos com o objetivo de aperfeiçoar seu esforço computacional e robustez, visando viabilizar a sua utilização em dispositivos com restrições de capacidade computacional, mais notadamente, os dispositivos portáteis. Este método está dividido conforme apresentado na
[0068] A figura 3 e é composto das seguintes etapas: 1. Configuração da comunicação: nesta etapa são avaliadas as opções pessoais do usuário. Este tem a liberdade de associar um avatar dentre um conjunto de humanóides virtuais disponíveis no dispositivo portátil que mais se assemelhe a um contato de sua agenda telefônica. Desta forma, ao receber uma chamada ou uma mensagem da caixa postal deste usuário, é perguntado ao usuário se este deseja ativar a animação do humanóide virtual. Caso o usuário deseje este tipo de comunicação, o avatar associado é utilizado para a comunicação. Além disto, dentre os humanóides virtuais disponíveis, existem aqueles exclusivos para as operadoras de telefonia móvel, no qual cada operadora possui um humanóide específico e ao utilizar o sistema proposto para acessar algum serviço de auto-atendimento acessado pelo usuário de telefonia móvel. 2. Aquisição do áudio: nesta etapa, é realizada a aquisição do áudio recebido (MMS ou chamada convencional) em formato padronizado para ser utilizado pelas outras etapas de reconhecimento. 3. Análise de Energia do Áudio: o método proposto analisa a relação da energia do sinal em uma quantidade fixa de amostras do sinal de áudio. Esta quantidade forma o que chamamos de quadro de áudio. É calculada uma relação entre a energia do quadro atual e de seus anteriores, dentro de uma janela de tempo para dimensionar o quanto a boca está aberta. 4. Reconhecimento das vogais faladas: nesta etapa são analisados os quadros de áudio para reconhecer as vogais faladas. Esta etapa realiza a extração de características do sinal de áudio e as aplica em uma rede neural progressiva (feed foward propagation) com pesos fixos, gerados a partir de um treinamento feito fora do dispositivo portátil utilizando um conjunto de amostras de áudio. Este tipo de solução foi escolhido devido seu baixo custo computacional. Um diferencial da presente invenção quanto aos métodos conhecidos é a otimização do método de extração de características para o reconhecimento das vogais faladas em diferentes entonações e sotaques do idioma português brasileiro. 5. Sintetizador de expressões faciais: nesta etapa, são gerados artificialmente alguns gestos específicos do rosto que simulam movimentos naturais feitos por uma pessoa. Por exemplo, como piscamos inúmeras vezes ao longo do dia, este movimento pode ser simulado através de um processo aleatório e usado para animar os olhos e olhar do humanóide virtual. 6. Animação da cabeça e gestos faciais: nesta etapa são reconhecidos os tons DTMF recebidos no canal de áudio. Após o reconhecimento do tom recebido, é configurada a feição ou movimentos faciais pré-definidos. 7. Fusão das Informações: nesta etapa, as informações reconhecidas e geradas artificialmente são organizadas para formar uma única informação que será utilizada durante a animação do humanóide virtual. Esta etapa realiza uma análise de prioridades entre cada informação recebida. Nas informações, a vogal reconhecida tem prioridade maior do que as feições faciais reconhecidas pelos tons DTMF. Enquanto o usuário está falando, o formato labial é controlado pelo reconhecimento de vogais e, caso contrário, o formato é controlado a partir da feição escolhida através do tom DTMF. 8. Geração dos Parâmetros de Animação Facial: nesta etapa do processamento, as instruções são convertidas em parâmetros FAP, utilizando as informações definidas na etapa anterior. Por exemplo, a forma dos lábios é dependente de quatro pontos característicos da boca. Ao receber a instrução de boca vogal “A”, um pacote FAP é gerado, no qual os quatros pontos que definem a boca são identificados e estes são enviados para a animação do humanóide. 9. Animação do humanóide virtual: nesta etapa, é realizada a modificação das feições do humanóide através dos FAP recebidos.
[0069] O método proposto pela presente invenção é apresentado na figura 4. O sistema no qual o referido método pode ser implementado é composto por um dispositivo portátil, representado pela referência 400, integrado a um método de processamento de áudio e de geração da animação do humanóide virtual.
[0070] A primeira etapa do método, representada por E410, realiza o controle da aplicação de reconhecimento de voz e pose da cabeça. Dependendo da personalização do usuário, um avatar específico é utilizado para a comunicação dentro de um conjunto de avatares 411 a 413. Por exemplo, ao realizar uma chamada para o serviço de auto-atendimento, para pessoa do sexo feminino e para uma pessoa do sexo masculino, são usados os avatares 411, 412, 413, respectivamente.
[0071] Após isto, são realizadas as etapas de reconhecimento das vogais faladas E420, sintetização de movimento facial P430 e reconhecimento de tons DTMF E440. Por exemplo, quando o usuário remoto está falando, a etapa E420 realiza o reconhecimento das vogais faladas e, na etapa E430, os movimentos do olhar são animados durante toda a chamada. Ao receber um tom DTMF, na etapa E440, é realizada a modificação do tipo de feição, entre um conjunto de, por exemplo, doze feições padronizadas.
[0072] A etapa E420 é dividida em várias etapas conforme ilustrado detalhadamente na Figura 5. A primeira etapa deste processamento consiste na geração do quadro de áudio, representada por E500. Esta pode ser feita através da amostragem da voz recebida pela linha telefônica 501 ou do arquivo disponível em uma mensagem MMS 502. Em todos os casos, um quadro de áudio com duração de 32 ms é adquirido e para esta duração são processadas 512 amostras, que formam o quadro de áudio 503. Por exemplo, independentemente da origem, o sinal de áudio é convertido para o formato PCM com 512 amostras para cada 32 ms, representado esquematicamente através de 503. Esta conversão é feita através do código implementado no DSP do dispositivo portátil.
Reconhecimento da Abertura da Boca
[0073] Após esta etapa de condicionamento de dados, é realizado o cálculo da energia do sinal de voz em cada quadro adquirido em E510. Cada valor é colocado em um buffer e é calculada a energia máxima nos últimos N ms representada por EMax , conforme ilustrado em 511, em que N varia entre 0,5 e 1,5 segundos, sendo preferencialmente utilizado o valor de 1 segundo.
[0074] Normalmente, a energia da boca varia ao pronunciar vários fonemas. Por exemplo, ao sustentar um fonema, a energia é máxima e durante as pausas entre palavras a energia é praticamente nula. Por causa disto, é calculado o mínimo de energia para a detecção de voz EMin como uma fração de EMax . Esta razão pode variar de entre 1 % a 50 %, sendo preferencialmente utilizado o valor de 10%. Quando a energia é menor que este mínimo, indica que o usuário não está falando, mantendo o avatar com a boca fechada.
[0075] Caso a animação fosse feita só em função do valor RMS da energia, seria necessário definir um valor mínimo e máximo. Desta forma, uma pessoa falando baixo, faria um movimento pequeno nos lábios do avatar.
[0076] Esta razão entre EMin e o EMax possibilita um reconhecimento de abertura da boca independente da intensidade da voz. O formato da boca, independentemente do usuário falar baixo ou alto, se adapta à animação facial em função da razão EMin / EMax .
[0077] Quando a energia é maior do que um limite especificado, o método da presente invenção realiza o processamento do quadro de áudio para identificar a amplitude da abertura da boca na etapa E520 e a vogal falada na etapa E530. Desta forma, a razão entre a energia máxima e a energia do quadro atual é utilizada para controlar a dimensão de abertura da boca. Por exemplo, quando a energia é igual a EMax , atribui-se o máximo de abertura, conforme mostrado na etapa 521. Quando a energia é menor que EMin , atribui-se a boca fechada. No momento em que a energia é maior do que EMin e menor do que EMax a boca é desenhada em função da razão mencionada anteriormente.
Reconhecimento das vogais faladas
[0078] Após este cálculo, na etapa E520, o formato e a dimensão de abertura da boca são determinados. O mesmo quadro de áudio é processado a fim de extrair características capazes de identificar o tipo de vogal falada e tem seu funcionamento detalhado na figura 6.
[0079] Como um sinal de voz pode ser considerado estacionário dentro de uma janela de tempo em torno de 10ms. Na etapa E600, o quadro E601 é divido em quadro sub-quadros, conforme mostrado etapa E602. Em cada um destes, são extraídas as características da voz através dos blocos E610 e E620.
[0080] A etapa E620 realiza a extração de características, utilizando, preferencialmente, uma abordagem multi-escala Wavelet não-padrão. De acordo com a concretização preferida da invenção, a análise de um sinal através de Transformada Wavelet é feita através da múltipla convolução de duas funções (escalamento e Wavelet), conforme a abordagem da Transformada Wavelet Rápida (FWT - Fast Wavelet Transform).
[0081] É importante mencionar que a aplicação seguida destas funções é complexa computacionalmente em uma imagem. Isto ocorre devido à grande quantidade de pixels da imagem. Já o sinal de áudio processado possui apenas 64 amostras. Mesmo aplicando convoluções sucessivas (para o cálculo de vários níveis) o custo computacional é baixo.
[0082] A Transformada Wavelet Rápida realiza a decomposição de um sinal através da convolução do sinal seguido de uma sub-amostragem. Na etapa E610, é realizado o cálculo dos coeficientes em vários níveis de escalamento, conforme mostrado na etapa 611.
[0083] A energia Ej de um nível j para todos os níveis da Transformada Wavelet pode ser calculada a partir da soma dos quadrados dos coeficientes de detalhes.
[0084] De acordo com a concretização da presente invenção, na etapa E620, além da energia Ej , são calculadas a energia total Etot e a entropia residual Wavelet Hj , respectivamente descritas por
[0085]
Figure img0001
[0086]
Figure img0002
[0087] Para diminuir o esforço computacional no cálculo de extração de características e melhorar o esforço computacional, de acordo com a presente invenção, a energia é calculada para níveis específicos da decomposição. As características podem ser calculada em qualquer combinação entre os níveis da transformada, de 1 a Jmax , preferencialmente são utilizados os níveis 1, 3, 4 e 5 para calcular os coeficientes, sendo a escolha de não utilizar um nível específico feita através de testes experimentais com várias combinações de características para verificar a combinação que apresenta melhor desempenho.
[0088] Após este cálculo, na etapa E630, as características são aplicadas em uma rede neural progressiva, treinada com o algoritmo de backpropagation. Esta rede neural possui, preferencialmente, N neurônios na camada de entrada (N = número de características usadas), oito na camada escondida e seis na camada de saída, em que as cinco primeiras saídas indicam cada tipo de vogal e a sexta saída indica a ausência de vogal. Na etapa de reconhecimento, o valor da saída que possui maior intensidade é considerada como vogal falada. Sintetizador de expressões faciais
[0089] A seguir é descrito o método de geração artificial dos movimentos dos olhos e do olhar, representado por E430. Para piscar os olhos, o perfil de olho fechado é aplicado na etapa E430, espera-se 100 milissegundos e aplica- se o perfil de olho aberto novamente simulando o piscar dos olhos. Em seguida, seleciona-se um valor inteiro aleatório entre 3000 e 4500 e o usa-se como tempo, em milissegundos, entre a piscada atual e a próxima, sendo o procedimento repetido.
[0090] Para controlar os movimentos do globo ocular é feito um processamento semelhante. Neste caso, o controle é feito através da aplicação de pequenos ângulos de rotação para as laterais. Esses ângulos são valores aleatórios entre -5 e 5 graus que são aplicados simultaneamente aos dois olhos em um intervalo de tempo aleatório entre 100 e 1000 milissegundos. Reconhecimento de Tons DTMF para animação de movimentos faciais
[0091] A seguir é descrita a etapa de reconhecimento de tons DTMF para animações das feições faciais do humanóide virtual, representada por E440. O reconhecimento de tons DTMF é de conhecimento ordinário para uma pessoa versada na técnica, podendo ser implementado utilizando um filtro digital passa-faixa individual para cada freqüência. Quando um par de tons é reconhecido, o valor do número digitado é identificado, determinando qual gesto é desejado.
[0092] Para isto, são definidos alguns perfis de expressões que serão aplicados sempre que um comando correspondente for disparado. O perfil de animação pode ser relacionado a emoções, como por exemplo, felicidade, tristeza, raiva, tédio, susto, confusão, sarcasmo, e pode também ser relacionado a movimentos da cabeça, por exemplo, sim e não, ou movimentos isolados do rosto, como mostrar a língua, levantar a sobrancelha, dentre outras. Assim, ao receber o tom DTMF referente a um número, o comando “fique feliz” é enviado para a etapa de fusão de informações, representado por E450.
Fusão de Informações
[0093] Nesta etapa, são avaliadas as prioridades entre os diferentes tipos de reconhecimento. Por exemplo, em relação aos movimentos labiais, o reconhecimento da vogal falada E420 tem prioridade na geração do gesto facial, isto é, ao receber um comando de mostrar a língua, o humanóide só mostrará a língua enquanto o usuário não falar. No momento que ele começar a falar, a movimentação da boca é feita apenas através das vogais.
[0094] Além disto, alguns dos perfis são temporários e outros são permanentes. Por exemplo, movimentos como sim e não são temporários, enquanto emoções como tristeza, alegria ou normal são permanentes. Os movimentos temporários possuem duração finita, ou seja, o avatar balança a cabeça indicando sim durante 5 segundos, voltando ao estado anterior. Desta forma, E450 realiza o controle de qual feição é realizada para que, em seguida, sejam gerados os parâmetros FAP na etapa E460, que em seguida será animada na etapa E470. Criação dos FAP
[0095] A etapa de formação dos parâmetros FAP E460 é descrita a seguir. A animação é baseada em um conjunto de pontos característicos da face ou Feature Points (FP). A codificação MPEG4 utiliza no total 84 FP, os quais, de acordo com a modalidade preferida da invenção, são usados um subconjunto de trinta e três pontos. Por exemplo, a codificação propõe dezoito FP para os lábios. Contudo, apenas oito pontos característicos podem animar eficientemente os lábios.
[0096] De acordo com a modalidade preferida da invenção, são utilizados apenas três FP para movimentação da cabeça, seis para a boca, quatro para cada olho, três para cada sobrancelha, cinco para o nariz, um para o queixo e dois para cada bochecha. Os principais FP são mostrados na figura 7.
[0097] Na figura 7, alguns FP são desenhados com uma bolinha cheia (701 - 726) e outros com uma bolinha vazia. Os primeiros são usados diretamente na animação, ou seja, são movimentados pelos FP em determinadas direções. Os segundos não são afetados pelos FP e permanecem imóveis durante todo o processo de animação. A função dos pontos estáticos é de servir como limite para a deformação do rosto do humanóide quando um FP não estático é movimentado.
[0098] Por exemplo, ao receber o visema da vogal “O”, a etapa E470 especifica os seis pontos extremos da boca para simular um círculo. Os FAP utilizam como base o deslocamento dos FP para modificação no formato geométrico do modelo facial.
[0099] A face neutra é definida a partir de um sistema de coordenas da mão direita (eixo X positivo para a direita, Y positivo para cima e Z positivo saindo do papel). Quando a face “olha” para a direção Z positiva, todos os músculos da face estão relaxados, pálpebras tangenciando a íris, pupilas medindo um terço de tamanho da pupila do modelo, lábios fechados formando uma linha horizontal de um canto ao outro da boca.
[00100] Diferentemente das soluções conhecidas, na presente invenção, os deslocamentos são sempre relativos aos FP na face neutra, e não em relação à posição anterior. Isto evita que a perda de um quadro de animação comprometa os quadros subseqüentes.
[00101] Cada perfil de animação facial é composto pelos índices do FP e dos deslocamentos de cada índice em relação à face neutra, um para cada eixo, dx, dy e dz. Por exemplo, para fazer o avatar fechar os olhos, são utilizados quatro FPs e doze deslocamentos.
[00102] Além disto, em relação à boca, são utilizados apenas cinco possíveis configurações, uma para cada vogal e o perfil neutro (posição inicial). A partir dos perfis, o respectivo FAP é gerado e este é passado para a etapa de animação E470.
Animação Facial em Dispositivos Portáteis
[00103] Para a animação, a modificação de cada um dos FP faz com que outros pontos em torno do mesmo sejam afetados. Isso forma uma região de influência para cada um dos FP. Os pontos influenciados são calculados através de um método conhecido, em que o deslocamento de cada um pontos será dado por uma média ponderada dos deslocamentos dos seus FP influenciadores. Desta forma, a partir de todos os pontos mencionados, verifica-se o deslocamento de cada um destes em relação ao ponto atual. Quando a diferença é maior do que um limite de tolerância, os pontos do modelo são modificados, sendo possível animar as feições desejadas.
[00104] A presente invenção tendo sido descrita vai ser evidente para uma pessoa versada na técnica que muitas alterações e mudanças podem ser feitas na mesma, sem que se afaste do espírito ou do escopo da referida invenção, como definido nas reivindicações anexas.

Claims (17)

1. Método para animar rostos/cabeças/personagens virtuais via processamento de voz em um dispositivo portátil, o método caracterizado pelo fato de que compreende: processar informações associadas à instalação, configuração do usuário e/ou preferência do usuário; processar, adquirir ou analisar informações de áudio associadas ao dispositivo portátil; realizar o reconhecimento de voz, som ou vogal das informações de áudio, gerando uma pluralidade de quadros de áudio com base nas informações de áudio; calcular uma energia máxima entre a pluralidade de quadros de áudio; sintetizar expressões faciais em função da informação de áudio; reconhecer informações de tom DTMF (Dual-Tone Multi-Frequency) para uso na animação de expressões de cabeça/face; unir as expressões sintetizadas e as informações reconhecidas para determinar os recursos de animação relevantes; gerar parâmetros de animação facial em função das informações reunidas; e animar uma cabeça/rosto/personagem virtual, modificando suas características em função dos parâmetros de animação facial gerados, em que uma proporção da energia máxima e da energia de um quadro atual é usada para controlar um tamanho de uma abertura virtual da boca.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a realização do reconhecimento de voz, som ou vogal compreende a geração do quadro de áudio por amostragem da voz recebida pela linha telefônica ou de um arquivo disponível em uma mensagem SMS.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que um quadro de áudio com duração de cerca de 32 ms é adquirido e, por essa duração, são processadas cerca de 512 amostras, em que o quadro de áudio é formado e a conversão é feita através de um código de DSP implementado no dispositivo portátil.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o cálculo da energia máxima compreende o cálculo da energia do sinal de voz em cada quadro adquirido, cada valor é colocado em um buffer e a energia máxima é calculada nos últimos N ms (EMax ), onde N varia entre cerca de 0,5 e cerca de 1,5 segundos ou é de 1 ou cerca de 1 segundo.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que uma potência mínima para detectar a voz EMin é calculada como uma razão de EMax , em que essa proporção varia de cerca de 1% a cerca de 50%, ou cerca de 10%.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que, além de uma energia Ej, é calculada uma energia total Etot e uma forma de onda residual de entropia Hj é calculada, respectivamente, descrita por:
Figure img0003
Figure img0004
em que a energia é calculada para níveis específicos de decomposição e características pode ser calculada em qualquer combinação entre os níveis de transformação 1 até Jmax, onde os níveis 1, 3, 4 e 5 são usados para calcular os coeficientes.
7. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que, após o cálculo de Etot e Hj, os recursos de animação relevantes são aplicados em uma rede neural progressiva, que possui, em uma implementação exemplar N neurônios na camada de entrada, cerca de 8 na camada oculta e cerca de 6 na camada de saída, onde as cinco primeiras saídas indicam cada tipo de vogal e a sexta saída indica a ausência de vogal.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o controle dos movimentos de um par de olhos no rosto é feito aplicando pequenos ângulos de rotação nas laterais dos olhos, tendo esses ângulos valores aleatórios entre cerca de -5 e cerca de 5 graus, o que são aplicados simultaneamente a ambos os olhos em um intervalo de tempo aleatório entre cerca de 100 e cerca de 1000 milissegundos.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que, na união, alguns dos perfis são temporários e outros são permanentes.
10. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a geração dos Parâmetros de Animação Facial (FAP) é baseada em um conjunto de pontos característicos do rosto ou Pontos de Característica (FP).
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que alguns desses pontos característicos do rosto são usados diretamente na animação em certas direções.
12. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que as compensações são sempre feitas em relação ao Ponto de Característica (FP) no rosto neutro e não em relação à posição anterior, impedindo a perda de um quadro de animação que comprometa os quadros subsequentes.
13. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que cada perfil de animação facial compreende um índice FO e um deslocamento de cada índice em relação ao rosto neutro, um para cada eixo, dx, dy e dz.
14. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que, para a boca, são utilizadas apenas cinco configurações possíveis, uma para cada vogal e um perfil neutro (posição inicial), e a partir desses perfis, o respectivo Parâmetro de Animação Facial (FAP) é gerado e isso é passado para a animação.
15. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que, para a animação, uma modificação de cada ponto de característica (FP) influencia outros pontos ao redor do mesmo, formando uma região de influência para cada FP, na qual os pontos influenciados são calculados por um deslocamento de cada ponto com base na média ponderada dos deslocamentos de seus influenciadores de FP, é feita uma verificação do deslocamento de cada um desses pontos em relação a um ponto atual a partir de todos os pontos mencionados.
16. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que são fornecidos animação dos movimentos da cabeça, seleção de características e/ou reconhecimento dos movimentos dos lábios.
17. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que os recursos para reconhecimento de vogais faladas em diferentes sotaques são adaptados para serem extraídos.
BRPI0904540-6A 2009-11-27 2009-11-27 método para animar rostos/cabeças/personagens virtuais via processamento de voz BRPI0904540B1 (pt)

Priority Applications (2)

Application Number Priority Date Filing Date Title
BRPI0904540-6A BRPI0904540B1 (pt) 2009-11-27 2009-11-27 método para animar rostos/cabeças/personagens virtuais via processamento de voz
US12/819,164 US8725507B2 (en) 2009-11-27 2010-06-18 Systems and methods for synthesis of motion for animation of virtual heads/characters via voice processing in portable devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BRPI0904540-6A BRPI0904540B1 (pt) 2009-11-27 2009-11-27 método para animar rostos/cabeças/personagens virtuais via processamento de voz

Publications (2)

Publication Number Publication Date
BRPI0904540A2 BRPI0904540A2 (pt) 2011-07-12
BRPI0904540B1 true BRPI0904540B1 (pt) 2021-01-26

Family

ID=44069522

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0904540-6A BRPI0904540B1 (pt) 2009-11-27 2009-11-27 método para animar rostos/cabeças/personagens virtuais via processamento de voz

Country Status (2)

Country Link
US (1) US8725507B2 (pt)
BR (1) BRPI0904540B1 (pt)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008141125A1 (en) * 2007-05-10 2008-11-20 The Trustees Of Columbia University In The City Of New York Methods and systems for creating speech-enabled avatars
JP2011203992A (ja) * 2010-03-25 2011-10-13 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
US8805000B2 (en) * 2011-08-23 2014-08-12 Honeywell International Inc. Mobile energy audit system and method
US11169655B2 (en) * 2012-10-19 2021-11-09 Gree, Inc. Image distribution method, image distribution server device and chat system
US8970656B2 (en) * 2012-12-20 2015-03-03 Verizon Patent And Licensing Inc. Static and dynamic video calling avatars
US10708545B2 (en) * 2018-01-17 2020-07-07 Duelight Llc System, method, and computer program for transmitting face models based on face data points
US9094576B1 (en) * 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
WO2014146258A1 (en) * 2013-03-20 2014-09-25 Intel Corporation Avatar-based transfer protocols, icon generation and doll animation
WO2014153689A1 (en) * 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
KR20150068609A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 이미지 정보 표시 방법 및 장치
GB2523345B (en) * 2014-02-20 2018-01-17 Samsung Electronics Co Ltd Detecting user viewing difficulty from facial parameters
US9383989B1 (en) 2014-06-16 2016-07-05 Symantec Corporation Systems and methods for updating applications
US10360497B2 (en) 2014-07-16 2019-07-23 Qualcomm Incorporated Decomposing convolution operation in neural networks
US10542961B2 (en) 2015-06-15 2020-01-28 The Research Foundation For The State University Of New York System and method for infrasonic cardiac monitoring
US10672417B2 (en) * 2015-10-29 2020-06-02 True Image Interactive, Inc. Systems and methods for machine-generated avatars
US10217261B2 (en) * 2016-02-18 2019-02-26 Pinscreen, Inc. Deep learning-based facial animation for head-mounted display
CN107180446B (zh) * 2016-03-10 2020-06-16 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN106653052B (zh) * 2016-12-29 2020-10-16 Tcl科技集团股份有限公司 虚拟人脸动画的生成方法及装置
JP6794921B2 (ja) * 2017-05-01 2020-12-02 トヨタ自動車株式会社 興味判定装置、興味判定方法、及びプログラム
JP6768597B2 (ja) * 2017-06-08 2020-10-14 株式会社日立製作所 対話システム、対話システムの制御方法、及び装置
US10770092B1 (en) 2017-09-22 2020-09-08 Amazon Technologies, Inc. Viseme data generation
JP2019072787A (ja) * 2017-10-13 2019-05-16 シャープ株式会社 制御装置、ロボット、制御方法、および制御プログラム
US20190172240A1 (en) * 2017-12-06 2019-06-06 Sony Interactive Entertainment Inc. Facial animation for social virtual reality (vr)
JP7081164B2 (ja) * 2018-01-17 2022-06-07 株式会社Jvcケンウッド 表示制御装置、通信装置、表示制御方法および通信方法
TWI687917B (zh) * 2018-03-07 2020-03-11 宏碁股份有限公司 語音系統及聲音偵測方法
CN112041924B (zh) * 2018-05-18 2024-07-02 渊慧科技有限公司 通过音素预测进行视觉语音识别
WO2020152657A1 (en) * 2019-01-25 2020-07-30 Soul Machines Limited Real-time generation of speech animation
CN111953922B (zh) * 2019-05-16 2022-05-27 南宁富联富桂精密工业有限公司 视频会议的人脸辨识方法、服务器及计算机可读存储介质
CN110531860B (zh) 2019-09-02 2020-07-24 腾讯科技(深圳)有限公司 一种基于人工智能的动画形象驱动方法和装置
CN112533030B (zh) * 2019-09-19 2022-05-17 聚好看科技股份有限公司 一种演唱界面的显示方法、显示设备及服务器
US11593984B2 (en) * 2020-02-07 2023-02-28 Apple Inc. Using text for avatar animation
CN113691833B (zh) * 2020-05-18 2023-02-03 北京搜狗科技发展有限公司 虚拟主播换脸方法、装置、电子设备及存储介质
CN113934289A (zh) * 2020-06-29 2022-01-14 北京字节跳动网络技术有限公司 数据处理方法、装置、可读介质及电子设备
US11361491B2 (en) * 2020-07-03 2022-06-14 Wipro Limited System and method of generating facial expression of a user for virtual environment
US11756251B2 (en) * 2020-09-03 2023-09-12 Sony Interactive Entertainment Inc. Facial animation control by automatic generation of facial action units using text and speech
US11438551B2 (en) * 2020-09-15 2022-09-06 At&T Intellectual Property I, L.P. Virtual audience using low bitrate avatars and laughter detection
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks
CN113160839B (zh) * 2021-04-16 2022-10-14 电子科技大学 一种基于自适应注意力机制和渐进式学习的单声道语音增强方法
CN113808281B (zh) * 2021-08-23 2024-02-27 桂林未来鹏创软件有限公司 一种汽车虚拟精灵形象生成方法、***、装置和存储介质
CN115695943A (zh) * 2022-10-31 2023-02-03 北京百度网讯科技有限公司 数字人视频生成方法、装置、设备及存储介质
CN116528019B (zh) * 2023-06-19 2024-01-26 北京中科闻歌科技股份有限公司 基于语音驱动和人脸自驱动的虚拟人视频合成方法
CN116564338B (zh) * 2023-07-12 2023-09-08 腾讯科技(深圳)有限公司 语音动画生成方法、装置、电子设备和介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3171990D1 (en) * 1981-04-30 1985-10-03 Ibm Speech coding methods and apparatus for carrying out the method
US4642710A (en) * 1985-03-15 1987-02-10 Milton Bradley International, Inc. Animated display controlled by an audio device
JPS6350896A (ja) * 1986-08-21 1988-03-03 沖電気工業株式会社 音声認識装置
US4900289A (en) * 1988-01-29 1990-02-13 Cal R&D, Inc. Mechanism for animating a doll's facial features
US6181351B1 (en) * 1998-04-13 2001-01-30 Microsoft Corporation Synchronizing the moveable mouths of animated characters with recorded speech
IT1314671B1 (it) * 1998-10-07 2002-12-31 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per l'animazione di un modellosintetizzato di volto umano pilotata da un segnale audio.
GB2349259B (en) * 1999-04-23 2003-11-12 Canon Kk Speech processing apparatus and method
US7149686B1 (en) * 2000-06-23 2006-12-12 International Business Machines Corporation System and method for eliminating synchronization errors in electronic audiovisual transmissions and presentations
DE60224776T2 (de) * 2001-12-20 2009-01-22 Matsushita Electric Industrial Co., Ltd., Kadoma-shi Virtuelles Bildtelefon
US7133535B2 (en) * 2002-12-21 2006-11-07 Microsoft Corp. System and method for real time lip synchronization
US7640159B2 (en) * 2004-07-22 2009-12-29 Nuance Communications, Inc. System and method of speech recognition for non-native speakers of a language
CN1991982A (zh) * 2005-12-29 2007-07-04 摩托罗拉公司 一种使用语音数据激励图像的方法
WO2007092629A2 (en) * 2006-02-09 2007-08-16 Nms Communications Corporation Smooth morphing between personal video calling avatars
KR101541907B1 (ko) * 2008-10-14 2015-08-03 삼성전자 주식회사 음성 기반 얼굴 캐릭터 형성 장치 및 방법

Also Published As

Publication number Publication date
US8725507B2 (en) 2014-05-13
US20110131041A1 (en) 2011-06-02
BRPI0904540A2 (pt) 2011-07-12

Similar Documents

Publication Publication Date Title
BRPI0904540B1 (pt) método para animar rostos/cabeças/personagens virtuais via processamento de voz
CN111243626B (zh) 一种说话视频生成方法及***
CN110531860B (zh) 一种基于人工智能的动画形象驱动方法和装置
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及***、存储介质、终端
CN111145322B (zh) 用于驱动虚拟形象的方法、设备和计算机可读存储介质
US8224652B2 (en) Speech and text driven HMM-based body animation synthesis
Pham et al. Speech-driven 3D facial animation with implicit emotional awareness: A deep learning approach
EP3951604A1 (en) Communication assistance system, communication assistance method, communication assistance program, and image control program
Hong et al. Real-time speech-driven face animation with expressions using neural networks
US9361722B2 (en) Synthetic audiovisual storyteller
Chuang et al. Mood swings: expressive speech animation
CN113454708A (zh) 语言学风格匹配代理
CN116250036A (zh) 用于合成语音的照片级真实感视频的***和方法
CN110688008A (zh) 虚拟形象交互方法和装置
Cosatto et al. Lifelike talking faces for interactive services
CN110610534B (zh) 基于Actor-Critic算法的口型动画自动生成方法
JP7227395B2 (ja) インタラクティブ対象の駆動方法、装置、デバイス、及び記憶媒体
CN110266973A (zh) 视频处理方法、装置、计算机可读存储介质和计算机设备
US20140210831A1 (en) Computer generated head
CN114357135A (zh) 交互方法、交互装置、电子设备以及存储介质
CN112668407A (zh) 人脸关键点生成方法、装置、存储介质及电子设备
CN113077537A (zh) 一种视频生成方法、存储介质及设备
CN110794964A (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
WO2023246163A9 (zh) 一种虚拟数字人驱动方法、装置、设备和介质
CN112652041A (zh) 虚拟形象的生成方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B25C Requirement related to requested transfer of rights

Owner name: SAMSUNG ELETRONICA DA AMAZONIA LTDA (BR/AM)

Free format text: A FIM DE ATENDER A TRANSFERENCIA, REQUERIDA ATRAVES DA PETICAO NO 860150023101 DE 12/02/2015, E NECESSARIO APRESENTAR DOCUMENTO QUE COMPROVE QUE OS REPRESENTANTES DA EMPRESA CEDENTE TEM PODERES PARA REALIZAR TAL ATO.

B25G Requested change of headquarter approved

Owner name: SAMSUNG ELETRONICA DA AMAZONIA LTDA (BR/AM)

B25A Requested transfer of rights approved

Owner name: SAMSUNG ELETRONICA DA AMAZONIA LTDA. (BR/SP)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 26/01/2021, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 13A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2698 DE 20-09-2022 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.