KR101556594B1 - 신호처리장치 및 신호처리장치에서의 음성 인식 방법 - Google Patents

신호처리장치 및 신호처리장치에서의 음성 인식 방법 Download PDF

Info

Publication number
KR101556594B1
KR101556594B1 KR1020090003026A KR20090003026A KR101556594B1 KR 101556594 B1 KR101556594 B1 KR 101556594B1 KR 1020090003026 A KR1020090003026 A KR 1020090003026A KR 20090003026 A KR20090003026 A KR 20090003026A KR 101556594 B1 KR101556594 B1 KR 101556594B1
Authority
KR
South Korea
Prior art keywords
speech
speech recognition
voice
input
recognition
Prior art date
Application number
KR1020090003026A
Other languages
English (en)
Other versions
KR20100083572A (ko
Inventor
장종혁
박승권
이종호
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020090003026A priority Critical patent/KR101556594B1/ko
Priority to US12/552,540 priority patent/US8812317B2/en
Priority to EP09169327.5A priority patent/EP2209113B1/en
Publication of KR20100083572A publication Critical patent/KR20100083572A/ko
Application granted granted Critical
Publication of KR101556594B1 publication Critical patent/KR101556594B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명의 일 측면에 따른 신호처리장치는, 음성을 인식하는 음성 인식부와; 음성인식의 대상인 음성을 학습하는 음성 인식 학습부와; 입력된 음성 중 상기 음성인식의 대상인 음성을 인식하도록 상기 음성 인식부를 제어하고, 상기 음성인식에 실패하는 경우에는 입력된 음성을 학습하도록 상기 음성 인식 학습부를 제어하고, 상기 음성인식에 성공하는 경우에는 인식된 음성에 대응하는 특정 동작을 수행하는 제어부를 포함하며, 이에 의할 때 의도와 달리 실패한 이전 명령들을 기억하여 최종적으로 성공한 음성 명령과 이전 명령들의 관계를 학습함으로써, 학습 이후의 시점에서는 학습 이전에 실패하였던 음성 명령도 성공적으로 활용할 수 있다.
음성인식, 실패, 학습

Description

신호처리장치 및 신호처리장치에서의 음성 인식 방법{SIGNAL PROCESSING APPARATUS AND METHOD OF RECOGNIZING VOICE THEREOF}
본 발명은 신호처리장치 및 신호처리장치에서의 음성 인식 방법에 관한 것으로서, 보다 상세하게는 반복적인 실수를 학습하여 이전의 실수였던 음성 명령을 성공적으로 학습할 수 있는 신호처리장치 및 신호처리장치에서의 음성 인식 방법에 관한 것이다.
음성인식 기술에서는 입력되는 음성 명령을 더욱 정확하게 인식하는 것이 무엇보다 중요하다. 따라서 기존의 음성인식 기술들은 입력되는 음성 신호에 왜곡이 발생하는 경우에도 높은 인식률을 얻기 위해서, 다양한 입력 환경에 적응할 수 있도록 음성인식의 대상이 되는 음성을 학습한다.
도 1은 기존의 음성인식 학습 과정을 도시한 도면이다.
신호처리장치는 음성인식 기능을 활성화시킨다(S101).
사용자로부터 음성을 입력받는 경우(S102), 신호처리장치는 입력된 음성을 인식한다(S103).
이 경우, 신호처리장치는 인식한 음성을 출력하고(S104), 인식 결과에 따른 동작을 수행한다(S105). 신호처리장치는 수행되던 동작이 사용자에 의하여 중단되었는지 판단한다(S106). 사용자가 의도하던 제어 명령에 해당하는 동작이 아닌 경우, 사용자는 신호처리장치가 수행하는 동작을 중지시킬 수 있다. 즉, 음성 인식의 결과가 사용자의 의도와 다른 경우(음성 인식이 실패할 경우), 사용자는 이를 취소하고 음성을 다시 입력할 수 있다. 따라서, 수행되던 동작이 사용자에 의하여 중단되는 경우에는, 신호처리장치는 사용자로부터 음성 명령을 다시 입력받는다. 반면, 수행되던 동작이 사용자에 의하여 중단되지 않는 경우에는, 신호처리장치는 인식 결과의 신뢰도를 계산한다(S107).
신호처리장치는 계산된 신뢰도가 일정 수준 이상인지 판단한다(S108). 일정 수준 이상인 경우, 신호처리장치는 인식한 음성을 학습한다(S109). 그러나, 신뢰도가 일정 수준 미만인 경우에는 신호처리장치는 사용자로부터 음성 명령을 다시 입력받는다.
기존에는 음성인식 시도 시 음성인식이 성공하게 되고 그 결과가 믿을만한 수준이라고 판단되는 경우, 해당 데이터를 이용하여 성공한 음성을 재학습하였다. 예를 들어, 음성인식 결과와 음성인식 시 계산되었던 특징 벡터를 일시적으로 저장한 후, 사용자의 기기 조작 양상에 따라 인식 결과가 믿을 만하다고 판단되는 경우, 성공한 음성을 재학습에 이용하였다.
따라서, 음성인식이 실패한 경우 또는 음성인식이 성공하였지만 신뢰도가 일정 수준 미만 이여서 음성인식 결과가 믿을만한 수준이라고 판단될 수 없는 경우에는 입력된 음성을 학습하지 않았다.
따라서, 본 발명의 목적은 의도와 달리 실패한 이전 명령들을 학습함으로써, 반복적인 실수를 학습하여 이전의 실수였던 음성 명령을 성공적으로 학습할 수 있는 신호처리장치 및 신호처리장치에서의 음성 인식 방법을 제공하는 것이다.
본 발명의 일 측면에 따른 신호처리장치는, 음성을 인식하는 음성 인식부와; 음성인식의 대상인 음성을 학습하는 음성 인식 학습부와; 입력된 음성 중 상기 음성인식의 대상인 음성을 인식하도록 상기 음성 인식부를 제어하고, 상기 음성인식에 실패하는 경우에는 입력된 음성을 학습하도록 상기 음성 인식 학습부를 제어하고, 상기 음성인식에 성공하는 경우에는 인식된 음성에 대응하는 특정 동작을 수행하는 제어부를 포함할 수 있다.
상기 신호처리장치에 있어서, 상기 제어부는, 상기 음성인식에 성공하는 경우 상기 입력된 음성을 학습하도록 상기 음성 인식 학습부를 제어할 수 있다. 상기 신호처리장치에 있어서, 상기 음성 인식 학습부는, 상기 입력된 음성의 특징값 들을 상기 음성인식의 대상인 음성의 특징값과 비교하여 유사도를 판단할 수 있다. 상기 신호처리장치에 있어서, 상기 제어부는, 상기 입력된 음성과 상기 음성인식의 대상인 음성의 유사도가 소정 수준 이상인 경우, 상기 입력된 음성의 특징을 학습하도록 상기 음성 인식 학습부를 제어할 수 있다. 상기 신호처리장치에 있어서, 상기 음성 인식 학습부는, acoustic 모델을 이용하여 상기 입력된 음성의 특징을 학 습할 수 있다. 상기 신호처리장치에 있어서, 상기 제어부는, 상기 입력된 음성과 상기 음성인식의 대상인 음성의 유사도가 소정 수준 미만인 경우, 상기 입력된 음성을 상기 음성인식의 대상에 추가하도록 상기 음성 인식 학습부를 제어할 수 있다. 상기 신호처리장치에 있어서, 상기 음성 인식 학습부는, lexicon 모델을 이용하여 상기 입력된 음성을 상기 음성인식의 대상에 추가할 수 있다. 상기 신호처리장치는, 사용자로부터 상기 음성인식이 실패되었는지 또는 성공되었는지 여부를 입력받는 사용자 입력부를 더 포함할 수 있다.
한편 본 발명의 다른 측면에 따른 신호처리장치에서의 음성 인식 방법은, 음성을 입력받는 단계와; 입력된 상기 음성 중 음성인식의 대상인 음성을 인식하는 단계와; 상기 음성인식에 실패하는 경우에는 입력된 음성을 학습하고, 상기 음성인식에 성공하는 경우에는 인식된 음성에 대응하는 특정 동작을 수행하는 단계를 포함할 수 있다.
상기 신호처리장치에서의 음성 인식 방법에 있어서, 상기 음성인식에 성공하는 경우 상기 입력된 음성을 학습할 수 있다. 상기 신호처리장치에서의 음성 인식 방법에 있어서, 상기 입력된 음성의 특징값들을 상기 음성인식의 대상인 음성의 특징값과 비교하여 유사도를 판단할 수 있다. 상기 신호처리장치에서의 음성 인식 방법에 있어서, 상기 입력된 음성과 상기 음성인식의 대상인 음성의 유사도가 소정 수준 이상인 경우, 상기 입력된 음성의 특징을 학습할 수 있다. 상기 신호처리장치에서의 음성 인식 방법에 있어서, acoustic 모델을 이용하여 상기 입력된 음성의 특징을 학습할 수 있다. 상기 신호처리장치에서의 음성 인식 방법에 있어서, 상기 입력된 음성과 상기 음성인식의 대상인 음성의 유사도가 소정 수준 미만인 경우, 상기 입력된 음성을 상기 음성인식의 대상에 추가할 수 있다. 상기 신호처리장치에서의 음성 인식 방법에 있어서, lexicon 모델을 이용하여 상기 입력된 음성을 상기 음성인식의 대상에 추가할 수 있다. 상기 신호처리장치에서의 음성 인식 방법은, 사용자로부터 상기 음성인식이 실패되었는지 또는 성공되었는지 여부를 입력받는 단계를 더 포함할 수 있다.
본 발명에 따르면 반복적인 실수를 학습하여 이전의 실수였던 음성 명령을 성공적으로 학습할 수 있다. 또한, 의도와 달리 실패한 이전 명령들을 기억하여, 최종적으로 성공한 음성 명령과 이전 명령들의 관계를 학습함으로써, 학습 이후의 시점에서는 학습 이전에 실패하였던 음성 명령도 성공적으로 활용할 수 있다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 부호를 붙이도록 한다.
도 2는 본 발명의 일 실시예에 따른 신호처리장치의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 신호처리장치(200)는 디지털 TV, 데스크 탑 컴퓨터, 노트북, 셋탑 박스, DVD(Digital Versatile Disc)/BD(Blu-ray Disc) 플레이어, DVD 레코더 등이 될 수 있다. 나아가, 음성 명령을 인식하고 이에 대응하는 동작을 수행할 수 있는 전자 디바이스라면, 본 발명의 일 실시예에 따른 신호처리장치(200)가 될 수 있다.
본 발명의 일 실시예에 따른 신호처리장치(200)는 음성 인식부(210), 음성 인식 학습부(220), 제어부(230) 및 사용자 입력부(240)를 포함할 수 있다.
음성 인식부(210)는 음성을 인식한다. 이 경우, 음성 인식부(210)는 입력된 음성을 양자화하여 특징값 들을 추출하고, 이를 음성인식 대상 단어의 특징값과 매칭하여 비교할 수 있다.
음성 인식 학습부(220)는 음성인식의 대상인 음성을 학습한다. 이 경우, 음성인식 학습부(220)는 제어부(230)의 제어에 의하여, 음성인식에 실패한 입력 음성을 학습할 수 있다.
사용자의 의도와 다르게 음성인식이 실패하였을 경우, 사용자는 틀렸던 이전 음성 명령과 다른 방법으로 소리를 내거나(예를 들어, 음성 명령을 크게 말하거나, 혹은 또렷하게 말함) 또는 다른 변형된 음성 명령(몇 음절 또는 몇 단어가 다른 음성 명령)을 하게 된다. 따라서, 음성 인식 학습부(220)는 다음과 같이 실패한 시도를 학습하여, 반복적인 실수를 학습한다.
첫째, 음성인식 시 사용자 목소리의 톤, 크기, 억양, 사투리 등으로 인식 오류가 발생할 수 있다. 이러한 변수로 인하여 생긴 인식 오류를 해결하기 위하여, 음성 인식 학습부(220)는 사용자의 음성인식 시도 시의 정오 패턴 및 입력되는 음성 명령어들간의 유사도를 계산하여, 학습 이전에 틀린 것으로 분류되던 음성 명령어들과 정답인 음성 명령어간의 차이를 음성 인식의 음소 모델 재학습시 활용하여 자동화된 사용자 적응형 음성인식을 수행할 수 있다.
둘째, 기기 조작을 위하여 음성으로 명령어를 말하는 경우, 사용자의 습관에 따라서 혹은 명령어의 형태나 선택한 단어 또는 선택한 음절 수에 따라, 사용자는 음성인식의 대상인 명령어와 다른 명령어를 말할 수 있다. 예를 들어 TV의 볼륨을 높이는 명령어가 "볼륨 크게" 로 지정되어 있는 경우, 사용자는 무의식적으로 "볼륨 업" 또는 "소리 크게" 등으로 명령할 수 있다. 이 경우 음성 인식 오류가 발생하며, 사용자는 여러 번의 시행착오를 통해 기기에서 원하는 명령어를 하게 될 것이다. 혹은 기기에서 원하는 명령어를 말하지 못할 수도 있다. 음성 인식 학습부(220)는 이러한 경우 사용자가 명령했던 명령어들을 저장해놓은 후 유사도를 비교하여 사용자가 무의식적으로 발음한 "볼륨 업" 또는 "소리 크게" 라는 단어도 "볼륨 크게" 라는 명령어에 매칭되도록 한다.
이 경우, 음성 인식 학습부(220)는 Acoustic 모델 또는 Lexicon 모델에 따라 음성을 학습할 수 있다. 구체적으로, 음성 인식 학습부(220)는, 입력된 음성과 음성인식의 대상인 음성의 유사도가 소정 수준 이상인 경우에는 Acoustic 모델을 이용하여 입력된 음성의 특징을 학습할 수 있다. 또한, 음성 인식 학습부(220)는, 입력된 음성과 음성인식의 대상인 음성의 유사도가 소정 수준 미만인 경우에는 Lexicon 모델을 이용하여 입력된 음성을 음성인식의 대상에 추가할 수 있다.
이를 위해, 음성 인식 학습부(220)는 입력된 음성의 특징값 들을 음성인식의 대상인 음성의 특징값과 비교하여 유사도를 판단할 수 있다. 또는 음성 인식 학습부(220)는 한 음성과 음성인식 대상 단어와의 유사값을 구하여 유사도를 판단할 수도 있다.
한편, 음성 인식 학습부(200)는 음성 인식 결과 및 음성 인식 학습용 데이터를 저장하기 위한 메모리를 포함할 수 있다. 이 경우, 음성 인식 학습부(200)는 음성 인식 결과 및 음성 인식 학습용 데이터를 특정 형태에 맞추어 메모리 또는 디스크에 저장할 수 있다. 이에 대해서는 도 7a 내지 도 7c에서 상세히 설명한다.
제어부(230)는 입력된 음성 중 음성인식의 대상인 음성을 인식하도록 음성 인식부(210)를 제어할 수 있다. 또한, 제어부(230)는 음성인식에 성공하는 경우 인식된 음성에 대응하는 특정 동작을 수행할 수 있다.
한편, 제어부(230)는 음성인식에 실패하는 경우 입력된 음성을 학습하도록 음성 인식 학습부(220)를 제어할 수 있다. 이 경우, 제어부(230)는 입력된 음성과 음성인식의 대상인 음성의 유사도가 소정 수준 이상인 경우, 입력된 음성의 특징을 학습하도록 음성 인식 학습부(220)를 제어할 수 있다. 반면, 제어부(230)는 입력된 음성과 음성인식의 대상인 음성의 유사도가 소정 수준 미만인 경우, 입력된 음성을 음성인식의 대상에 추가하도록 음성 인식 학습부(220)를 제어할 수 있다.
나아가, 제어부(230)는 음성음식에 실패하는 경우뿐 아니라, 음성인식에 성공하는 경우에도 입력된 음성을 학습하도록 음성 인식 학습부(220)를 제어할 수 있다.
사용자 입력부(240)는 사용자로부터 음성인식이 실패되었는지 또는 성공되었는지 여부를 입력받는다. 즉, 사용자 입력부(240)는 사용자의 피드백을 입력받는다. 이 경우, 사용자의 피드백을 받는 구체적인 방법은 다양하게 구성될 수 있다. 예를 들어, 음성을 입력한 후 취소에 해당하는 명령을 일정 시간 내에 내리거나 음성 인식 결과가 틀렸음을 나타내는 입력 키를 누르는 경우 또는 일정 시간 동안 사용자의 입력이 없는 경우, 신호처리장치(200)는 음성인식이 실패한 것으로 판단할 수 있다.
도 3은 본 발명의 일 실시예에 따른 신호처리장치에서의 음성 인식 과정을 도시한 도면이다.
사용자가 음성을 입력하는 경우(S301), 신호처리장치(200)는 음성을 입력받는다. 이 경우, 신호처리장치(200)는 음성 인식 결과를 출력한다(S302).
신호처리장치(200)는 음성 인식 결과가 믿을 만한 수준의 결과인지 판단한다 (S303). 음성 인식 결과가 믿을 만한 수준의 결과인 경우(S303-Y), 즉 신뢰도가 일정 수준 이상인 경우, 신호처리장치(200)는 음성 인식 결과를 수행한다(S304). 구체적으로, 신호처리장치(200)는 인식된 음성에 대응하는 특정 동작을 수행할 수 있다.
신호처리장치(200)는 사용자가 해당 동작을 취소하였는지 판단한다(S305). 만일 사용자가 해당 동작을 취소하지 않은 경우에는, 신호처리장치(200)는 음성 인식 결과를 저장한다(S306). 구체적으로, 신호처리장치(200)는 음성 인식 결과와 음성 인식 학습용 데이터를 특정 형태에 맞추어 메모리 또는 디스크에 저장할 수 있 다. 이 경우, 신호처리장치(200)는 저장된 음성 인식 결과를 기초로 재학습을 수행한다(S307).
한편, S303 단계에서 음성 인식 결과가 믿을 만한 수준의 결과가 아니라고 판단되거나(S303-N) S305 단계에서 사용자가 해당 동작을 취소한 경우에는(S305-Y), 신호처리장치(200)는 S316 단계로 이행한다. 이 경우, 신호처리장치(200)는 음성 인식 결과를 저장하고(S316), 저장된 음성 인식 결과를 기초로 재학습을 수행한다(S317). 또한, S301 단계로 되돌아가 사용자로부터 음성을 다시 입력받는다. 음성 인식 결과가 믿을 만한 수준이 아니라고 판단되거나 사용자가 해당 동작을 취소한 경우에는 음성 인식 결과를 수행하지 않기 때문에, 다시 사용자가 의도하는 제어 명령에 대응되는 음성을 입력받아야 하기 때문이다.
이렇게 본 발명에 따르면, 기존과는 달리 음성 인식이 실패한 경우, 즉 음성 입력 결과가 일정 신뢰 수준 이하이거나 사용자가 해당 음성 인식 결과에 대한 동작을 취소한 경우에도, 해당 음성 인식 결과를 재학습한다. 즉, 의도와 달리 실패한 음성 명령들을 학습함으로써, 학습 이후의 시점에서는 학습 이전에 실패하였던 음성 명령도 성공적으로 활용할 수 있다.
도 4는 본 발명의 일 실시예에 따른 신호처리장치에서의 음성 학습 과정을 도시한 도면이다.
상기 음성 학습 과정에서는, 실패한 시도와 성공한 시도의 음성 특징값이 유사하다면, 사용자가 성공한 음성과 똑같은 단어를 말하였지만 억양이나, 톤, 볼륨 등으로 인하여 실패한 단어라고 가정한다. 따라서, 이 경우에는 Acoustic 모델에 의하여 실패한 시도의 음성 데이터를 학습한다.
반면, 실패한 시도와 성공한 시도의 음성 특징값이 유사하지 않다면, 사용자가 성공한 음성과 동일한 목적으로 말하였지만 다른 단어를 말하였다고 가정한다. 따라서, 이 경우에는 Lexicon 모델에 의하여 실패한 시도의 음성 데이터를 학습한다. 구체적으로, Lexicon 모델의 음성 인식의 대상에 실패한 시도의 음성 특징값을 갖는 단어를 추가한다.
구체적으로, 음성 인식이 단 한번에 성공한 경우에는 Acoustic 모델을 이용하여 성공한 시도의 음성 데이터를 학습하고, 두 번 이상의 시도 후에 음성 인식에 성공한 경우에는 실패한 시도의 음성 특징값과 성공한 시도의 음성 특징값과의 유사도에 따라, Acoustic 모델 또는 Lexicon 모델에 따라 음성 데이터를 학습한다.
음성을 학습하는 경우, 가장 먼저 신호처리장치(200)는 음성인식을 시도한 총 시도회수가 1인지 판단한다(S401).
음성인식을 시도한 총 시도회수가 1인 경우(S401-Y), 신호처리장치(200)는 Acoustic 모델을 이용하여 성공한 시도의 음성 특징값을 학습한다(S414). 반면 음성 인식을 시도한 총 시도회수가 1이 아니라고 판단되면(S401-N), 신호처리장치(200) 는 음성 인식 결과값에서 실패한 시도의 음성 특징값과 성공한 시도의 음성 특징값 과의 유사도를 비교한다(S402).
신호처리장치(200)는 실패한 시도의 음성 특징값과 성공한 시도의 음성 특징값이 유사한지 판단한다(S403). 만일, 실패한 시도의 음성 특징값과 성공한 시도의 음성 특징값이 유사하면(S403-Y), 신호처리장치(200)는 Acoustic 모델을 이용하여 실패한 시도의 음성 특징값을 학습한다(S404). 반면, 실패한 시도의 음성 특징값과 성공한 시도의 음성 특징값이 유사하지 않으면(S403-N), 신호처리장치 (200)는 Lexicon 모델의 음성 인식의 대상에 실패한 시도의 음성 특징값을 갖는 단어를 추가한다(S424).
본 실시예에서는 음성 인식에 실패하는 경우에도, Acoustic 모델 또는 Lexicon 모델에 따라 음성을 학습한다. Acoustic 모델에 따라 음성을 학습하는 경우, 사용자의 발음 및 억양으로 인한 인식 오류를 알아내어 사용자의 고유 발음을 재학습할 수 있다. Lexicon 모델에 따라 음성을 학습하는 경우, 사용자가 명령어를 제대로 기억하지 못하여 같은 의미로 다른 명령어를 말하였을 경우에도 해당 단어를 인식 대상 단어에 추가하여 추후에 인식이 가능하도록 할 수 있다.
도 5는 Acoustic 모델에 따른 음성 학습 과정을 도시한 도면이다.
신호처리장치(200)가 디지털 TV로 구현되고, 출력되는 오디오의 볼륨을 크게 하는 명령어가 "볼륨 크게" 로 정해져 있다고 가정할 때, 음성 인식이 실패하는 첫 번째 시나리오는 다음과 같다.
사용자가 음성인식의 대상인 음성과 똑같은 "볼륨 크게" 라는 명령어를 말한다. 그러나, 억양이나 톤, 볼륨 등의 차이가 발생하여, 신호처리장치(200)는 사용자의 음성을 다른 단어로 오인식하거나 또는 인식에 실패할 수 있다.
사용자는 오인식의 경우 음성 인식 결과를 취소하고 다시 한번 "볼륨 크게" 를 말한다. 인식에 실패했을 경우에도 다시 "볼륨 크게" 를 말한다. 음성 인식에 실패한 후 다시 음성 인식을 시도하게 되면, 사용자는 일반적으로 첫 번째 시도시 의 음성보다 더욱 크고 분명한 발음으로 명령어를 말하게 된다. 신호처리장치(200)는 재입력되어진 음성을 "볼륨 크게" 로 정상적으로 인식하게 되고, 상기 명령어에 대응하는 동작을 수행하게 된다.
본 발명에서는 상기와 같은 시나리오의 경우, Acoustic 모델에 따라 음성을 학습한다. 즉, 신호처리장치(200)는 처음으로 입력되었으나 오인식 또는 인식 실패 한 "볼륨 크게" 라는 발음과 인식에 성공한 "볼륨 크게" 와의 유사도를 비교하고, 두 발음 사이에 유사도가 일정 수준 이상이라면 사용자가 같은 단어를 말하였지만 발음이나 억양 차로 인하여 인식이 실패한 것으로 간주한다. 이 경우, 신호처리장치 (200)는 인식에 실패한 "볼륨 크게" 의 음소 모델을 분석하여 이를 학습한다.
Acoustic 모델에 따른 음성 학습 과정에서는, 은닉 마코브 모델링(Hidden Markov Modeling: HMM) 방법을 사용할 수 있다. 은닉 마코브 모델링 방법에 의하면, 음성의 특징값을 계산하여 특정 음소가 나올 확률적인 통계값을 구함으로써 어떤 음소가 발음되었는지 구분한다. 하지만 일반적으로 말을 할 때 앞의 음소와 뒤의 음소가 현재 음소의 발음에 영향을 주게 되며, 이러한 이유로 은닉 마코브 모델링 방법에서는 tri-phonemes라는 개념을 적용하여 앞, 뒤, 현재 음소 3 가지를 조합하여 음소를 구성한다.
신호처리장치(200)는 Acoustic 모델 학습 자료를 구성한다(S501). 이 경우, 신호처리장치(200)는 구성된 상기 Acoustic 모델 학습 자료를 기초로, Tri-phonemes를 구성한다(S502).
신호처리장치(200)는 Tri-phonemes와 음소값을 매칭시킨다(S503). 즉, 신호 처리장치(200)는 입력 음성의 음소와 상기 Tri-phonemes의 음소값을 비교하고, 이를 새로운 음성인식의 대상으로 학습한다.
이 경우, 신호처리장치(200)는 학습된 결과를 반영하여, Acoustic 모델 데이터의 해당 Tri-phonemes값을 변경한다(S504).
기존에는, 성공한 시도의 음성만을 학습하였다. 따라서, 사용자가 같은 단어를 말하였지만 발음이나 억양 차로 음성 인식에 실패한 경우, 입력된 음성은 학습되지 않았다. 본 발명에 의하면, 이러한 경우에도 입력된 음성을 Acoustic 모델에 의하여 학습한다. 따라서, 음성 인식의 정확도를 높일 수 있다.
도 6은 Lexicon 모델에 따른 음성 학습 과정을 도시한 도면이다.
도 5와 동일한 가정하에서, 음성 인식이 실패하는 두 번째 시나리오는 다음과 같다.
출력되는 오디오의 볼륨을 크게 하는 명령어가 "볼륨 크게" 로 정해져 있는 상황에서, 사용자는 "소리 크게" 라는 명령어를 말한다. 이 경우, 신호처리장치 (200)는 사용자의 음성을 다른 단어로 오인식하거나. 혹은 인식에 실패하게 된다.
사용자는 오인식의 경우 음성 인식 결과를 취소하고, 다시 한번 더 크고 분명한 목소리로 "소리 크게" 를 말하게 된다. 인식에 실패했을 경우에도, 다시 "소리 크게" 를 말한다. 하지만 이 명령은 다시 실패하게 되며, 이 경우 사용자는 다른 명령어의 조합도 시도할 수 있다. 예를 들어 "볼륨 업", "볼륨 크게" 등 똑같은 의미의 다른 명령어를 순차적으로 말할 수 있으며, 이때 "볼륨 크게" 라는 명령어를 말하게 되면 음성 인식은 성공한다.
본 발명에서는 상기와 같은 시나리오의 경우, Lexicon 모델에 따라 음성을 학습한다. 즉, 신호처리장치(200)는 처음 입력되었으나 오인식 또는 인식 실패하였던 "소리 크게" 라는 발음과 인식에 성공한 "볼륨 크게" 와의 유사도를 비교한다. 이 경우, 두 단어의 발음상의 유사도는 일정 수준을 넘지 못하기 때문에, 신호처리장치(200)는 사용자가 같은 의도의 말을 하였지만 다른 단어를 말하여 인식에 실패한 것으로 간주하고, 인식에 실패한 "소리 크게" 를 단어장에 추가한 후 "볼륨 크게" 에 대응하는 제어 동작과 연결시킨다.
Lexicon 모델에 따라 음성을 학습하고자 하는 경우, 신호처리장치(200)는 현재 최종 인식 단어와 같은 튜플들을 Lexicon 모델 학습용 데이터에서 모두 가져온다(S601). 상기 Lexicon 모델 학습용 데이터에 대해서는 도 7c에서 후술한다.
신호처리장치(200)는 튜플들의 음성 특징값과 현재 입력된 음성 특징값과의 유사도를 구한다(S602). 이 경우, 현재 입력된 음성 특징값이 이전에 입력되었던 회수를 판단하여 유사도를 구할 수 있다. 예를 들어 '볼륨 크게' 라는 최종 인식 단어에 대하여 '볼륨 업' 이라고 말했다면, 이전에도 똑같이 '볼륨 업' 이라고 말한 적이 있는지 판단한다. 이 경우, 현재 입력된 음성 특징값이 이전에 입력되었던 회수가 높을수록, 유사도가 높은 것으로 판단한다.
신호처리장치(200)는 각각의 튜플에 대하여, 유사도가 일정 수준 이상인지 판단한다(S603). 구체적으로, 최종 인식 단어가 아닌 다른 명령어를 계속 입력하는 시도가 N번 이상인지 판단할 수 있다.
유사도가 일정 수준 이상인 경우(S603-Y), 신호처리장치(200)는 실패한 시도 의 음성 특징값을 Lexicon 모델의 음성 인식의 대상에 추가한다(S604). 예를 들어, '볼륨 업' 이라는 단어의 음소(Phonemes)도 '볼륨 크게' 에 매칭되도록 음성 인식 대상 단어에 추가한다. 이 경우, 신호처리장치(200)는 lexicon 모델 학습용 데이터에서 해당 튜플을 삭제한다(S605).
한편, S603 단계에서 유사도가 일정 수준 이상이 아니라고 판단되면(S603-N), 신호처리장치(200)는 입력된 음성 특징값을 Lexicon 모델 학습용 데이터에 추가한다(S606).
이렇게 Lexicon 모델에 따라 음성을 학습하는 경우, 사용자가 무의식적으로 또는 습관에 의하여 '볼륨 크게' 라는 명령어를 '볼륨업' 또는 '소리 크게' 라고 발음하는 경우, 해당 단어를 Lexicon모델에 따른 인식대상 단어에 추가함으로써 '볼륨 업', '소리 크게' 라는 명령어도 인식할 수 있다.
도 7a는 저장된 음성 인식 결과의 일례를 도시한 도면이다.
각각의 시도 회수, 특징값, 성공/실패가 하나의 튜플(Tuple)(710)을 이루며, 최초 음성 인식 시도부터 최초 음성 인식 성공 및 특정 동작 수행까지가 하나의 테이블로 관리된다. 성공/실패 중 성공은 음성 인식 결과가 신뢰 수준 이상이고, 사용자의 취소 요청도 없는 경우를 말한다. 도 7a에 도시된 테이블을 참조하면, 제n번째 시도에서 음성 인식에 성공할 때까지 입력된 음성의 특징값 들이 차례대로 저장되어 있는 것을 알 수 있다.
도 7b는 저장된 Acoustic 모델 학습용 데이터의 일례를 도시한 도면이다.
상기 Acoustic 모델 학습용 데이터는 음소 데이터의 특징값들을 저장한다. 예를 들어 ㄱ,ㄴ,ㄷ...,ㅏ,ㅑ,ㅓ 등 모든 음소에 대하여 음성 특징값을 매칭하여 저장할 수 있다.
도 7b에서는 각각의 최종 인식 단어와, 최종 인식 시 음성 특징값, 학습시킬 음성 특징값이 하나의 튜플(720)을 이룬다. 이 경우, 최종 인식 시 음성 특징값과 학습시킬 음성 특징값은 일정 수준 이상의 유사도를 가진다.
도 7c는 저장된 Lexicon 모델 학습용 데이터의 일례를 도시한 도면이다.
상기 Lexicon 모델 학습용 데이터는 음성에서 음소를 찾아내어 특정 단어에 매칭시킨다. 구체적으로, 특정 어구 또는 단어와 음소를 매칭시켜 저장할 수 있다. 예를 들어, "맛있다" 라는 단어를 "ma-sit-da" 라는 음소 또는 "mat-it-da" 라는 음소에 매칭시켜 저장할 수 있다. 즉, Lexicon 모델 학습용 데이터는 이와 같이 특정 단어가 발음되는 형태를 정의하여 저장한다.
도 7c에 도시된 테이블에서는 각각의 최종 인식 단어와 음성 특징값이 하나의 튜플(730)을 이루게 된다.
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
도 1은 기존의 음성 인식 학습 과정을 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 신호처리장치의 구성을 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 신호처리장치에서의 음성 인식 과정을 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 신호처리장치에서의 음성 학습 과정을 도시한 도면.
도 5는 Acoustic 모델에 따른 음성 학습 과정을 도시한 도면.
도 6은 Lexicon 모델에 따른 음성 학습 과정을 도시한 도면.
도 7a는 저장된 음성 인식 결과의 일례를 도시한 도면.
도 7b는 저장된 Acoustic 모델 학습용 데이터의 일례를 도시한 도면.
도 7c는 저장된 Lexicon 모델 학습용 데이터의 일례를 도시한 도면.
* 도면의 주요 부분에 대한 부호의 설명 *
200 : 신호처리장치 210 : 음성 인식부
220 : 음성 인식 학습부 230 : 제어부
240 : 사용자 입력부

Claims (16)

  1. 신호처리장치에 있어서,
    사용자의 음성을 입력하는 음성 입력부와;
    상기 입력된 음성과, 음성인식의 대상을 비교하여 상기 음성인식에 실패하는 경우에는 상기 사용자의 음성을 다시 입력하도록 제어하고, 상기 음성인식에 성공하는 경우에는 상기 인식된 음성에 대응하는 특정 동작을 수행하는 제어부를 포함하며,
    상기 제어부는, 상기 음성인식에 실패한 음성 중에서, 상기 음성인식에 성공한 음성과의 유사도가 소정 수준 이상인 음성을 상기 음성인식의 대상에 추가하여 다음에 입력되는 음성에 대한 음성인식을 수행하는 신호처리장치.
  2. 제1항에 있어서,
    상기 음성인식의 대상인 음성을 학습하는 음성 인식 학습부를 더 포함하고,
    상기 제어부는, 상기 음성인식에 성공하는 경우 상기 입력된 음성을 학습하도록 상기 음성 인식 학습부를 제어하는 신호처리장치.
  3. 제2항에 있어서,
    상기 음성 인식 학습부는, 상기 입력된 음성의 특징값 들을 상기 음성인식의 대상의 특징값과 비교하여 상기 유사도를 판단하는 신호처리장치.
  4. 제2항에 있어서,
    상기 제어부는, 상기 입력된 음성과 상기 음성인식의 대상의 유사도가 소정 수준 이상인 경우, 상기 입력된 음성의 특징을 학습하도록 상기 음성 인식 학습부를 제어하는 신호처리장치.
  5. 제4항에 있어서,
    상기 음성 인식 학습부는, acoustic 모델을 이용하여 상기 입력된 음성의 특징을 학습하는 신호처리장치.
  6. 제2항에 있어서,
    상기 제어부는, 상기 입력된 음성과 상기 음성인식의 대상의 유사도가 소정 수준 미만인 경우, 상기 입력된 음성을 상기 음성인식의 대상에 추가하도록 상기 음성 인식 학습부를 제어하는 신호처리장치.
  7. 제6항에 있어서,
    상기 음성 인식 학습부는, lexicon 모델을 이용하여 상기 입력된 음성을 상기 음성인식의 대상에 추가하는 신호처리장치.
  8. 제1항에 있어서,
    상기 사용자로부터 상기 음성인식이 실패되었는지 또는 성공되었는지 여부를 입력 받는 사용자 입력부를 더 포함하는 신호처리장치.
  9. 신호처리장치에서의 음성 인식 방법에 있어서,
    사용자의 음성을 입력받는 단계와;
    상기 입력된 음성과 음성인식의 대상을 비교하는 단계와;
    상기 음성인식에 실패하는 경우에는 상기 사용자의 음성을 다시 입력하도록 제어하고, 상기 음성인식에 성공하는 경우에는 인식된 음성에 대응하는 특정 동작을 수행하는 단계를 포함하며,
    상기 음성인식에 실패한 음성 중에서, 상기 음성인식에 성공한 음성과의 유사도가 소정 수준 이상인 음성을 상기 음성인식의 대상에 추가하여 다음에 입력되는 음성에 대한 음성인식을 수행하는 신호처리장치에서의 음성 인식 방법.
  10. 제9항에 있어서,
    상기 음성인식에 성공하는 경우 상기 입력된 음성을 학습하는 신호처리장치 에서의 음성 인식 방법.
  11. 제9항에 있어서,
    상기 입력된 음성의 특징값 들을 상기 음성인식의 대상의 특징값과 비교하여 상기 유사도를 판단하는 신호처리장치에서의 음성 인식 방법.
  12. 제9항에 있어서,
    상기 입력된 음성과 상기 음성인식의 대상의 유사도가 소정 수준 이상인 경우, 상기 입력된 음성의 특징을 학습하는 신호처리장치에서의 음성 인식 방법.
  13. 제12항에 있어서,
    acoustic 모델을 이용하여 상기 입력된 음성의 특징을 학습하는 신호처리장치 에서의 음성 인식 방법.
  14. 제9항에 있어서,
    상기 입력된 음성과 상기 음성인식의 대상의 유사도가 소정 수준 미만인 경우, 상기 입력된 음성을 상기 음성인식의 대상에 추가하는 신호처리장치에서의 음성 인식 방법.
  15. 제14항에 있어서,
    lexicon 모델을 이용하여 상기 입력된 음성을 상기 음성인식의 대상에 추가하는 신호처리장치에서의 음성 인식 방법.
  16. 제9항에 있어서,
    사용자로부터 상기 음성인식이 실패되었는지 또는 성공되었는지 여부를 입력 받는 단계를 더 포함하는 신호처리장치에서의 음성 인식 방법.
KR1020090003026A 2009-01-14 2009-01-14 신호처리장치 및 신호처리장치에서의 음성 인식 방법 KR101556594B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090003026A KR101556594B1 (ko) 2009-01-14 2009-01-14 신호처리장치 및 신호처리장치에서의 음성 인식 방법
US12/552,540 US8812317B2 (en) 2009-01-14 2009-09-02 Signal processing apparatus capable of learning a voice command which is unsuccessfully recognized and method of recognizing a voice command thereof
EP09169327.5A EP2209113B1 (en) 2009-01-14 2009-09-03 Signal processing apparatus and method of recognizing a voice command thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090003026A KR101556594B1 (ko) 2009-01-14 2009-01-14 신호처리장치 및 신호처리장치에서의 음성 인식 방법

Publications (2)

Publication Number Publication Date
KR20100083572A KR20100083572A (ko) 2010-07-22
KR101556594B1 true KR101556594B1 (ko) 2015-10-01

Family

ID=41213148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090003026A KR101556594B1 (ko) 2009-01-14 2009-01-14 신호처리장치 및 신호처리장치에서의 음성 인식 방법

Country Status (3)

Country Link
US (1) US8812317B2 (ko)
EP (1) EP2209113B1 (ko)
KR (1) KR101556594B1 (ko)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234494B1 (en) * 2005-12-21 2012-07-31 At&T Intellectual Property Ii, L.P. Speaker-verification digital signatures
ES2904304T3 (es) * 2009-07-17 2022-04-04 Implantica Patent Ltd Sistema de control por voz para un implante
KR20110010939A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 휴대용 단말기에서 음성 인식 성능을 향상시키기 위한 장치 및 방법
US8738377B2 (en) * 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
WO2012025579A1 (en) * 2010-08-24 2012-03-01 Veovox Sa System and method for recognizing a user voice command in noisy environment
US10107893B2 (en) * 2011-08-05 2018-10-23 TrackThings LLC Apparatus and method to automatically set a master-slave monitoring system
JP2013072974A (ja) * 2011-09-27 2013-04-22 Toshiba Corp 音声認識装置、方法及びプログラム
US9570086B1 (en) 2011-11-18 2017-02-14 Google Inc. Intelligently canceling user input
US20140068526A1 (en) * 2012-02-04 2014-03-06 Three Bots Ltd Method and apparatus for user interaction
KR20130135410A (ko) * 2012-05-31 2013-12-11 삼성전자주식회사 음성 인식 기능을 제공하는 방법 및 그 전자 장치
KR101892734B1 (ko) * 2013-01-04 2018-08-28 한국전자통신연구원 음성 인식 시스템에서의 오류 수정 방법 및 그 장치
US10425717B2 (en) * 2014-02-06 2019-09-24 Sr Homedics, Llc Awareness intelligence headphone
TWI536366B (zh) * 2014-03-18 2016-06-01 財團法人工業技術研究院 新增口說語彙的語音辨識系統與方法及電腦可讀取媒體
KR102199246B1 (ko) * 2014-11-18 2021-01-07 에스케이텔레콤 주식회사 신뢰도 측점 점수를 고려한 음향 모델 학습 방법 및 장치
CN105845136A (zh) * 2015-01-13 2016-08-10 中兴通讯股份有限公司 语音控制方法、装置及终端
EP3089159B1 (en) * 2015-04-28 2019-08-28 Google LLC Correcting voice recognition using selective re-speak
US10656907B2 (en) * 2015-11-03 2020-05-19 Observepoint Inc. Translation of natural language into user interface actions
US9697824B1 (en) * 2015-12-30 2017-07-04 Thunder Power New Energy Vehicle Development Company Limited Voice control system with dialect recognition
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
JP2018116206A (ja) * 2017-01-20 2018-07-26 アルパイン株式会社 音声認識装置、音声認識方法及び音声認識システム
CN106992001B (zh) * 2017-03-29 2020-05-22 百度在线网络技术(北京)有限公司 语音指令的处理方法、装置和***
KR102375800B1 (ko) 2017-04-28 2022-03-17 삼성전자주식회사 음성 인식 서비스를 제공하는 전자 장치 및 그 방법
KR102356889B1 (ko) 2017-08-16 2022-01-28 삼성전자 주식회사 음성 인식을 수행하는 방법 및 이를 사용하는 전자 장치
KR102499379B1 (ko) * 2017-09-18 2023-02-13 삼성전자주식회사 전자 장치 및 이의 피드백 정보 획득 방법
US10482878B2 (en) * 2017-11-29 2019-11-19 Nuance Communications, Inc. System and method for speech enhancement in multisource environments
US11170762B2 (en) * 2018-01-04 2021-11-09 Google Llc Learning offline voice commands based on usage of online voice commands
KR102114064B1 (ko) * 2018-06-11 2020-05-22 엘지전자 주식회사 이동 단말기
KR20200011796A (ko) * 2018-07-25 2020-02-04 엘지전자 주식회사 음성 인식 시스템
US10885899B2 (en) * 2018-10-09 2021-01-05 Motorola Mobility Llc Retraining voice model for trigger phrase using training data collected during usage
CN110992932B (zh) * 2019-12-18 2022-07-26 广东睿住智能科技有限公司 一种自学习的语音控制方法、***及存储介质
WO2021225198A1 (ko) * 2020-05-08 2021-11-11 엘지전자 주식회사 음성을 인식하는 인공 지능 장치 및 그 방법
US20210375270A1 (en) * 2020-06-02 2021-12-02 Knowles Electronics, Llc Methods and systems for confusion reduction for compressed acoustic models

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849283B2 (ja) * 1998-02-18 2006-11-22 株式会社デンソー 音声認識装置
KR100657059B1 (ko) * 2004-07-19 2006-12-13 삼성전자주식회사 음성인식구동방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100346736B1 (ko) 1995-06-30 2002-10-25 삼성전자 주식회사 음성인식방법
US5852801A (en) * 1995-10-04 1998-12-22 Apple Computer, Inc. Method and apparatus for automatically invoking a new word module for unrecognized user input
KR100301596B1 (en) 1997-12-29 2001-06-26 Hyundai Autonet Co Ltd Method of studying and recognizing word in voice recognition system
US5970451A (en) * 1998-04-14 1999-10-19 International Business Machines Corporation Method for correcting frequently misrecognized words or command in speech application
DE69829187T2 (de) * 1998-12-17 2005-12-29 Sony International (Europe) Gmbh Halbüberwachte Sprecheradaptation
US6487530B1 (en) * 1999-03-30 2002-11-26 Nortel Networks Limited Method for recognizing non-standard and standard speech by speaker independent and speaker dependent word models
US6327566B1 (en) * 1999-06-16 2001-12-04 International Business Machines Corporation Method and apparatus for correcting misinterpreted voice commands in a speech recognition system
US6374221B1 (en) 1999-06-22 2002-04-16 Lucent Technologies Inc. Automatic retraining of a speech recognizer while using reliable transcripts
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
AU2001259446A1 (en) * 2000-05-02 2001-11-12 Dragon Systems, Inc. Error correction in speech recognition
US6587824B1 (en) * 2000-05-04 2003-07-01 Visteon Global Technologies, Inc. Selective speaker adaptation for an in-vehicle speech recognition system
US6754627B2 (en) * 2001-03-01 2004-06-22 International Business Machines Corporation Detecting speech recognition errors in an embedded speech recognition system
JP4363076B2 (ja) * 2002-06-28 2009-11-11 株式会社デンソー 音声制御装置
JP3724461B2 (ja) * 2002-07-25 2005-12-07 株式会社デンソー 音声制御装置
DE10313310A1 (de) * 2003-03-25 2004-10-21 Siemens Ag Verfahren zur sprecherabhängigen Spracherkennung und Spracherkennungssystem dafür
KR20050023941A (ko) * 2003-09-03 2005-03-10 삼성전자주식회사 음성 인식 및 화자 인식을 통한 개별화된 서비스를제공하는 a/v 장치 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849283B2 (ja) * 1998-02-18 2006-11-22 株式会社デンソー 音声認識装置
KR100657059B1 (ko) * 2004-07-19 2006-12-13 삼성전자주식회사 음성인식구동방법

Also Published As

Publication number Publication date
EP2209113A1 (en) 2010-07-21
KR20100083572A (ko) 2010-07-22
EP2209113B1 (en) 2015-07-15
US8812317B2 (en) 2014-08-19
US20100179812A1 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
KR101556594B1 (ko) 신호처리장치 및 신호처리장치에서의 음성 인식 방법
US9153231B1 (en) Adaptive neural network speech recognition models
US20210193176A1 (en) Context-based detection of end-point of utterance
US7228275B1 (en) Speech recognition system having multiple speech recognizers
EP3114679B1 (en) Predicting pronunciation in speech recognition
US6088669A (en) Speech recognition with attempted speaker recognition for speaker model prefetching or alternative speech modeling
US9275637B1 (en) Wake word evaluation
US5895447A (en) Speech recognition using thresholded speaker class model selection or model adaptation
US9916826B1 (en) Targeted detection of regions in speech processing data streams
JP4680714B2 (ja) 音声認識装置および音声認識方法
US20110301953A1 (en) System and method of multi model adaptation and voice recognition
US20020046032A1 (en) Speech recognition method with a replace command
US20120078630A1 (en) Utterance Verification and Pronunciation Scoring by Lattice Transduction
JPH10133684A (ja) 音声認識中に代替ワードを選択する方法及びシステム
Li et al. Verbal information verification
US20080154591A1 (en) Audio Recognition System For Generating Response Audio by Using Audio Data Extracted
US20180012602A1 (en) System and methods for pronunciation analysis-based speaker verification
JPH11149294A (ja) 音声認識装置および音声認識方法
JP2017167270A (ja) 音声処理装置および音声処理方法
JP3876703B2 (ja) 音声認識のための話者学習装置及び方法
WO2021173220A1 (en) Automated word correction in speech recognition systems
JP2008145989A (ja) 音声識別装置および音声識別方法
KR20130043817A (ko) 어학 학습 장치 및 어학 학습 방법
KR20120046627A (ko) 화자 적응 방법 및 장치
JP6527000B2 (ja) 発音誤り検出装置、方法およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180830

Year of fee payment: 4