KR20010093327A - 음성 인식 제거 체계 - Google Patents

음성 인식 제거 체계 Download PDF

Info

Publication number
KR20010093327A
KR20010093327A KR1020017009889A KR20017009889A KR20010093327A KR 20010093327 A KR20010093327 A KR 20010093327A KR 1020017009889 A KR1020017009889 A KR 1020017009889A KR 20017009889 A KR20017009889 A KR 20017009889A KR 20010093327 A KR20010093327 A KR 20010093327A
Authority
KR
South Korea
Prior art keywords
comparison result
comparison
pronunciation
closest
comparison results
Prior art date
Application number
KR1020017009889A
Other languages
English (en)
Other versions
KR100698811B1 (ko
Inventor
비닝
창치엔청
가루대드리하리나쓰
데자코앤드류피
Original Assignee
밀러 럿셀 비
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 밀러 럿셀 비, 퀄컴 인코포레이티드 filed Critical 밀러 럿셀 비
Publication of KR20010093327A publication Critical patent/KR20010093327A/ko
Application granted granted Critical
Publication of KR100698811B1 publication Critical patent/KR100698811B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Character Discrimination (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

발음을 캡쳐하는 음성 인식 제거 구조는 상기 발음을 인정하는 단계, 상기 발음에 N-best 알고리즘을 적용하는 단계, 또는 상기 발음을 제거하는 단계를 포함한다. 상기 발음과 하나 이상의 다른 저장된 단어들간의 하나 이상의 비교 결과치들과 하나 이상의 가장 가까운 비교 결과치들간의 하나 이상의 차이들과 저장된 단어에 대해서 상기 발음에 대한 하나 이상의 가장 가까운 비교 결과치들간에 제 1 소정 관계가 존재하면, 상기 발음이 인정된다. 상기 하나 이상의 가장 가까운 비교 결과치들과 상기 하나 이상의 다른 비교 결과치들간의 상기 하나 이상의 차이들과 상기 하나 이상의 가장 가까운 비교 결과치들간에 제 2 소정 관계가 존재하면, 상기 발음에 N-best 알고리즘이 적용된다. 상기 하나 이상의 가장 가까운 비교 결과치들과 상기 하나 이상의 다른 비교 결과치들간의 상기 하나 이상의 차이들과 상기 하나 이상의 가장 가까운 비교 결과치들간에 제 3 소정 관계가 존재하면, 상기 발음이 제거된다. 하나 이상의 다른 비교 결과치들중 하나는, 상기 발음과 또다른 저장 단어에 관한 다음으로 가장 가까운 비교 결과치가 되는 것이 바람직하다. 제 1, 제 2, 및 제 3 소정 관계는 선형 관계인 것이 바람직하다.

Description

음성 인식 제거 체계{VOICE RECOGNITION REJECTION SCHEME}
발명의 배경
Ⅰ. 발명의 분야
본 발명은, 일반적으로 통신 분야에 관한 것이고, 특히 음성 인식 시스템에 관한 것이다.
Ⅱ. 배경
음성 인식(voice recognition, VR) 은 기기에 시뮬레이션된 지능을 부여하여 유저 또는 유저-음성 명령을 인식하고, 기기와 휴먼 인터페이스를 용이하게 하는 가장 중요한 기술들중 하나를 나타낸다. 또한, VR 은 휴먼 스피치를 이해하기 위한 핵심 기술을 나타낸다. 음향 스피치 신호로부터 언어적인 메시지를 복수하는 기술을 채용하는 시스템들을 음성 인식기라 한다. 통상, 음성 인식기는 인커밍 로우 스피치(incoming raw speech)의 VR 을 달성하는데 필요한, 정보전달 특성, 또는 벡터의 일 시퀀스를 추출하는 음향 프로세서, 및 그 특성, 또는 벡터의 시퀀스를 디코드하여 입력된 발음(utterence)에 대응하는 언어적 단어의 시퀀스 등의 의미있고 원하는 출력 포맷을 하는 단어 디코더를 포함한다. 소정 시스템의 성능을 증대하기 위하여, 그 시스템이 유효한 파라미터들을 구비하기 위한 트레이닝이 필요하다. 즉, 최적으로 기능시키기 전에 시스템을 학습시킬 필요가 있다.
음향 프로세서는 음성 인식기내의 프론트엔드(front-end) 스피치 분석 서브시스템을 나타낸다. 입력 스피치 신호에 응답하여, 음향 프로세서는 시변 스피치 신호를 특징을 나타내는 적절한 표시를 제공한다. 음향 프로세서는 배경잡음, 채널왜곡, 화자특성, 및 화법과 같은 부적절한 정보를 제거해야 한다. 효율적인 음향 프로세싱은 음성 인식기에 증대된 음향 식별력을 제공한다. 이 목적을 위해, 분석하기에 유용한 특성은 단기 스펙트럼 엔벨로프(short time spectral envelope)이다. 단시간 스펙트럼 엔벨로프의 특징을 나타내기 위한 두 가지의 보편적으로 사용되 스펙트럼 분석 기술로는, 선형 예측 코딩(LPC) 및 필터뱅크 기반의 스펙트럼 모델링(filter-bank-based spectral modeling)이 있다. 예시적인 LPC 기술들이 본 발명의 양수인에게 양도되고 참고로 여기에 포함된 미국특허 제 5,414,796 호, 및 역시 참고로 여기에 포함된 L.B. Rabiner & R.W. Schafer,Digital Processing of Speech signals396-453(1978) 에 개시되어 있다.
VR(또는 통상 스피치 인식이라고도 함)의 사용이 안전상의 이유로 점점 더 중요해지고 있다. 예를 들어, VR 은 무선전화 키패드상의 버튼을 누르는 수동적인 임무를 대체하기 위하여 사용될 수 있다. 이는 특히, 유저가 운전을 하면서 전화호출을 개시하는 경우에 중요하다. VR 없이 전화를 사용하는 경우, 운전자는 운전대로부터 한 손을 들어야 하고, 호출을 다이얼하기 위해 버튼을 누르는 동안 전화기 키패드를 주시해야 한다. 이 행동들은 자동차 사고의 가능성을 높인다. 스피치 인에이블 전화(즉, 스피치 인식용으로 설계된 전화)는 운전자로 하여금 지속적으로 도로를 주시하면서 전화 호출을 할 수 있도록 한다. 그리고부가적으로, 핸즈프리 자동차-키트 시스템(hands-free car-kit system)은 운전자로 하여금 호출 개시동안 운전대상에 양 손을 유지할 수 있도록 한다.
스피치 인식 장치들은 화자종속(speaker-dependent) 또는 화자독립(speaker-independent) 장치들로 분류된다. 화자독립 장치들은 어떠한 유저들로부터도 음성 명령들을 받을 수 있다. 더욱 보편적인 화자종속 장치들은 특정의 유저들로부터의 명령을 인식하도록 트레이닝된다. 화자종속 VR 장치는 트레이닝 단계및 인식 단계의 두 단계로 동작하는 것이 보통이다. 트레이닝 단계에서, VR 시스템은 유저로 하여금 시스템의 어휘(vocabulary)에 있는 각 단어들을 한 번 또는 두 번 말하도록 하여, 그 특정의 단어나 어구에 대한 유저 스피치의 특성을 시스템이 학습하도록 한다. 다른 방법으로는, 음성(phonic) VR 장치의 경우, 언어의 모든 음소를 커버하도록 특별히 스크립트된 하나 이상의 간단한 기사를 읽음으로써 트레이닝이 성취된다. 핸즈프리 자동차 키트에 대한 예시적인 어휘는 키패드상의 숫자들; 키워드 "call", "send", "dial", "cancel", "clear", "add", "delete", "history", "program", "yes", 및 "no" 및 소정 수의 통상적으로 호출되는 동료, 친구, 또는 가족 구성원들의 이름들을 포함할 수 있다. 일단 트레이닝이 완료되면, 인식 단계에서, 유저가 트레이닝된 키워드를 말하여 호출을 개시할 수 있다. 예를 들면, "존"이라는 이름이 트레이닝된 이름들중 하나라면, 유저는 "존 호출"이라는 어구를 말함으로써 존에게로의 호출을 개시할 수 있을 것이다. VR 시스템은, 단어 "호출" 및 "존"을 인식할 것이고, 유저가 이전에 존의 전화 번호로서 입력했던 번호를 다이얼할 것이다.
VR 시스템의 처리 능력은 유저가 인식 작업을 성공적으로 행한 경우의 백분율로 정의될 수 있다. 인식 작업은 통상 다단계로 이루어진다. 예를 들면, 무선 전화기로 음성 다이얼링할 때, 처리 능력은 유저가 VR 시스템으로 성공적으로 전화 통화를 완료하는 경우의 평균 백분율을 가리킨다. VR로 성공적인 전화 통화를 이루기 위해 필요한 단계들의 수는 한 통화 이상으로 가변적이 된다. 일반적으로, VR 시스템의 처리 능력은 주로 2가지 요소 즉, VR 시스템의 인식 정확도와 인간-기계 인터페이스에 의존한다. VR 시스템 성능의 유저 주관적인 식별은 처리 능력에 기반한다. 그러므로, 높은 인식 정확도를 가진 VR 시스템과 처리 능력을 증가시키기 위한 인텔리전트 인간-기계 인터페이스에 대한 요구가 있게 되었다.
발명의 개요
본 발명은, 높은 인식 정확도와 처리 능력을 증가시키기 위한 인텔리전트 인간-기계 인터페이스를 가진 VR 시스템을 지향한다. 따라서, 본 발명의 일 태양에서, 음성 인식 시스템에서 발음을 캡쳐하는 방법은, 발음과 하나 이상의 다른 저장된 단어 사이의 하나 이상의 다른 비교 결과와 하나 이상의 비교 결과 사이의 하나 이상의 차이와 저장된 단어에 대해서 발음에 관한 하나 이상의 비교 결과 사이에 제 1 소정 관계가 존재하면 발음을 인정하는 단계; 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이에 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 2 소정 관계가 존재하면 발음에 N-best 알고리즘을 인가하는 단계; 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이에 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 3 소정 관계가 존재하면 발음을 제거하는 단계를 포함하는 것이 바람직하다.
본 발명의 또 다른 측면에서, 음성 인식 시스템은 발음의 디지탈화된 스피치 샘플들로부터 스피치 파라미터들을 추출하도록 구성된 음향 프로세서와, 이 음향 프로세서에 결합되고 (1) 발음과 하나 이상의 다른 저장된 단어 사이의 하나 이상의 다른 비교 결과와 하나 이상의 비교 결과 사이의 하나 이상의 차이와 저장된 단어에 대한 발음에 있어서의 하나 이상의 비교 결과 사이에 제 1 소정 관계가 존재하면 발음을 인정하고, (2) 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 2 소정 관계가 존재하면 N-best 알고리즘을 발음에 인가하고, (3) 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 3 의 소정 관계가 존재하면 발음을 제거하도록 구성된 프로세서를 포함한다.
본 발명의 또 다른 측면에서, 음성 인식 시스템은 발음과 하나 이상의 다른 저장된 단어 사이의 하나 이상의 다른 비교 결과와 하나 이상의 비교 결과 사이의 하나 이상의 차이와 저장된 단어에 대한 발음에 있어서의 하나 이상의 비교 결과 사이에 제 1 소정 관계가 존재하면 발음을 인정하는 수단, 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 2 소정 관계가 존재하면 N-best 알고리즘을 발음에 인가하는 수단, 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 3 의 소정 관계가 존재하면 발음을 제거하는 수단을포함하는 것이 바람직하다.
본 발명의 또 다른 측면에서, 음성 인식 시스템은 발음의 디지탈화된 스피치 샘플들로부터 스피치 파라미터들을 추출하는 수단과, (1) 발음과 하나 이상의 다른 저장된 단어 사이의 하나 이상의 다른 비교 결과와 하나 이상의 비교 결과 사이의 하나 이상의 차이와 저장된 단어에 대한 발음에 있어서의 하나 이상의 비교 결과 사이에 제 1 소정 관계가 존재하면 발음을 인정하고, (2) 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 2 소정 관계가 존재하면 N-best 알고리즘을 발음에 인가하고, (3) 하나 이상의 비교 결과와 하나 이상의 다른 비교 결과 사이의 하나 이상의 차이와 하나 이상의 비교 결과 사이에 제 3 의 소정 관계가 존재하면 발음을 제거하는 수단을 포함하는 것이 바람직하다.
도면의 간단한 설명
도 1 은 음성 인식 시스템의 블록도이다.
도 2 는 제거, N-best, 및 인정 영역을 예시하는 VR 시스템의 제거 체계에 있어서의 스코어 대 스코어의 변화 그래프이다.
바람직한 실시예의 상세한 설명
도 1 에 예시된 바와 같은 일 실시예에 의하면, 음성 인식 시스템 (10) 은 아날로그/디지털 변환기(A/D)(12), 음향 프로세서 (14), VR 템플릿 데이터베이스(VR template database; 16), 패턴비교 로직 (18), 및 결정로직(decision; 20) 을 포함한다. VR 시스템 (10) 은 예를 들면, 무선전화또는 핸즈프리 자동차 키트에 설치할 수 있다.
VR 시스템 (10) 이 음성 인식 단계에 있는 경우, 사람(도시하지 않음)은 한 단어 또는 어구를 말하여 스피치 신호를 생성한다. 스피치 신호는 종래의 트랜스듀서(역시 도시하지 않음)에 의해 전기적 스피치 신호 s(t)로 변환된다. 스피치 신호 s(t) 는 A/D (12)로 제공되고, 여기서는 예를 들면 펄스 코드 변조(pulse coded modulation, PCM)와 같은 공지된 샘플링법에 따라 스피치 신호 s(t) 를 디지털 스피치 샘플 s(n)로 변환한다.
스피치 샘플 s(n) 은 파라미터 결정을 위해 음향 프로세서 (14) 로 제공된다. 음향 프로세서 (14) 는 입력 스피치 신호 s(t) 의 특성을 모델링한 한 세트의 추출된 파라미터들을 생성한다. 이 파라미터들은, 예를 들면 스피치 코더 인코딩을 포함하고, 이전에 언급한 미국특허 제 5,414,796 호에 개시된 바와 같이, 고속 푸리에 변환(FFT) 기반의 스펙트럼 계수들을 사용하는 어떠한 다수의 공지된 스피치 파라미터 결정 기술들에 따라서 결정할 수 있다. 음향 프로세서 (14) 는 디지털 신호 프로세서(DSP)로서 구현할 수도 있다. DSP는 스피치 코더를 포함할 수 있다. 다른 방법으로, 음향 프로세서 (14) 를 스피치 코더로 구현할 수 있다.
VR 시스템 (10) 의 트레이닝 동안, 파라미터 결정을 수행하며, 이때 VR 시스템 (10) 의 모든 어휘 단어에 관한 한 세트의 템플릿이 영구 저장을 위하여 VR 템플릿 데이터베이스 (16) 로 라우팅된다. VR 템플릿 데이터베이스 (16) 는 예를 들면, 플래시 메모리와 같은 임의의 종래의 비휘발성 저장매체의 형태로 구현하는것이 바람직하다. 이것은 VR 시스템 (10) 으로의 파워가 턴오프되는 경우 템플릿을 VR 템플릿 데이터베이스 (16) 에 유지할 수 있도록 한다.
파라미터의 세트는 패턴비교 로직 (18) 으로 제공된다. 패턴비교 로직 (18) 은 발음의 시작점 및 종료점을 검출하고, 동적 음향 특성(예를 들면, 시간 도함수(time derivatives), 2차 시간 도함수(second time derivatives) 등)을 계산하고, 적절한 프레임들을 선택하여 음향 특성들을 압축하며, 정적 및 동적 음향 특성들을 양자화하는 것이 바람직하다. 종료점 검출, 동적 음향 특성 미분(dynamic acoustic feature derivation), 패턴 압축, 및 패턴 양자화의 공지된 방법은 예를 들면, 참고로 여기서 포함된, Lawrence Rabiner & Biing-Hwang Juang,Fundamentals of Speech Recognition (1993)에 개시되어 있다.
패턴비교 로직 (18) 은 파라미터 세트를 VR 템플릿 데이터베이스 (16) 에 저장된 모든 템플릿들과 비교한다. 파라미터 세트와 VR 템플릿 데이터베이스 (16) 에 저장된 모든 템플릿 사이의 거리들, 또는 비교결과들을 결정 로직 (20) 에 제공한다. 결정 로직 (20) 은 (1) VR 템플릿 데이터베이스 (16) 로부터 그 파라미터 세트와 가장 근사적으로 매칭하는 템플릿을 선택하거나, (2) 소정의 매칭 스페시홀드 내에서 N개의 가장 근사적인 매칭들을 선택하는 "N-best" 선택 알고리즘을 적용하거나; 또는 (3) 파라미터 세트를 제거할 수 있다. N-best 알고리즘이 사용되면, 그 후 사람은 어느 것을 선택할 지에 대하여 질문을 받는다. 결정 로직 (20) 의 출력은 어휘에서 어느 단어가 말해졌는지에 대한 결정이다. 예를 들면, N-best 상황에서 유저가 "존 앤더스"라고 말하면, VR 시스템 (10) 은 "존 앤드류라고 말했습니까?"라고 대답하고 그 다음 유저는 "존 앤더스"라고 답할 것이다. 그러면, VR 시스템 (10) 은 "존 앤더스라고 말했습니까?"라고 말한다. 그 다음 유저가 "예"라고 대답하면 그 시점에서, VR 시스템 (10) 이 전화 통화의 다이얼링을 개시하게 된다.
패턴 비교 로직 (18) 과 결정 로직 (20) 은 마이크로프로세서로서 구현하는 것이 바람직할 수 있다. 또한, 패턴 비교 로직 (18) 과 결정 로직 (20) 은 프로세서, 제어기 또는 상태 기계와 같은 종래의 어떤 형태로도 구현될 수 있다. VR 시스템 (10) 은 예를 들면, 주문형 집적 회로(ASIC)일 수 있다. VR 시스템 (10) 의 인식 정확도는 VR 시스템 (10) 이 어휘에서 말해진 단어 또는 어구들을 얼마나 정확히 인식하는지에 대한 기준(measure)이다. 예를 들면, 95%의 인식 정확도는, VR 시스템 (10) 이 어휘에서 단어를 100회중 95회 정확히 인식하는 것을 나타낸다.
일 실시예에서는 도 2 에 예시된 바와 같이, 스코어 대 스코어 변화 그래프의 인정, N-best, 및 제거 영역으로 분할된다. 이러한 영역들은 참고로 여기에 포함된, Richard O. Duda & Peter E. Hart의Pattern Classification and Scene Analysis (1973)에 개시된 공지된 선형 구별 분석 기술에 따라 라인들에 의해 분리된다. VR 시스템 (10) 으로의 각 발음 입력이, 상술한 바와 같이 패턴 비교 로직 (18) 에 의해 VR 템플릿 데이터베이스 (16) 에 저장된 모든 템플릿에 관한 비교 결과나 템플릿으로부터의 거리에 할당된다. 이들 거리들 또는 "스코어들"은 다중 프레임들에 걸쳐 합쳐진 N-차원 벡터 공간에서의 벡터들간의 유클리드의 거리가되는 것이 바람직하다. 벡터 공간이 24차원 벡터 공간인 일 실시예에서, 스코어는 20개의 프레임들에 걸쳐 누적되고, 이 스코어는 정수인 거리이다. 당업자는 이러한 스코어가 분수 또는 다른 값으로서도 동등하게 표현될 수 있음을 알 수 있을 것이다. 또, 당업자는 스코어들이 예를 들면 확률 측정, 가능성 측정 등과 같이, 다른 거리들도 유클리드 거리로 대용될 수 있음을 알 수 있을 것이다.
발음이 주어지고, VR 템플리트 데이터베이스 (16) 로부터의 VR 템플리트가 주어지면, 스코어를 낮출수록(즉, 발음과 VR 템플릿간의 거리가 더 작을수록), 발음과 VR 템플릿간의 매칭이 더 가까워진다. 각 발음에 있어서, 결정 로직 (20) 은 스코어와 VR 템플릿 데이터베이스 (16; 즉, 두번째로 가장 낮은 스코어) 에서 두번째로 가장 가까운 매칭과 연관된 스코어간의 차이에 관련해서 VR 템플릿 데이터베이스 (16) 에서의 가장 가까운 매칭과 연관된 스코어를 분석한다. 도 2 의 그래프에 표시된 바와 같이, "스코어"는 "스코어의 변화"에 대해서 그려져 있고 3개의 영역들이 정의된다. 제거 영역은 스코어가 상대적으로 높고, 스코어와 그 다음으로 가장 낮은 스코어간의 차이가 상대적으로 작은 영역을 나타낸다. 발음이 제거 영역 내에 있으면, 결정 로직 (20) 은 발음을 제거한다. 인정 영역은 스코어가 상대적으로 낮고, 스코어와 그 다음으로 가장 낮은 스코어간의 차이가 상대적으로 큰 영역을 나타낸다. 발음이 인정 영역 내에 있다면, 결정 로직 (20) 은 발음을 인정한다. N-best 영역은 제거 영역과 인정 영역 사이에 있다. N-best 영역은 스코어가 제거 영역에서의 스코어보다 작거나, 스코어와 그 다음으로 가장 낮은 스코어간의 차이가 제거 영역에서의 스코어 차이보다 큰 영역을 나타낸다. 또한, N-best 영역은 N-best 영역에서의 스코어 차이가 스코어 값 변화의 소정의 한계치보다 크다는 가정하에, 스코어가 인정 영역에서의 스코어보다 크거나 스코어와 그 다음으로 가장 낮은 스코어간의 차이가 인정 영역에서의 스코어 차이보다 작은 영역을 나타낸다. N-best 영역 내에 발음이 있게 되면, 결정 로직 (20) 은 상술한 바와 같이, 발음에 N-best 알고리즘을 적용한다.
도 2 를 참조하여 설명한 실시예에서, 제 1 라인 세그먼트는 N-best 영역으로부터 제거 영역을 분리시킨다. 제 1 라인 세그먼트는 소정의 한계 스코어값에서 "스코어"축과 교차한다. 또, 제 1 라인 세그먼트의 기울기도 미리 정해진다. 제 2 라인 세그먼트는 인정 영역으로부터 N-best 영역을 분리시킨다. 제 2 라인 세그먼트의 기울기는, 제 1 라인 세그먼트의 기울기와 동일하도록 미리 정해져서, 제 1 및 제 2 라인 세그먼트들은 평행하다. 제 3 라인 세그먼트는 "스코어의 변화"축 상에서의 소정의 한계 변화값으로부터 수직으로 연장하여 제 2 라인 세그먼트의 종료점과 만난다. 당업자들은 제 1 및 제 2 라인 세그먼트들은 평행할 필요가 없고, 어떠한 임의 할당 기울기도 가질 수 있음을 알 수 있을 것이다. 또한, 제 3 라인 세그먼트는 사용될 필요가 없다.
한계 스코어값이 375인 실시예에서, 한계 변화값이 28이고, 제 2 라인 세그먼트의 종료점이 연장되었다면, 제 2 라인 세그먼트는 값이 250인 곳에서 "스코어"축과 교차하여 제 1 및 제 2 라인 세그먼트의 기울기는 각각 1 이다. 만약, 스코어값이 스코어값의 변화 + 375 보다 크다면, 발음이 제거된다. 그렇지 않고, 스코어값이 스코어값의 변화 + 250 보다 크거나 스코어 값의 변화가 28보다 작다면, N-best 알고리즘이 발음에 적용된다. 그렇지 않으면, 발음은 인정된다.
도 2 를 참조하여 설명한 실시예에서, 선형 구별 분석용으로 2차원이 사용된다. 차원 "스코어"는 다중 대역통과 필터(미도시)의 출력들로부터 유도된 것처럼, 주어진 발음과 주어진 VR 템플릿 사이의 거리를 나타낸다. 차원 "스코어의 변화"는 가장 낮은 스코어 즉, 가장 가깝게 매칭된 스코어와 그 다음으로 가장 낮은 스코어 즉, 그 다음으로 가장 가깝게 매칭된 발음에 대한 스코어간의 차이를 나타낸다. 또다른 실시예에서, 차원 "스코어"는 발음의 스펙트럼 계수로부터 유도되는 것처럼 주어진 발음과 주어진 VR 템플릿 사이의 거리를 나타낸다. 또다른 실시예에서, 차원 "스코어"는 발음의 선형 예측 부호화 (LPC) 계수로부터 유도되는 바와 같이, 주어진 발음과 주어진 VR 템플릿 사이의 거리를 나타낸다. 발음의 LPC 계수와 스펙트럼 계수를 유도하는 기술이 상술한 미국 특허 5,414,796호에 기재되어 있다.
다른 실시예에서는, 선형 구별 분석이 2차원으로 한정되지 않는다. 따라서, 제 1 스코어 기반 대역통과 필터 출력들, 제 2 스코어 기반 스펙트럼 계수들, 및 스코어의 변화가 서로 연관되어 분석된다. 또는, 제 1 스코어 기반 대역통과 필터 출력들, 제 2 스코어 기반 스펙트럼 계수들, 제 3 스코어 기반 LPC 계수들, 및 스코어의 변화가 서로 연관되어 분석된다. 당업자라면 "스코어" 에 관한 차원의 갯수가 어떤 특정한 수로 한정될 필요가 없다는 것을 즉시 알 수 있을 것이다. 당업자는 스코어 차원의 갯수가 VR 시스템의 어휘에서의 단어수에 의해서만 한정되는 것을 알 수 있을 것이다. 또한, 당업자는 사용된 스코어의 타입들이 스코어의 어떤 특정 타입에 한정될 필요는 없지만, 관련 분야에 공지된 어떠한 스코어링 방법도 포함할 수 있음을 알 수 있을 것이다. 또, "스코어의 변화"에 관한 차원의 갯수가 1 또는 어떤 특정 숫자에 한정될 필요가 없다는 것도 당업자에 의해 즉시 알 수 있는 것이다. 예를 들면, 일 실시예에서 가장 가까운 매칭과 다음으로 가장 가까운 매칭간의 스코어 변화와 연관하여 스코어가 분석되고, 또한 이러한 스코어는 가장 가까운 매칭과 세번째로 가까운 매칭간의 스코어 변화와 연관되어 분석된다. 당업자는 스코어 변화 차원의 갯수가 VR 시스템의 어휘에서의 단어수에만 한정된다는 것을 알 수 있을 것이다.
이상과 같이, 선형 구별 분석에 기초한 신규하고도 향상된 음성 인식 제거 기술이 설명되었다. 당업자는, 여기서 개시된 실시예들을 통하여 설명된 다양한 로직 블록들 및 알고리즘 단계들의 일예는 디지털 신호 프로세서(DSP), 주문형 특정 집적회로(ASIC), 이산 게이트 또는 트랜지스터 로직, 예를 들어 레지스터 및 FIFO 같은 이산 하드웨어 구성요소들, 한 세트의 펌웨어 명령들을 실행하는 프로세서, 또는 임의의 종래의 프로그램 가능한 소프트웨어 모듈 및 프로세서로 구현 또는 수행될 수 있음을 이해할 것이다. 프로세서는 마이크로프로세서인 것이 바람직하지만, 다는 방법으로는, 프로세서가 어떤 종래의 프로세서, 제어기, 마이크로 제어기, 또는 상태기기일 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, 레지스터 또는 임의의 다른 형태의 공지된 기록 가능한 저장매체에 내장할 수 있다. 또한, 당업자는, 상술한 설명에 걸쳐 참조될 수 있는 데이터, 지시, 명령, 정보, 신호, 비트, 심볼 및 칩은, 전압, 전류, 전자기파, 자계 필드 또는 입자, 광학적 필드 또는 입자, 또는 그들의 임의의 조합으로 표시되는 것이 바람직하다는 것 또한 이해할 것이다.
이상, 본 발명의 바람직한 실시예들이 도시되고 설명하였다. 그러나, 본 발명의 정신이나 범주에서 일탈함이 없이 여기에서 설명된 실시예들에 대한 수많은 변형들이 가능하다는 것이 당업자에게는 명백할 것이다. 따라서, 본 발명은 이하의 청구범위에 의해서만 한정된다.

Claims (44)

  1. 음성 인식 시스템에서 발음을 캡쳐하는 방법에 있어서, 상기 방법은
    저장된 단어에 대한 상기 발음에 관한 하나 이상의 비교 결과치와, 상기 발음과 하나 이상의 다른 저장된 단어간의 하나 이상의 다른 비교 결과치와 상기 하나 이상의 비교 결과치간의 하나 이상의 차이값 사이에, 제 1 소정 관계가 존재하면, 상기 발음을 인정하는 단계;
    상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 2 소정 관계가 존재하면, N-best 알고리즘을 상기 발음에 적용하는 단계; 및
    상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 차이값 사이에, 제 3 소정 관계가 존재하면, 상기 발음을 제거하는 단계를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  2. 제 1 항에 있어서,
    상기 하나 이상의 비교 결과치는 복수의 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 복수의 다른 비교 결과치를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  3. 제 1 항에 있어서,
    상기 하나 이상의 차이값은 복수의 차이값을 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  4. 제 1 항에 있어서,
    상기 저장된 단어는 음성 인식 시스템의 어휘에서의 가장 양호한 후보를 포함하고, 상기 하나 이상의 다른 저장된 단어는 음성 인식 시스템의 어휘에서 다음으로 가장 양호한 후보를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  5. 제 1 항에 있어서,
    상기 하나 이상의 비교 결과치는 하나 이상의 가장 가까운 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 하나 이상의 다음으로 가장 가까운 비교 결과치를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  6. 제 1 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 선형 예측 부호화 계수를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  7. 제 1 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 스펙트럼 계수를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  8. 제 1 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 대역통과 필터 출력을 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  9. 제 1 항에 있어서,
    상기 제 1, 제 2, 및 제 3 소정 관계들은 선형 관계들인 것을 특징으로 하는 발음 캡쳐방법.
  10. 제 1 항에 있어서,
    상기 하나 이상의 차이값은 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 차이를 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  11. 제 1 항에 있어서,
    상기 하나 이상의 차이값은, 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 제 1 차이값, 및 가장 가까운 비교 결과치와 세번째로 가장 가까운 비교 결과치간의 제 2 차이값을 포함하는 것을 특징으로 하는 발음 캡쳐방법.
  12. 발음의 디지털화된 스피치 샘플로부터 스피치 파라미터들을 추출하도록 구성되는 음향 프로세서; 및
    상기 음향 프로세서에 결합되고, (1) 저장된 단어에 대한 상기 발음에 관한 하나 이상의 비교 결과치와, 상기 발음과 하나 이상의 다른 저장된 단어간의 하나 이상의 다른 비교 결과치와 상기 하나 이상의 비교 결과치간의 하나 이상의 차이값 사이에, 제 1 소정 관계가 존재하면, 상기 발음을 인정하며, (2) 상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 2 소정 관계가 존재하면, N-best 알고리즘을 상기 발음에 적용하고, 또는 (3) 상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 3소정 관계가 존재하면, 상기 발음을 제거하도록 구성된 프로세서를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  13. 제 12 항에 있어서,
    상기 하나 이상의 비교 결과치는 복수의 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 복수의 다른 비교 결과치를 포함하는 특징으로 하는 음성 인식 시스템.
  14. 제 12 항에 있어서,
    상기 하나 이상의 차이값은 복수의 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  15. 제 12 항에 있어서,
    상기 저장된 단어는 상기 음성 인식 시스템의 어휘에서의 가장 양호한 후보를 포함하고, 상기 하나 이상의 다른 저장된 단어는 상기 음성 인식 시스템의 어휘에서 다음으로 가장 양호한 후보를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  16. 제 12 항에 있어서,
    상기 하나 이상의 비교 결과치는 하나 이상의 가장 가까운 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 하나 이상의 다음으로 가장 가까운 비교 결과치를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  17. 제 12 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 선형 예측 부호화 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  18. 제 12 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 스펙트럼 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  19. 제 12 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 대역통과 필터 출력을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  20. 제 12 항에 있어서,
    상기 제 1, 제 2, 및 제 3 소정 관계들은 선형 관계들인 것을 특징으로 하는 음성 인식 시스템.
  21. 제 12 항에 있어서,
    상기 하나 이상의 차이값은 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 차이를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  22. 제 12 항에 있어서,
    상기 하나 이상의 차이값은, 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 제 1 차이값 및 가장 가까운 비교 결과치와 세번째로 가장 가까운 비교 결과치간의 제 2 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  23. 저장된 단어에 대한 상기 발음에 관한 하나 이상의 비교 결과치와, 상기 발음과 하나 이상의 다른 저장된 단어간의 하나 이상의 다른 비교 결과치와 상기 하나 이상의 비교 결과치간의 하나 이상의 차이값 사이에, 제 1 소정 관계가 존재하면, 상기 발음을 인정하는 수단;
    상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 2 소정 관계가 존재하면, N-best 알고리즘을 상기 발음에 적용하는 수단; 및
    상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 3 소정 관계가 존재하면, 상기 발음을 제거하는 수단을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  24. 제 23 항에 있어서,
    상기 하나 이상의 비교 결과치는 복수의 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 복수의 다른 비교 결과치를 포함하는 특징으로 하는 음성 인식 시스템.
  25. 제 23 항에 있어서,
    상기 하나 이상의 차이값은 복수의 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  26. 제 23 항에 있어서,
    상기 저장된 단어는 상기 음성 인식 시스템의 어휘에서의 가장 양호한 후보를 포함하고, 상기 하나 이상의 다른 저장된 단어는 상기 음성 인식 시스템의 어휘에서 다음으로 가장 양호한 후보를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  27. 제 23 항에 있어서,
    상기 하나 이상의 비교 결과치는 하나 이상의 가장 가까운 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 하나 이상의 다음으로 가장 가까운 비교 결과치를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  28. 제 23 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 선형 예측 부호화 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  29. 제 23 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 스펙트럼 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  30. 제 23 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 대역통과 필터 출력을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  31. 제 23 항에 있어서,
    상기 제 1, 제 2, 및 제 3 소정 관계들은 선형 관계들인 것을 특징으로 하는 음성 인식 시스템.
  32. 제 23 항에 있어서,
    상기 하나 이상의 차이값은 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 차이를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  33. 제 23 항에 있어서,
    상기 하나 이상의 차이값은, 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 제 1 차이값 및 가장 가까운 비교 결과치와 세번째로 가장 가까운 비교 결과치간의 제 2 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  34. 발음의 디지털화된 스피치 샘플로부터 스피치 파라미터들을 추출하는 수단; 및
    (1) 저장된 단어에 대한 상기 발음에 관한 하나 이상의 비교 결과치와, 상기 발음과 하나 이상의 다른 저장된 단어간의 하나 이상의 다른 비교 결과치와 상기 하나 이상의 비교 결과치간의 하나 이상의 차이값 사이에, 제 1 소정 관계가 존재하면, 상기 발음을 인정하고, (2) 상기 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 2 소정 관계가 존재하면, N-best 알고리즘을 상기 발음에 적용하며, 또는 (3) 하나 이상의 비교 결과치와, 상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치간의 상기 하나 이상의 차이값 사이에, 제 3 소정 관계가 존재하면, 상기 발음을 제거하는 수단을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  35. 제 34 항에 있어서,
    상기 하나 이상의 비교 결과치는 복수의 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 복수의 다른 비교 결과치를 포함하는 특징으로 하는 음성 인식 시스템.
  36. 제 34 항에 있어서,
    상기 하나 이상의 차이값은 복수의 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  37. 제 34 항에 있어서,
    상기 저장된 단어는 상기 음성 인식 시스템의 어휘에서의 가장 양호한 후보를 포함하고, 상기 하나 이상의 다른 저장된 단어는 상기 음성 인식 시스템의 어휘에서 다음으로 가장 양호한 후보를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  38. 제 34 항에 있어서,
    상기 하나 이상의 비교 결과치는 하나 이상의 가장 가까운 비교 결과치를 포함하고, 상기 하나 이상의 다른 비교 결과치는 하나 이상의 다음으로 가장 가까운 비교 결과치를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  39. 제 34 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 선형 예측 부호화 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  40. 제 34 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 스펙트럼 계수를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  41. 제 34 항에 있어서,
    상기 하나 이상의 비교 결과치와 상기 하나 이상의 다른 비교 결과치는, 대역통과 필터 출력을 포함하는 것을 특징으로 하는 음성 인식 시스템.
  42. 제 34 항에 있어서,
    상기 제 1, 제 2, 및 제 3 소정 관계들은 선형 관계들인 것을 특징으로 하는 음성 인식 시스템.
  43. 제 34 항에 있어서,
    상기 하나 이상의 차이값은 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 차이를 포함하는 것을 특징으로 하는 음성 인식 시스템.
  44. 제 34 항에 있어서,
    상기 하나 이상의 차이값은, 가장 가까운 비교 결과치와 다음으로 가장 가까운 비교 결과치간의 제 1 차이값 및 가장 가까운 비교 결과치와 세번째로 가장 가까운 비교 결과치간의 제 2 차이값을 포함하는 것을 특징으로 하는 음성 인식 시스템.
KR1020017009889A 1999-02-08 2000-02-04 음성 인식 거부 방식 KR100698811B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/248,513 1999-02-08
US09/248,513 US6574596B2 (en) 1999-02-08 1999-02-08 Voice recognition rejection scheme

Publications (2)

Publication Number Publication Date
KR20010093327A true KR20010093327A (ko) 2001-10-27
KR100698811B1 KR100698811B1 (ko) 2007-03-23

Family

ID=22939477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017009889A KR100698811B1 (ko) 1999-02-08 2000-02-04 음성 인식 거부 방식

Country Status (11)

Country Link
US (1) US6574596B2 (ko)
EP (1) EP1159735B1 (ko)
JP (1) JP4643011B2 (ko)
KR (1) KR100698811B1 (ko)
CN (1) CN1178203C (ko)
AT (1) ATE362166T1 (ko)
AU (1) AU3589300A (ko)
DE (1) DE60034772T2 (ko)
ES (1) ES2286014T3 (ko)
HK (1) HK1043423B (ko)
WO (1) WO2000046791A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8266451B2 (en) * 2001-08-31 2012-09-11 Gemalto Sa Voice activated smart card
US7324942B1 (en) * 2002-01-29 2008-01-29 Microstrategy, Incorporated System and method for interactive voice services using markup language with N-best filter element
US7020337B2 (en) * 2002-07-22 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting objects in images
JP4454921B2 (ja) * 2002-09-27 2010-04-21 株式会社半導体エネルギー研究所 半導体装置の作製方法
US7344901B2 (en) * 2003-04-16 2008-03-18 Corning Incorporated Hermetically sealed package and method of fabricating of a hermetically sealed package
EP1560354A1 (en) * 2004-01-28 2005-08-03 Deutsche Thomson-Brandt Gmbh Method and apparatus for comparing received candidate sound or video items with multiple candidate reference sound or video items
DE102004029873B3 (de) * 2004-06-16 2005-12-29 Deutsche Telekom Ag Verfahren und Vorrichtung zur intelligenten Eingabekorrektur für automatische Sprachdialogsysteme
JP4845118B2 (ja) * 2006-11-20 2011-12-28 富士通株式会社 音声認識装置、音声認識方法、および、音声認識プログラム
CN102047322B (zh) * 2008-06-06 2013-02-06 株式会社雷特龙 语音识别装置、语音识别方法以及电子设备
US8190437B2 (en) * 2008-10-24 2012-05-29 Nuance Communications, Inc. Speaker verification methods and apparatus
US8442824B2 (en) 2008-11-26 2013-05-14 Nuance Communications, Inc. Device, system, and method of liveness detection utilizing voice biometrics
US8428759B2 (en) * 2010-03-26 2013-04-23 Google Inc. Predictive pre-recording of audio for voice input
US20150279354A1 (en) * 2010-05-19 2015-10-01 Google Inc. Personalization and Latency Reduction for Voice-Activated Commands
CN105027198B (zh) * 2013-02-25 2018-11-20 三菱电机株式会社 语音识别***以及语音识别装置
US9626963B2 (en) * 2013-04-30 2017-04-18 Paypal, Inc. System and method of improving speech recognition using context
BR102014023647B1 (pt) * 2014-09-24 2022-12-06 Fundacao Cpqd - Centro De Pesquisa E Desenvolvimento Em Telecomunicacoes Método e sistema para detecção de fraudes em aplicações baseadas em processamento de voz
US11520610B2 (en) * 2017-05-18 2022-12-06 Peloton Interactive Inc. Crowdsourced on-boarding of digital assistant operations
US11182557B2 (en) * 2018-11-05 2021-11-23 International Business Machines Corporation Driving intent expansion via anomaly detection in a modular conversational system

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4567606A (en) 1982-11-03 1986-01-28 International Telephone And Telegraph Corporation Data processing apparatus and method for use in speech recognition
US4593367A (en) * 1984-01-16 1986-06-03 Itt Corporation Probabilistic learning element
FR2571191B1 (fr) 1984-10-02 1986-12-26 Renault Systeme de radiotelephone, notamment pour vehicule automobile
JPS61105671A (ja) 1984-10-29 1986-05-23 Hitachi Ltd 自然言語処理装置
US4991217A (en) 1984-11-30 1991-02-05 Ibm Corporation Dual processor speech recognition system with dedicated data acquisition bus
JPS6269297A (ja) 1985-09-24 1987-03-30 日本電気株式会社 話者確認タ−ミナル
US4827520A (en) 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
US5231670A (en) 1987-06-01 1993-07-27 Kurzweil Applied Intelligence, Inc. Voice controlled system and method for generating text from a voice controlled input
US5321840A (en) 1988-05-05 1994-06-14 Transaction Technology, Inc. Distributed-intelligence computer system including remotely reconfigurable, telephone-type user terminal
US5040212A (en) 1988-06-30 1991-08-13 Motorola, Inc. Methods and apparatus for programming devices to recognize voice commands
US5054082A (en) 1988-06-30 1991-10-01 Motorola, Inc. Method and apparatus for programming devices to recognize voice commands
JP2966852B2 (ja) * 1989-01-24 1999-10-25 キヤノン株式会社 音声処理方法及び装置
US5325524A (en) 1989-04-06 1994-06-28 Digital Equipment Corporation Locating mobile objects in a distributed computer system
US5012518A (en) 1989-07-26 1991-04-30 Itt Corporation Low-bit-rate speech coder using LPC data reduction processing
US5146538A (en) 1989-08-31 1992-09-08 Motorola, Inc. Communication system and method with voice steering
JP2788658B2 (ja) * 1989-12-01 1998-08-20 株式会社リコー 音声ダイヤル装置
US5280585A (en) 1990-09-28 1994-01-18 Hewlett-Packard Company Device sharing system using PCL macros
ATE294441T1 (de) 1991-06-11 2005-05-15 Qualcomm Inc Vocoder mit veränderlicher bitrate
WO1993001664A1 (en) 1991-07-08 1993-01-21 Motorola, Inc. Remote voice control system
US5305420A (en) 1991-09-25 1994-04-19 Nippon Hoso Kyokai Method and apparatus for hearing assistance with speech speed control function
US5390278A (en) * 1991-10-08 1995-02-14 Bell Canada Phoneme based speech recognition
DE69322894T2 (de) * 1992-03-02 1999-07-29 At & T Corp Lernverfahren und Gerät zur Spracherkennung
JPH0664478B2 (ja) * 1992-06-05 1994-08-22 カシオ計算機株式会社 パターン認識装置
CA2126380C (en) * 1993-07-22 1998-07-07 Wu Chou Minimum error rate training of combined string models
US5566272A (en) 1993-10-27 1996-10-15 Lucent Technologies Inc. Automatic speech recognition (ASR) processing using confidence measures
US5819221A (en) * 1994-08-31 1998-10-06 Texas Instruments Incorporated Speech recognition using clustered between word and/or phrase coarticulation
US5729656A (en) * 1994-11-30 1998-03-17 International Business Machines Corporation Reduction of search space in speech recognition using phone boundaries and phone ranking
US5999902A (en) * 1995-03-07 1999-12-07 British Telecommunications Public Limited Company Speech recognition incorporating a priori probability weighting factors
JPH0954597A (ja) * 1995-08-11 1997-02-25 Matsushita Joho Syst Kk 項目入力装置
US5717826A (en) * 1995-08-11 1998-02-10 Lucent Technologies Inc. Utterance verification using word based minimum verification error training for recognizing a keyboard string
US5806029A (en) * 1995-09-15 1998-09-08 At&T Corp Signal conditioned minimum error rate training for continuous speech recognition
US5912949A (en) * 1996-11-05 1999-06-15 Northern Telecom Limited Voice-dialing system using both spoken names and initials in recognition
US6094476A (en) 1997-03-24 2000-07-25 Octel Communications Corporation Speech-responsive voice messaging system and method

Also Published As

Publication number Publication date
WO2000046791A1 (en) 2000-08-10
DE60034772T2 (de) 2008-01-31
CN1347547A (zh) 2002-05-01
KR100698811B1 (ko) 2007-03-23
US20020055841A1 (en) 2002-05-09
HK1043423B (zh) 2005-07-22
JP4643011B2 (ja) 2011-03-02
US6574596B2 (en) 2003-06-03
AU3589300A (en) 2000-08-25
DE60034772D1 (de) 2007-06-21
EP1159735B1 (en) 2007-05-09
EP1159735A1 (en) 2001-12-05
ATE362166T1 (de) 2007-06-15
ES2286014T3 (es) 2007-12-01
CN1178203C (zh) 2004-12-01
JP2002536691A (ja) 2002-10-29

Similar Documents

Publication Publication Date Title
US6324509B1 (en) Method and apparatus for accurate endpointing of speech in the presence of noise
EP1301922B1 (en) System and method for voice recognition with a plurality of voice recognition engines
US6411926B1 (en) Distributed voice recognition system
KR100698811B1 (ko) 음성 인식 거부 방식
US6519479B1 (en) Spoken user interface for speech-enabled devices
KR100316077B1 (ko) 분산형음성인식시스템
US6836758B2 (en) System and method for hybrid voice recognition
US7136815B2 (en) Method for voice recognition
JPH0876785A (ja) 音声認識装置
US6694294B1 (en) System and method of mu-law or A-law compression of bark amplitudes for speech recognition
WO1993003480A1 (en) Speech pattern matching in non-white noise

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150227

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151230

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161229

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 13