KR20040073145A - 음성인식기의 성능 향상 방법 - Google Patents

음성인식기의 성능 향상 방법 Download PDF

Info

Publication number
KR20040073145A
KR20040073145A KR1020030009128A KR20030009128A KR20040073145A KR 20040073145 A KR20040073145 A KR 20040073145A KR 1020030009128 A KR1020030009128 A KR 1020030009128A KR 20030009128 A KR20030009128 A KR 20030009128A KR 20040073145 A KR20040073145 A KR 20040073145A
Authority
KR
South Korea
Prior art keywords
noise
voice
weight
weights
frame
Prior art date
Application number
KR1020030009128A
Other languages
English (en)
Inventor
신원호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020030009128A priority Critical patent/KR20040073145A/ko
Publication of KR20040073145A publication Critical patent/KR20040073145A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 음성인식기에서 잡음에 의해 인식 성능이 저하되는 것을 최소화 하는 기술에 관한 것이다. 이러한 본 발명은, 서브 밴드 또는 특징 벡터 가중치를 결정하기 위하여, 묵음 구간으로부터 잡음 특성을 검출하는 제1과정과; 음성 구간을 검출하여 프레임 별로 가중치를 곱할 때, 잡음의 영향을 적게 받은 부분이 강조되도록 가중치를 설정하여 곱하는 제2과정과; 매 프레임의 특징 벡터에 대한 가중치가 결정된 후, 입력 음성에 대한 전체 확률 값을 구하기 위해 프레임별 가중치를 파워 형태로 다시 곱할 때, 잡음의 영향을 적게 받은 프레임에 더 많은 가중치를 부여하는 제3과정에 의해 달성된다.

Description

음성인식기의 성능 향상 방법{PERFORMANCE ENHANCEMENT METHOD OF SPEECH RECOGNITION SYSTEM}
본 발명은 음성인식기의 성능을 향상시키는 기술에 관한 것으로, 특히 음성인식기의 확률 계산 과정에서 잡음의 영향을 줄이는데 적당하도록 한 음성인식기의 성능 향상 방법에 관한 것이다.
음성 인식에서 학습에 사용된 데이터의 공통된 특성은 학습된 모델에 반영된다는 것이다. 이상적인 경우 주변 환경이나 발성자의 특성이 배제된 언어적인 특징들만이 추정되어 모델이 구성되지만, 실제 상황에서는 주변 환경의 영향이 학습된 모델에 반영되게 된다.
따라서, 실제 테스트 환경과 학습 환경과의 차이를 극복하기 위해 지금까지 여러 가지 시도가 있었다. 예를 들어, 다양한 환경에서 모델을 학습하거나, 잡음에 강인한 특징 벡터를 구하거나, 잡음 보상(또는 제거)을 실시하거나, 음질을 향상시키는 방법 등이 시도되었다. 또한, 상기와 같은 여러 방법들이 결합된 방법이 적용되기도 하였다.
그럼에도 불구하고, 잡음 환경에서는 음성인식 성능이 급격히 저하되어 올바른 인식 결과를 출력하는데 어려움이 있었다.
따라서, 본 발명의 제1목적은 음성인식기의 확률 계산 과정에서 잡음의 영향을 줄이는데 있다.
본 발명의 제2목적은 서브밴드 특징 벡터나 서로 다른 벡터 중에서 보다 잡음에 덜 영향을 받은 정보를 효과적으로 활용하는데 있다.
본 발명의 제3특징은 상기와 동일한 방법으로 시간적인 측면에서도 잡음의 영향을 줄이는데 있다.
도 1은 본 발명에 의한 음성인식기의 성능 향상 방법의 처리과정을 나타낸 신호 흐름도.
본 발명의 제1특징에 따르면, 계산된 인식 확률 값이 잡음에 대해 강인한 특성을 갖게 된다.
본 발명의 제2특징에 따르면, 인식률 계산시 잡음에 덜 오염된 대역이나 특징 벡터를 활용할 수 있게 된다.
본 발명의 제3특징에 따르면, 주파수 및 시간 영역에서 잡음에 적게 오염된 부분을 강조할 수 있게 된다.
본 발명에 의한 음성인식기의 성능 향상 방법은, 서브 밴드 또는 특징 벡터 가중치를 결정하기 위하여, 음성이 시작되기 전의 묵음 구간으로부터 잡음 특성을구하는 제1과정과; 음성 구간을 검출하여 서브밴드 별로 가중치를 곱하거나, 서로 다른 특징 벡터를 추출하여 이들간의 가중치를 적당히 조절하는 방법으로 가중치를 곱하되, 잡음의 영향을 적게 받은 부분이 강조되도록 가중치를 설정하여 곱하는 제2과정과; 매 프레임의 특징 벡터에 대한 가중치가 결정된 후, 입력 음성에 대한 전체 확률 값을 구하기 위해 프레임별 가중치를 파워 형태로 다시 곱할 때 잡음의 영향을 적게 받은 프레임에 더 많은 가중치를 부여하는 제3과정으로 이루어지는 것으로, 이와 같은 본 발명의 음성인식 성능 향상 방법을 첨부한 도 1을 참조하여 상세히 설명하면 다음과 같다.
본 발명은 HMM(HMM: Hidden Markov Model)을 이용한 음성 인식 시스템을 기반으로 한다. 왜냐하면, 음성 인식의 방법은 이 이외에도 여러 가지 방법이 있으나 HMM을 이용한 방법이 가장 보편적으로 널리 이용되고 있기 때문이다.
HMM을 이용한 음성인식 방법은 입력 음성에 대해 가장 높은 확률값을 나타내는 모델을 인식 결과로 출력하는 방법이다. 따라서, 입력 음성에 대해 확률 값을 계산하여야 하는데, 이를 위해 입력 음성으로부터 일정 구간 간격으로 특징 벡터를 추출하여 이들에 대한 유사도(likelihood)를 곱하는 과정을 반복적으로 수행하게 된다.
일반적으로, 잡음 환경(여기서는 주로 부가 잡음에 의한 영향을 고려한다)에서 음성 인식을 수행할 경우 추출된 특징 벡터가 잡음의 영향을 받게 되는데, 이 특징 벡터 입장에서 볼 때에도 가능하면 잡음의 영향을 덜 받은 부분을 중심으로 인식을 수행하는 것이 유리하다. 그런데, 상기 특징 벡터가 잡음의 영향을 받는 정도는 잡음의 특성에 따라 다르게 나타난다. 예를 들어, 잡음이 백색 잡음과 같이 넓게 분포되어 있는 경우에는 별다른 대응방법이 없지만 실제 존재하는 잡음들의 경우 대체로 일부 대역에 집중된 형태로 나타난다.
하지만, 상기와 같이 잡음이 집중이 되어 있는 대역도 상대적으로 음성이 존재하는 대역에 비해 넓게 분포한 경우가 많아 간단하게 제거되지 않는다. 또한, 잡음의 영향을 받은 부분이 인식에 얼마나 중요한 정보를 가지고 있는가에 따라 다르지만, 상대적으로는 잡음의 영향을 적게 받은 부분을 강조해 주는 것이 인식 성능 개선에 도움을 준다. 설령, 상기 잡음이 백색 잡음이라고 하더라도 잡음의 정도가 심하다면 상대적으로 SNR(SNR: Signal to Noise Ratio)이 높은 대역에 보다 가중치를 두는 것이 바람직하다.
상기 설명을 기반으로 하고 도 1을 참조하여, 특징 벡터 및 프레임의 가중 방법을 중심으로 입력 음성에 대한 확률 계산 방법을 좀더 상세히 설명하면 다음과 같다.
입력 음성에 대한 확률 계산 과정에서 잡음의 특성에 따라 특징 벡터(Feature vector) 및 프레임의 가중치(weight)를 설정하게 되므로, 우선적으로 잡음의 특성이 고려되어야 하는데, 이 잡음 특성은 일반적으로 음성이 시작되기 전의 묵음 구간으로부터 구해진다.(S1,S2)
이후, 음성 검출 알고리즘을 이용하여 음성 구간을 검출하게 되는데, 이 음성 구간이 검출되면 그 구간에 서브밴드 혹은 특징벡터 가중치를 곱하게 된다.(S3-S5)
상기 특징 벡터의 가중치를 곱하는 방법으로서, 서브밴드 별로 가중치를 곱하는 방법과 서로 다른 특징 벡터를 추출하여 이들 간의 가중치를 적절히 조절하는 방법이 있는데 먼저, 서브밴드 별로 가중치를 곱하는 방법의 경우 전대역의 특징 벡터와 함께 가중치를 고려하게 된다.
일반적으로, 서브밴드 스타일의 음성 인식의 경우에는 존재하는 잡음이 일부 주파수 대역에만 편중되어 있으면 이의 장점을 이용할 수 있게 되지만, 그렇지 않은 경우 즉, 넓은 대역에 분포하는 경우에는 이의 장점을 이용하는데 어려움이 있다. 왜냐하면, 잡음이 존재하는 대역들을 제거할 경우 정보의 손실이 너무 크기 때문이다. 이러한 점들을 고려하여 가중치에 의해 손실된 정보에 대해서는 전대역의 특징 벡터에서 보상하고, 나머지 잡음의 영향을 적게 받은 특징 벡터에 대해서는 대역별로 분리하여 가중치를 두어 확률값으로 계산하게 된다. 이와 같은 방법은 다음의 [수학식1]로 표현된다.
결국, 상기 [수학식1]은 t번째 관측에 대한 상태 j에서의 유사도 값을 나타낸 것으로, 서브밴드 유사도와 전대역 유사도(fullband likelihood)가 각각 가중치에 의해 가중되어 표현되었다.
또한, 상기 서로 다른 특징 벡터를 추출하여 이들 간의 가중치를 적절히 조절하는 방법은 다음의 [수학식2]와 같이 표현된다. 이 방법의 일실시 구현예로서, 일반적으로 많이 이용되는 멜 켑스트럼(Mel cepstrum) 특징 벡터와 조용한 환경에서는 다소 성능이 떨어지지만 잡음 환경에서 양호한 성능을 발휘하는 루트 켑스트럽(Root Cepstrum)을 활용하여 이들 간의 가중치를 조정하는 방법을 들 수 있다.
이와 같은 경우 두 특징 벡터 간의 가중치를 로컬 프레임(local frame) SNR을 기준으로 다음의 [수학식3]과 같이 결정할 수 있다.
이상과 같이 매 프레임의 특징 벡터에 대한 가중치가 결정된 후, 입력 음성에 대한 전체 확률 값을 구하기 위해 프레임별 가중치를 파워 형태로 다시 곱하게 된다. 즉, 프레임별 에너지나 에너지와의 켑스트럼 거리 차 등을 기준으로 잡음의 영향을 적게 받은 프레임에 더 많은 가중치를 부여하게 되는데, 이는 다음의 [수학식4]로 표현되고 이에 의해 전체 확률 값이 계산된다.(S6-S8)
이때, 프레임별 가중치를 구하기 위해서는 제6스텝(S6)에서와 같이 일정 구간(DurThr) 이상의 음성 프레임이 입력된 후에 확률 값을 추정하게 되는데, 고립 단어의 경우 전체 프레임으로부터, 연속 문장의 경우에는 일정 시간 간격으로 프레임 가중치를 구하게 된다. 이와 같이 프레임 가중치를 구할 때 상기 설명에서와 같이 프레임 에너지 및 잡음과의 켑스트럼 거리 차 등을 이용하게 되는데, 어느 경우나 다음의 [수학식5]를 이용하여 가중치를 결정하게 된다.
여기서, 프레임 가중치는 0에서 2사이의 값을 갖도록 한다. 이상의 특징 벡터 및 프레임별 가중치를 함께 고려한 확률 식은 최종적으로 다시 다음의 [수학식6]과 같이 표현된다. 여기서, 첫 번째 식은 서브밴드 접근 방식의 가중 방법에 대한 것이고, 두 번째 식은 두 개의 특징 벡터 방식에 대한 것이다.
이상에서 상세히 설명한 바와 같이 본 발명은 음성인식 계산 과정에서 시간 또는 주파수 영역에서 잡음의 영향을 덜 받은 부분을 잡음의 영향을 많이 받은 부분에 비하여 상대적으로 강조 함으로써, 잡음 환경에서 음성인식 성능이 급격히 저하되는 것을 방지할 수 있는 효과가 있다.

Claims (5)

  1. 묵음 구간으로부터 잡음 특성을 검출하는 제1과정과; 음성 구간을 검출하여 프레임 별로 가중치를 곱할 때, 잡음의 영향을 적게 받은 부분이 강조되도록 가중치를 설정하여 곱하는 제2과정과; 매 프레임의 특징 벡터에 대한 가중치가 결정된 후, 입력 음성에 대한 전체 확률 값을 구하기 위해 프레임별 가중치를 파워 형태로 다시 곱할 때, 잡음의 영향을 적게 받은 프레임에 더 많은 가중치를 부여하는 제3과정으로 이루어지는 것을 특징으로 하는 음성인식기의 성능 향상 방법.
  2. 제1항에 있어서, 묵음 구간은 음성이 시작되기 전의 묵음 구간인 것을 특징으로 하는 음성인식기의 성능 향상 방법.
  3. 제1항에 있어서, 제2과정에서 가중치를 곱할 때, 서브밴드 별로 가중치를 곱하거나 서로 다른 특징 벡터를 추출하여 이들 간의 가중치를 적절히 조절하는 것을 특징으로 하는 음성인식기의 성능 향상 방법.
  4. 제1항에 있어서, 제2과정은 가중치에 의해 손실된 정보를 감안하여, 전대역의 특징 벡터로 보상하고 나머지 잡음의 영향을 적게 받은 특징 벡터에 대해서는 대역별로 분리하여 가중치를 두어 확률값으로 계산하는 것을 특징으로 하는 음성인식기의 성능 향상 방법.
  5. 제1항에 있어서, 제3과정의 프레임별 가중치를 구하기 위해 일정 구간 이상의 음성 프레임이 입력된 후에 확률 값을 추정하는 것을 특징으로 하는 음성인식기의 성능 향상 방법.
KR1020030009128A 2003-02-13 2003-02-13 음성인식기의 성능 향상 방법 KR20040073145A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030009128A KR20040073145A (ko) 2003-02-13 2003-02-13 음성인식기의 성능 향상 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030009128A KR20040073145A (ko) 2003-02-13 2003-02-13 음성인식기의 성능 향상 방법

Publications (1)

Publication Number Publication Date
KR20040073145A true KR20040073145A (ko) 2004-08-19

Family

ID=37360472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030009128A KR20040073145A (ko) 2003-02-13 2003-02-13 음성인식기의 성능 향상 방법

Country Status (1)

Country Link
KR (1) KR20040073145A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657912B1 (ko) * 2004-11-18 2006-12-14 삼성전자주식회사 잡음 제거 방법 및 장치
KR100738341B1 (ko) * 2005-12-08 2007-07-12 한국전자통신연구원 성대신호를 이용한 음성인식 장치 및 그 방법
KR100877225B1 (ko) * 2007-10-05 2009-01-07 한국항공우주연구원 자승신호크기를 제한하는 검파기
KR101460059B1 (ko) * 2007-12-17 2014-11-12 삼성전자주식회사 잡음 검출 방법 및 장치
WO2018038379A1 (ko) * 2016-08-26 2018-03-01 삼성전자 주식회사 음성 인식을 위한 전자 장치 및 이의 제어 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657912B1 (ko) * 2004-11-18 2006-12-14 삼성전자주식회사 잡음 제거 방법 및 장치
KR100738341B1 (ko) * 2005-12-08 2007-07-12 한국전자통신연구원 성대신호를 이용한 음성인식 장치 및 그 방법
KR100877225B1 (ko) * 2007-10-05 2009-01-07 한국항공우주연구원 자승신호크기를 제한하는 검파기
KR101460059B1 (ko) * 2007-12-17 2014-11-12 삼성전자주식회사 잡음 검출 방법 및 장치
WO2018038379A1 (ko) * 2016-08-26 2018-03-01 삼성전자 주식회사 음성 인식을 위한 전자 장치 및 이의 제어 방법
US11087755B2 (en) 2016-08-26 2021-08-10 Samsung Electronics Co., Ltd. Electronic device for voice recognition, and control method therefor

Similar Documents

Publication Publication Date Title
KR101009854B1 (ko) 음성 신호의 하모닉스를 이용한 잡음 추정 방법 및 장치
Hansen et al. Constrained iterative speech enhancement with application to speech recognition
Yegnanarayana et al. Enhancement of reverberant speech using LP residual signal
Macho et al. Evaluation of a noise-robust DSR front-end on Aurora databases.
KR100636317B1 (ko) 분산 음성 인식 시스템 및 그 방법
CN109065067A (zh) 一种基于神经网络模型的会议终端语音降噪方法
Lin et al. Adaptive noise estimation algorithm for speech enhancement
US5970441A (en) Detection of periodicity information from an audio signal
US7664637B2 (en) Audio-visual codebook dependent cepstral normalization
US20110238417A1 (en) Speech detection apparatus
CN101790752A (zh) 多麦克风声音活动检测器
KR101892733B1 (ko) 켑스트럼 특징벡터에 기반한 음성인식 장치 및 방법
EP0838805B1 (en) Speech recognition apparatus using pitch intensity information
Itoh et al. Environmental noise reduction based on speech/non-speech identification for hearing aids
US8423360B2 (en) Speech recognition apparatus, method and computer program product
US20120265526A1 (en) Apparatus and method for voice activity detection
Nuthakki et al. Speech enhancement based on deep convolutional neural network
KR100784456B1 (ko) Gmm을 이용한 음질향상 시스템
KR20040073145A (ko) 음성인식기의 성능 향상 방법
CN116312561A (zh) 一种电力调度***人员声纹识别鉴权降噪和语音增强方法、***及装置
US8788265B2 (en) System and method for babble noise detection
JPH0449952B2 (ko)
Nadeu Camprubí et al. Pitch determination using the cepstrum of the one-sided autocorrelation sequence
Ghoreishi et al. A hybrid speech enhancement system based on HMM and spectral subtraction
Seyedin et al. A new subband-weighted MVDR-based front-end for robust speech recognition

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination