KR101248535B1 - 배경 노이즈 생성 방법 및 노이즈 처리 장치 - Google Patents

배경 노이즈 생성 방법 및 노이즈 처리 장치 Download PDF

Info

Publication number
KR101248535B1
KR101248535B1 KR1020107023132A KR20107023132A KR101248535B1 KR 101248535 B1 KR101248535 B1 KR 101248535B1 KR 1020107023132 A KR1020107023132 A KR 1020107023132A KR 20107023132 A KR20107023132 A KR 20107023132A KR 101248535 B1 KR101248535 B1 KR 101248535B1
Authority
KR
South Korea
Prior art keywords
parameter
noise
encoding parameter
high band
frame
Prior art date
Application number
KR1020107023132A
Other languages
English (en)
Other versions
KR20100133437A (ko
Inventor
진리앙 다이
리빈 장
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20100133437A publication Critical patent/KR20100133437A/ko
Application granted granted Critical
Publication of KR101248535B1 publication Critical patent/KR101248535B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

사용자의 체험을 제고하기 위해 배경 노이즈 생성 방법 및 노이즈 처리 장치가 제공된다. 상기 방법은 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다. 노이즈 처리 장치도 제공된다.

Description

배경 노이즈 생성 방법 및 노이즈 처리 장치 {METHOD FOR GENERATING BACKGROUND NOISE AND NOISE PROCESSING APPARATUS}
삭제
본 출원은 통신에 관한 것이며, 더욱 구체적으로는 배경 노이즈 생성 방법 및 노이즈 처리 장치에 관한 것이다.
현재의 데이터 전송 시스템에서는, 음성 코딩 기술을 사용하여 음성 신호(speech signal)의 전송 대역폭을 압축하여 통신 시스템의 용량을 증가시킬 수 있다. 음성 통신에서 약 40%의 컨텐츠만이 음성을 포함하고 나머지 전송 컨텐츠는 무음 또는 배경 노이즈(background noise)일 뿐이므로, 전송 대역폭을 더욱 절약하기 위해 비연속 전송 시스템(Discontinuous Transmission System, DTX)/안락 노이즈 생성(Comfortable Noise Generation, CNG) 기법이 출현하였다.
종래기술의 DTX/CNG 기초한 노이즈 생성 방법은 다음의 단계들을 포함한다:
인코딩단(encoding end)에서는, 입력 배경 노이즈 신호를 2개의 부대역(subband)으로 필터링하여 저부대역(low subband) 신호와 고부대역(hig subband) 신호를 출력한다.
이 두 개의 부대역 신호를 인코딩하여, 협대역 인코딩 파라미터(narrow band encoding parameter)와 고대역 인코딩 파라미터(high band encoding parameter)를 취득한다. 두 개의 부대역에 대한 인코딩 파라미터는 노이즈가 없는 프레임(non-noise frame)로 결합된다. DTX의 현재의 결정이 "전송"인 경우, 고대역 인코딩 파라미터와 협대역 인코딩 파라미터를 무음 삽입 설명자(Silence Insertion Descriptor, SID) 프레임으로 조립한 다음, 이 SID 프레임을 디코딩측(decoding end)에 전송하고; 그렇지 않으면, 아무 데이터도 없는 NODATA 프레임을 디코딩단(decoding end)에 전송한다.
디코딩단에서는, 수신된 인코딩된 비트스트림이 협대역의 인코딩 파라미터만을 포함하는 경우, 729B의 디코딩 방식으로 디코딩을 실행하며, 인코딩 파라미터는 첫 번째 10ms 프레임에 사용되고, 두 번째 10ms 프레임은 NODATA 프레임으로 처리된다.
수신된 인코딩된 비트스트림에 광대역의 인코딩 파라미터가 있는 경우, 광대역은 고대역과 협대역을 포함하고, 디코딩 프로세스는 다음의 단계들을 포함한다:
수신된 프레임이 SID 프레임인 경우, SID 프레임를 디코딩하여 협대역 인코딩 파라미터 및 고대역 인코딩 파라미터를 취득하고, 이 협대역 인코딩 파라미터 및 고대역 인코딩 파라미터에 따라 협대역 배경 노이즈와 고대역 배경 노이즈를 생성한다.
수신된 프레임이 NODATA 프레임인 경우, 729B의 인코딩 방식으로 협대역 인코딩 파라미터를 취득하고, 729B의 CNG 방식으로 협대역 배경 노이즈를 취득한다. 고대역 인코딩 파라미터는 이전의 SID 프레임의 고대역 인코딩 파라미터:
Figure 112010066751011-pct00001
와 동일하고, 그에 따라 고대역 배경 노이즈를 생성한다.
그러나, 상기 기술적 해법에서는, NODATA 프레임이 수신된 때, 이전의 SID 프레임의 고대역 인코딩 파라미터가 현재 프레임의 고대역 인코딩 파라미터로서 직접 복제되기 때문에, 두 개의 SID 프레임의 인코딩 효과는 완전히 동일하다.
두 개의 인접한 SID 프레임의 인코딩 파라미터가 상당히 다른 경우, 광대역 배경 노이즈들 사이의 차이는 상당히 클 수 있고 음성 스펙트럼에서 "블록(block)" 효과가 발생할 것이고, 숨소리 같은 청각 효과를 사용자에게 줄 것이기 때문에 사용자의 체험을 저하시키다.  
본 발명의 실시예는 사용자의 체험을 제고하기 위한 배경 노이즈 생성 방법 및 노이즈 처리 장치를 제공한다.
본 발명의 실시예에 따른 배경 노이즈 생성 방법은, 취득된 신호 프레임이 노이즈 프레임(noise frame)인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다.
본 발명의 실시예에 따른 노이즈 처리 장치는, 신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛; 상기 신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성되고, 상기 신호 프레임이 노이즈 프레임인 경우 상기 고대역 인코딩 파라미터는 고대역 노이즈 인코딩 파라미터인, 파라미터 취득 유닛; 상기 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛을 포함한다.
상기 기술적 해법에 의해, 본 발명의 실시예들은 다음의 이점을 제공한다:
본 발명의 실시예에서는, 신호 프레임을 취득한 후, 신호 프레임이 노이즈 프레임인 경우, 그 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터 취득하고, 그 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행한다, 즉 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락(frequency envelope)에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 증가되어, SID 프레임간의 차가 비교적 작아지므로, "블록" 효과를 효과적으로 제거하여 사용자의 체험을 제고한다.  
도 1은 본 발명의 제1 실시예에 따른 배경 노이즈 생성 방법의 블록도이다.
도 2는 본 발명의 제2 실시예에 따른 배경 노이즈 생성 방법의 블록도이다.
도 3은 본 발명의 제3 실시예에 따른 배경 노이즈 생성 방법의 블록이다.
도 4는 본 발명의 실시예에 따른 노이즈 처리 장치의 블록도이다.
 본 발명의 실시예는 사용자의 체험을 제고하기 위한 배경 노이즈 생성 방법 및 노이즈 처리 장치를 제공한다.
본 발명의 실시예에서, 신호 프레임을 취득한 후, 그 신호 프레임이 노이즈 프레임인 경우, 그 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터 취득하고, 노이즈 프레임에 따라 가중치 부여 및/또는 평활화를 처리한다. 즉, 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 증가되어, SID 프레임간의 차가 비교적 작아지므로, "블록" 효과를 효과적으로 제거하여 사용자의 체험을 제고한다.  
도 1을 참조하면, 본 발명의 제1 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
101: 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득한다.
본 실시예에서, 고대역 노이즈 인코딩 파라미터는 시간(시간-도메인) 포락 파라미터와 주파수(주파수-도메인) 포락 파라미터를 포함한다.
신호 프레임은 인코딩단 또는 디코딩단에서 취득될 수 있다. 자세한 것은 아래의 실시예에서 설명할 것이므로 여기서는 더 이상 설명하지 않는다.
102: 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득한다.
노이즈 프레임을 취득한 후, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 유의할 것은, 실제 애플리케이션에서는, 노이즈 프레임에는 고대역 노이즈 인코딩 파라미터 외에 협대역 노이즈 인코딩 파라미터도 포함한다는 것이다. 자세한 프로세스에 대해서는 아래의 실시예에서 설명한다.
본 실시예에서, 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있거나, 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여를 수행할 수 있거나, 또는 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및 평활화를 모두 수행할 수 있으며, 가중치 부여 및 평활화를 모두 수행함으로써 더 나은 효과를 얻을 수 있다.
유의할 것은, 본 실시예에서, 고노이즈 프레임의 대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하는 것에 더해, 음성 프레임(speech frame)의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해서도 평활화를 수행하리 수 있다. 자세한 프로세스에 대해서는 아래의 실시예에서 설명한다.
103: 평활화 및/또는 가중치 부여된 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성한다.
인코딩단에서 평활화 및/또는 가중치 부여를 수행하는 경우, 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터를 디코딩단에 전송하고, 디코딩단에서 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 배경 노이즈 신호를 생성한다.
디코딩단에서 평활화 및/또는 가중치 부여를 수행하는 경우, 디코딩단에서 인코딩단으로부터 신호 프레임을 수신하고, 신호 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하며, 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호 및 협대역 배경 노이즈 신호를 생성한다.
이해하기 쉽도록, 이하에서는 상이한 노이즈 처리단에 대해 상세하게 설명한다.
도 2를 참조하면, 도 2에 나타낸 방법에서는 인코딩단에서 노이즈 처리를 수행한다. 본 발명의 제2 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
201: 신호 프레임을 취득한다.
본 실시예에서는, 인코딩단에서 노이즈 처리를 수행하기 때문에, 인코딩단에서 신호 프레임을 취득한다.
각각의 신호 프레임에 대해, 인코딩단에서 쿼드러처 미러 필터뱅크(Quadrature Mirror Filterbank, QMF)
Figure 112010066751011-pct00002
로 입력 배경 노이즈 신호
Figure 112010066751011-pct00003
를 2개의 부대역으로 필터링하여 저부대역 신호
Figure 112010066751011-pct00004
와 고부대역 신호
Figure 112010066751011-pct00005
를 출력한다.
먼저, 저부대역 신호
Figure 112010066751011-pct00006
를 729B와 유사한 인코딩 방식으로 인코딩한다. DTX의 결정이 "전송"인 경우, 729.1의 프레임 길이와 조정하기 위해, 현재 슈퍼 프레임(super-frame)의 첫 번째 10ms를 인코딩하여, 협대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00007
를 취득하며, Ω는 주파수 스펙트럼(frequency spectrum) 파라미터이고, E는 여기 에너지(excitation energy) 파라미터이다.
다음에, DTX의 결정에 따라 시간 도메인 대역폭 확장(Time-Domain BandWidth Extension, TDBWE) 인코더로 고부대역 신호
Figure 112010066751011-pct00008
를 인코딩한다. 고대역 노이즈 인코딩 파라미터가 취득되고, 즉
Figure 112010066751011-pct00009
이고,
Figure 112010066751011-pct00010
는 시간 포락 파라미터이며,
Figure 112010066751011-pct00011
는 주파수 포락 파라미터이다.
202: 취득된 신호 프레임이 노이즈 프레임인지를 결정하고, 노이즈 프레임인 경우, 단계 204를 수행하며, 노이즈 프레임이 아니면 단계 203을 수행한다.
203: 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 평활화를 수행한 다음, 단계 206을 수행한다.
인코딩단에서 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 프레임에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다. 상세 프로세스는 다음과 같다:
음성 프레임의 고대역 음성 인코딩 파라미터
Figure 112010066751011-pct00012
를 사용하여 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00013
에 대해 장기 평활화(long-term smoothing)를 수행하며,
Figure 112010066751011-pct00014
는 시간 포락 파라미터이고,
Figure 112010066751011-pct00015
는 주파수 포락 파라미터인 경우:
Figure 112010066751011-pct00016
β는 제2 평활화 파라미터이고, 그 값은 0.5, 또는 실제 필요에 따라 결정될 수 있다. 유의할 것은, 상기한 평활화를 시간 포락 파라미터 각각에 대해, 그리고 주파수 포락 파라미터 각각에 대해 수행한다는 것이다, 즉:
Figure 112010066751011-pct00017
204: 노이즈 프레임의 주파수 포락 파라미터에 대해 가중치 부여를 수행한다.
인코딩단에서 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치를 부여한다, 즉 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한다:
Figure 112010066751011-pct00018
가중치 부여 파라미터는
Figure 112010066751011-pct00019
이다. j는 주파수 값을 나타내며, j는 0에서 11까지의 정수값이다. j값이 클수록, 주파수값이 크며, 가중치를 부여하는 목적은 고주파 부분의 주파수 성분을 감쇠시키는 것이다. 유의할 것은, 상기 가중치 부여 파라미터는 단지 예일 뿐이고, 실제 상황에 따라 변경될 수 있으나, 가중치 부여 파라미터는 주파수값에 역비례하여야 한다는 것이다.
상기 i와 j의 값은 예에 불과하다는 것에 유의하기 바란다. 실제 애플리케이션에서, i와 j의 값은 변경될 수 있으며, 어떤 특정한 값으로 한정되지 않는다.
205: 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다.
단계 204에서 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한 후, 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터 및 시간 포락 파라미터에 대해 평활화를 수행하여, 최종적으로 단계 205에서 제2 고대역 노이즈 인코딩 파라미터를 취득할 수 있다. 상세한 프로세스는 다음과 같다:
Figure 112010066751011-pct00020
206: 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 신호 프레임을 조립하고, 단계 201을 반복 수행한다.
제2 고대역 노이즈 인코딩 파라미터를 취득한 후, 제2 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 노이즈가 없는 프레임을 조립한다.
207: 디코딩단에 신호 프레임을 전송한다.
DTX의 현재 결정이 "전송"인 경우, 제2 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 SID 프레임를 조립하여 디코딩단에 전송하고; 그렇지 않으면, 아무런 데이터가 없는 NODATA 프레임을 디코딩단에 전송한다.
208: 디코딩단에서 디코딩을 수행하여 배경 노이즈 신호를 생성한다.
디코딩단에서 인코딩단으로부터 신호 프레임을 수신한 후, 신호 프레임을 디코딩한다. 상세한 프로세스는 다음을 포함한다:
수신된 인코딩된 비트스트림에 협대역의 인코딩 파라미터만 존재하는 경우, 729B와 유사한 디코딩 방식으로 디코딩을 수행하며, 첫 번째 10ms 프레임에는 인코딩 파라미터가 사용되고, 두 번째 10ms 프레임은 NODATA 프레임으로 처리된다.
수신된 인코딩된 비트스트림에 광대역 인코딩 파라미터가 존재하는 경우, 디코딩 프로세스는 다음과 같다:
수신된 프레임이 SID 프레임인 경우, 디코딩을 통해 협대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00021
및 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00022
를 취득한다. 협대역 배경 노이즈
Figure 112010066751011-pct00023
은 729B와 유사한 CNG 방식을 사용하여 협대역 노이즈 인코딩 파라미터로부터 취득되고, 고대역 배경 노이즈
Figure 112010066751011-pct00024
는 729.1의 TDBWE 디코딩 방식을 사용하여 제2 고대역 노이즈 인코딩 파라미터로부터 취득된다.
수신된 프레임이 NODATA 프레임인 경우, 729B와 유사한 디코딩 방식을 사용하여 협대역 노이즈 인코딩 파라미터를 취득한 다음, 729B와 유사한 CNG 방식을 사용하여 협대역 배경 노이즈
Figure 112010066751011-pct00025
를 취득한다. 이전의 SID 프레임의 고대역 노이즈 인코딩 파라미터가 현재 프레임의 고대역 노이즈 인코딩 파라미터로 사용된다:
Figure 112010066751011-pct00026
고부대역 배경 노이즈
Figure 112010066751011-pct00027
는 729.1의 TDBWE 디코딩 방식을 사용하여 고대역 노이즈 인코딩 파라미터로부터 취득된다.
최종적으로, 취득된 고부대역 신호
Figure 112010066751011-pct00028
와 저부대역 신호
Figure 112010066751011-pct00029
를 729.1에서 사용된 QMF로 결합하여 최종 광대역 배경 노이즈 신호를 취득한다. 따라서, 디코딩단에서의 이러한 CNG 조작에 의해, 최종 광대역 배경 노이즈 신호를 취득한다.
상기 프로세스에서, 단계 203은 선택적인 단계이다, 즉 가중치 부여 및/또는 평활화는 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해서만 수행될 수 있다. 또한 단계 203을 수행함으로써
Figure 112010066751011-pct00030
에 음성 프레임의 정보를 포함시킬 수 있으므로, 복원된 신호는 더욱 매끈하고 연속적일 수 있다.
또, 단계 204와 단계 205는 고정된 실행 순서가 없다, 즉 단계 205 이전에 단계 204를 실행할 수 있거나, 또는 단계 204를 수행하기 이전에 단계 205를 수행할 수 있으며, 한정되어 있지 않다.
상기 실시예에서는, 인코딩단에서 고대역 노이즈 인코딩 파라미터에 대한 평활화를 수행 및/또는 노이즈 프레임의 주파수 포락에 대해 가중치 부여를 수행한 후, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 이렇게 하여 복구된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, "블록" 효과가 효과적으로 제거되고 사용자의 체험을 제고할 수 있다.
다음에, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있기 때문에, 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00031
에 음성 프레임의 정보를 포함시킬 수 있고, 이로써 복원된 신호가 더욱 매끈하고 연속적이 될 수 있다.
이상에서는 고대역 노이즈 인코딩 파라미터를 인코딩단에서 처리하는 경우를 소개하였다. 이하에서는 고대역 노이즈 인코딩 파라미터를 디코딩단에서 처리하는 경우를 소개한다. 도 3을 참조하면, 본 발명의 제3 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
301: 인코딩단으로부터 신호 프레임을 수신한다.
신호 프레임은 디코딩단에서 인코딩단으로부터 수신된다. 신호 프레임을 생성하는 프로세스는 다음을 포함한다:
인코딩단에서 QMF
Figure 112010066751011-pct00032
로 입력 배경 노이즈 신호
Figure 112010066751011-pct00033
를 2개의 부대역으로 필터링하여, 저부대역 신호
Figure 112010066751011-pct00034
와 고부대역 신호
Figure 112010066751011-pct00035
를 출력한다.
두 번째로, 저부대역 신호
Figure 112010066751011-pct00036
를 729B와 유사한 인코딩 방식으로 인코딩하고, DTX의 결정이 "전송"인 경우, 현재 슈퍼 프레임의 첫 번째 10ms를 인코딩하여, 협대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00037
를 취득하며, 여기서 Ω는 주파수 스펙트럼 파라미터이고, E는 여기 에너지 파라미터이다.
세 번째로, DTX의 결정에 따라 TDBWE 인코더로 고부대역 신호
Figure 112010066751011-pct00038
를 인코딩한다. 고대역 노이즈 인코딩 파라미터가 취득되고, 즉
Figure 112010066751011-pct00039
이며, 여기서
Figure 112010066751011-pct00040
는 시간 포락 파라미터이고,
Figure 112010066751011-pct00041
는 주파수 포락 파라미터이다. j값이 클수록, 대응하는 주파수가 더 높다.
끝으로, 두 부대역의 인코딩 파라미터를 노이즈없는 프레임으로 결합한다. DTX의 현재 결정이 "전송"인 경우, 고대역 노이즈 인코딩 파라미터와 협대역 노이즈 인코딩 파라미터를 SID 프레임으로 조립하고 그 SID 프레임를 디코딩단에 전송하고, 그렇지 않으면, 아무런 데이터가 없는 NODATA 프레임을 디코딩단에 전송한다.
302: 신호 프레임이 노이즈 프레임인지를 결정한다. 신호 프레임이 노이즈 프레임인 경우, 단계 304를 수행하며; 노이즈 프레임이 아닌 경우, 단계 303을 수행한다.
303: 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 평활화를 수행한 다음, 단계 306을 수행한다.
인코딩단에서 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 프레임에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다. 상세 프로세스는 다음과 같다:
음성 프레임의 고대역 음성 인코딩 파라미터
Figure 112010066751011-pct00042
를 사용하여 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00043
에 대해 장기 평활화(long-term smoothing)를 수행하며, 여기서
Figure 112010066751011-pct00044
는 시간 포락 파라미터이고,
Figure 112010066751011-pct00045
는 주파수 포락 파라미터이다.
Figure 112010066751011-pct00046
β는 제2 평활화 파라미터이고, 그 값은 0.5, 또는 실제 필요에 따라 결정될 수 있다. 유의할 것은, 상기 평활화를 시간 포락 파라미터 각각에 대해, 그리고 주파수 포락 파라미터 각각에 대해 수행한다는 것이다, 즉:
Figure 112010066751011-pct00047
304: 노이즈 프레임의 주파수 도메인 포락 파라미터에 가중치를 부여한다.
디코딩단에서 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치를 부여한다, 즉 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한다. 상세 프로세스는 다음과 같다:
Figure 112010066751011-pct00048
가중치 부여 파라미터는
Figure 112010066751011-pct00049
이다. 위의 j는 주파수 값을 나타내며, 0에서 11까지의 정수값일 수 있다. j값이 클수록, 주파수값이 더 크다. 가중치를 부여하는 목적은 고주파 부분의 주파수 성분을 감쇠시키는 것이다. 유의할 것은, 상기 가중치 부여 파라미터는 단지 예일 뿐이고, 실제 상황에 따라 변경될 수 있으나, 가중치 부여 파라미터는 주파수값에 역비례하여야 한다는 것이다.
상기 i와 j의 값은 예에 불과하다는 것에 유의하기 바란다. 실제 애플리케이션에서, i와 j의 값은 변경될 수 있으며, 어떤 특정한 값으로 한정되지 않는다.
305: 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다.
단계 304에서 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한 후, 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터 및 시간 포락 파라미터에 대해 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터를 취득할 필요가 있다. 상세 프로세스는 다음과 같다:
Figure 112010066751011-pct00050
α는 제1 평활화 파라미터로 값이 0.75이다. 제1 평활화 파라미터의 값은 실제 상황에 따라 조정될 수 있으나, 제2 평활화 파라미터의 값보다 커야 한다. 유의할 것은, 상기 평활화는 시간 포락 각각에 대해, 그리고 주파수 포락 각각에 대해 수행된다는 것이다, 즉:
Figure 112010066751011-pct00051
306: 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 신호 프레임을 조립하고, 단계 301을 반복 수행한다.
본 실시예에서는, 729B와 유사한 CNG 방식으로 협대역 노이즈 인코딩 파라미터로부터 협대역 배경 노이즈
Figure 112010066751011-pct00052
를 취득하고, 729.1의 TDBWE 디코딩 방식을 사용하여 제2 고대역 노이즈 인코딩 파라미터로부터 고부대역 배경 노이즈
Figure 112010066751011-pct00053
를 취득한다.
수신된 프레임이 NODATA 프레임인 경우, 729B와 유사한 디코딩 방식을 사용하여 협대역 노이즈 인코딩 파라미터를 취득한 다음, 729B와 유사한 CNG 방식을 사용하여 협대역 배경 노이즈
Figure 112010066751011-pct00054
을 취득한다. 이전의 SID 프레임의 고대역 노이즈 인코딩 파라미터가 고대역 노이즈 인코딩 파라미터로 사용된다:
Figure 112010066751011-pct00055
그후, 고부대역 배경 노이즈
Figure 112010066751011-pct00056
가 729.1의 TDBWE 디코딩 방식을 사용하여 고대역 노이즈 인코딩 파라미터로부터 취득된다.
307: 디코딩단에서 디코딩을 수행하여 배경 노이즈 신호를 생성한다.
취득된 고부대역 신호
Figure 112010066751011-pct00057
와 저부대역 신호
Figure 112010066751011-pct00058
를 729.1에서 사용된 QMF로 결합하여 최종 광대역 배경 노이즈 신호를 취득한다. 이렇게 하여, 디코딩단에서의 이러한 CNG 조작에 의해, 최종 광대역 배경 노이즈 신호를 취득한다.
상기 프로세스에서, 단계 303은 선택적인 단계이다, 즉 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해서만 가중치 부여 및/또는 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00059
를 취득할 수 있다. 또한 단계 303을 수행함으로써
Figure 112010066751011-pct00060
에 음성 프레임의 정보를 포함시킬 수 있으므로, 복원된 신호는 더욱 매끈하고 연속적이 될 수 있다.
또, 단계 304와 단계 305는 고정된 실행 순서가 없다, 즉 단계 305 이전에 단계 304를 실행할 수 있거나, 또는 단계 304를 수행하기 이전에 단계 305를 수행할 수 있으며, 한정되어 있지 않다.
상기 실시예에서는, 디코딩단에서 고대역 노이즈 인코딩 파라미터에 대한 평활화를 수행하고/하거나 노이즈 프레임의 주파수 포락에 대해 가중치 부여를 수행한 후, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 이렇게 하여 복구된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, 이로써 "블록" 효과가 효과적으로 제거되어 사용자의 체험을 제고할 수 있다.
다음에, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있기 때문에, 제2 고대역 노이즈 인코딩 파라미터
Figure 112010066751011-pct00061
에 음성 프레임의 정보를 포함시킬 수 있고, 이로써 복원된 신호가 더욱 매끈하고 연속적으로 될 수 있다.
도 4를 참조하면, 본 발명의 실시예에 따른 노이즈 처리 장치는,
신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛(401);
신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성된 파라미터 취득 유닛(402); 및
취득된 신호 프레임이 노이즈 프레임인 경우, 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛(403)을 포함한다.
본 실시예에서, 파라미터 처리 유닛(403)은 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하도록 구성된다.
본 실시예에서, 노이즈 처리 장치는, 디코딩단에 제2 고대역 노이즈 인코딩 파라미터를 전송하도록 구성된 파라미터 전송 유닛(404)을 더 포함할 수 있다.
노이즈 처리 장치가 인코딩단에 있는 경우, 이 노이즈 처리 장치는 파라미터 전송 유닛(404)을 포함한다.
본 실시예에서, 노이즈 처리 장치는, 제2 고대역 노이즈 인코딩 파라미터따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛(405)을 더 포함할 수 있다.
노이즈 처리 장치가 디코딩단에 있는 경우, 이 노이즈 처리 장치는 노이즈 생성 유닛(405)으 포함할 수 있다.
본 실시예에서, 파라미터 처리 유닛(403)은 다음의 유닛 중 적어도 하나를 포함한다:
고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하도록 구성된 가중치 부여 유닛(4031), 여기서 가중치 부여 파라미터는 주파수 포락 파라미터의 주파수값에 역비례한다;
미리 설정된 제1 평활화 파라미터 및 고대역 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 평활화 유닛(4032):
Figure 112010066751011-pct00062
위 식에서,
Figure 112010066751011-pct00063
는 제2 고대역 노이즈 인코딩 파라미터이고, α는 제1 평활화 파라미터이며,
Figure 112010066751011-pct00064
는 현재의 고대역 노이즈 인코딩 파라미터이다.
상기 평활화는 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 수행되거나;
또는
평활화 유닛(4032)이 미리 설정된 제2 평활화 파라미터 및 고대역 음성 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된다:
Figure 112010066751011-pct00065
위 식에서,
Figure 112010066751011-pct00066
는 제2 고대역 노이즈 인코딩 파라미터이고, β는 제2 평활화 파라미터이며,
Figure 112010066751011-pct00067
는 현재 고대역 음성 인코딩 파라미터이다.
상기 평활화는 음성 프레임의 고대역 노이즈 인코딩 파라미터에 대해 수행된다.
각 유닛의 세부 프로세스는 배경 노이즈 생성 방법에 대한 상기 실시예에서와 유사하므로, 여기서는 설명하지 않는다.
본 발명의 실시예에서는, 신호 프레임을 취득한 후, 그 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터을 취득하고, 노이즈 프레임에 따라 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행한다, 즉 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, 이로써 "블록" 효과가 효과적으로 제거되어, 사용자의 체험을 제고할 수 있다.
해당 기술분야의 당업자라면 방법에 대한 상기 실시예들의 전부 또는 일부를 관련 하드웨어에서 실행되는 프로그램 명령어로 구현할 수 있다는 것을 알 수 있다. 상기 프로그램은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 상기 프로그램은, 실행될 때,
취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계;
상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및
상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다.
상기 저장 매체는 ROM(Read Only Memory), 자기 디스크 또는 광 디스크 등을 포함할 수 있다.
이상에서는 본 발명에 따른 배경 노이즈 생성 방법 및 노이즈 처리 장치에 대한 상세하게 설명하였다. 해당 기술분야의 당업자는, 본 발명의 원리를 벗어 나지 않으면서 특정 실시예들을 다양하게 변경할 수 있다. 따라서, 이상의 설명 내용은 본 발명의 범위를 한정하는 것으로 해석되어서는 안된다.

Claims (10)

  1. 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계;
    상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및
    상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계
    를 포함하고,
    상기 고대역 노이즈 인코딩 파라미터는 시간 포락 파라미터와 주파수 포락 파라미터를 포함하고;
    상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계는,
    상기 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하는 단계; 및
    상기 가중된 주파수 포락 파라미터를 포함하는 고대역 노이즈 인코딩 파라미터를 상기 제2 고대역 노이즈 인코딩 파라미터로 사용하는 단계를 포함하고,
    상기 가중치 부여 파라미터는 상기 주파수 포락 파라미터의 주파수값에 역비례하며,
    상기 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계는,
    미리 설정된 제1 평활화 파라미터 및 상기 고대역 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계를 더 포함하는, 배경 노이즈 생성 방법:
    Figure 112012021467276-pct00090

    위 식에서,
    Figure 112012021467276-pct00091
    는 상기 제2 고대역 노이즈 인코딩 파라미터이고, α는 상기 제1 평활화 파라미터이며,
    Figure 112012021467276-pct00092
    는 현재 고대역 노이즈 인코딩 파라미터이다.
  2. 제1항에 있어서,
    상기 취득된 신호 프레임이 음성 프레임인 경우, 상기 음성 프레임의 고대역 음성 인코딩 프레임를 취득하고, 상기 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 상기 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하는 단계를 더 포함하는 배경 노이즈 생성 방법.
  3. 제1항에 있어서,
    상기 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하는 단계는,
    상기 주파수 포락 파라미터 및 상기 가중치 부여 파라미터를 사용하여 아래의 식에 따라 계산하는 단계를 더 포함하는, 배경 노이즈 생성 방법:
    Figure 112012021467276-pct00087

    위 식에서,
    Figure 112012021467276-pct00088
    는 상기 주파수 포락 파라미터이고,
    Figure 112012021467276-pct00089
    는 상기 가중치 부여 파라미터이며, j의 값은 0에서 11까지의 임의의 정수값이고 상기 주파수값에 비례한다.
  4. 제2항에 있어서,
    상기 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 상기 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하는 단계는,
    미리 설정된 제2 평활화 파라미터 및 상기 고대역 음성 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계를 더 포함하는, 배경 노이즈 생성 방법:
    Figure 112012085296872-pct00074

    위 식에서,
    Figure 112012085296872-pct00075
    는 상기 제2 고대역 노이즈 인코딩 파라미터이고, β는 상기 제2 평활화 파라미터이며,
    Figure 112012085296872-pct00076
    는 현재 고대역 음성 인코딩 파라미터이다.
  5. 제1항 또는 제3항에 있어서,
    상기 신호 프레임은 인코딩단 또는 디코딩단에서 취득되며;
    상기 신호 프레임이 상기 인코딩단에서 취득되는 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계 이후에,
    상기 제2 고대역 노이즈 인코딩 파라미터를 포함하는 신호 프레임을 상기 디코딩단에 전송하는 단계를 더 포함하는 배경 노이즈 생성 방법.
  6. 신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛;
    상기 신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성되고, 상기 신호 프레임이 노이즈 프레임인 경우 상기 고대역 인코딩 파라미터는 고대역 노이즈 인코딩 파라미터인, 파라미터 취득 유닛;
    상기 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛; 및
    상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛
    을 포함하고,
    상기 파라미터 처리 유닛은 아래의 유닛 중 적어도 하나를 포함하는 노이즈 처리 장치:
    상기 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하도록 구성되고, 상기 가중치 부여 파라미터는 상기 주파수 포락 파라미터의 주파수값에 역비례하는, 가중치 부여 유닛;
    미리 설정된 제1 평활화 파라미터 및 상기 고대역 노이즈 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 평활화 유닛:
    Figure 112012021467276-pct00093

    위 식에서,
    Figure 112012021467276-pct00094
    는 상기 제2 고대역 노이즈 인코딩 파라미터이고, α는 상기 제1 평활화 파라미터이며,
    Figure 112012021467276-pct00095
    는 현재 고대역 노이즈 인코딩 파라미터이다;
    또는 상기 평활화 유닛은 미리 설정된 제2 평활화 파라미터 및 상기 고대역 음성 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된다:
    Figure 112012021467276-pct00096

    위 식에서,
    Figure 112012021467276-pct00097
    는 제2 고대역 노이즈 인코딩 파라미터이고, β는 제2 평활화 파라미터이며,
    Figure 112012021467276-pct00098
    는 현재 고대역 음성 인코딩 파라미터이다.
  7. 제6항에 있어서,
    상기 신호 프레임이 음성 프레임인 경우, 상기 파라미터 취득 유닛에 의해 취득된 상기 고대역 인코딩 파라미터는 고대역 음성 인코딩 파라미터이고;
    상가 파라미터 처리 유닛은 또한, 상기 취득된 신호 프레임이 음성 프레임인 경우, 상기 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 상기 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하도록 구성되는, 노이즈 처리 장치.
  8. 제6항 또는 제7항에 있어서,
    상기 제2 고대역 노이즈 인코딩 파라미터를 디코딩단으로 전송하도록 구성된 파리미터 전송 유닛을 더 포함하는 노이즈 처리 장치.
  9. 삭제
  10. 삭제
KR1020107023132A 2008-03-20 2009-03-17 배경 노이즈 생성 방법 및 노이즈 처리 장치 KR101248535B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2008100851770A CN101483495B (zh) 2008-03-20 2008-03-20 一种背景噪声生成方法以及噪声处理装置
CN200810085177.0 2008-03-20
PCT/CN2009/070840 WO2009115036A1 (zh) 2008-03-20 2009-03-17 一种背景噪声生成方法以及噪声处理装置

Publications (2)

Publication Number Publication Date
KR20100133437A KR20100133437A (ko) 2010-12-21
KR101248535B1 true KR101248535B1 (ko) 2013-04-03

Family

ID=40880445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107023132A KR101248535B1 (ko) 2008-03-20 2009-03-17 배경 노이즈 생성 방법 및 노이즈 처리 장치

Country Status (7)

Country Link
US (1) US8494846B2 (ko)
EP (1) EP2254111B1 (ko)
JP (1) JP5143949B2 (ko)
KR (1) KR101248535B1 (ko)
CN (1) CN101483495B (ko)
ES (1) ES2557898T3 (ko)
WO (1) WO2009115036A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK3407352T3 (da) * 2011-02-18 2022-06-07 Ntt Docomo Inc Taleafkoder, talekoder, taleafkodningsfremgangsmåde, talekodningsfremgangsmåde, taleafkodningsprogram og talekodningsprogram
US20140006019A1 (en) * 2011-03-18 2014-01-02 Nokia Corporation Apparatus for audio signal processing
CN103187065B (zh) * 2011-12-30 2015-12-16 华为技术有限公司 音频数据的处理方法、装置和***
PT2936486T (pt) * 2012-12-21 2018-10-19 Fraunhofer Ges Forschung Adição de ruído de conforto para modelagem do ruído de fundo em baixas taxas de bits
EP2980790A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for comfort noise generation mode selection
CN105721656B (zh) * 2016-03-17 2018-10-12 北京小米移动软件有限公司 背景噪声生成方法及装置
CN112767959B (zh) * 2020-12-31 2023-10-17 恒安嘉新(北京)科技股份公司 语音增强方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946233A (ja) * 1995-07-31 1997-02-14 Kokusai Electric Co Ltd 音声符号化方法とその装置、音声復号方法とその装置
JP2002196799A (ja) * 2000-12-26 2002-07-12 Mitsubishi Electric Corp 音声符号化装置及び音声符号化方法
WO2007140724A1 (fr) * 2006-06-05 2007-12-13 Huawei Technologies Co., Ltd. procédé et appareil pour transmettre et recevoir un bruit de fond et système de compression de silence

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1149534C (zh) * 1998-12-07 2004-05-12 三菱电机株式会社 声音解码装置和声音解码方法
US6324505B1 (en) * 1999-07-19 2001-11-27 Qualcomm Incorporated Amplitude quantization scheme for low-bit-rate speech coders
DE60043601D1 (de) * 1999-08-23 2010-02-04 Panasonic Corp Sprachenkodierer
US6615169B1 (en) * 2000-10-18 2003-09-02 Nokia Corporation High frequency enhancement layer coding in wideband speech codec
US7512535B2 (en) * 2001-10-03 2009-03-31 Broadcom Corporation Adaptive postfiltering methods and systems for decoding speech
JP4089347B2 (ja) * 2002-08-21 2008-05-28 沖電気工業株式会社 音声復号装置
US7379866B2 (en) * 2003-03-15 2008-05-27 Mindspeed Technologies, Inc. Simple noise suppression model
EP1768106B8 (en) * 2004-07-23 2017-07-19 III Holdings 12, LLC Audio encoding device and audio encoding method
US7725764B2 (en) * 2006-08-04 2010-05-25 Tsx Inc. Failover system and method
US8239191B2 (en) * 2006-09-15 2012-08-07 Panasonic Corporation Speech encoding apparatus and speech encoding method
US8032359B2 (en) * 2007-02-14 2011-10-04 Mindspeed Technologies, Inc. Embedded silence and background noise compression
PL2118889T3 (pl) * 2007-03-05 2013-03-29 Ericsson Telefon Ab L M Sposób i sterownik do wygładzania stacjonarnego szumu tła
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946233A (ja) * 1995-07-31 1997-02-14 Kokusai Electric Co Ltd 音声符号化方法とその装置、音声復号方法とその装置
JP2002196799A (ja) * 2000-12-26 2002-07-12 Mitsubishi Electric Corp 音声符号化装置及び音声符号化方法
WO2007140724A1 (fr) * 2006-06-05 2007-12-13 Huawei Technologies Co., Ltd. procédé et appareil pour transmettre et recevoir un bruit de fond et système de compression de silence

Also Published As

Publication number Publication date
WO2009115036A1 (zh) 2009-09-24
EP2254111A4 (en) 2011-04-06
US20110010167A1 (en) 2011-01-13
JP5143949B2 (ja) 2013-02-13
EP2254111B1 (en) 2015-10-28
CN101483495A (zh) 2009-07-15
KR20100133437A (ko) 2010-12-21
CN101483495B (zh) 2012-02-15
ES2557898T3 (es) 2016-01-29
JP2011514561A (ja) 2011-05-06
EP2254111A1 (en) 2010-11-24
US8494846B2 (en) 2013-07-23

Similar Documents

Publication Publication Date Title
JP6937877B2 (ja) 信号符号化及び復号化方法及び装置
JP5547081B2 (ja) 音声復号化方法及び装置
US11727946B2 (en) Method, apparatus, and system for processing audio data
KR101248535B1 (ko) 배경 노이즈 생성 방법 및 노이즈 처리 장치
RU2469420C2 (ru) Способ и устройство для формирования шумов
US20190057704A1 (en) Noise Signal Processing Method, Noise Signal Generation Method, Encoder, Decoder, and Encoding and Decoding System
KR102380487B1 (ko) 오디오 신호 디코더에서의 개선된 주파수 대역 확장
RU2622863C2 (ru) Эффективное ослабление опережающего эха в цифровом звуковом сигнале
JP2015522847A (ja) デジタル音声信号における効果的なプレエコー減衰
US20110125507A1 (en) Method and System for Frequency Domain Postfiltering of Encoded Audio Data in a Decoder
JP7008756B2 (ja) デジタルオーディオ信号におけるプレエコーを識別し、減衰させる方法及び装置
KR101655913B1 (ko) 디지털 오디오 신호에서의 프리-에코 감쇠

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180302

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190306

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200218

Year of fee payment: 8