KR19980025793A - Voice data correction method and device - Google Patents

Voice data correction method and device Download PDF

Info

Publication number
KR19980025793A
KR19980025793A KR1019960044058A KR19960044058A KR19980025793A KR 19980025793 A KR19980025793 A KR 19980025793A KR 1019960044058 A KR1019960044058 A KR 1019960044058A KR 19960044058 A KR19960044058 A KR 19960044058A KR 19980025793 A KR19980025793 A KR 19980025793A
Authority
KR
South Korea
Prior art keywords
frame
data
speech data
voice
voice data
Prior art date
Application number
KR1019960044058A
Other languages
Korean (ko)
Inventor
김병무
Original Assignee
구자홍
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자 주식회사 filed Critical 구자홍
Priority to KR1019960044058A priority Critical patent/KR19980025793A/en
Publication of KR19980025793A publication Critical patent/KR19980025793A/en

Links

Landscapes

  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

본 발명은 에러가 발생된 음성 데이타를 음성의 종류에 따라 적응적으로 보정하여 자연스러운 음성신호를 발생할 수 있는 음성 데이타 보정방법 및 그 장치에 관한 것이다.The present invention relates to a voice data correction method and apparatus capable of generating a natural voice signal by adaptively correcting an error-produced voice data according to the type of voice.

본 발명은 2개 이상의 프레임 버퍼를 이용하여 프레임 음성 데이타를 적어도 2개 프레임 이상 저장하고, 최근의 프레임 음성 데이타에 에러가 발생될 경우에 이전의 프레임 음성 데이타가 무성음 및 유성음 모두 포함하는가에 따라 이전 프레임 음성 데이타의 전부 또는 일부를 최근의 프레임 음성 데이타를 복원한다.The present invention stores at least two frames of frame speech data using two or more frame buffers, and transfers the previous frame speech data according to whether unvoiced and voiced sounds are included when an error occurs in the latest frame speech data. All or part of the frame speech data is restored to the latest frame speech data.

Description

음성데이타 보정방법 및 장치Voice data correction method and device

제 1 도는 본 발명의 실시예에 다른 음성데이타 보정장치의 블럭도.1 is a block diagram of an audio data correction apparatus according to an embodiment of the present invention.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

10,14 : 제1, 제2 프레임 버퍼12 : 에러 감지기10,14: first and second frame buffer 12: error detector

16 : 음성 종류 판별기18 : 프레임 복구기16: voice type discriminator 18: frame recoverer

20 : 데이타 선택기20: data selector

본 발명은 미디어 구동장치를 갖는 무선통신장비에 있어서 미디어 구동장치로부터의 음성데이타에 발생된 에러를 보정하는 음성데이타 보정장치에 관한 것으로, 특히 에러 음성 데이타가 음성의 종류에 따라 적응적으로 보정되도록 음성 종류 판별기를 사용하는 음성데이타 보정방법 및 그 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice data correction device for correcting an error generated in voice data from a media drive device in a wireless communication device having a media drive device. In particular, the error voice data may be adaptively corrected according to the type of voice. The present invention relates to a voice data correction method using a voice type discriminator and an apparatus thereof.

통상의 무선통신장비는 음성신호를 수십 ms의 길이의 프레임으로 분할하여 프레임 단위의 음성 데이타를 전송매체를 경유하여 전송한다. 그리고 음성 데이타는 무선통신장비에 구비된 미디어 구동장치에 의해 카세트 테이프(Cassette Tape) 또는 광디스크(Optical Disc) 등과 같은 기록매체에 기록되거나 또는 기록매체로부터 재생된다.Conventional wireless communication equipment divides a voice signal into a frame of several tens of ms in length and transmits voice data in a frame unit via a transmission medium. The voice data is recorded on or reproduced from a recording medium such as a cassette tape or an optical disc by a media driving device provided in a wireless communication device.

이와 같이, 전송매체를 통해 전송되어진 프레임 음성 데이타와 미디어 구동장치에 의해 재생되어진 프레임 음성 데이타는 에러로 인하여 손상되어 복구가 불가능하게 될 수 있다. 이 경우, 음성 데이타 보정장치는 손상된 프레임 음성 데이타 대신에 이전의 프레임 음성 데이타를 그대로 송출하거나 또는 손상된 프레임 음성 데이타 대신에 이전의 프레임 음성 데이타를 단계적으로 줄임으로써 사용자가 음성신호에 대한 변화를 느끼지 못하게 한다. 이러한 음성 데이타 보정방법은 손상된 프레임 음성 데이타가 순수한 유성음 또는 무성음인 경우에 자연스러운 음성신호를 발생할 수 있다.As such, the frame voice data transmitted through the transmission medium and the frame voice data reproduced by the media driving apparatus may be damaged due to an error and may be impossible to recover. In this case, the voice data correcting apparatus transmits the previous frame voice data as it is instead of the damaged frame voice data or gradually reduces the previous frame voice data instead of the damaged frame voice data so that the user does not feel a change in the voice signal. do. This voice data correction method may generate a natural voice signal when the damaged frame voice data is pure voiced or unvoiced sound.

그러나, 이들 음성 데이타 보정방법은 손상된 프레임 음성 데이타가 무성음과 유성음 모두를 포함하고 있을 경우(즉, 손상된 프레임 음성 데이타가 무성음에서 유성음으로 변화되거나 또는 유성음에서 무성음으로 변화될 경우)에는 사용자가 듣기에 거북한 음성신호를 발생한다. 이러한 현상은 음성 데이타의 프레임 길이가 긴 디지탈(Digital) 무선 통신 환경에서는 더욱 심화된다.However, these methods of correcting speech data are not audible to the user when damaged frame speech data contains both unvoiced and voiced sounds (i.e. when damaged frame speech data is changed from unvoiced to voiced or voiced to unvoiced). Generates a disturbing voice signal. This phenomenon is further exacerbated in a digital wireless communication environment having a long frame length of voice data.

따라서, 본 발명의 목적은 에러가 발생된 음성 데이타를 음성의 종류에 따라 적응적으로 보정하여 자연스러운 음성신호를 발생할 수 있는 음성 데이타 보정방법 및 그 장치를 제공함에 있다.Accordingly, an object of the present invention is to provide a voice data correction method and apparatus capable of generating a natural voice signal by adaptively correcting an error-produced voice data according to the type of voice.

상기 목적을 달성하기 위하여, 본 발명에 따른 음성 데이타 보정방법은 프레임 음성 데이타를 적어도 2개 프레임 이상 저장하기 하는 과정과, 최근의 프레임 음성 데이타에 에러가 발생되었는가 검사하는 과정과, 이전의 프레임 음성 데이타가 무성음 및 유성음 모두 포함하는가를 판별하는 과정과, 음성 종류 판별결과에 따라 이전 프레임 음성 데이타의 양을 선택하여 최근의 프레임 음성 데이타를 복원하는 과정을 포함한다.In order to achieve the above object, the voice data correction method according to the present invention comprises the steps of storing the frame voice data of at least two frames, the process of checking whether the recent frame voice data has an error, and the previous frame voice Determining whether the data includes both unvoiced and voiced sounds, and reconstructing the latest frame speech data by selecting an amount of previous frame speech data according to the speech type discrimination result.

본 발명에 따른 음성 데이타 보정장치는 입력라인으로부터의 프레임 음성 데이타를 일시적으로 보관하기 위한 메인 프레임 버퍼와, 메인 프레임 버퍼로 부터의 프레임씩 지연된 프레임 음성 데이타를 일시적으로 저정하는 적어도 하나 이상의 보조 프레임 버퍼와, 메인 프레임에 저장된 프레임 음성 데이타에 에러가 발생되었는가 판단하는 에러 검출수단과, 메인 프레임 버퍼로부터의 프레임 음성 데이타가 무성음 및 유성음 모두를 포함하는가를 판별하는 음성 판별수단과, 에러 검출수단의 출력신호에 따라 선택적으로 구동되어 에러 검출수단의 출력신호에 해당하는 보조 프레임에 저장된 프레임 음성 데이타를 선택하고, 보조 프레임상의 프레임 음성 데이타 중 음성 판별 수단의 출력신호에 따른 양 만큼을 이용하여 프레임 기간동안 반복적으로 출력하는 에러 정정 수단과, 에러 검출수단의 출력신호에 따라 메인 프레임 버퍼 및 에러 정정 수단으로부터의 프레임 음성 데이타를 선택하는 선택수단을 구비한다.An apparatus for compensating voice data according to the present invention includes a main frame buffer for temporarily storing frame voice data from an input line, and at least one auxiliary frame buffer for temporarily storing frame voice data delayed by frame from the main frame buffer. Error detecting means for determining whether an error has occurred in the frame voice data stored in the main frame, voice discriminating means for determining whether the frame voice data from the main frame buffer contains both unvoiced and voiced sound, and output of the error detecting means. It is selectively driven according to the signal and selects the frame speech data stored in the auxiliary frame corresponding to the output signal of the error detecting means, and during the frame period by using the amount according to the output signal of the speech discriminating means from the frame speech data on the auxiliary frame. Repeatedly Error correction means for outputting, and selection means for selecting frame audio data from the main frame buffer and the error correction means in accordance with the output signal of the error detection means.

상기 목적 외에 본 발명의 다른 목적 및 이점들은 첨부 도면을 참조한 다음의 바람직한 실시예에 대한 설명란을 통하여 명백하게 드러나게 될 것이다.Other objects and advantages of the present invention in addition to the above objects will become apparent from the following description of the preferred embodiments with reference to the accompanying drawings.

이하, 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

제 1 도를 참조하면, 입력라인(11)으로부터의 음성 데이타를 공통적으로 입력하는 제 1 프레임 버퍼(10)와 에러 감지기(12)를 구비한 본 발명의 바람직한 실시예에 따른 음성 데이타 보정장치가 도시되어 있다. 제 1 프레임 버퍼(10)는 입력라인(11)으로부터의 프레임 음성 데이타를 1 프레임 기간 동안 지연시킨다. 제 1 프레임 버퍼(10)에 의해 1 프레임 기간 동안 지연된 프레임 음성 데이타(이하, 제1 지연 음성 데이타라 함)는 제1 노드(13)를 경유하여 제 2 프레임 버퍼(14)에 공급된다. 제 2 프레임 버퍼(14)도 제 1 프레임 버퍼(10)로부터 제1 노드(13)를 경유하여 입력되는 제 1 지연 음성 데이타를 다시 1 프레임 기간 동안 지연시켜 2 프레임 기간 동안 지연된 프레임 음성 데이타(이하, 제2 지연 음성 데이타라 함)을 제2 노드(15)에 공급한다. 이 결과, 제1 노드(13)에는 N번째 프레임 음성 데이타가 공급되고, 제2 노드(13)에는 N-1 번째 프레임 음성 데이타가 공급된다. 한편, 에러 감지기(14)는 입력라인(11)으로부터의 프레임 음성 데이타에 에러가 발생되었는가를 검사하여 그 결과에 따라 상이한 논리상태를 유지하는 에러 감지 신호를 발생한다. 에러 감지 신호는 프레임 음성 데이타에 에러가 발생된 경우에 특정 논리(예를 들면, 로우 또는 하이논리)를 유지한다. 이와는 달리, 프레임 음성 데이타에 에러가 발생되지 않은 경우, 에러 감지 신호는 기저논리(예를 들면, 하이 또는 로우논리)를 유지한다. 또한, 이 에러 감지 신호는 제 3 노드(17)에 공급된다.Referring to FIG. 1, a voice data correction apparatus according to a preferred embodiment of the present invention includes a first frame buffer 10 and an error detector 12 for commonly inputting voice data from an input line 11. Is shown. The first frame buffer 10 delays the frame voice data from the input line 11 for one frame period. Frame speech data (hereinafter referred to as first delayed speech data) delayed for one frame period by the first frame buffer 10 is supplied to the second frame buffer 14 via the first node 13. The second frame buffer 14 also delays the first delayed speech data input from the first frame buffer 10 via the first node 13 for one frame period, thereby delaying the frame speech data delayed for two frame periods (hereinafter, Second delay voice data) is supplied to the second node 15. As a result, the N-th frame audio data is supplied to the first node 13 and the N-th frame audio data is supplied to the second node 13. On the other hand, the error detector 14 checks whether an error has occurred in the frame voice data from the input line 11 and generates an error detection signal that maintains a different logic state according to the result. The error detection signal maintains certain logic (e.g., low or high logic) in the event of an error in the frame voice data. Alternatively, if no error occurs in the frame voice data, the error detection signal maintains base logic (eg, high or low logic). This error detection signal is also supplied to the third node 17.

그리고 상기 음성 데이타 보정장치는 제1 노드(13)로부터의 제 1 음성 데이타를 입력하는 음성 종류 판별기(16)와, 제 1 내지 제 3 노드(13,15,17)로부터 제 1 및 제 2 음성 데이타와 에러 감지 신호를 입력하는 프레임 복구기(18)를 추가로 구비한다. 음성 종류 판별기(16)는 제 1 음성 데이타가 유성음 또는 무성음인가 검사하여 그 결과에 따라 상이한 논리를 갖는 음성 판별 신호를 발생한다. 음성 판별 신호는 제 1 음성 데이타가 무성음만을 포함하는 경우에 하이 또는 로우논리를 유지하고, 반대로 제 1 음성 데이타가 유성음만을 포함하는 경우에는 로우 또는 하이논리를 유지한다. 또한, 음성 판별 신호는 제 1 음성 데이타가 유성음 및 무성음 모두를 포함하는 경우에는 하이논리 구간 및 로우논리 구간을 포함하게 된다. 이를 상세히 하면, 제 1 음성 데이타가 무성음에서 유성음으로 변화되는 음성인 경우에 음성 판별 신호는 초기에 하이 또는 로우논리를 유지하다가 나중에 로우 또는 하이논리로 변화된다. 이와는 달리, 제 1 음성 데이타가 유성음에서 무성음으로 변화되는 음성인 경우, 음성 판별 신호는 초기에 로우 또는 하이논리를 유지하다가 나중에 하이 또는 로우논리로 변화된다.The voice data correcting apparatus includes a voice type discriminator 16 for inputting first voice data from the first node 13 and first and second voices from the first to third nodes 13, 15, and 17. It is further provided with a frame recoverer 18 for inputting voice data and an error detection signal. The voice type discriminator 16 checks whether the first voice data is voiced or unvoiced, and generates a voice discrimination signal having different logic in accordance with the result. The voice discrimination signal maintains high or low logic when the first voice data contains only unvoiced voices, and conversely, when the first voice data contains only voiced voices, it maintains low or high logic. Also, the voice discrimination signal includes a high logic section and a low logic section when the first voice data includes both voiced and unvoiced sounds. In detail, when the first voice data is voice that is changed from unvoiced voice to voiced voice, the voice discrimination signal is initially kept high or low logic and later changed to low or high logic. In contrast, in the case where the first voice data is voice that is changed from voiced sound to unvoiced voice, the voice discrimination signal is initially kept low or high logic and later is changed to high or low logic.

한편, 프레임 복구기(18)은 음성 종류 판별기(16)로부터의 음성 판별 신호에 의해 제 2 프레임 버퍼(14)에 저장된 프레임 음성 데이타가 어떤 종류의 음성(즉, 무성음, 유성음 또는 유무성 혼성음)으로 구성되었는가를 검사한다. 그리고 프레임 복구기(18)는 에러 감지기(12)로부터 제 3 노드(17)를 경유하여 인가되는 에러 감지 신호의 논리상태에 따라 선택적으로 음성 데이타 복구 동작을 수행한다. 즉, 프레임 복구기(18)는 프레임 음성 데이타에 에러가 발생되었음을 나타내는 특정논리의 에러 감지 신호가 인가될 경우에만 음성 데이타의 복구 동작을 수행한다. 이때, 프레임 복구기(18)는 음성 판별 신호에 의해 판단된 결과에 따라 제 2 프레임 버퍼(14)에 저장된 프레임 음성 데이타를 일부 또는 전부를 이용하여 N번째 프레임 음성 데이타를 복구한다. 이를 상세히 하면, 프레임 복구기(18)는 제 2 프레임 음성 데이타가 무성음 또는 유성음으로 구성된 경우에 제 2 프레임 버퍼(14)에 저장된 프레임 음성 데이타 전부를 순차적으로 데이타 선택기(20)쪽으로 출력시키므로 N번째 프레임 음성 데이타를 복구한다. 이와는 달리 제 2 프레임 음성 데이타가 무성음에서 유성음으로 변화된 혼합 음성이고 20% 이상의 유성음을 포함하는 경우, 제 2 프레임 버퍼(14)에 저장된 프레임 음성 데이타의 뒷부분으로부터 20%의 음성 데이타를 반복적으로 데이타 선택기(20)쪽으로 출력시키므로 N번째 프레임 음성 데이타를 복구한다. 또한, 제 2 프레임 음성 데이타가 유성음에서 무성음으로 변화된 혼합 음성이고 무성음이 20% 이상의 무성음을 포함하는 경우, 제 2 프레임 버퍼(14)에 저장된 프레임 음성 데이타의 뒷부분으로부터 20%의 음성 데이타를 반복적으로 데이타 선택기(20)쪽으로 출력시키므로 N번째 프레임 음성 데이타를 복구한다.On the other hand, the frame recoverer 18 uses the voice discrimination signal from the voice type discriminator 16 to determine whether the frame voice data stored in the second frame buffer 14 has some kind of voice (i.e., unvoiced, voiced or unvoiced mixed sound). Check if it consists of). The frame recoverer 18 selectively performs a voice data recovery operation according to the logic state of the error detection signal applied from the error detector 12 via the third node 17. That is, the frame recoverer 18 performs the recovery operation of the voice data only when an error detection signal of a specific logic indicating that an error has occurred is applied to the frame voice data. At this time, the frame recoverer 18 recovers the N-th frame speech data using some or all of the frame speech data stored in the second frame buffer 14 according to the result determined by the speech discrimination signal. In detail, the frame recoverer 18 sequentially outputs all the frame voice data stored in the second frame buffer 14 to the data selector 20 when the second frame voice data is composed of unvoiced or voiced sound. Recover frame voice data. On the contrary, if the second frame voice data is a mixed voice changed from unvoiced voice to voiced voice and contains 20% or more voiced voices, the data selector repeatedly repeats 20% voice data from the rear of the frame voice data stored in the second frame buffer 14. The N-frame audio data is recovered. In addition, when the second frame voice data is a mixed voice changed from voiced sound to unvoiced voice and the unvoiced voice contains 20% or more unvoiced voice, 20% of voice data is repeatedly repeated from the back of the frame voice data stored in the second frame buffer 14. The Nth frame speech data is recovered by outputting to the data selector 20.

또한, 데이타 선택기(20)는 에러 감지기(12)로부터 제 3 노드(17)를 경유하여 인가되는 에러 감지 신호에 따라 제1 노드(13)로부터의 제 1 음성 데이타와 프레임 복구기(18)로부터의 복구된 프레임 음성 데이타가 출력라인(19)쪽으로 전송한다. 이를 상세히 하면, 데이타 선택기(20)는 에러 감지신호가 특정논리를 유지하는 동안에는 프레임 복구기(18)로부터의 복구된 프레임 음성 데이타가 출력라인(19)쪽으로 전송되도록 한다. 이와는 달리, 에러 감지 신호가 기저논리를 유지하는 경우, 데이타 선택기(20)는 제1 노드(13)로부터의 제 1 음성 데이타가 출력라인(19)쪽으로 전송되도록 한다.The data selector 20 also receives the first voice data from the first node 13 and the frame recoverer 18 in response to an error detection signal applied via the third node 17 from the error detector 12. The recovered frame voice data is sent to the output line 19. In detail, the data selector 20 allows the recovered frame voice data from the frame recoverer 18 to be transmitted to the output line 19 while the error detection signal maintains a specific logic. In contrast, when the error detection signal maintains the base logic, the data selector 20 causes the first voice data from the first node 13 to be sent to the output line 19.

상술한 바와 같이, 본 발명에 따른 음성 데이타 보정장치는 손상된 프레임 음성 데이타를 그 이전의 프레임 음성 데이타에 포함된 음성 종류에 따라 이전 프레임 음성 데이타의 일부 또는 전부를 반복하여 보다 자연스럽게 보정할 수 있다.As described above, the voice data correcting apparatus according to the present invention can more naturally correct the damaged frame voice data by repeating part or all of the previous frame voice data according to the type of voice included in the previous frame voice data.

이상과 같이, 본 발명은 제1도에 도시된 바람직한 실시예로서 설명되었으나, 이 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 본 발명에 대한 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 예를 들어, 제1도에 도시된 제 2 프레임 버퍼에 적어도 1개 이상의 보조 프레임 버퍼를 추가하고 프레임 복구기로 하여금 제 2 프레임 버퍼와 적어도 1개 이상의 보조 프레임 버퍼들을 선택적으로 엑세스 가능하게 함으로써 두개 이상의 프레임 음성 데이타가 손상된 경우에 에러가 발생되지 않은 이전의 프레임 음성 데이타에 의하여 그 손상된 두개 이상의 프레임 음성 데이타들이 복구되도록 할 수 있다.As described above, the present invention has been described as the preferred embodiment shown in FIG. 1, but it will be understood by those skilled in the art that various changes and modifications can be made to the present invention without departing from the technical spirit of the present invention. Could be. For example, by adding at least one auxiliary frame buffer to the second frame buffer shown in FIG. 1 and allowing the frame recoverer to selectively access the second frame buffer and at least one auxiliary frame buffer, In the case where the frame voice data is damaged, the damaged frame voice data can be recovered by the previous frame voice data in which no error has occurred.

따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정하여져야만 한다.Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification but should be defined by the claims.

Claims (6)

프레임 음성 데이타를 적어도 2개 프레임 이상 저장하기 하는 과정과,Storing at least two frame audio data; 상기 최근의 프레임 음성 데이타에 에러가 발생되었는가 검사하는 과정과,Checking whether an error has occurred in the recent frame voice data; 이전의 프레임 음성 데이타가 무성음 및 유성음 모두 포함하는가를 판별하는 과정과,Determining whether previous frame speech data includes both unvoiced and voiced sound, 음성 종류 판별결과에 따라 이전 프레임 음성 데이타의 양을 선택하여 최근의 프레임 음성 데이타를 복원하는 과정을 포함한 것을 특징으로 하는 음성 데이타 보정 방법.And reconstructing the latest frame voice data by selecting an amount of previous frame voice data according to the voice type discrimination result. 제 1 항에 있어서,The method of claim 1, 상기 데이타 복원 과정은 상기 이전의 프레임 음성 데이타가 무성음 및 유성음 중 어느 하나의 음성으로만 구성된 경우 이전의 프레임 음성 데이타의 전부를 이용하여 최근의 프레임 음성 데이타를 복원하도록 된 것을 특징으로 하는 음성 데이타 복원 방법.The data restoration process is to restore the latest frame speech data using all of the previous frame speech data when the previous frame speech data is composed of only one of unvoiced and voiced sounds. Way. 제 1 항에 있어서,The method of claim 1, 상기 데이타 복원 과정은 상기 이전의 프레임 음성 데이타가 무성음 및 유성음 모두를 포함하는 경우에 이전의 프레임 음성 데이타중 일부를 이용하여 최근의 프레임 음성 데이타를 복원하는 것을 특징으로 하는 음성 데이타 복원 방법.And the data restoration process restores the latest frame speech data using a portion of the previous frame speech data if the previous frame speech data includes both unvoiced and voiced sounds. 제 3 항에 있어서,The method of claim 3, wherein 상기 데이타 복원 과정은 상기 무성음 및 유성음 모두가 이전의 프레임 음성 데이타의 20% 이상인 경우에만 이전의 프레임 음성 데이타의 일부를 이용하여 최근의 프레임 데이타를 복원하도록 된 것을 특징으로 하는 음성 데이타 복원 방법.And the data restoration process restores the latest frame data using a portion of the previous frame speech data only when both the unvoiced and the voiced sound are 20% or more of the previous frame speech data. 제 4 항에 있어서,The method of claim 4, wherein 상기 데이타 복원 과정은 상기 무성음 및 유성음 모두가 이전의 프레임 음성 데이타의 20% 이상인 경우에만 이전의 프레임 음성 데이타의 후반부로부터 일정한 량의 데이타를 이용하여 최근의 프레임 데이타를 복원하도록 된 것을 특징으로 하는 음성 데이타 복원 방법.The data restoring process is characterized in that the latest frame data is restored using a certain amount of data from the second half of the previous frame speech data only when both the unvoiced and the voiced sound are 20% or more of the previous frame speech data. How to restore data. 입력라인으로부터의 프레임 음성 데이타를 일시적으로 보관하기 위한 메인 프레임 버퍼와,A main frame buffer for temporarily storing frame voice data from the input line, 상기 메인 프레임 버퍼로 부터의 프레임씩 지연된 프레임 음성 데이타를 일시적으로 저장하는 적어도 하나 이상의 보조 프레임 버퍼와,At least one auxiliary frame buffer for temporarily storing frame speech data delayed by frame from the main frame buffer; 상기 메인 프레임에 저장된 프레임 음성 데이타에 에러가 발생되었는가 판단하는 에러 검출수단과,Error detecting means for determining whether an error has occurred in the frame voice data stored in the main frame; 상기 메인 프레임 버퍼로부터의 프레임 음성 데이타가 무성음 및 유성음 모두를 포함하는가를 판별하는 음성 판별수단과,Speech discriminating means for discriminating whether the frame speech data from the main frame buffer contains both unvoiced and voiced sound; 상기 에러 검출수단의 출력신호에 따라 선택적으로 구동되어 에러 검출수단의 출력신호에 해당하는 보조 프레임에 저장된 프레임 음성 데이타를 선택하고, 보조 프레임상의 프레임 음성 데이타 중 음성 판별 수단의 출력신호에 따른 양 만큼을 이용하여 프레임 기간동안 반복적으로 출력하는 에러 정정 수단과,It is selectively driven according to the output signal of the error detecting means to select the frame speech data stored in the auxiliary frame corresponding to the output signal of the error detecting means, and by the amount according to the output signal of the speech discriminating means from the frame speech data on the auxiliary frame. Error correction means for repeatedly outputting during the frame period using 상기 에러 검출수단의 출력신호에 따라 메인 프레임 버퍼 및 상기 에러 정정 수단으로부터의 프레임 음성 데이타를 선택하는 선택수단을 구비한 것을 특징으로 하는 음성 데이타 보정 장치.And selection means for selecting frame audio data from the main frame buffer and the error correction means in accordance with the output signal of the error detecting means.
KR1019960044058A 1996-10-05 1996-10-05 Voice data correction method and device KR19980025793A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960044058A KR19980025793A (en) 1996-10-05 1996-10-05 Voice data correction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960044058A KR19980025793A (en) 1996-10-05 1996-10-05 Voice data correction method and device

Publications (1)

Publication Number Publication Date
KR19980025793A true KR19980025793A (en) 1998-07-15

Family

ID=66326074

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960044058A KR19980025793A (en) 1996-10-05 1996-10-05 Voice data correction method and device

Country Status (1)

Country Link
KR (1) KR19980025793A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100325135B1 (en) * 1999-08-27 2002-02-25 서평원 A Voice Signal Error Compensation Algorithm

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR880004425A (en) * 1986-09-11 1988-06-07 아메리칸 텔리폰 앤드 텔레그라프 캄파니 Voice processing system and voice processing method
JPH02288520A (en) * 1989-04-28 1990-11-28 Hitachi Ltd Voice encoding/decoding system with background sound reproducing function
US5073940A (en) * 1989-11-24 1991-12-17 General Electric Company Method for protecting multi-pulse coders from fading and random pattern bit errors
US5127053A (en) * 1990-12-24 1992-06-30 General Electric Company Low-complexity method for improving the performance of autocorrelation-based pitch detectors
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
JPH06202396A (en) * 1992-12-28 1994-07-22 Ricoh Co Ltd Fixing temperature control method
KR950020394A (en) * 1993-12-29 1995-07-24 양승택 Pitch information detection method of audio signal

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR880004425A (en) * 1986-09-11 1988-06-07 아메리칸 텔리폰 앤드 텔레그라프 캄파니 Voice processing system and voice processing method
JPH02288520A (en) * 1989-04-28 1990-11-28 Hitachi Ltd Voice encoding/decoding system with background sound reproducing function
US5073940A (en) * 1989-11-24 1991-12-17 General Electric Company Method for protecting multi-pulse coders from fading and random pattern bit errors
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
US5127053A (en) * 1990-12-24 1992-06-30 General Electric Company Low-complexity method for improving the performance of autocorrelation-based pitch detectors
JPH06202396A (en) * 1992-12-28 1994-07-22 Ricoh Co Ltd Fixing temperature control method
KR950020394A (en) * 1993-12-29 1995-07-24 양승택 Pitch information detection method of audio signal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100325135B1 (en) * 1999-08-27 2002-02-25 서평원 A Voice Signal Error Compensation Algorithm

Similar Documents

Publication Publication Date Title
KR960027375A (en) Error concealment method of sound signal and its device
MY127506A (en) Apparatus and method for recording and reproducing data
EP1218876B1 (en) Apparatus and method for a telecommunications system
US7865255B2 (en) Audio buffering system and method of buffering audio in a multimedia receiver
JPH05334800A (en) Audio data dubbing control circuit
KR19980025793A (en) Voice data correction method and device
US5956670A (en) Speech reproducing device capable of reproducing long-time speech with reduced memory
JP2531352B2 (en) Voice packet receiver
JP3439680B2 (en) Digital modulation circuit
KR970050542A (en) Audio signal playback device of digital video disc player (DVDP)
JP3398440B2 (en) Input channel status data processing method
JP2731514B2 (en) Audio compression transmission equipment
JPWO2008035576A1 (en) Buffering control method and buffering control device
JP2670398B2 (en) Coded signal duplication device
JPH09330569A (en) Method and apparatus for reproducing digital signal
JP3228824B2 (en) Pronunciation system, data recording method of pronunciation system, and sound reproduction method of pronunciation system
KR930001640B1 (en) Reproducing/recording method and device
KR970006826B1 (en) Output buffer apparatus for digital data reproducing system
JP2830656B2 (en) Compressed signal decoding device
JP3628532B2 (en) Digital playback device
JP2002229593A (en) Speech signal decoding processing method
KR930018578A (en) New Digital Data Storage System
KR19990056798A (en) How to save data of audio decoder
JPH0685763A (en) Voice processing circuit
JPH11176097A (en) Recording device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E601 Decision to refuse application