KR101562222B1 - Apparatus for evaluating accuracy of pronunciation and method thereof - Google Patents

Apparatus for evaluating accuracy of pronunciation and method thereof Download PDF

Info

Publication number
KR101562222B1
KR101562222B1 KR1020140092505A KR20140092505A KR101562222B1 KR 101562222 B1 KR101562222 B1 KR 101562222B1 KR 1020140092505 A KR1020140092505 A KR 1020140092505A KR 20140092505 A KR20140092505 A KR 20140092505A KR 101562222 B1 KR101562222 B1 KR 101562222B1
Authority
KR
South Korea
Prior art keywords
sentences
score
voice
unit
user
Prior art date
Application number
KR1020140092505A
Other languages
Korean (ko)
Inventor
조광호
Original Assignee
조광호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조광호 filed Critical 조광호
Priority to KR1020140092505A priority Critical patent/KR101562222B1/en
Application granted granted Critical
Publication of KR101562222B1 publication Critical patent/KR101562222B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a device for evaluating the pronunciation accuracy and a method thereof. The device can generate multiple sentences similar to text corresponding to a user′s speaking voice, and provide a score calculated through the comparison between the generated sentences and an original sentence corresponding to the user′s speaking voice. Accordingly, various learning information provided to the user, and a user is guided to a make rational decision.

Description

발음의 정확도 평가 장치 및 그 방법{Apparatus for evaluating accuracy of pronunciation and method thereof}[0001] APPARATUS AND METHOD FOR EVALUATING PREDICTION [

본 발명은 발음의 정확도 평가 장치 및 그 방법에 관한 것으로, 특히 사용자가 발성한 음성을 텍스트로 변환하고, 상기 변환된 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 점수를 산출하고, 상기 산출된 점수를 출력하는 발음의 정확도 평가 장치 및 그 방법에 관한 것이다.More particularly, the present invention relates to an apparatus and method for estimating pronunciation accuracy, and more particularly, to an apparatus and method for estimating pronunciation of pronunciation, The present invention relates to an apparatus and method for estimating the pronunciation of a pronunciation, which calculates a score through comparison between original sentences corresponding to voiced speech and outputs the calculated score.

외국어 학습 장치는 음성입력받은 아날로그음성신호를 디지털 신호로 변환하고, 상기 변환된 디지털 신호를 미리 저장된 표준 발음 데이터와 비교하여 정확도를 판단한 후, 음성 비교 결과를 출력하는 장치이다.The foreign language learning device converts an analog voice signal into a digital signal, compares the converted digital signal with previously stored standard pronunciation data to determine the accuracy, and outputs the voice comparison result.

이러한 외국어 학습 장치는 사용자가 발성한 음성과 표준 발음 데이터 간의 비교 결과만을 제공하여, 사용자에게 다양한 학습 정보를 제공할 수 없다.Such a foreign language learning apparatus can not provide various learning information to the user by providing only the comparison result between the voice uttered by the user and the standard pronunciation data.

한국공개특허 제10-2010-0076228호 [명칭: 음성인식 장치가 있는 어학학습훈련프로그램]Korean Patent Laid-Open No. 10-2010-0076228 [Title: Language Learning Training Program with Speech Recognition Device]

본 발명의 목적은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공하는 발음의 정확도 평가 장치 및 그 방법을 제공하는 데 있다.An object of the present invention is to provide a method of generating a plurality of sentences similar to a text corresponding to a voice uttered by a user and providing a score calculated through comparison between the generated plurality of sentences and an original sentence corresponding to the user uttered voice And a method for evaluating the accuracy of pronunciation.

본 발명의 실시예에 따른 발음의 정확도 평가 장치는 사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 장치에 있어서, 원본 문장, 복수의 문장 및 복수의 단어를 저장하는 저장부; 상기 사용자로부터 발성되는 음성을 입력받는 입력부; 및 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하고, 상기 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성하고, 상기 원본 문장 및 상기 복수의 문장 간의 유사도를 비교하고, 상기 비교 결과를 근거로 상기 복수의 문장별로 점수를 산출하고, 상기 산출된 복수의 문장별 점수를 합산하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for estimating pronunciation accuracy, the apparatus comprising: a storage unit storing an original sentence, a plurality of sentences, and a plurality of words; An input unit for receiving a voice uttered by the user; And generating a plurality of sentences similar to the converted text based on a plurality of sentences and a plurality of words stored in the storage unit, And a controller for calculating a score for each of the plurality of sentences based on the comparison result and for summing the calculated scores of the plurality of sentences.

본 발명과 관련된 일 예로서 상기 입력부는, 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받을 수 있다.As an example related to the present invention, the input unit may receive the voice uttered by the user who has confirmed the original sentence output from the display unit or the voice output unit.

본 발명과 관련된 일 예로서 상기 제어부는, 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 복수의 문장을 생성할 수 있다.As an example related to the present invention, the control unit may generate a plurality of the predetermined number of the sentences whose priority is set in order similar to the converted text.

본 발명과 관련된 일 예로서 상기 복수의 문장은, 상기 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정할 수 있다.According to an embodiment of the present invention, the plurality of sentences are set such that the fullness criteria are set differently according to the priority set for the plurality of sentences, and the full scores of the sentences having the highest priority among the plurality of sentences are set The priority can be set higher than the full score of the low-priority sentence.

본 발명과 관련된 일 예로서 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 표시부; 및 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 음성 출력부;를 더 포함할 수 있다.As an example related to the present invention, the display unit displays the original sentence, the generated plural sentences, the score calculated for each of the plurality of sentences, and the summed score. And an audio output unit outputting the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, and the summed score.

본 발명의 실시예에 따른 발음의 정확도 평가 방법은 사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 방법에 있어서, 입력부를 통해 상기 사용자로부터 발성되는 음성을 입력받는 단계; 제어부를 통해 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하는 단계; 상기 제어부를 통해 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성하는 단계; 상기 제어부를 통해 상기 저장부에 저장된 원본 문장 및 상기 복수의 문장 간의 유사도를 비교하여 상기 복수의 문장별로 점수를 산출하는 단계; 및 상기 제어부를 통해 상기 산출된 복수의 문장별 점수를 합산하는 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for evaluating pronunciation accuracy, the method comprising the steps of: receiving a voice uttered by the user through an input unit; Converting a voice inputted through the input unit through a control unit into a text; Generating a plurality of sentences similar to the converted text based on the plurality of sentences and the plurality of words stored in the storage unit through the control unit; Comparing the original sentence stored in the storage unit and the plurality of sentences through the control unit to calculate a score for each of the plurality of sentences; And summing the scores of the calculated plurality of sentences through the control unit.

본 발명과 관련된 일 예로서 상기 음성을 입력받는 단계는, 상기 입력부를 통해 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받을 수 있다.As an example related to the present invention, the step of receiving the voice may receive the voice uttered by the user who confirmed the original sentence output from the display unit or the voice output unit through the input unit.

본 발명과 관련된 일 예로서 상기 복수의 문장을 생성하는 단계는, 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 복수의 문장을 생성할 수 있다.As an example related to the present invention, the step of generating the plurality of sentences may generate the predetermined number of the plurality of sentences whose priority is set in order similar to the converted text.

본 발명과 관련된 일 예로서 표시부를 통해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 단계; 및 음성 출력부를 통해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 단계;를 더 포함할 수 있다.Displaying the original sentence, the generated plural sentences, the score calculated for each of the plurality of sentences, and the summed score through a display unit as an example related to the present invention; And outputting the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, and the summed score through the speech output unit.

본 발명은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공함으로써, 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원할 수 있는 효과가 있다.The present invention generates a plurality of sentences similar to the text corresponding to the voice uttered by the user and provides a score calculated through comparison between the generated plurality of sentences and the original sentence corresponding to the user uttered voice, It is possible to provide a variety of learning information to the user and support the user's reasonable decision making.

도 1은 본 발명의 실시예에 따른 발음의 정확도 평가 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 발음의 정확도 평가 방법을 나타낸 흐름도이다.
도 3은 본 발명의 실시예에 따른 표시부의 화면을 나타낸 도이다.
1 is a block diagram showing a configuration of a pronunciation accuracies evaluation apparatus according to an embodiment of the present invention.
2 is a cross- 1 is a flowchart illustrating a method of evaluating pronunciation accuracy according to an embodiment of the present invention.
3, FIG. 8 is a diagram illustrating a screen of a display unit according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 발음의 정확도 평가 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of an apparatus for evaluating pronunciation accuracy 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 발음의 정확도 평가 장치(10)는 입력부(100), 저장부(200), 제어부(300), 표시부(400) 및 음성 출력부(500)로 구성된다. 도 1에 도시된 발음의 정확도 평가 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 발음의 정확도 평가 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 발음의 정확도 평가 장치(10)가 구현될 수도 있다.1, the pronunciation accuracy evaluation apparatus 10 includes an input unit 100, a storage unit 200, a control unit 300, a display unit 400, and an audio output unit 500. Not all of the components of the pronunciation accuracy evaluation apparatus 10 shown in FIG. 1 are essential components, and the pronunciation accuracy evaluation apparatus 10 may be implemented by more components than the components shown in FIG. 1 And the pronunciation accuracies evaluation apparatus 10 may be implemented by fewer components.

입력부(100)는 사용자에 의한 버튼 조작 또는 임의의 기능 선택에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신한다.The input unit 100 receives a command or a control signal generated by an operation such as button operation by the user, signal according to an optional function selection, or touch / scroll of the displayed screen.

또한, 상기 입력부(100)는 사용자에 의해 입력된 정보에 대응하는 신호를 수신하며, 키 패드(Key Pad), 돔 스위치 (Dome Switch), 터치 패드(정압/정전), 터치 스크린(Touch Screen), 조그 휠, 조그 스위치, 조그 셔틀(Jog Shuttle), 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen) 등의 다양한 장치가 사용될 수 있다.The input unit 100 receives a signal corresponding to information input by a user and includes a keypad, a dome switch, a touchpad (static / static), a touch screen, A jog wheel, a jog switch, a jog shuttle, a mouse, a stylus pen, and a touch pen may be used.

또한, 상기 입력부(100)는 오디오 신호 또는 비디오 신호를 입력받기 위한 적어도 하나 이상의 마이크(미도시)와 카메라(미도시) 등을 포함할 수 있다. 상기 마이크는 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 상기 음성 출력부(500)를 통해 출력하거나 또는 통신부(미도시)를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.In addition, the input unit 100 may include at least one microphone (not shown) and a camera (not shown) for receiving an audio signal or a video signal. The microphone receives an external sound signal (including user's voice (voice signal or voice information)) by a microphone in a communication mode, a recording mode, a voice recognition mode, a video conference mode, And processes it as data. The processed voice data may be output through the voice output unit 500 or may be converted into a form that can be transmitted to an external terminal through a communication unit (not shown). In addition, the microphone may be implemented with various noise reduction algorithms for eliminating noise generated in receiving an external sound signal.

또한, 상기 입력부(100)는 임의의(또는 특정) 사용자로부터 발성(또는 발화)되는 음성(또는 음성 신호)을 입력받는다(또는 수신한다). 이때, 상기 입력부(100)는 상기 표시부(400) 및/또는 상기 음성 출력부(500)로부터 출력되는 특정 문장을 확인한 상기 사용자가 상기 확인한 특정 문장에 대응하여 발성하는 음성을 입력받을 수 있다.Also, the input unit 100 receives (or receives) voice (or voice signal) uttered (or uttered) from an arbitrary (or specific) user. At this time, the input unit 100 may receive a voice uttered in response to the specific sentence that the user confirmed by checking the specific sentence output from the display unit 400 and / or the voice output unit 500.

즉, 상기 입력부(100)는 마이크 등을 통해 사용자로부터 발성되는 음성을 입력받는다. 또한, 상기 입력부(100)는 필터(filter)와 같은 모듈 등을 추가로 구비하여 상기 입력된 음성에 포함된 잡음 등을 제거한다.That is, the input unit 100 receives a voice uttered by a user through a microphone or the like. The input unit 100 further includes a module, such as a filter, to remove noise included in the input voice.

상기 저장부(200)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 200 stores various user interfaces (UI), a graphical user interface (GUI), and the like.

또한, 상기 저장부(200)는 상기 발음의 정확도 평가 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 200 stores data, programs, and the like necessary for the pronunciation evaluation apparatus 10 to operate.

또한, 상기 저장부(200)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 발음의 정확도 평가 장치(10)는 인터넷(internet)상에서 저장부(200)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.The storage unit 200 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD A random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a magnetic random access memory And a PROM (Programmable Read-Only Memory). In addition, the pronunciation accuracies evaluation apparatus 10 may operate in association with the web storage or operate a web storage that performs a storage function of the storage unit 200 on the Internet.

또한, 상기 저장부(200)는 상기 입력부(100)를 통해 입력되는 음성(또는 음성 신호)을 저장한다.Also, the storage unit 200 stores a voice (or a voice signal) input through the input unit 100.

또한, 상기 저장부(200)는 상기 제어부(300)의 제어에 의해 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력되는 복수의 원문 문장(또는 원문 메시지)을 저장한다.The storage unit 200 stores a plurality of original sentences (or original text messages) output through the display unit 400 and / or the audio output unit 500 under the control of the control unit 300.

또한, 상기 저장부(200)는 상기 제어부(300)의 제어에 의해 복수의 문장 및 복수의 단어를 저장한다.In addition, the storage unit 200 stores a plurality of sentences and a plurality of words under the control of the control unit 300.

상기 제어부(300)는 상기 발음의 정확도 평가 장치(10)의 전반적인 제어 기능을 실행한다.The control unit 300 executes the overall control function of the pronunciation accuracies evaluation apparatus 10.

또한, 상기 제어부(300)는 상기 입력부(100)를 통해 입력받은 음성(또는 음성 신호)을 텍스트(또는 문장)로 변환한다.The control unit 300 converts a voice (or a voice signal) received through the input unit 100 into a text (or a sentence).

즉, 상기 제어부(300)는 음성-텍스트(Speech to Text: STT) 변환 기능을 통해 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환한다. 이때, 상기 음성을 텍스트로 변환하는 방법은 공지된 다양한 기술을 통해 구현할 수 있다.That is, the control unit 300 converts the voice received through the input unit 100 into a text through a Speech to Text (STT) conversion function. At this time, the method of converting the voice to text can be implemented through various known techniques.

본 발명의 실시예에서는 상기 발음의 정확도 평가 장치(10) 내부에 구성된 상기 제어부(300)에서 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 입력부(100)를 통해 입력받은 음성을 파일 형태(예를 들어 wav 파일, avi 파일, mpeg 파일 등 포함)로 저장하고, 상기 파일 형태의 음성을 상기 발음의 정확도 평가 장치(10)에 포함된 통신부를 통해 서버(미도시)에 전송하고, 상기 서버(예를 들어 구글 음성 인식 서버 등 포함)에서 상기 파일 형태의 음성을 텍스트로 변환한 후, 상기 변환된 텍스트를 상기 발음의 정확도 평가 장치(10)에 제공할 수도 있다.In the embodiment of the present invention, the voice inputted through the input unit 100 is converted into text by the control unit 300 configured in the pronunciation accuracies evaluation apparatus 10, but the present invention is not limited thereto, (For example, a wav file, an avi file, an mpeg file, and the like) inputted through the input unit 100 and outputs the voice of the file format to the voice recognition unit 10 (E.g., a Google speech recognition server) converts the voice of the file type into text, and then transmits the converted text to the pronunciation accuracies evaluation device ( 10).

또한, 상기 제어부(300)는 상기 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어를 근거로 미리 설정된 개수만큼의 상기 변환된 텍스트와 유사한 복수의 문장을 생성한다. 이때, 상기 제어부(300)는 상기 생성되는 복수의 문장에 대해서 상기 변환된 텍스트와 가장 유사한 순으로 우선 순위를 설정한다.Also, the control unit 300 generates a plurality of sentences similar to the predetermined number of the converted text based on the plurality of sentences and the plurality of words stored in the storage unit 200 in advance. At this time, the control unit 300 sets a priority order for the generated plurality of sentences in the order most similar to the converted text.

즉, 상기 제어부(300)는 상기 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어 중에서, 상기 변환된 텍스트와 유사한 복수의 문장을 유사한 순서대로 생성한다.That is, the control unit 300 generates a plurality of sentences similar to the converted text in a similar order among a plurality of sentences and a plurality of words stored in the storage unit 200 in advance.

또한, 상기 제어부(300)는 상기 변환된 텍스트, 상기 생성된 복수의 문장 등을 상기 저장부(200)에 저장한다.In addition, the control unit 300 stores the converted text, the generated plurality of sentences, and the like in the storage unit 200.

또한, 상기 제어부(300)는 상기 저장부(200)에 저장된 상기 사용자가 발성한 음성에 대응하는 원본 문장(또는 원문)과 상기 생성된 복수의 문장 간의 유사도를 각각 비교한다.In addition, the controller 300 compares the similarity between the original sentence (or the original sentence) corresponding to the voice uttered by the user stored in the storage unit 200 and the generated plurality of sentences.

또한, 상기 제어부(300)는 상기 비교 결과를 점수로 산출한다. 여기서, 상기 제어부(300)는 상기 원본 문장과 상기 생성된 복수의 문장 간의 일치 상태를 점수로 산출할 수 있다.Also, the control unit 300 calculates the comparison result as a score. Here, the control unit 300 may calculate a match state between the original sentence and the generated plural sentences as a score.

이때, 상기 우선 순위가 설정된 복수의 문장과 상기 원문 문장과의 비교 시, 상기 제어부(300)는 상기 우선 순위가 설정된 복수의 문장에 대한 만점 기준을 우선 순위에 따라 서로 다르게 설정할 수 있다.At this time, when comparing the plurality of sentences having the priority set with the original sentence, the control unit 300 can set different perfect scores for the plurality of sentences having the priority set according to the priority.

즉, 상기 제어부(300)는 상기 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 복수의 문장 중에서 상대적으로 우선 순위가 낮은 문장의 만점보다 높게 설정할 수 있다.That is, the control unit 300 can set the full scale of the sentences having the highest priority among the plurality of sentences to be higher than the full scores of the sentences having the relatively lower priority among the plurality of sentences.

예를 들어, 총 100점 만점이고, 우선 순위가 1순위 내지 3순위로 각각 설정되는 제 1 문장 내지 제 3 문장에 대해서, 상기 제어부(300)는 우선 순위가 1순위인 상기 제 1 문장에 대해서 50점을 설정하고, 우선 순위가 2순위인 상기 제 2 문장에 대해서 30점을 설정하고, 우선 순위가 3순위인 상기 제 3 문장에 대해서 20점을 설정할 수 있다. 이때, 상기 우선 순위별 각 문장에 대한 배점은 설계자의 설계에 따라 다양하게 설정할 수 있다.For example, with respect to the first sentence to the third sentence in which the total number of points is 100, and the priority is set in the order of 1 to 3, respectively, the control unit 300 determines whether the first sentence 50 points may be set, 30 points may be set for the second sentence having the second priority, and 20 points may be set for the third sentence having the third priority. At this time, the score for each sentence according to the priority order can be variously set according to the design of the designer.

또한, 상기 제어부(300)는 상기 원본 문장과 상기 복수의 문장 간의 비교 결과로 각각 산출되는 점수를 합산한다. 이때, 상기 제어부(300)는 복수의 문장에 대한 총점과 상기 합산된 점수를 백분율로 환산할 수도 있다.Also, the control unit 300 sums scores calculated as a result of comparison between the original sentence and the plurality of sentences. At this time, the control unit 300 may convert the total score of the plurality of sentences and the summed score into a percentage.

또한, 상기 제어부(300)는 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력한다.In addition, the control unit 300 may display the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, the summed score, and the like on the display unit 400 and / or the audio output unit 500 ).

상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 저장부(200)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(400)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(400)는 터치 스크린 일 수 있다.The display unit 400 can display various contents such as various menu screens using the user interface and / or graphical user interface stored in the storage unit 200 under the control of the controller 300. [ Here, the content displayed on the display unit 400 includes various text or image data (including various information data) and a menu screen including data such as an icon, a list menu, and a combo box. Also, the display unit 400 may be a touch screen.

또한, 상기 표시부(400)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.The display unit 400 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) And may include at least one of a flexible display, a 3D display, an e-ink display, and an LED (Light Emitting Diode).

또한, 상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 원본 문장을 표시한다.Also, the display unit 400 displays the original sentence under the control of the control unit 300.

또한, 상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 표시한다.Also, the display unit 400 displays the original sentence, the generated plural sentences, the calculated score for each of the plurality of sentences, the summed score, and the like under the control of the control unit 300. [

상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(500)는 스피커가 될 수도 있다.The audio output unit 500 outputs audio information included in the signal processed by the control unit 300. Here, the audio output unit 500 may be a speaker.

또한, 상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 상기 원본 문장을 출력한다.Also, the voice output unit 500 outputs the original sentence under the control of the control unit 300.

또한, 상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 출력한다.The sound output unit 500 outputs the original sentence, the generated plural sentences, the calculated score for each of the plurality of sentences, the summed score, and the like under the control of the control unit 300. [

이와 같이, 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공할 수 있다.In this manner, a plurality of sentences similar to the text corresponding to the voice uttered by the user can be generated, and a score calculated through comparison between the generated plurality of sentences and the original sentence corresponding to the user uttered voice have.

이하에서는, 본 발명에 따른 발음의 정확도 평가 방법을 도 1 내지 도 3을 참조하여 상세히 설명한다.Hereinafter, a pronunciation accuracies evaluation method according to the present invention will be described in detail with reference to FIGS. 1 to 3. FIG.

도 2는 본 발명의 실시예에 따른 발음의 정확도 평가 방법을 나타낸 흐름도이다.2 is a cross- 1 is a flowchart illustrating a method of evaluating pronunciation accuracy according to an embodiment of the present invention.

먼저, 입력부(100)는 임의의(또는 특정) 사용자로부터 발성(또는 발화)되는 음성을 입력받는다(또는 수신한다). 이때, 상기 입력부(100)는 단말(10)로부터 출력되는 특정 문장을 확인한(또는 보거나 들은) 상기 사용자가 상기 확인한 특정 문장에 대응하여 발성하는 음성을 입력받을 수 있다.First, the input unit 100 receives (or receives) a voice uttered (or uttered) from an arbitrary (or specific) user. At this time, the input unit 100 may receive a voice which is generated by the user in response to the specific sentence confirmed by the user.

즉, 상기 입력부(100)는 마이크 등을 통해 사용자로부터 발성되는 음성을 입력받는다.That is, the input unit 100 receives a voice uttered by a user through a microphone or the like.

일 예로, 상기 단말(10)에 포함된 음성 출력부(500)에서 "I am a boy"라는 문장이 출력되거나 또는 상기 단말(10)에 포함된 표시부(500)에서 상기 "I am a boy"라는 문장이 표시될 때, 상기 입력부(100)는 상기 출력되는 문장에 대응하여 상기 사용자가 발성하는 음성을 입력받는다(S210).For example, a sentence "I am a boy" is output from the audio output unit 500 included in the terminal 10, or the display unit 500 included in the terminal 10 displays the "I am a boy" The input unit 100 receives a voice to be uttered by the user corresponding to the output sentence at step S210.

이후, 제어부(300)는 상기 입력부(100)를 통해 입력받은 음성(또는 음성 신호)을 텍스트(또는 문장)로 변환한다.Then, the control unit 300 converts the voice (or voice signal) received through the input unit 100 into a text (or a sentence).

즉, 상기 제어부(300)는 음성-텍스트 변환 기능을 통해 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환한다.That is, the control unit 300 converts the voice inputted through the input unit 100 into text through the voice-to-text conversion function.

일 예로, 상기 제어부(300)는 구글 크롬 스피치-투-텍스트를 근거로 상기 입력부(100)를 통해 입력받은 상기 음성을 텍스트로 변환한다(S220).For example, the controller 300 converts the voice received through the input unit 100 into text based on the Google Chrome speech-to-text (S220).

이후, 상기 제어부(300)는 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성한다. 이때, 상기 제어부(300)는 상기 생성되는 복수의 문장에 대해서 상기 변환된 텍스트와 가장 유사한 순으로 우선 순위를 설정한다.Then, the control unit 300 generates a plurality of sentences similar to the converted text based on the plurality of sentences stored in advance in the storage unit 200 and a plurality of words. At this time, the control unit 300 sets a priority order for the generated plurality of sentences in the order most similar to the converted text.

일 예로, 상기 제어부(300)는 상기 변환된 텍스트와 유사한 3개의 문장인 "I am a bad", "I am a bird", "I am in bed"를 생성한다. 이때, 상기 생성되는 3개의 문장은 순서대로 1순위(예를 들어 "I am a bad"), 2순위(예를 들어 "I am a bird"), 3순위(예를 들어 "I am in bed")의 우선 순위가 설정된 상태일 수 있다(S230).For example, the control unit 300 generates three sentences "I am a bad", "I am a bird", and "I am in bed", which are similar to the converted text. In this case, the three sentences are sequentially ranked in order (for example, "I am a bad"), second ranked (e.g., "I am a bird" ") May be set (S230).

이후, 상기 제어부(300)는 상기 사용자가 발성한 음성에 대응하는 원본 문장과 상기 생성된 복수의 문장 간의 유사도를 각각 비교하고, 상기 비교 결과를 근거로 점수를 산출한다. 여기서, 상기 제어부(300)는 상기 원본 문장과 상기 생성된 복수의 문장 간의 일치 상태를 점수로 산출할 수 있다.Then, the control unit 300 compares the similarity between the original sentence corresponding to the voice uttered by the user and the generated plural sentences, and calculates the score based on the comparison result. Here, the control unit 300 may calculate a match state between the original sentence and the generated plural sentences as a score.

일 예로, 상기 제어부(300)는 상기 음성 출력부(500)를 통해 출력된 원본 문장인 "I am a boy"와, 상기 사용자가 발성한 음성에 대응하는 텍스트를 근거로 생성된 3개의 문장인 "I am a bad", "I am a bird" 및 "I am in bed"를 각각 비교한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와, 상기 텍스트를 근거로 생성된 3개의 문장인 "I am a bad", "I am a bird" 및 "I am in bed" 간의 일치 상태(또는 유사도/일치도)를 점수화한다.For example, the control unit 300 may generate three sentences, which are generated based on the original sentence "I am a boy" outputted through the voice output unit 500 and the text corresponding to the voice uttered by the user Compare "I am a bad", "I am a bird", and "I am in bed". In addition, the control unit 300 receives the original sentence "I am a boy" and three sentences "I am a bad", "I am a bird" and "I am in bed" (Or similarity / agreement degree) between the two groups.

즉, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am a bad" 간의 비교 결과에 따라 미리 설정된 1순위의 우선 순위에 해당되는 만점(예를 들어 50점)을 근거로 40점을 산출한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am a bird" 간의 비교 결과에 따라 미리 설정된 2순위 우선 순위에 해당되는 만점(예를 들어 30점)을 근거로 15점을 산출한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am in bed" 간의 비교 결과에 따라 미리 설정된 3순위 우선 순위에 해당되는 만점(예를 들어 20점)을 근거로 10점을 산출한다. 또한, 상기 제어부(300)는 상기 생성된 복수의 문장에 대해서 각각 산출된 점수를 합산(예를 들어 40점+15점+10점=65점)한다(S240).That is, the control unit 300 determines whether or not a perfect score (for example, 50 points) corresponding to a priority level of a preset first level according to the comparison result between the original sentence "I am a boy" ) To calculate 40 points. In addition, the control unit 300 may calculate a perfect score (for example, 30 points) corresponding to a preset second priority according to the comparison result between the original sentence "I am a boy" And 15 points are calculated. In addition, the control unit 300 may calculate a perfect score (for example, 20 points) corresponding to a preset third priority according to the comparison result between the original sentence "I am a boy" and the generated "I am in bed" And 10 points are calculated. In addition, the control unit 300 may sum up the scores calculated for the plurality of generated sentences (e.g., 40 points + 15 points + 10 points = 65 points) (S240).

이후, 상기 제어부(300)는 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력한다.Then, the controller 300 displays the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, the summed score, and the like on the display unit 400 and / or the audio output unit 500 ).

일 예로, 도 3에 도시된 바와 같이, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"(310), 상기 생성된 우선 순위별로 복수의 문장인 "I am a bad", "I am a bird" 및 "I am in bed"(320), 상기 복수의 문장에 대해서 각각 산출된 점수인 40점, 15점 및 10점(330), 상기 합산된 점수인 65점(340) 등을 상기 표시부(400)에 표시한다(S250).For example, as shown in FIG. 3, the control unit 300 includes an original sentence "I am a boy" 310, a plurality of sentences "I am a bad", "I am a boy" am a bird "and" I am in bed "320, 40 points, 15 points and 10 points 330 calculated for the plurality of sentences, and 65 points 340, On the display unit 400 (S250).

본 발명의 실시예는 앞서 설명된 바와 같이, 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공하여, 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원할 수 있다.As described above, the embodiment of the present invention generates a plurality of sentences similar to the text corresponding to the voice uttered by the user, and compares the generated plural sentences with the original sentences corresponding to the voice uttered by the user And provides a variety of learning information to the user and supports the user's rational decision making.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공함으로써 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원하는 것으로, 단말 분야, 음성 인식 분야 등에서 광범위하게 이용될 수 있다.The present invention generates a plurality of sentences similar to a text corresponding to a voice uttered by a user and provides a score calculated through comparison between the generated plurality of sentences and an original sentence corresponding to the voice uttered by the user, To provide various learning information to the user and to support reasonable decision making by the user, and it can be widely used in the terminal field and the speech recognition field.

10: 발음의 정확도 평가 장치
100: 입력부 200: 저장부
300: 제어부 400: 표시부
500: 음성 출력부
10: Pronunciation accuracy evaluation device
100: input unit 200: storage unit
300: control unit 400: display unit
500: Audio output unit

Claims (10)

사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 장치에 있어서,
원본 문장, 복수의 문장 및 복수의 단어를 저장하는 저장부;
상기 사용자로부터 발성되는 음성을 입력받는 입력부; 및
상기 입력부를 통해 입력받은 음성을 텍스트로 변환하고, 상기 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 제 1 복수의 문장을 생성하고, 상기 원본 문장 및 상기 제 1 복수의 문자 간의 유사도를 비교하고, 상기 비교 결과를 근거로 상기 제 1 복수의 문장별로 점수를 산출하고, 상기 산출된 제 1 복수의 문장별 점수를 합산하는 제어부;를 포함하며,
상기 제어부는,
상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 제 1 복수의 문장을 생성하며,
상기 제 1 복수의 문장은,
상기 제 1 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 제 1 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 제 1 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정하는 발음의 정확도 평가 장치.
An apparatus for evaluating pronunciation accuracy, the apparatus comprising:
An original sentence, a plurality of sentences, and a plurality of words;
An input unit for receiving a voice uttered by the user; And
A first sentence that is similar to the converted text on the basis of a plurality of sentences and a plurality of words stored in the storage unit; And a controller for comparing the similarities among the plurality of characters, calculating a score for each of the first plurality of sentences based on the comparison result, and summing the calculated scores of the first plurality of sentences,
Wherein,
Generating a first plurality of sentences of a predetermined number in which the priorities are set in order similar to the converted text,
The first plurality of sentences include:
Wherein a full scale criterion is set differently according to a priority set for the first plurality of sentences, and a perfect score of a higher priority sentence among the first plurality of sentences is set as a perfect score The accuracy of the pronunciation is improved.
제1항에 있어서,
상기 입력부는,
표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받는 것을 특징으로 하는 발음의 정확도 평가 장치.
The method according to claim 1,
Wherein the input unit comprises:
And the user's voice that has been confirmed by the display of the original sentence output from the voice output unit is input.
삭제delete 삭제delete 제1항에 있어서,
상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 표시부; 및
상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 음성 출력부;를 더 포함하는 것을 특징으로 하는 발음의 정확도 평가 장치.
The method according to claim 1,
A display unit for displaying the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score; And
And a speech output unit outputting the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score.
사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 방법에 있어서,
입력부를 통해 상기 사용자로부터 발성되는 음성을 입력받는 단계;
제어부를 통해 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하는 단계;
상기 제어부를 통해 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 변환된 텍스트와 유사한 제 1 복수의 문장을 생성하는 단계;
상기 제어부를 통해 상기 저장부에 저장된 원본 문장 및 상기 제 1 복수의 문장 간의 유사도를 비교하여 상기 제 1 복수의 문장별로 점수를 산출하는 단계; 및
상기 제어부를 통해 상기 산출된 제 1 복수의 문장별 점수를 합산하는 단계;를 포함하며,
상기 제 1 복수의 문장은,
상기 제 1 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 제 1 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 제 1 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정하는 발음의 정확도 평가 방법.
A method of evaluating pronunciation accuracy that evaluates an accuracy of a voice uttered by a user,
Receiving a voice uttered by the user through an input unit;
Converting a voice inputted through the input unit through a control unit into a text;
A plurality of sentences stored in the storage unit through the control unit and a first plurality of sentences similar to a predetermined number of the converted text whose priority is set in order similar to the converted text on the basis of the plurality of words step;
Calculating a score for each of the first plurality of sentences by comparing the similarity between the original sentence stored in the storage unit and the first plurality of sentences through the control unit; And
And summing the calculated scores of the first plurality of sentences through the control unit,
The first plurality of sentences include:
Wherein a full scale criterion is set differently according to a priority set for the first plurality of sentences, and a perfect score of a higher priority sentence among the first plurality of sentences is set as a perfect score A method for evaluating pronunciation accuracy that is set higher.
제6항에 있어서,
상기 음성을 입력받는 단계는,
상기 입력부를 통해 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받는 것을 특징으로 하는 발음의 정확도 평가 방법.
The method according to claim 6,
Wherein the step of receiving the voice comprises:
And the user's voice that has been confirmed by the user on the display unit or the voice output unit through the input unit is input.
삭제delete 삭제delete 제6항에 있어서,
표시부를 통해 상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 단계; 및
음성 출력부를 통해 상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 발음의 정확도 평가 방법.
The method according to claim 6,
Displaying the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score through a display unit; And
And outputting the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score through an audio output unit .
KR1020140092505A 2014-07-22 2014-07-22 Apparatus for evaluating accuracy of pronunciation and method thereof KR101562222B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140092505A KR101562222B1 (en) 2014-07-22 2014-07-22 Apparatus for evaluating accuracy of pronunciation and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140092505A KR101562222B1 (en) 2014-07-22 2014-07-22 Apparatus for evaluating accuracy of pronunciation and method thereof

Publications (1)

Publication Number Publication Date
KR101562222B1 true KR101562222B1 (en) 2015-10-23

Family

ID=54427400

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140092505A KR101562222B1 (en) 2014-07-22 2014-07-22 Apparatus for evaluating accuracy of pronunciation and method thereof

Country Status (1)

Country Link
KR (1) KR101562222B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697975A (en) * 2017-10-20 2019-04-30 深圳市鹰硕音频科技有限公司 A kind of Speech Assessment Methods and device
KR20210011896A (en) * 2019-07-23 2021-02-02 전성국 method for operating pronunciation correction system
KR20210067201A (en) * 2019-11-29 2021-06-08 광운대학교 산학협력단 Calculation apparatus of speech recognition score for the developmental disability and method thereof
KR20220078376A (en) * 2020-12-03 2022-06-10 주식회사 페어립에듀 English learning method and English learning system using 3D display device and mobile terminal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697975A (en) * 2017-10-20 2019-04-30 深圳市鹰硕音频科技有限公司 A kind of Speech Assessment Methods and device
KR20210011896A (en) * 2019-07-23 2021-02-02 전성국 method for operating pronunciation correction system
KR102361205B1 (en) 2019-07-23 2022-02-11 전성국 method for operating pronunciation correction system
KR20210067201A (en) * 2019-11-29 2021-06-08 광운대학교 산학협력단 Calculation apparatus of speech recognition score for the developmental disability and method thereof
KR102358087B1 (en) * 2019-11-29 2022-02-03 광운대학교 산학협력단 Calculation apparatus of speech recognition score for the developmental disability and method thereof
KR20220078376A (en) * 2020-12-03 2022-06-10 주식회사 페어립에듀 English learning method and English learning system using 3D display device and mobile terminal

Similar Documents

Publication Publication Date Title
KR102596446B1 (en) Modality learning on mobile devices
US11176141B2 (en) Preserving emotion of user input
KR101255402B1 (en) Redictation 0f misrecognized words using a list of alternatives
EP2965313B1 (en) Speech recognition assisted evaluation on text-to-speech pronunciation issue detection
US10102771B2 (en) Method and device for learning language and computer readable recording medium
US10586528B2 (en) Domain-specific speech recognizers in a digital medium environment
US10950220B1 (en) User feedback for speech interactions
US20140025381A1 (en) Evaluating text-to-speech intelligibility using template constrained generalized posterior probability
KR101819459B1 (en) Voice recognition system and apparatus supporting voice recognition error correction
KR102193029B1 (en) Display apparatus and method for performing videotelephony using the same
KR101562222B1 (en) Apparatus for evaluating accuracy of pronunciation and method thereof
US11538476B2 (en) Terminal device, server and controlling method thereof
US11373638B2 (en) Presentation assistance device for calling attention to words that are forbidden to speak
EP3503091A1 (en) Dialogue control device and method
US20190295532A1 (en) Remote Generation of Executable Code for a Client Application Based on Natural Language Commands Captured at a Client Device
US11120219B2 (en) User-customized computer-automated translation
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
US11682318B2 (en) Methods and systems for assisting pronunciation correction
US11556708B2 (en) Method and apparatus for recommending word
US10671814B2 (en) Translation device and program recording medium
US20190073994A1 (en) Self-correcting computer based name entity pronunciations for speech recognition and synthesis
WO2017159207A1 (en) Processing execution device, method for controlling processing execution device, and control program
US10074366B2 (en) Information processing device, information processing method, and program
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
US20220093086A1 (en) Method and a system for capturing conversations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180919

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 5