KR101562222B1 - Apparatus for evaluating accuracy of pronunciation and method thereof - Google Patents
Apparatus for evaluating accuracy of pronunciation and method thereof Download PDFInfo
- Publication number
- KR101562222B1 KR101562222B1 KR1020140092505A KR20140092505A KR101562222B1 KR 101562222 B1 KR101562222 B1 KR 101562222B1 KR 1020140092505 A KR1020140092505 A KR 1020140092505A KR 20140092505 A KR20140092505 A KR 20140092505A KR 101562222 B1 KR101562222 B1 KR 101562222B1
- Authority
- KR
- South Korea
- Prior art keywords
- sentences
- score
- voice
- unit
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000011156 evaluation Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 발음의 정확도 평가 장치 및 그 방법에 관한 것으로, 특히 사용자가 발성한 음성을 텍스트로 변환하고, 상기 변환된 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 점수를 산출하고, 상기 산출된 점수를 출력하는 발음의 정확도 평가 장치 및 그 방법에 관한 것이다.More particularly, the present invention relates to an apparatus and method for estimating pronunciation accuracy, and more particularly, to an apparatus and method for estimating pronunciation of pronunciation, The present invention relates to an apparatus and method for estimating the pronunciation of a pronunciation, which calculates a score through comparison between original sentences corresponding to voiced speech and outputs the calculated score.
외국어 학습 장치는 음성입력받은 아날로그음성신호를 디지털 신호로 변환하고, 상기 변환된 디지털 신호를 미리 저장된 표준 발음 데이터와 비교하여 정확도를 판단한 후, 음성 비교 결과를 출력하는 장치이다.The foreign language learning device converts an analog voice signal into a digital signal, compares the converted digital signal with previously stored standard pronunciation data to determine the accuracy, and outputs the voice comparison result.
이러한 외국어 학습 장치는 사용자가 발성한 음성과 표준 발음 데이터 간의 비교 결과만을 제공하여, 사용자에게 다양한 학습 정보를 제공할 수 없다.Such a foreign language learning apparatus can not provide various learning information to the user by providing only the comparison result between the voice uttered by the user and the standard pronunciation data.
본 발명의 목적은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공하는 발음의 정확도 평가 장치 및 그 방법을 제공하는 데 있다.An object of the present invention is to provide a method of generating a plurality of sentences similar to a text corresponding to a voice uttered by a user and providing a score calculated through comparison between the generated plurality of sentences and an original sentence corresponding to the user uttered voice And a method for evaluating the accuracy of pronunciation.
본 발명의 실시예에 따른 발음의 정확도 평가 장치는 사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 장치에 있어서, 원본 문장, 복수의 문장 및 복수의 단어를 저장하는 저장부; 상기 사용자로부터 발성되는 음성을 입력받는 입력부; 및 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하고, 상기 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성하고, 상기 원본 문장 및 상기 복수의 문장 간의 유사도를 비교하고, 상기 비교 결과를 근거로 상기 복수의 문장별로 점수를 산출하고, 상기 산출된 복수의 문장별 점수를 합산하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for estimating pronunciation accuracy, the apparatus comprising: a storage unit storing an original sentence, a plurality of sentences, and a plurality of words; An input unit for receiving a voice uttered by the user; And generating a plurality of sentences similar to the converted text based on a plurality of sentences and a plurality of words stored in the storage unit, And a controller for calculating a score for each of the plurality of sentences based on the comparison result and for summing the calculated scores of the plurality of sentences.
본 발명과 관련된 일 예로서 상기 입력부는, 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받을 수 있다.As an example related to the present invention, the input unit may receive the voice uttered by the user who has confirmed the original sentence output from the display unit or the voice output unit.
본 발명과 관련된 일 예로서 상기 제어부는, 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 복수의 문장을 생성할 수 있다.As an example related to the present invention, the control unit may generate a plurality of the predetermined number of the sentences whose priority is set in order similar to the converted text.
본 발명과 관련된 일 예로서 상기 복수의 문장은, 상기 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정할 수 있다.According to an embodiment of the present invention, the plurality of sentences are set such that the fullness criteria are set differently according to the priority set for the plurality of sentences, and the full scores of the sentences having the highest priority among the plurality of sentences are set The priority can be set higher than the full score of the low-priority sentence.
본 발명과 관련된 일 예로서 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 표시부; 및 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 음성 출력부;를 더 포함할 수 있다.As an example related to the present invention, the display unit displays the original sentence, the generated plural sentences, the score calculated for each of the plurality of sentences, and the summed score. And an audio output unit outputting the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, and the summed score.
본 발명의 실시예에 따른 발음의 정확도 평가 방법은 사용자가 발성한 음성에 대한 정확도를 평가하는 발음의 정확도 평가 방법에 있어서, 입력부를 통해 상기 사용자로부터 발성되는 음성을 입력받는 단계; 제어부를 통해 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하는 단계; 상기 제어부를 통해 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성하는 단계; 상기 제어부를 통해 상기 저장부에 저장된 원본 문장 및 상기 복수의 문장 간의 유사도를 비교하여 상기 복수의 문장별로 점수를 산출하는 단계; 및 상기 제어부를 통해 상기 산출된 복수의 문장별 점수를 합산하는 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for evaluating pronunciation accuracy, the method comprising the steps of: receiving a voice uttered by the user through an input unit; Converting a voice inputted through the input unit through a control unit into a text; Generating a plurality of sentences similar to the converted text based on the plurality of sentences and the plurality of words stored in the storage unit through the control unit; Comparing the original sentence stored in the storage unit and the plurality of sentences through the control unit to calculate a score for each of the plurality of sentences; And summing the scores of the calculated plurality of sentences through the control unit.
본 발명과 관련된 일 예로서 상기 음성을 입력받는 단계는, 상기 입력부를 통해 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받을 수 있다.As an example related to the present invention, the step of receiving the voice may receive the voice uttered by the user who confirmed the original sentence output from the display unit or the voice output unit through the input unit.
본 발명과 관련된 일 예로서 상기 복수의 문장을 생성하는 단계는, 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 복수의 문장을 생성할 수 있다.As an example related to the present invention, the step of generating the plurality of sentences may generate the predetermined number of the plurality of sentences whose priority is set in order similar to the converted text.
본 발명과 관련된 일 예로서 표시부를 통해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 단계; 및 음성 출력부를 통해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 단계;를 더 포함할 수 있다.Displaying the original sentence, the generated plural sentences, the score calculated for each of the plurality of sentences, and the summed score through a display unit as an example related to the present invention; And outputting the original sentence, the generated plurality of sentences, the score calculated for each of the plurality of sentences, and the summed score through the speech output unit.
본 발명은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공함으로써, 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원할 수 있는 효과가 있다.The present invention generates a plurality of sentences similar to the text corresponding to the voice uttered by the user and provides a score calculated through comparison between the generated plurality of sentences and the original sentence corresponding to the user uttered voice, It is possible to provide a variety of learning information to the user and support the user's reasonable decision making.
도 1은 본 발명의 실시예에 따른 발음의 정확도 평가 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 발음의 정확도 평가 방법을 나타낸 흐름도이다.
도 3은 본 발명의 실시예에 따른 표시부의 화면을 나타낸 도이다.1 is a block diagram showing a configuration of a pronunciation accuracies evaluation apparatus according to an embodiment of the present invention.
2 is a cross- 1 is a flowchart illustrating a method of evaluating pronunciation accuracy according to an embodiment of the present invention.
3, FIG. 8 is a diagram illustrating a screen of a display unit according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 발음의 정확도 평가 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing a configuration of an apparatus for evaluating
도 1에 도시된 바와 같이, 발음의 정확도 평가 장치(10)는 입력부(100), 저장부(200), 제어부(300), 표시부(400) 및 음성 출력부(500)로 구성된다. 도 1에 도시된 발음의 정확도 평가 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 발음의 정확도 평가 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 발음의 정확도 평가 장치(10)가 구현될 수도 있다.1, the pronunciation
입력부(100)는 사용자에 의한 버튼 조작 또는 임의의 기능 선택에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신한다.The
또한, 상기 입력부(100)는 사용자에 의해 입력된 정보에 대응하는 신호를 수신하며, 키 패드(Key Pad), 돔 스위치 (Dome Switch), 터치 패드(정압/정전), 터치 스크린(Touch Screen), 조그 휠, 조그 스위치, 조그 셔틀(Jog Shuttle), 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen) 등의 다양한 장치가 사용될 수 있다.The
또한, 상기 입력부(100)는 오디오 신호 또는 비디오 신호를 입력받기 위한 적어도 하나 이상의 마이크(미도시)와 카메라(미도시) 등을 포함할 수 있다. 상기 마이크는 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 상기 음성 출력부(500)를 통해 출력하거나 또는 통신부(미도시)를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.In addition, the
또한, 상기 입력부(100)는 임의의(또는 특정) 사용자로부터 발성(또는 발화)되는 음성(또는 음성 신호)을 입력받는다(또는 수신한다). 이때, 상기 입력부(100)는 상기 표시부(400) 및/또는 상기 음성 출력부(500)로부터 출력되는 특정 문장을 확인한 상기 사용자가 상기 확인한 특정 문장에 대응하여 발성하는 음성을 입력받을 수 있다.Also, the
즉, 상기 입력부(100)는 마이크 등을 통해 사용자로부터 발성되는 음성을 입력받는다. 또한, 상기 입력부(100)는 필터(filter)와 같은 모듈 등을 추가로 구비하여 상기 입력된 음성에 포함된 잡음 등을 제거한다.That is, the
상기 저장부(200)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The
또한, 상기 저장부(200)는 상기 발음의 정확도 평가 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the
또한, 상기 저장부(200)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 발음의 정확도 평가 장치(10)는 인터넷(internet)상에서 저장부(200)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.The
또한, 상기 저장부(200)는 상기 입력부(100)를 통해 입력되는 음성(또는 음성 신호)을 저장한다.Also, the
또한, 상기 저장부(200)는 상기 제어부(300)의 제어에 의해 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력되는 복수의 원문 문장(또는 원문 메시지)을 저장한다.The
또한, 상기 저장부(200)는 상기 제어부(300)의 제어에 의해 복수의 문장 및 복수의 단어를 저장한다.In addition, the
상기 제어부(300)는 상기 발음의 정확도 평가 장치(10)의 전반적인 제어 기능을 실행한다.The
또한, 상기 제어부(300)는 상기 입력부(100)를 통해 입력받은 음성(또는 음성 신호)을 텍스트(또는 문장)로 변환한다.The
즉, 상기 제어부(300)는 음성-텍스트(Speech to Text: STT) 변환 기능을 통해 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환한다. 이때, 상기 음성을 텍스트로 변환하는 방법은 공지된 다양한 기술을 통해 구현할 수 있다.That is, the
본 발명의 실시예에서는 상기 발음의 정확도 평가 장치(10) 내부에 구성된 상기 제어부(300)에서 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환하는 것을 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 입력부(100)를 통해 입력받은 음성을 파일 형태(예를 들어 wav 파일, avi 파일, mpeg 파일 등 포함)로 저장하고, 상기 파일 형태의 음성을 상기 발음의 정확도 평가 장치(10)에 포함된 통신부를 통해 서버(미도시)에 전송하고, 상기 서버(예를 들어 구글 음성 인식 서버 등 포함)에서 상기 파일 형태의 음성을 텍스트로 변환한 후, 상기 변환된 텍스트를 상기 발음의 정확도 평가 장치(10)에 제공할 수도 있다.In the embodiment of the present invention, the voice inputted through the
또한, 상기 제어부(300)는 상기 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어를 근거로 미리 설정된 개수만큼의 상기 변환된 텍스트와 유사한 복수의 문장을 생성한다. 이때, 상기 제어부(300)는 상기 생성되는 복수의 문장에 대해서 상기 변환된 텍스트와 가장 유사한 순으로 우선 순위를 설정한다.Also, the
즉, 상기 제어부(300)는 상기 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어 중에서, 상기 변환된 텍스트와 유사한 복수의 문장을 유사한 순서대로 생성한다.That is, the
또한, 상기 제어부(300)는 상기 변환된 텍스트, 상기 생성된 복수의 문장 등을 상기 저장부(200)에 저장한다.In addition, the
또한, 상기 제어부(300)는 상기 저장부(200)에 저장된 상기 사용자가 발성한 음성에 대응하는 원본 문장(또는 원문)과 상기 생성된 복수의 문장 간의 유사도를 각각 비교한다.In addition, the
또한, 상기 제어부(300)는 상기 비교 결과를 점수로 산출한다. 여기서, 상기 제어부(300)는 상기 원본 문장과 상기 생성된 복수의 문장 간의 일치 상태를 점수로 산출할 수 있다.Also, the
이때, 상기 우선 순위가 설정된 복수의 문장과 상기 원문 문장과의 비교 시, 상기 제어부(300)는 상기 우선 순위가 설정된 복수의 문장에 대한 만점 기준을 우선 순위에 따라 서로 다르게 설정할 수 있다.At this time, when comparing the plurality of sentences having the priority set with the original sentence, the
즉, 상기 제어부(300)는 상기 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 복수의 문장 중에서 상대적으로 우선 순위가 낮은 문장의 만점보다 높게 설정할 수 있다.That is, the
예를 들어, 총 100점 만점이고, 우선 순위가 1순위 내지 3순위로 각각 설정되는 제 1 문장 내지 제 3 문장에 대해서, 상기 제어부(300)는 우선 순위가 1순위인 상기 제 1 문장에 대해서 50점을 설정하고, 우선 순위가 2순위인 상기 제 2 문장에 대해서 30점을 설정하고, 우선 순위가 3순위인 상기 제 3 문장에 대해서 20점을 설정할 수 있다. 이때, 상기 우선 순위별 각 문장에 대한 배점은 설계자의 설계에 따라 다양하게 설정할 수 있다.For example, with respect to the first sentence to the third sentence in which the total number of points is 100, and the priority is set in the order of 1 to 3, respectively, the
또한, 상기 제어부(300)는 상기 원본 문장과 상기 복수의 문장 간의 비교 결과로 각각 산출되는 점수를 합산한다. 이때, 상기 제어부(300)는 복수의 문장에 대한 총점과 상기 합산된 점수를 백분율로 환산할 수도 있다.Also, the
또한, 상기 제어부(300)는 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력한다.In addition, the
상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 저장부(200)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(400)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(400)는 터치 스크린 일 수 있다.The
또한, 상기 표시부(400)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.The
또한, 상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 원본 문장을 표시한다.Also, the
또한, 상기 표시부(400)는 상기 제어부(300)의 제어에 의해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 표시한다.Also, the
상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(500)는 스피커가 될 수도 있다.The
또한, 상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 상기 원본 문장을 출력한다.Also, the
또한, 상기 음성 출력부(500)는 상기 제어부(300)의 제어에 의해 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 출력한다.The
이와 같이, 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공할 수 있다.In this manner, a plurality of sentences similar to the text corresponding to the voice uttered by the user can be generated, and a score calculated through comparison between the generated plurality of sentences and the original sentence corresponding to the user uttered voice have.
이하에서는, 본 발명에 따른 발음의 정확도 평가 방법을 도 1 내지 도 3을 참조하여 상세히 설명한다.Hereinafter, a pronunciation accuracies evaluation method according to the present invention will be described in detail with reference to FIGS. 1 to 3. FIG.
도 2는 본 발명의 실시예에 따른 발음의 정확도 평가 방법을 나타낸 흐름도이다.2 is a cross- 1 is a flowchart illustrating a method of evaluating pronunciation accuracy according to an embodiment of the present invention.
먼저, 입력부(100)는 임의의(또는 특정) 사용자로부터 발성(또는 발화)되는 음성을 입력받는다(또는 수신한다). 이때, 상기 입력부(100)는 단말(10)로부터 출력되는 특정 문장을 확인한(또는 보거나 들은) 상기 사용자가 상기 확인한 특정 문장에 대응하여 발성하는 음성을 입력받을 수 있다.First, the
즉, 상기 입력부(100)는 마이크 등을 통해 사용자로부터 발성되는 음성을 입력받는다.That is, the
일 예로, 상기 단말(10)에 포함된 음성 출력부(500)에서 "I am a boy"라는 문장이 출력되거나 또는 상기 단말(10)에 포함된 표시부(500)에서 상기 "I am a boy"라는 문장이 표시될 때, 상기 입력부(100)는 상기 출력되는 문장에 대응하여 상기 사용자가 발성하는 음성을 입력받는다(S210).For example, a sentence "I am a boy" is output from the
이후, 제어부(300)는 상기 입력부(100)를 통해 입력받은 음성(또는 음성 신호)을 텍스트(또는 문장)로 변환한다.Then, the
즉, 상기 제어부(300)는 음성-텍스트 변환 기능을 통해 상기 입력부(100)를 통해 입력받은 음성을 텍스트로 변환한다.That is, the
일 예로, 상기 제어부(300)는 구글 크롬 스피치-투-텍스트를 근거로 상기 입력부(100)를 통해 입력받은 상기 음성을 텍스트로 변환한다(S220).For example, the
이후, 상기 제어부(300)는 저장부(200)에 미리 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 복수의 문장을 생성한다. 이때, 상기 제어부(300)는 상기 생성되는 복수의 문장에 대해서 상기 변환된 텍스트와 가장 유사한 순으로 우선 순위를 설정한다.Then, the
일 예로, 상기 제어부(300)는 상기 변환된 텍스트와 유사한 3개의 문장인 "I am a bad", "I am a bird", "I am in bed"를 생성한다. 이때, 상기 생성되는 3개의 문장은 순서대로 1순위(예를 들어 "I am a bad"), 2순위(예를 들어 "I am a bird"), 3순위(예를 들어 "I am in bed")의 우선 순위가 설정된 상태일 수 있다(S230).For example, the
이후, 상기 제어부(300)는 상기 사용자가 발성한 음성에 대응하는 원본 문장과 상기 생성된 복수의 문장 간의 유사도를 각각 비교하고, 상기 비교 결과를 근거로 점수를 산출한다. 여기서, 상기 제어부(300)는 상기 원본 문장과 상기 생성된 복수의 문장 간의 일치 상태를 점수로 산출할 수 있다.Then, the
일 예로, 상기 제어부(300)는 상기 음성 출력부(500)를 통해 출력된 원본 문장인 "I am a boy"와, 상기 사용자가 발성한 음성에 대응하는 텍스트를 근거로 생성된 3개의 문장인 "I am a bad", "I am a bird" 및 "I am in bed"를 각각 비교한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와, 상기 텍스트를 근거로 생성된 3개의 문장인 "I am a bad", "I am a bird" 및 "I am in bed" 간의 일치 상태(또는 유사도/일치도)를 점수화한다.For example, the
즉, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am a bad" 간의 비교 결과에 따라 미리 설정된 1순위의 우선 순위에 해당되는 만점(예를 들어 50점)을 근거로 40점을 산출한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am a bird" 간의 비교 결과에 따라 미리 설정된 2순위 우선 순위에 해당되는 만점(예를 들어 30점)을 근거로 15점을 산출한다. 또한, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"와 상기 생성된 "I am in bed" 간의 비교 결과에 따라 미리 설정된 3순위 우선 순위에 해당되는 만점(예를 들어 20점)을 근거로 10점을 산출한다. 또한, 상기 제어부(300)는 상기 생성된 복수의 문장에 대해서 각각 산출된 점수를 합산(예를 들어 40점+15점+10점=65점)한다(S240).That is, the
이후, 상기 제어부(300)는 상기 원본 문장, 상기 생성된 복수의 문장, 상기 복수의 문장에 대해서 각각 산출된 점수, 상기 합산된 점수 등을 상기 표시부(400) 및/또는 상기 음성 출력부(500)를 통해 출력한다.Then, the
일 예로, 도 3에 도시된 바와 같이, 상기 제어부(300)는 상기 원본 문장인 "I am a boy"(310), 상기 생성된 우선 순위별로 복수의 문장인 "I am a bad", "I am a bird" 및 "I am in bed"(320), 상기 복수의 문장에 대해서 각각 산출된 점수인 40점, 15점 및 10점(330), 상기 합산된 점수인 65점(340) 등을 상기 표시부(400)에 표시한다(S250).For example, as shown in FIG. 3, the
본 발명의 실시예는 앞서 설명된 바와 같이, 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공하여, 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원할 수 있다.As described above, the embodiment of the present invention generates a plurality of sentences similar to the text corresponding to the voice uttered by the user, and compares the generated plural sentences with the original sentences corresponding to the voice uttered by the user And provides a variety of learning information to the user and supports the user's rational decision making.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
본 발명은 사용자가 발성한 음성에 대응하는 텍스트와 유사한 복수의 문장을 생성하고, 상기 생성된 복수의 문장과 상기 사용자가 발성한 음성에 대응하는 원본 문장 간의 비교를 통해 산출되는 점수를 제공함으로써 사용자에게 다양한 학습 정보를 제공하고 사용자의 합리적인 의사 결정을 지원하는 것으로, 단말 분야, 음성 인식 분야 등에서 광범위하게 이용될 수 있다.The present invention generates a plurality of sentences similar to a text corresponding to a voice uttered by a user and provides a score calculated through comparison between the generated plurality of sentences and an original sentence corresponding to the voice uttered by the user, To provide various learning information to the user and to support reasonable decision making by the user, and it can be widely used in the terminal field and the speech recognition field.
10: 발음의 정확도 평가 장치
100: 입력부 200: 저장부
300: 제어부 400: 표시부
500: 음성 출력부10: Pronunciation accuracy evaluation device
100: input unit 200: storage unit
300: control unit 400: display unit
500: Audio output unit
Claims (10)
원본 문장, 복수의 문장 및 복수의 단어를 저장하는 저장부;
상기 사용자로부터 발성되는 음성을 입력받는 입력부; 및
상기 입력부를 통해 입력받은 음성을 텍스트로 변환하고, 상기 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 제 1 복수의 문장을 생성하고, 상기 원본 문장 및 상기 제 1 복수의 문자 간의 유사도를 비교하고, 상기 비교 결과를 근거로 상기 제 1 복수의 문장별로 점수를 산출하고, 상기 산출된 제 1 복수의 문장별 점수를 합산하는 제어부;를 포함하며,
상기 제어부는,
상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 제 1 복수의 문장을 생성하며,
상기 제 1 복수의 문장은,
상기 제 1 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 제 1 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 제 1 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정하는 발음의 정확도 평가 장치.An apparatus for evaluating pronunciation accuracy, the apparatus comprising:
An original sentence, a plurality of sentences, and a plurality of words;
An input unit for receiving a voice uttered by the user; And
A first sentence that is similar to the converted text on the basis of a plurality of sentences and a plurality of words stored in the storage unit; And a controller for comparing the similarities among the plurality of characters, calculating a score for each of the first plurality of sentences based on the comparison result, and summing the calculated scores of the first plurality of sentences,
Wherein,
Generating a first plurality of sentences of a predetermined number in which the priorities are set in order similar to the converted text,
The first plurality of sentences include:
Wherein a full scale criterion is set differently according to a priority set for the first plurality of sentences, and a perfect score of a higher priority sentence among the first plurality of sentences is set as a perfect score The accuracy of the pronunciation is improved.
상기 입력부는,
표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받는 것을 특징으로 하는 발음의 정확도 평가 장치.The method according to claim 1,
Wherein the input unit comprises:
And the user's voice that has been confirmed by the display of the original sentence output from the voice output unit is input.
상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 표시부; 및
상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 음성 출력부;를 더 포함하는 것을 특징으로 하는 발음의 정확도 평가 장치.The method according to claim 1,
A display unit for displaying the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score; And
And a speech output unit outputting the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score.
입력부를 통해 상기 사용자로부터 발성되는 음성을 입력받는 단계;
제어부를 통해 상기 입력부를 통해 입력받은 음성을 텍스트로 변환하는 단계;
상기 제어부를 통해 저장부에 저장된 복수의 문장 및 복수의 단어를 근거로 상기 변환된 텍스트와 유사한 순으로 우선 순위가 설정되는 미리 설정된 개수만큼의 상기 변환된 텍스트와 유사한 제 1 복수의 문장을 생성하는 단계;
상기 제어부를 통해 상기 저장부에 저장된 원본 문장 및 상기 제 1 복수의 문장 간의 유사도를 비교하여 상기 제 1 복수의 문장별로 점수를 산출하는 단계; 및
상기 제어부를 통해 상기 산출된 제 1 복수의 문장별 점수를 합산하는 단계;를 포함하며,
상기 제 1 복수의 문장은,
상기 제 1 복수의 문장에 대해 설정된 우선 순위에 따라 만점 기준이 각각 다르게 설정되며, 상기 제 1 복수의 문장 중에서 우선 순위가 높은 문장의 만점을 상기 제 1 복수의 문장 중에서 우선 순위가 낮은 문장의 만점보다 높게 설정하는 발음의 정확도 평가 방법.A method of evaluating pronunciation accuracy that evaluates an accuracy of a voice uttered by a user,
Receiving a voice uttered by the user through an input unit;
Converting a voice inputted through the input unit through a control unit into a text;
A plurality of sentences stored in the storage unit through the control unit and a first plurality of sentences similar to a predetermined number of the converted text whose priority is set in order similar to the converted text on the basis of the plurality of words step;
Calculating a score for each of the first plurality of sentences by comparing the similarity between the original sentence stored in the storage unit and the first plurality of sentences through the control unit; And
And summing the calculated scores of the first plurality of sentences through the control unit,
The first plurality of sentences include:
Wherein a full scale criterion is set differently according to a priority set for the first plurality of sentences, and a perfect score of a higher priority sentence among the first plurality of sentences is set as a perfect score A method for evaluating pronunciation accuracy that is set higher.
상기 음성을 입력받는 단계는,
상기 입력부를 통해 표시부 또는 음성 출력부로부터 출력되는 상기 원본 문장을 확인한 상기 사용자가 발성하는 상기 음성을 입력받는 것을 특징으로 하는 발음의 정확도 평가 방법.The method according to claim 6,
Wherein the step of receiving the voice comprises:
And the user's voice that has been confirmed by the user on the display unit or the voice output unit through the input unit is input.
표시부를 통해 상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 표시하는 단계; 및
음성 출력부를 통해 상기 원본 문장, 상기 생성된 제 1 복수의 문장, 상기 제 1 복수의 문장별로 산출되는 점수 및 상기 합산된 점수를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 발음의 정확도 평가 방법.The method according to claim 6,
Displaying the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score through a display unit; And
And outputting the original sentence, the generated first plurality of sentences, the score calculated for each of the first plurality of sentences, and the summed score through an audio output unit .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140092505A KR101562222B1 (en) | 2014-07-22 | 2014-07-22 | Apparatus for evaluating accuracy of pronunciation and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140092505A KR101562222B1 (en) | 2014-07-22 | 2014-07-22 | Apparatus for evaluating accuracy of pronunciation and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101562222B1 true KR101562222B1 (en) | 2015-10-23 |
Family
ID=54427400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140092505A KR101562222B1 (en) | 2014-07-22 | 2014-07-22 | Apparatus for evaluating accuracy of pronunciation and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101562222B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697975A (en) * | 2017-10-20 | 2019-04-30 | 深圳市鹰硕音频科技有限公司 | A kind of Speech Assessment Methods and device |
KR20210011896A (en) * | 2019-07-23 | 2021-02-02 | 전성국 | method for operating pronunciation correction system |
KR20210067201A (en) * | 2019-11-29 | 2021-06-08 | 광운대학교 산학협력단 | Calculation apparatus of speech recognition score for the developmental disability and method thereof |
KR20220078376A (en) * | 2020-12-03 | 2022-06-10 | 주식회사 페어립에듀 | English learning method and English learning system using 3D display device and mobile terminal |
-
2014
- 2014-07-22 KR KR1020140092505A patent/KR101562222B1/en active IP Right Grant
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697975A (en) * | 2017-10-20 | 2019-04-30 | 深圳市鹰硕音频科技有限公司 | A kind of Speech Assessment Methods and device |
KR20210011896A (en) * | 2019-07-23 | 2021-02-02 | 전성국 | method for operating pronunciation correction system |
KR102361205B1 (en) | 2019-07-23 | 2022-02-11 | 전성국 | method for operating pronunciation correction system |
KR20210067201A (en) * | 2019-11-29 | 2021-06-08 | 광운대학교 산학협력단 | Calculation apparatus of speech recognition score for the developmental disability and method thereof |
KR102358087B1 (en) * | 2019-11-29 | 2022-02-03 | 광운대학교 산학협력단 | Calculation apparatus of speech recognition score for the developmental disability and method thereof |
KR20220078376A (en) * | 2020-12-03 | 2022-06-10 | 주식회사 페어립에듀 | English learning method and English learning system using 3D display device and mobile terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102596446B1 (en) | Modality learning on mobile devices | |
US11176141B2 (en) | Preserving emotion of user input | |
KR101255402B1 (en) | Redictation 0f misrecognized words using a list of alternatives | |
EP2965313B1 (en) | Speech recognition assisted evaluation on text-to-speech pronunciation issue detection | |
US10102771B2 (en) | Method and device for learning language and computer readable recording medium | |
US10586528B2 (en) | Domain-specific speech recognizers in a digital medium environment | |
US10950220B1 (en) | User feedback for speech interactions | |
US20140025381A1 (en) | Evaluating text-to-speech intelligibility using template constrained generalized posterior probability | |
KR101819459B1 (en) | Voice recognition system and apparatus supporting voice recognition error correction | |
KR102193029B1 (en) | Display apparatus and method for performing videotelephony using the same | |
KR101562222B1 (en) | Apparatus for evaluating accuracy of pronunciation and method thereof | |
US11538476B2 (en) | Terminal device, server and controlling method thereof | |
US11373638B2 (en) | Presentation assistance device for calling attention to words that are forbidden to speak | |
EP3503091A1 (en) | Dialogue control device and method | |
US20190295532A1 (en) | Remote Generation of Executable Code for a Client Application Based on Natural Language Commands Captured at a Client Device | |
US11120219B2 (en) | User-customized computer-automated translation | |
WO2018105373A1 (en) | Information processing device, information processing method, and information processing system | |
US11682318B2 (en) | Methods and systems for assisting pronunciation correction | |
US11556708B2 (en) | Method and apparatus for recommending word | |
US10671814B2 (en) | Translation device and program recording medium | |
US20190073994A1 (en) | Self-correcting computer based name entity pronunciations for speech recognition and synthesis | |
WO2017159207A1 (en) | Processing execution device, method for controlling processing execution device, and control program | |
US10074366B2 (en) | Information processing device, information processing method, and program | |
JP6950708B2 (en) | Information processing equipment, information processing methods, and information processing systems | |
US20220093086A1 (en) | Method and a system for capturing conversations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180919 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190926 Year of fee payment: 5 |