KR20220086923A - English pronunciation automatic evaluation system and method - Google Patents

English pronunciation automatic evaluation system and method Download PDF

Info

Publication number
KR20220086923A
KR20220086923A KR1020200177162A KR20200177162A KR20220086923A KR 20220086923 A KR20220086923 A KR 20220086923A KR 1020200177162 A KR1020200177162 A KR 1020200177162A KR 20200177162 A KR20200177162 A KR 20200177162A KR 20220086923 A KR20220086923 A KR 20220086923A
Authority
KR
South Korea
Prior art keywords
evaluation
information
unit
speech
words
Prior art date
Application number
KR1020200177162A
Other languages
Korean (ko)
Other versions
KR102416000B1 (en
Inventor
최효준
Original Assignee
최효준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최효준 filed Critical 최효준
Priority to KR1020200177162A priority Critical patent/KR102416000B1/en
Publication of KR20220086923A publication Critical patent/KR20220086923A/en
Application granted granted Critical
Publication of KR102416000B1 publication Critical patent/KR102416000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 영어 발음 자동 평가 시스템 및 방법에 관한 것으로, 보다 구체적으로 피평가자에게 문제를 제공하는 문제 제공부, 상기 문제에 따른 피평가자의 발화 음성을 입력받는 발화 음성 입력부, 음성인식 기술기반으로 상기 발화 음성을 음성열로 변환한 발화 정보를 생성하는 발화 정보 생성부, 상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하고, 상기 억양 정보를 기반으로 상기 발화 정보가 평가된 제1 평가 정보를 생성하는 제1 평가부, 상기 제1 평가 정보로부터 상기 발화 음성의 길이를 추출하고, 상기 발화 음성의 길이를 기반으로 상기 제1 평가 정보가 평가된 제2 평가 정보를 생성하는 제2 평가부, 상기 제2 평가 정보로부터 의미상 독립적 경계 유무를 판별하고 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간(pause)이 추가된 제3 평가 정보를 생성하는 제3 평가부, 상기 제3 평가 정보를 점수화하고, 피평가자에게 평가점수를 제공하는 평가점수 제공부 및 상기 문제 또는 평가점수 중 적어도 하나가 표시되는 인터페이스부를 포함하는 영어 발음 자동 평가 시스템 및 방법에 관한 것이다.The present invention relates to an automatic English pronunciation evaluation system and method, and more specifically, to a problem providing unit for providing a problem to an evaluated person, an uttered voice input unit for receiving the uttered voice of the evaluated subject according to the above problem, and the uttered voice based on voice recognition technology Speech information generating unit for generating speech information converted into a speech sequence, extracting intonation information indicating the height of the spoken voice from the speech information, and first evaluation information in which the speech information is evaluated based on the intonation information a first evaluation unit generating , a third evaluation unit that determines the presence or absence of a semantically independent boundary from the second evaluation information and generates third evaluation information in which one pause per semantically independent boundary is added to the second evaluation information; To a system and method for automatic evaluation of English pronunciation, comprising: an evaluation score providing unit that scores third evaluation information and provides evaluation scores to a person to be evaluated; and an interface unit that displays at least one of the problem or evaluation score.

Description

영어 발음 자동 평가 시스템 및 방법 {English pronunciation automatic evaluation system and method}{English pronunciation automatic evaluation system and method}

본 발명은 영어 발음 자동 평가 시스템 및 방법에 관한 것으로, 보다 구체적으로 문제에 따른 피평가자의 발화 음성을 입력받고, 발화 음성의 특징값을 추출한 후 상기 특징값에 따른 평가점수를 제공하는 영어 발음 자동 평가 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for automatic evaluation of English pronunciation, and more specifically, automatic evaluation of English pronunciation that receives the utterance voice of a subject according to a problem, extracts a feature value of the uttered voice, and provides an evaluation score according to the feature value It relates to systems and methods.

외국어 학습의 중요성 및 어학관련 평생교육이 보편화 되면서 영어회화를 시작하거나 배우는 사람이 늘고 있다. 영어 말하기를 배우는 방법은 크게 사람에 의한 평가와 기계에 의한 평가로 배우는 방법으로 구분할 수 있다. As the importance of foreign language learning and language-related lifelong education become more common, more and more people are starting or learning English conversation. The method of learning to speak English can be largely divided into the method of learning by evaluation by humans and by evaluation by machines.

사람에 의한 평가로 영어 말하기를 배우는 방법은 평가자의 경험과 배경지식 등에 따라 평가 대상자의 의도와 문장의 질적인 부분까지 평가할 수 있지만, 평가자의 주관에 따라 때때로 객관적이지 않은 평가결과를 제공할 수 있다. 예컨대, 평가자가 누구인지, 동일 평가자라 하더라도 평가하는 시간과 그 환경에 따라 평가결과가 달라질 수 있으며, 평가 시간도 많이 소요될 수 있다.The method of learning to speak English through human evaluation can evaluate the intention of the subject and the quality of the sentence according to the evaluator's experience and background knowledge, etc., but depending on the subjectivity of the evaluator, sometimes non-objective evaluation results can be provided. . For example, the evaluation result may vary depending on who the evaluator is, and the evaluation time and environment, even for the same evaluator, and may take a lot of evaluation time.

또한, 기계에 의한 평가로 영어 말하기를 배우는 방법은 시간과 환경의 제약 없이 빠른 시간에 일관적인 평가를 수행할 수 있지만, 평가 대상자의 발화가 원어민의 발화와 유사한 정도를 판단하고 적합한 피드백 제공할 수 있는 보다 신뢰도 있는 평가 기준 및 방법이 필요한 실정이다.In addition, the method of learning to speak English through evaluation by a machine can perform a consistent evaluation in a short time without time and environment restrictions, but it is possible to judge the degree to which the subject's speech is similar to that of a native speaker and provide appropriate feedback. There is a need for more reliable evaluation criteria and methods.

KR 10-2020-0088073EN 10-2020-0088073 KR 10-1318377KR 10-1318377

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로 평가 대상자의 발화가 원어민의 발화와 유사한 정도를 판단하고 보다 신뢰도 있는 평가가 가능하도록 음성인식 기술기반으로 발화 정보를 생성하고, 상기 발화 정보로부터 음성의 높낮이, 음성의 길이, 휴지구간(pause)을 특징값으로 평가점수를 제공하는 영어 발음 자동 평가 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention is to solve the above problems, and generates utterance information based on speech recognition technology to determine the degree of similarity of the utterance of the subject to be evaluated to that of a native speaker and to enable a more reliable evaluation, and from the utterance information An object of the present invention is to provide an automatic English pronunciation evaluation system and method for providing evaluation scores using feature values such as pitch, voice length, and pause.

상기 목적을 달성하기 위하여, 본 발명의 영어 발음 자동 평가 시스템은 피평가자에게 문제를 제공하는 문제 제공부; 상기 문제에 따른 피평가자의 발화 음성을 입력받는 발화 음성 입력부; 음성인식 기술기반으로 상기 발화 음성을 음성열로 변환한 발화 정보를 생성하는 발화 정보 생성부; 상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하고, 상기 억양 정보를 기반으로 상기 발화 정보가 평가된 제1 평가 정보를 생성하는 제1 평가부; 상기 제1 평가 정보로부터 상기 발화 음성의 길이를 추출하고, 상기 발화 음성의 길이를 기반으로 상기 제1 평가 정보가 평가된 제2 평가 정보를 생성하는 제2 평가부; 상기 제2 평가 정보로부터 의미상 독립적 경계 유무를 판별하고 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간(pause)이 추가된 제3 평가 정보를 생성하는 제3 평가부; 상기 제3 평가 정보를 점수화하고, 피평가자에게 평가점수를 제공하는 평가점수 제공부; 및 상기 문제 또는 평가점수 중 적어도 하나가 표시되는 인터페이스부;를 제공한다.In order to achieve the above object, the automatic English pronunciation evaluation system of the present invention is a problem providing unit for providing a problem to the subject; an uttered voice input unit for receiving the uttered voice of the person to be evaluated according to the above problem; a speech information generation unit for generating speech information obtained by converting the speech speech into speech heat based on speech recognition technology; a first evaluation unit extracting intonation information indicating the height of the spoken voice from the utterance information and generating first evaluation information in which the utterance information is evaluated based on the intonation information; a second evaluation unit extracting a length of the spoken voice from the first evaluation information and generating second evaluation information in which the first evaluation information is evaluated based on the length of the spoken voice; a third evaluation unit that determines whether there is a semantically independent boundary from the second evaluation information and generates third evaluation information in which one pause per semantically independent boundary is added to the second evaluation information; an evaluation score providing unit for scoring the third evaluation information and providing an evaluation score to the evaluated; and an interface unit for displaying at least one of the problem or the evaluation score.

또한 상기 목적을 달성하기 위하여, 본 발명의 영어 발음 자동 평가 방법은 문제 제공부에 의하여, 피평가자에게 문제가 표시되도록 인터페이스부에 상기 문제가 전송되는 문제 전송단계; 발화 음성 입력부에 의하여, 상기 인터페이스부에 표시된 상기 문제에 따른 피평가자의 발화 음성이 입력되는 발화 음성 입력단계; 발화 정보 생성부에 의하여, 음성인식 기술기반으로 상기 발화 음성이 음성열로 변환된 발화 정보가 생성되는 발화 정보 생성단계; 제1 평가부에 의하여, 상기 발화 정보로부터 상기 발화 음성의 높낮이가 표시된 억양 정보가 추출되고, 상기 억양 정보가 기반이 되어 상기 발화 정보가 평가된 제1 평가 정보가 생성되는 제1 평가단계; 제2 평가부에 의하여, 상기 제1 평가 정보로부터 상기 발화 음성의 길이가 추출되고, 상기 발화 음성의 길이가 기반이 되어 상기 제1 평가 정보가 평가된 제2 평가 정보가 생성되는 제2 평가단계; 제3 평가부에 의하여, 상기 제2 평가 정보로부터 의미상 독립적 경계 유무가 판별되고, 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간(pause)이 추가된 제3 평가 정보가 생성되는 제3 평가단계; 평가점수 제공부에 의하여, 상기 제3 평가 정보가 점수화되고, 피평가자에게 평가점수가 제공되는 평가점수 제공단계; 및 인터페이스부에 의하여, 상기 평가점수가 표시되는 평가점수 표시단계;를 제공한다.In addition, in order to achieve the above object, the automatic evaluation method of English pronunciation of the present invention includes, by the problem providing unit, a problem transmission step of transmitting the problem to the interface unit so that the problem is displayed to the evaluated; an uttered voice input step of inputting, by the uttered voice input unit, the uttered voice of the subject to be evaluated according to the problem displayed on the interface unit; an utterance information generation step of generating, by the utterance information generator, utterance information in which the uttered voice is converted into a voice sequence based on a voice recognition technology; a first evaluation step of extracting, by the first evaluation unit, intonation information indicating the height of the spoken voice from the utterance information, and generating first evaluation information on which the utterance information is evaluated based on the intonation information; a second evaluation step in which, by the second evaluation unit, the length of the spoken voice is extracted from the first evaluation information, and the length of the spoken voice is used as a basis to generate second evaluation information in which the first evaluation information is evaluated ; The third evaluation unit determines whether there is a semantically independent boundary from the second evaluation information, and generates third evaluation information in which one pause per semantically independent boundary is added to the second evaluation information a third evaluation step to be; an evaluation score providing step in which the third evaluation information is scored by the evaluation score providing unit and the evaluation score is provided to the evaluated; and an evaluation score display step in which the evaluation score is displayed by the interface unit.

본 발명에 의하면 음성인식 기술기반으로 발화 정보를 생성하고, 상기 발화 정보로부터 음성의 높낮이, 음성의 길이, 휴지구간(pause)을 특징값으로 평가점수를 제공하도록 구비함으로써, 평가 대상자의 발화가 원어민의 발화와 유사한 정도를 판단하고 보다 신뢰도 있는 평가가 가능한 효과가 있다. 또한, 사람에 의한 평가 시 빈번히 발생하는 평가자 간 점수 편차를 크게 줄여 평가시험의 신뢰성을 높이고, 평가에 소요되는 시간 및 인력부담을 경감할 수 있을 효과가 있다.According to the present invention, by generating utterance information based on speech recognition technology, and providing evaluation scores from the utterance information to the height of the voice, the length of the voice, and the pause period as feature values, the utterance of the subject to be evaluated is a native speaker It has the effect of judging the degree of similarity to the utterance of In addition, it is possible to greatly reduce the score deviation between evaluators, which occurs frequently during human evaluation, to increase the reliability of the evaluation test, and to reduce the time required for evaluation and the burden of manpower.

도 1은 본 발명의 영어 발음 자동 평가 시스템 구성도이다.
도 2는 본 발명의 영어 발음 자동 평가 방법 흐름도이다.
1 is a configuration diagram of an automatic English pronunciation evaluation system of the present invention.
2 is a flowchart of an automatic evaluation method for English pronunciation of the present invention.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this specification have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

영어 발음 자동 평가 시스템English pronunciation automatic evaluation system

이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 1은 본 발명의 영어 발음 자동 평가 시스템 구성도이다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings. 1 is a configuration diagram of an automatic English pronunciation evaluation system of the present invention.

도 1을 보면, 본 발명의 영어 발음 자동 평가 시스템은 문제 제공부(100), 발화 음성 입력부(200), 발화 정보 생성부(300), 제1 평가부(400), 제2 평가부(500), 제3 평가부(600), 평가점수 제공부(700) 및 인터페이스부(800)를 포함한다.Referring to FIG. 1 , the automatic English pronunciation evaluation system of the present invention includes a problem providing unit 100 , a spoken voice input unit 200 , a utterance information generating unit 300 , a first evaluation unit 400 , and a second evaluation unit 500 . ), a third evaluation unit 600 , an evaluation score providing unit 700 , and an interface unit 800 .

보다 구체적으로, 상기 문제 제공부(100)는 피평가자에게 문제를 제공한다. 즉, 상기 문제 제공부(100)는 다수 개의 문제가 기 저장될 수 있고, 관리자에 의해서 업데이트될 수 있다. 그리고 상기 문제 제공부(100)는 상기 인터페이스부(800)에 상기 문제를 전송할 수 있고, 상기 인터페이스부(800)는 상기 문제를 상기 문제 제공부(100)로부터 전송받아 피평가자가 시각적으로 확인할 수 있도록 디스플레이에 표시할 수 있다. More specifically, the problem providing unit 100 provides a problem to the subject. That is, the problem providing unit 100 may pre-store a plurality of problems and may be updated by an administrator. And the problem providing unit 100 may transmit the problem to the interface unit 800, and the interface unit 800 receives the problem from the problem providing unit 100 so that the subject can visually check it. can be displayed on the display.

다음으로, 상기 발화 음성 입력부(200)는 상기 문제에 따른 피평가자의 발화 음성을 입력받는다. 상기 발화 음성 입력부(200)는 피평가자의 음성을 기계가 인식할 수 있도록 아날로그 데이터를 디지털 데이터로 변환하는 장치일 수 있고, 가장 바람직하게 유/무선 마이크, 헤드셋 등일 수 있다. Next, the spoken voice input unit 200 receives the uttered voice of the subject according to the above problem. The spoken voice input unit 200 may be a device that converts analog data into digital data so that the machine can recognize the voice of the person being evaluated, and most preferably, may be a wired/wireless microphone, a headset, or the like.

다음으로, 상기 발화 정보 생성부(300)는 음성인식 기술기반으로 상기 발화 음성을 음성열로 변환한 발화 정보를 생성한다.Next, the utterance information generating unit 300 generates utterance information obtained by converting the uttered voice into a voice sequence based on a voice recognition technology.

일반적으로, 말하기 평가의 유형에 따라 음성을 텍스트로 전환하는 방식에는 낭독 발화 방식과 자유 발화 방식이 있다. 상기 낭독 발화 방식은 문제에 이미 텍스트가 주어지고 피평가자의 낭독 발화로부터 생성된 음성을 음성열로 변환하는 방식이므로 비교적 쉽게 전환이 이루어지는 반면, 자유 발화 방식은 정해진 텍스트 없이 피평가자의 자유로운 발화로부터 생성된 음성을 딥러닝 기술기반의 음성열 추출 알고리즘을 이용하여 음성열로 변환하는 방식이므로 다소 복잡한 과정을 거쳐 전환이 이루어진다. 예컨대, 딥러닝 기술기반의 음향 모델링, 데이터기반 언어모델 및 비원어민 화자의 특성을 반영한 음성열 모델링 등이 포함될 수 있다. In general, a method of converting speech into text according to the type of speech evaluation includes a reading speech method and a free speech method. The read-out speech method is a method in which text is already given to the problem and the speech generated from the read speech of the subject is converted into a speech sequence, so the conversion is relatively easy, whereas the free speech method is a speech generated from the free speech of the subject without a fixed text is a method of converting into a voice sequence using a voice sequence extraction algorithm based on deep learning technology, so the conversion takes place through a rather complicated process. For example, deep learning technology-based acoustic modeling, data-based language models, and voice heat modeling reflecting the characteristics of non-native speakers may be included.

가장 바람직하게, 본 발명은 자유 발화 방식임으로, 상기 문제 제공부(100)는 피평가자에게 기 저정된 텍스트를 낭독하는 문제를 제공하는 것이 아닌, 예컨대 그림을 문제로 제공할 수 있다. 상기 발화 음성 입력부(200)는 정해진 시간 동안 상기 그림을 묘사하는 피평가자의 발화 음성을 입력받을 수 있다. 그리고 상기 발화 정보 생성부(300)는 음성열 추출 알고리즘을 이용하여 상기 발화 음성을 음성열로 변환한 발화 정보를 생성할 수 있다. 상기 음성열은 주파수 데이터와 텍스트 데이터를 모두 포함할 수 있다. Most preferably, since the present invention is a free speech method, the problem providing unit 100 may provide, for example, a picture as a problem, rather than providing the subject with a problem of reading a preset text. The spoken voice input unit 200 may receive the uttered voice of the person to be evaluated describing the picture for a predetermined period of time. In addition, the utterance information generator 300 may generate utterance information obtained by converting the uttered voice into a voice sequence by using a voice sequence extraction algorithm. The voice sequence may include both frequency data and text data.

다음으로, 상기 제1 평가부(400)는 상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하고, 상기 억양 정보를 기반으로 상기 발화 정보가 평가된 제1 평가 정보를 생성한다.Next, the first evaluation unit 400 extracts intonation information indicating the height of the spoken voice from the utterance information, and generates first evaluation information in which the utterance information is evaluated based on the intonation information.

상기 제1 평가부(400)는 상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하기 위하여 단어 추출부(410), 단어간격 판별부(420), 발화 정보 집단화부(430) 및 음계 결정부(440)를 포함할 수 있다.The first evaluation unit 400 includes a word extracting unit 410, a word spacing determining unit 420, an utterance information grouping unit 430 and to extract intonation information indicating the pitch of the spoken voice from the utterance information. It may include a scale determiner 440 .

우선, 상기 단어 추출부(410)는 상기 발화 정보로부터 하나 이상의 단어를 추출할 수 있다. 상기 발화 정보는 하나 이상의 구, 절 또는 문장일 수 있고, 상기 하나 이상의 구, 절 또는 문장에는 하나 이상의 단어를 포함할 수 있다. 따라서 상기 하나 이상의 구, 절 또는 문장에 포함된 하나 이상의 단어를 추출할 수 있다. First, the word extraction unit 410 may extract one or more words from the utterance information. The utterance information may be one or more phrases, clauses or sentences, and the one or more phrases, clauses or sentences may include one or more words. Accordingly, one or more words included in the one or more phrases, clauses or sentences may be extracted.

다음으로, 상기 단어간격 판별부(420)는 상기 하나 이상의 단어 간 간격인 단어간격을 판별할 수 있다. 하기 [표 1]을 보면, 상기 단어간격 판별부(420)는 상기 단어 추출부(410)로부터 추출된 하나 이상의 단어 중에서 임의의 단어를 기준으로 단어 간 간격이 0초 이상 ~ 0.25초 미만인 경우 음소 및 단어 사이인 것으로 판단하고, 단어 간 간격이 0.25초 이상 ~ 0.5초 미만인 경우 구(phrase) 사이인 것으로 판단하고, 단어 간 간격이 0.5초 이상인 경우 쉼표 및 마침표가 있는 문장 사이인 것으로 판단할 수 있다. Next, the word spacing determining unit 420 may determine a word spacing that is an interval between the one or more words. Referring to [Table 1] below, the word spacing determining unit 420 is configured to determine a phoneme when the interval between words is 0 seconds or more and less than 0.25 seconds based on an arbitrary word among one or more words extracted from the word extraction unit 410. and between words, when the interval between words is 0.25 seconds or more and less than 0.5 seconds, it is determined as between phrases, and when the interval between words is 0.5 seconds or more, it can be determined as between sentences with commas and periods. have.

단어간격 판별기준Word spacing criteria 위치location 의미meaning 0초 이상 0.25초 미만0 seconds or more and less than 0.25 seconds 음소, 단어 사이phonemes, between words 경계 없음no borders 0.25초 이상 0.5초 미만0.25 seconds or more and less than 0.5 seconds 구(Phrase) 사이Between Phrase 의존적 경계dependent boundaries 0.5초 이상0.5 seconds or more 쉼표, 마침표 후after comma, period 독립적 경계independent boundaries

다음으로, 상기 발화 정보 집단화부(430)는 상기 단어 추출부(410)로부터 추출된 하나 이상의 단어 중 서술부를 추출할 수 있다. 그리고 상기 서술부를 기준으로 상기 단어 추출부(410)로부터 추출된 상기 하나 이상의 단어를 구(phrase) 단위로 집단화할 수 있다. Next, the utterance information grouping unit 430 may extract a predicate from one or more words extracted from the word extracting unit 410 . In addition, the one or more words extracted from the word extraction unit 410 may be grouped into a phrase unit based on the predicate unit.

다시 말하면, 상기 발화 정보 집단화부(430)는 상기 서술부가 기준이 되어 상기 발화 정보 내 하나 이상의 단어들을 전반부 구(phrase), 주요동사부 구(phrase), 후반부 구(phrase)로 나눌 수 있고, 각각의 구(phrase)에 포함된 단어들은 동일집단으로 판단하고 집단화할 수 있다. In other words, the utterance information aggregation unit 430 divides one or more words in the utterance information into a first part phrase, a main verb part phrase, and a second part phrase by using the predicate as a standard, Words included in each phrase can be judged as the same group and grouped.

다음으로, 상기 음계 결정부(440)는 상기 발화 정보 집단화부(430)로부터 집단화된 임의의 구(phrase)와 서로 이웃하는 구(phrase)의 음계를 비교한 후 구간 음계 관계를 결정하고, 상기 구간 음계 관계가 결정된 각각의 구(phrase)에 포함된 단어 간 음계를 비교한 후 단어 간 음계 관계를 결정한다.Next, the scale determining unit 440 compares the scales of the arbitrary phrases grouped by the speech information grouping unit 430 with the scales of neighboring phrases and determines the interval scale relationship, The scale relationship between words is determined after comparing the scales between words included in each phrase for which the interval scale relationship is determined.

하기 [표 2]를 이용하여 보다 상세히 설명해본다.It will be described in more detail using the following [Table 2].

집단화 종류type of grouping 2형식동사 여부2 form verbs 문미 부사/보어end adverb/bore 강세stress 레미레Remyre XX XX 타동사 강세transitive verb stress 레미레미Remy Remy XX 부사adverb 타동사 강세, 부사 강세transitive verb stress, adverb stress 레미레미Remy Remy XX 보어complement 타동사 강세, 보어 강세transitive verb stress, bore stress 미레미miremy OO XX 보어 강세bore strong 미레미미miremimi OO 부사adverb 보어 강세, 부사 강세Boer stress, adverb stress

상기 [표 2]를 보면, 상기 음계 결정부(440)는 품사 및 동사 정보가 기 저장될 수 있고, 이에 따라 상기 서술부가 2형식동사인지, 아닌지를 확인할 수 있다. 그리고 상기 음계 결정부(440)는 상기 서술부가 2형식동사라면 상기 구간 음계 관계가 ‘미레미’일 수 있고, 문장의 말단을 일컫는 문미에 부사가 포함되면 상기 구간 음계 관계가 ‘미레미미’, 포함되지 않으면 ‘미레미’로 상기 발화 정보 집단화부(430)로부터 집단화된 구(phrase) 간 높낮이를 도출할 수 있다. 이는 상기 서술부가 2형식동사일 경우에는 보어 및 부사에 강세를 주어야하기 때문이다.Referring to [Table 2], the scale determining unit 440 may pre-store part-of-speech and verb information, and accordingly, may determine whether the predicate is a two-form verb or not. In addition, the scale determining unit 440 is configured to indicate that if the predicate is a two-form verb, the interval scale relationship may be 'Miremi', and when an adverb is included in the end of the sentence, the interval scale relationship is 'Miremimi', If not included, the height between the grouped phrases may be derived from the utterance information grouping unit 430 as 'Miremi'. This is because, when the predicate is a two-form verb, stress must be given to the complement and the adverb.

반면에, 상기 서술부가 2형식동사가 아니라면 구간 음계 관계가 ‘레미레’일 수 있고, 문미에 부사/보어가 포함되면 ‘레미레미’로 상기 발화 정보 집단화부(430)로부터 집단화된 구(phrase) 간 높낮이를 도출할 수 있다. 이는 상기 서술부가 2형식동사가 아닐 경우에는 타동사, 보어, 부사에 강세를 주어야하기 때문이다. On the other hand, if the predicate is not a two-form verb, the interval scale relationship may be 'Remire', and if an adverb/bore is included at the end, the phrase grouped from the utterance information grouping unit 430 as 'Remiremi'. ) can be derived. This is because, when the above predicate is not a two-form verb, stress must be given to transitive verbs, complements, and adverbs.

또한, 상기 구(phrase)에 포함된 단어 간 음계 관계는 하기 [표 2]를 이용하여 보다 상세히 설명해본다. In addition, the scale relationship between words included in the phrase will be described in more detail using [Table 2] below.

우선, 상기 발화 정보가 ‘What happens will have an important impact.’ 이면, 상기 발화 정보 집단화부(430)는 상기 발화 정보를 (What happen)/(will have)/(an important impact.)와 같이 구(phrase) 단위로 집단화할 수 있다. First, if the utterance information is 'What happens will have an important impact.', the utterance information aggregator 430 generates the utterance information as (What happen)/(will have)/(an important impact.) (phrase) can be grouped into units.

다음에, 상기 음계 결정부(440)는 상기 서술부인 have를 기준으로 음계를 결정할 수 있다. have는 목적어를 갖는 타동사이고, 문미에 목적어 이외의 구(phrase)를 포함하지 않으므로, 상기 발화 정보인 (What happen)/(will have)/(an important impact.)는 상기 [표 2]에 따라 ‘레미레’로 구간 음계 관계를 결정할 수 있다. Next, the scale determiner 440 may determine the scale based on have, which is the predicate. have is a transitive verb having an object, and does not include a phrase other than the object at the end, so the utterance information (What happen)/(will have)/(an important impact.) is according to [Table 2] above You can determine the interval scale relationship with 'Remyre'.

또한, 상기 음계 결정부(440)는 상기 구(phrase)에 포함된 단어 간 음계 관계를 결정할 수 있다. 하기 [표 3]는 구 (phrase)에 포함된 단어 간 음계 관계를 표시한 것이다. 하기 [표 3]을 이용하여 보다 상세히 설명해본다. Also, the scale determiner 440 may determine a scale relationship between words included in the phrase. [Table 3] below shows the scale relationship between words included in a phrase. It will be described in more detail using the following [Table 3].

미레 (높음-낮음 관계)Mire (high-low relationship) 레미 (낮음-높음 관계)Remy (low-high relationship) 타동사 + 목적어transitive verb + object take + ittake + it 기능어 + 내용어function word + content word want to + say itwant to + say it 형용사 + 명사adjective + noun happy + accidenthappy + accident 동사 + 보어verb + bore look + goodlook + good 부사 + 단어adverb + word first + metfirst + met 단어 + 부사word + adverb stand + stillstand + still 부정어 + 단어negative + word can’t + docan't + do 단어 + 부정어word + negative do + notdo + not 명사 + 형용사noun + adjective person +wiseperson +wise 단어 + 동사word + verb team + handlesteam + handles 명사 + 접속사noun + conjunction person + whoperson + who 관사 + 명사article + noun an + ideaan + idea 명사 + 전치사noun + preposition person + withperson + with 소유격 + 명사possessive + noun my + hopemy + hope 명사 + 명사noun + noun person + my friendperson + my friend 조동사 + 동사auxiliary verb + verb have + beenhave + been 접속사 + 주어conjunction + subject when + Iwhen + I 명사 + 보어noun + bore things + effectivethings + effective 전치사 + 단어preposition + word on + stageon + stage Be동사 + 단어Be verb + word is + okeyis + key 의문사 + 단어interrogative word + word how + peoplehow + people 조동사 + 주어auxiliary verb + subject can + wecan + we

예컨대, 상기 발화 정보인 (What happen)/(will have)/(an important impact.)에 있어서, 상기 음계 결정부(440)는 (What happen) 구(phrase)를 전체 문장으로 보면 ‘레’로 구간 음계 관계를 결정할 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘단어+동사’에 포함하고, ‘낮음-높음’ 관계에 있다고 판단할 수 있다. 이는 ‘what’ 보다 ‘happen’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다.For example, in the speech information (What happen)/(will have)/(an important impact.), the scale determiner 440 converts the (What happen) phrase to 're' as a whole sentence. The interval scale relationship may be determined, and each word in the phrase may be included in 'word + verb' in Table 3 above, and it may be determined to have a 'low-high' relationship. This is because the accent on ‘happen’ is closer to that of a native speaker than ‘what’.

또한, 상기 음계 결정부(440)는 (will have) 구(phrase)를 전체 문장으로 보면 ‘미’로 구간 음계 관계를 결정할 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘조동사+동사’에 포함하고, ‘낮음-높음’ 관계에 있다고 판단할 수 있다. 이는 ‘will’ 보다 ‘have’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다.Also, when the (will have) phrase is viewed as a whole sentence, the scale determining unit 440 can determine the interval scale relationship as 'mi', and each word in the phrase is shown in Table 3 above. It is included in 'auxiliary verb + verb' and can be judged to have a 'low-high' relationship. This is because a stronger accent on ‘have’ than on ‘will’ is closer to a native-speaking accent.

또한, 상기 음계 결정부(440)는 (an important impact) 구(phrase)를 전체 문장으로 보면 ‘레’로 구간 음계 관계를 결정할 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘형용사+명사’에 포함하고, ‘높음-낮음’ 관계에 있다고 판단할 수 있다. 이는 ‘an’ 이나 ‘impact’ 보다 ‘important’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다.In addition, the scale determiner 440 (an important impact) can determine the interval scale relationship as 're' when looking at the phrase as a whole sentence, and each word in the phrase is shown in [Table 3] In 'adjective + noun', it can be determined that there is a 'high-low' relationship. This is because the accent on ‘important’ is closer to that of a native speaker than ‘an’ or ‘impact’.

즉, 종합해보면, 상기 음계 결정부(440)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장을 상기 억양 정보를 기반으로 상기 발화 정보가 평가된 상기 제1 평가 정보가 레(레/미)/미(레/미)/레(미/레/미)로 추출할 수 있다.That is, in summary, the scale determiner 440 converts the entire sentence, which is the utterance information (What happen)/(will have)/(an important impact.), to the first sentence in which the utterance information is evaluated based on the intonation information. 1 Evaluation information can be extracted as Re(Re/Mi)/Mi(Re/Mi)/Re(Mi/Re/Mi).

다음으로, 상기 제2 평가부(500)는 상기 제1 평가 정보로부터 상기 발화 음성의 길이를 추출하고, 상기 발화 음성의 길이를 기반으로 상기 제1 평가 정보가 평가된 제2 평가 정보를 생성한다.Next, the second evaluation unit 500 extracts the length of the spoken voice from the first evaluation information, and generates second evaluation information in which the first evaluation information is evaluated based on the length of the spoken voice. .

즉, 상기 제2 평가부(500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)를 대상으로 내부 배열이 명사, 단어순이면, 상기 명사는 0.5초의 음의 길이를 부여하고, 상기 단어는 (0.5/단어수)초의 음의 길이를 부여할 수 있다. 반대로, 상기 제2 평가부(500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)를 대상으로 내부 배열이 단어, 명사 순이면, 상기 단어는 (0.5/단어수)초의 음의 길이를 부여하고, 상기 명사는 0.5초의 음의 길이를 부여할 수 있다. 또한, 상기 제2 평가부(500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)가 동사구이면 주요 동사에 0.5초의 음의 길이를 부여할 수 있다.That is, if the internal arrangement of the arbitrary phrase included in the first evaluation information is in the order of nouns and words, the second evaluation unit 500 gives the noun a negative length of 0.5 seconds, A word can be given a note length of (0.5/word count) seconds. Conversely, if the internal arrangement of a random phrase included in the first evaluation information is in the order of words and nouns, the second evaluation unit 500 determines that the word has a negative length of (0.5/number of words) seconds. , and the noun can be given a sound length of 0.5 seconds. In addition, if any phrase included in the first evaluation information is a verb phrase, the second evaluation unit 500 may give a negative length of 0.5 seconds to the main verb.

예컨대, 상기 제2 평가부(500)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장에서 동사구는 ‘will have’ 이고, 주요 동사는 ‘have’이므로 0.5초의 음의 길이를 부여할 수 있고, 동사구의 나머지 단어는 1개이므로 (0.5초/1)하여, ‘will’에 0.5초의 음의 길이를 부여할 수 있다. 상기 ‘What happen’ 구(phrase)에서는 ‘What’은 대명사이므로 0.5초의 음의 길이를 부여할 수 있고, 해당 구(phrase)의 나머지 단어는 1개이므로 (0.5초/1)하여, ‘happen’에 0.5초의 음의 길이를 부여할 수 있다. 상기 ‘an important impact’ 구(phrase)에서는 ‘impact’는 명사이므로 0.5초의 음의 길이를 부여할 수 있고, 해당 구(phrase)의 나머지 단어는 2개이므로 (0.5초/2)하여, ‘an’과 ‘important’에 각각 0.25초의 음의 길이를 부여할 수 있다. For example, the second evaluation unit 500 is 0.5 because the verb phrase is 'will have' and the main verb is 'have' in the entire sentence of the utterance information (What happen)/(will have)/(an important impact.) The length of the note in seconds can be given, and since there is only one remaining word in the verb phrase (0.5 sec/1), a note length of 0.5 sec can be given to 'will'. In the 'What happen' phrase, 'What' is a pronoun, so a sound length of 0.5 seconds can be given, and since the remaining words of the phrase are one (0.5 seconds/1), 'happen' can be given a note length of 0.5 sec. In the phrase 'an important impact', since 'impact' is a noun, a negative length of 0.5 seconds can be given, and since the remaining words of the phrase are two (0.5 seconds/2), 'an A note length of 0.25 seconds can be given to ' and 'important', respectively.

즉, 종합해보면, 상기 제2 평가부(500)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장을 상기 발화 음성의 길이를 기반으로 상기 제1 평가 정보가 평가된 제2 평가 정보인 레(레(0.5)/미(0.5))/미(레(0.5)/미(0.5))/레(미(0.25)/레(0.25)/미(0.5))로 추출할 수 있다.That is, in summary, the second evaluation unit 500 converts the entire sentence that is the utterance information (What happen)/(will have)/(an important impact.) to the first evaluation information based on the length of the spoken voice. The second evaluation information in which is evaluated, Re(Le(0.5)/Mi(0.5))/Mi(Le(0.5)/Mi(0.5))/Re(Mi(0.25)/Re(0.25)/Mi(0.5) ) can be extracted.

다음으로, 상기 제3 평가부(600)는 상기 제2 평가 정보로부터 의미상 독립적 경계 유무를 판별하고, 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간이 추가된 제3 평가 정보를 생성한다. 하기 [표 4]를 보면, 상기 의미상 독립적인 경계는 쉼표, 마침표 후 절이나 문장이 끝나는 지점을 일컫는다. Next, the third evaluation unit 600 determines whether there is a semantically independent boundary from the second evaluation information, and third evaluation information in which one rest period per semantically independent boundary is added to the second evaluation information. to create Referring to [Table 4] below, the semantically independent boundary refers to a point where a clause or sentence ends after a comma or period.

휴지기간
(Pause)
rest period
(Pause)
판별방법Determination method 휴지기간 추가유무Whether additional rest period 위치location 의미meaning
nulnull 0초 이상
0.25초 미만
0 seconds or more
less than 0.25 seconds
XX 음소, 단어 사이phonemes, between words 경계 없음no borders
00 0.25초 이상
0.5초 미만
0.25 seconds or more
less than 0.5 seconds
XX 구(Phrase) 사이Between Phrase 의존적 경계dependent boundaries
1One 0.5초 이상0.5 seconds or more OO 쉼표, 마침표 후after comma, period 독립적 경계independent boundaries

예컨대, 상기 제3 평가부(600)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장에서 상기 의미상 독립적인 경계가 ‘an important impact.’ 뒤에 발생하나, 단일 문장만 발화된 경우에는 휴지기간(Pause)이 추가되지 않고, 반면에 추가적인 문장이 덧붙여진다면 휴지기간(Pause)을 1 추가할 수 있다. For example, the third evaluator 600 determines that the semantically independent boundary occurs after 'an important impact.' in the entire sentence of the utterance information (What happen)/(will have)/(an important impact.) , when only a single sentence is uttered, a pause period is not added. On the other hand, if an additional sentence is added, one pause period can be added.

한편, 상기 제3 평가부(600)는 문장 전체의 주파수를 평활화하기 위해서 상기 음계 결정부(440)로부터 결정된 상대적인 상기 구간 음계 관계 및 단어 간 음계 관계를 절대값으로 전환한 후 상기 제3 평가 정보를 생성할 수 있다. 하기 [표 5]는 상대적 음계관계를 음계 절대값으로 표시한 것이다.Meanwhile, the third evaluation unit 600 converts the relative interval scale relation and the inter-word scale relation determined by the scale determiner 440 to absolute values in order to smooth the frequency of the entire sentence, and then the third evaluation information can create [Table 5] below shows the relative scale relationship as an absolute scale value.

do Re mi 99 8(기준)8 (standard) 77 66 5(기준)5 (standard) 44 33 2(기준)2 (standard) 1One

상기 [표 5]를 보면, 예컨대 상기 제3 평가부(600)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장이 추출된 상기 제2 평가 정보인 레(레(0.5)/미(0.5))/미(레(0.5)/미(0.5))/레(미(0.25)/레(0.25)/미(0.5))에 있어서, ‘What’을 ‘레’에서 기준이 되는 5를 음계 절대값으로 결정할 수 있고, ‘happen’을 ‘레’에서 ‘What’보다 높은 음계 절대값인 6으로 결정할 수 있다. Referring to [Table 5], for example, the third evaluation unit 600 is the second evaluation information level from which the entire sentence of the speech information (What happen)/(will have)/(an important impact.) is extracted. In (Le(0.5)/Mi(0.5))/Mi(Le(0.5)/Mi(0.5))/Le(Mi(0.25)/Le(0.25)/Mi(0.5)), 'What' is ' In 're', the reference 5 can be determined as the absolute scale value, and 'happen' can be determined as the absolute scale value 6 higher than 'What' in 're'.

그리고 상기 제3 평가부(600)는 ‘will’을 ‘미’에서 기준이 되는 8을 음계 절대값으로 결정할 수 있고, ‘have’을 ‘미’에서 ‘will’보다 높은 음계 절대값인 9로 결정할 수 있다. In addition, the third evaluator 600 may determine 'will' as an absolute scale value of 8 in 'mi', and set 'have' to 9, a scale absolute value higher than 'will' in 'mi'. can decide

그리고 상기 제3 평가부(600)는 ‘an’을 ‘레’에서 기준이 되는 5를 음계 절대값으로 결정할 수 있고, ‘important’를 ‘레’에서 ‘an’보다 높은 음계 절대값인 6로 결정할 수 있고, ‘impact’를 ‘레’에서 ‘important’보다 낮은 음계 절대값인 5로 결정할 수 있다. In addition, the third evaluator 600 may determine 'an' as the absolute scale value of 5 in 're', and set 'important' to 6, which is a scale absolute value higher than 'an' in 're'. It can be determined, and 'impact' can be determined as 5, which is an absolute value lower than 'important' in 're'.

즉, 종합해보면, 상기 제3 평가부(600)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장을 휴지기간 및 음계 절대값이 포함된 상기 제3 평가 정보를 (5(0.5)/6(0.5))/(8(0.5)/9(0.5))/(5(0.25)/6(0.25)/5(0.5))로 추출할 수 있다.That is, in summary, the third evaluation unit 600 evaluates the entire sentence, which is the utterance information (What happen)/(will have)/(an important impact.), the third evaluation including the pause period and the absolute value of the scale. The information can be extracted as (5(0.5)/6(0.5))/(8(0.5)/9(0.5))/(5(0.25)/6(0.25)/5(0.5)).

다음으로, 상기 평가점수 제공부(700)는 상기 제3 평가 정보를 점수화하고, 피평가자에게 평가점수를 제공한다. 가장 바람직하게 상기 평가점수 제공부(700)는 통계적인 방법인 다중회귀분석(Multiple Regression)을 이용할 수 있다. 일반적으로 다중회귀분석(Multiple Regression)은 독립 변수(설명 변수)가 2개 이상인 경우를 분석 대상으로 하는 회귀 분석 방법 중 하나이다. Next, the evaluation score providing unit 700 scores the third evaluation information and provides the evaluation score to the subject. Most preferably, the evaluation score providing unit 700 may use a statistical method, multiple regression. In general, multiple regression is one of the regression analysis methods that target the case where there are two or more independent variables (explanatory variables).

다시 말하면, 상기 평가점수 제공부(700)는 하기 [수학식 1]로 상기 제3 평가 정보를 점수화할 수 있다. In other words, the evaluation score providing unit 700 may score the third evaluation information by the following [Equation 1].

Figure pat00001
Figure pat00001

여기서, x는 특징값 1 내지 특징값 5를 표시한 a, b, c, d, e일 수 있다. 상기 특징값 1은 제3 평가 정보 내 의미상 독립적인 경계를 표시하는 휴지기간(pause), 상기 특징값 2는 상기 음계 결정부(440)로부터 결정된 구(Phrase) 간 높낮이, 상기 특징값 3은 상기 음계 결정부(440)로부터 결정된 구(Phrase) 내 단어 간 높낮이, 상기 특징값 4는 상기 제2 평가부(500)로부터 결정된 음길이, 상기 특징값 5는 상기 제3 평가부(600)로부터 결정된 음계 절대값일 수 있다. 상기

Figure pat00002
는 상기 제3 평가 정보에 포함된 모든 단어 또는 휴지구간(pause) 수이고, 상기
Figure pat00003
는 상기 제3 평가 정보에 포함된 정답 수이다. 즉, 상기
Figure pat00004
는 0 내지 1의 값을 갖고, 각각의 특징값이 모두 틀리면 상기
Figure pat00005
는 0의 값을 갖고, 모두 맞으면 1의 값을 가질 수 있다.Here, x may be a, b, c, d, or e indicating the feature value 1 to the feature value 5. The feature value 1 is a pause period indicating semantically independent boundaries in the third evaluation information, the feature value 2 is the height between phrases determined by the scale determiner 440, and the feature value 3 is The pitch between words in the phrase determined by the scale determining unit 440 , the feature value 4 is the pitch length determined by the second evaluation unit 500 , and the feature value 5 is the third evaluation unit 600 . It may be the determined absolute value of the scale. remind
Figure pat00002
is the number of all words or pauses included in the third evaluation information, and
Figure pat00003
is the number of correct answers included in the third evaluation information. That is, the above
Figure pat00004
has a value of 0 to 1, and if all of the feature values are different, the
Figure pat00005
has a value of 0, and may have a value of 1 if all match.

각각의 특징값에 있어서, 상기

Figure pat00006
는 상기 제3 평가 정보에 포함된 휴지기간(pause)의 수에 대한 휴지기간(pause)의 정답 수이다. 상기
Figure pat00007
는 상기 제3 평가 정보에 포함된 상기 음계 결정부(440)로부터 결정된 구(Phrase) 간 높낮이에 대한 정답 수이다. 상기
Figure pat00008
는 상기 제3 평가 정보에 포함된 상기 음계 결정부(440)로부터 결정된 구(Phrase) 내 단어 간 높낮이에 대한 정답 수이다. 상기
Figure pat00009
는 상기 제3 평가 정보에 포함된 상기 제2 평가부(500)로부터 결정된 음길이에 대한 정답 수이다. 상기
Figure pat00010
는 상기 제3 평가 정보에 포함된 상기 제3 평가부(600)로부터 결정된 음계 절대값에 대한 정답 수이다. For each feature value, the
Figure pat00006
is the number of correct answers of the pause period with respect to the number of pause periods included in the third evaluation information. remind
Figure pat00007
is the number of correct answers for the pitch between phrases determined by the scale determiner 440 included in the third evaluation information. remind
Figure pat00008
is the number of correct answers to the pitch between words in the phrase determined by the scale determiner 440 included in the third evaluation information. remind
Figure pat00009
is the number of correct answers to the sound length determined by the second evaluation unit 500 included in the third evaluation information. remind
Figure pat00010
is the number of correct answers to the absolute value of the scale determined by the third evaluator 600 included in the third evaluation information.

가장 바람직하게, 상기 평가점수 제공부(700)는 상기 [수학식 1]로 점수화된 상기 제3 평가 정보를 하기 [수학식 2]에 대입하여 최종적으로 평가점수를 도출할 수 있다.Most preferably, the evaluation score providing unit 700 may finally derive the evaluation score by substituting the third evaluation information scored by the [Equation 1] into the following [Equation 2].

Figure pat00011
Figure pat00011

여기서, 상기

Figure pat00012
은 0 내지 25의 값을 갖고, 각각의 특징값이 모두 틀리면 상기
Figure pat00013
는 0의 값을 갖고, 모두 맞으면 25의 값을 가질 수 있다. 상기 평가점수 제공부(700)는 상기
Figure pat00014
이 0 내지 6.25이면 2를 부여하고, 상기
Figure pat00015
이 6.26 내지 12.5 이면 4를 부여하고, 상기
Figure pat00016
이 12.6 내지 18.75이면 8을 부여하고, 상기
Figure pat00017
이 18.76 내지 25이면 10을 부여할 수 있다. Here, the
Figure pat00012
has a value of 0 to 25, and if all of the feature values are different, the
Figure pat00013
has a value of 0, and may have a value of 25 if all match. The evaluation score providing unit 700 is
Figure pat00014
If it is 0 to 6.25, give 2, and
Figure pat00015
If it is 6.26 to 12.5, 4 is given, and
Figure pat00016
If it is 12.6 to 18.75, give 8, and
Figure pat00017
If it is 18.76 to 25, 10 can be given.

그리고 상기 평가점수 제공부(700)는 가장 바람직하게 상기

Figure pat00018
을 5회 간 받은 후 합한 값으로 0 내지 50의 값을 가질 수 있고, 여기서 상기
Figure pat00019
을 5회 간 받은 후 합한 값이 40점 이상이면 Excellent, 30점 이상이면 Great, 20점 이상이면 Good, 20점 미만이면 Fail이 최종적으로 부여될 수 있다. 즉, 결과적으로 상기 평가점수 제공부(700)는 반복적인 평가과정을 거쳐 보다 정확하게 상기 문제에 따른 피평가자의 발화 음성에 대한 평가점수를 제공할 수 있다.And the evaluation score providing unit 700 is most preferably the
Figure pat00018
It may have a value of 0 to 50 as a sum after receiving 5 times, where
Figure pat00019
After receiving 5 times, if the sum of the points is 40 or more, Excellent, 30 or more, Great, 20 or more, Good, and less than 20, Fail. That is, as a result, the evaluation score providing unit 700 may more accurately provide the evaluation score for the utterance voice of the subject according to the problem through an iterative evaluation process.

다음으로, 상기 인터페이스부(800)는 상기 문제 또는 평가점수 중 적어도 하나가 표시된다. 한편, 상기 인터페이스부(800)는 버튼부를 더 구비할 수 있고, 사용자의 외력에 의하여 상기 버튼부가 입력되면 피평가자에게 상기 문제를 다시 제공할 수 있다.Next, the interface unit 800 displays at least one of the problem and the evaluation score. Meanwhile, the interface unit 800 may further include a button unit, and when the button unit is input by a user's external force, the problem may be provided to the subject again.

이에 따라, 본 발명은 평가 대상자의 발화가 원어민의 발화와 유사한 정도를 판단하고 적합한 피드백을 제공할 수 있고, 사람에 의한 평가 시 빈번히 발생하는 평가자 간 점수 편차를 크게 줄여 평가시험의 신뢰성을 높이고, 평가에 소요되는 시간 및 인력부담을 경감할 수 있을 효과가 있다.Accordingly, the present invention can determine the degree to which the subject's speech is similar to that of a native speaker and provide appropriate feedback, and greatly reduce the score deviation between evaluators, which occurs frequently during evaluation by humans, to increase the reliability of the evaluation test, It has the effect of reducing the time required for evaluation and the burden of manpower.

영어 발음 자동 평가 방법How to automatically evaluate English pronunciation

이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 2는 본 발명의 영어 발음 자동 평가 방법 흐름도이다. Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings. 2 is a flowchart of an automatic evaluation method for English pronunciation of the present invention.

도 2를 보면, 본 발명의 영어 발음 자동 평가 시스템을 이용한 평가 서비스 제공 방법은 문제 전송단계(S100), 발화 음성 입력단계(S200), 발화 정보 생성단계(S300), 제1 평가단계(S400), 제2 평가단계(S500), 제3 평가단계(S600), 평가점수 제공단계(S700) 및 평가점수 표시단계(S800)를 포함한다.Referring to FIG. 2 , the method of providing an evaluation service using the automatic English pronunciation evaluation system of the present invention includes a problem transmission step (S100), a speech input step (S200), a speech information generation step (S300), and a first evaluation step (S400). , a second evaluation step (S500), a third evaluation step (S600), an evaluation score providing step (S700), and an evaluation score display step (S800).

보다 구체적으로, 문제 전송단계(S100)는 문제 제공부(100)에 의하여, 피평가자에게 문제가 표시되도록 인터페이스부(800)에 상기 문제가 전송된다. More specifically, in the problem sending step (S100), the problem is transmitted to the interface unit 800 by the problem providing unit 100 so that the problem is displayed to the examinee.

즉. 상기 문제 전송단계(S100)로부터 상기 문제가 상기 인터페이스부(800)에 전송되면, 피평가자가 시각적으로 확인할 수 있도록 상기 인터페이스부(800)의 디스플레이에 표시될 수 있다. In other words. When the problem is transmitted to the interface unit 800 from the problem transmission step ( S100 ), it may be displayed on the display of the interface unit 800 so that the examinee can visually confirm it.

다음으로, 상기 발화 음성 입력단계(S200)는 발화 음성 입력부(200)에 의하여, 상기 인터페이스부(800)에 표시된 상기 문제에 따른 피평가자의 발화 음성이 입력된다. 상기 발화 음성 입력부(200)는 가장 바람직하게 유/무선 마이크, 헤드셋 등일 수 있다. 그리고 상기 발화 음성 입력단계(S200)는 피평가자의 음성이 기계에 인식될 수 있도록 아날로그 데이터가 디지털 데이터로 변환될 수 있다.Next, in the speech speech input step ( S200 ), the speech voice input unit 200 inputs the speech voice of the subject according to the problem displayed on the interface unit 800 . The spoken voice input unit 200 may most preferably be a wired/wireless microphone, a headset, or the like. In addition, in the spoken voice input step ( S200 ), analog data may be converted into digital data so that the subject's voice can be recognized by the machine.

다음으로, 상기 발화 정보 생성단계(S300)는 발화 정보 생성부(300)에 의하여, 음성인식 기술기반으로 상기 발화 음성이 음성열로 변환된 발화 정보가 생성된다.Next, in the utterance information generation step ( S300 ), the utterance information in which the uttered voice is converted into a voice sequence is generated by the utterance information generation unit 300 based on a voice recognition technology.

일반적으로, 말하기 평가의 유형에 따라 음성을 텍스트로 전환하는 방식에는 낭독 발화 방식과 자유 발화 방식이 있다. 상기 낭독 발화 방식은 문제에 이미 텍스트가 주어지고 피평가자의 낭독 발화로부터 생성된 음성을 음성열로 변환하는 방식이므로 비교적 쉽게 전환이 이루어지는 반면, 자유 발화 방식은 정해진 텍스트 없이 피평가자의 자유로운 발화로부터 생성된 음성을 딥러닝 기술 기반의 음성열 추출 알고리즘을 이용하여 음성열로 변환하는 방식이므로 다소 복잡한 과정을 거쳐 전환이 이루어진다. 예컨대, 딥러닝 기술기반의 음향 모델링, 데이터기반 언어모델 및 비원어민 화자의 특성을 반영한 음성열 모델링 등이 포함될 수 있다. In general, a method of converting speech into text according to the type of speech evaluation includes a reading speech method and a free speech method. The read-out speech method is a method in which text is already given to the problem and the speech generated from the read speech of the subject is converted into a speech sequence, so the conversion is relatively easy, whereas the free speech method is a speech generated from the free speech of the subject without a fixed text As it is a method of converting into a voice sequence using a voice sequence extraction algorithm based on deep learning technology, the conversion takes place through a rather complicated process. For example, deep learning technology-based acoustic modeling, data-based language models, and voice heat modeling reflecting the characteristics of non-native speakers may be included.

가장 바람직하게, 본 발명은 자유 발화 방식임으로, 상기 문제 제공단계(S100)는 피평가자에게 기 저정된 텍스트를 낭독하는 문제가 제공되는 것이 아닌, 예컨대 그림이 문제로 제공될 수 있다. 상기 발화 음성 입력단계(S200)는 정해진 시간 동안 상기 그림을 묘사하는 피평가자의 발화 음성이 입력될 수 있다. 그리고 상기 발화 정보 생성단계(S300)는 음성열 추출 알고리즘이 이용되어 상기 발화 음성이 음성열로 변환된 발화 정보가 생성될 수 있다. 상기 음성열은 주파수 데이터와 텍스트 데이터가 모두 포함될 수 있다. Most preferably, since the present invention is a free speech method, in the problem providing step (S100), the problem of reading a preset text to the subject is not provided, for example, a picture may be provided as a problem. In the speech speech input step S200, the speech speech of the person to be evaluated describing the picture may be input for a predetermined time. In the speech information generating step ( S300 ), a speech sequence extraction algorithm may be used to generate speech information in which the speech speech is converted into a speech sequence. The voice sequence may include both frequency data and text data.

다음으로, 상기 제1 평가단계(S400)는 제1 평가부(400)에 의하여, 상기 발화 정보로부터 상기 발화 음성의 높낮이가 표시된 억양 정보가 추출되고, 상기 억양 정보가 기반이 되어 상기 발화 정보가 평가된 제1 평가 정보가 생성된다.Next, in the first evaluation step (S400), intonation information indicating the height of the spoken voice is extracted from the utterance information by the first evaluation unit 400, and the utterance information is based on the intonation information The evaluated first evaluation information is generated.

상기 제1 평가단계(S400)는 상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하기 위하여 단어 추출단계(S410), 단어간격 판별단계(S420), 발화 정보 집단화단계(S430) 및 음계 결정단계(S440)가 포함될 수 있다.The first evaluation step (S400) is a word extraction step (S410), a word interval determination step (S420), a speech information aggregation step (S430) and A scale determination step (S440) may be included.

상기 단어 추출단계(S410)는 상기 단어 추출부(410)에 의하여, 상기 발화 정보로부터 하나 이상의 단어가 추출될 수 있다. 상기 발화 정보는 하나 이상의 구, 절 또는 문장일 수 있고, 상기 하나 이상의 구, 절 또는 문장에는 하나 이상의 단어가 포함될 수 있다. 따라서 상기 하나 이상의 구, 절, 또는 문장에 포함된 하나 이상의 단어가 추출될 수 있다.In the word extraction step ( S410 ), one or more words may be extracted from the utterance information by the word extraction unit 410 . The utterance information may be one or more phrases, clauses or sentences, and the one or more phrases, clauses or sentences may include one or more words. Accordingly, one or more words included in the one or more phrases, clauses, or sentences may be extracted.

다음으로, 상기 단어간격 판별단계(S420)는 상기 단어간격 판별부(420)에 의하여, 상기 하나 이상의 단어 간 간격인 단어간격이 판별될 수 있다. 상기 [표 1]을 보면, 상기 단어간격 판별단계(S420)는 상기 단어 추출단계(S410)로부터 추출된 하나 이상의 단어 중에서 임의의 단어가 기준이 되어 단어 간 간격이 0초 이상 ~ 0.25초 미만인 경우 음소 및 단어 사이인 것으로 판단되고, 단어 간 간격이 0.25초 이상 ~ 0.5초 미만인 경우 구(phrase) 사이인 것으로 판단되고, 단어 간 간격이 0.5초 이상인 경우 쉼표 및 마침표가 있는 문장 사이인 것으로 판단될 수 있다. Next, in the step of determining the word spacing ( S420 ), the word spacing that is the spacing between the one or more words may be determined by the word spacing determining unit 420 . Referring to [Table 1], in the word interval determination step S420, a random word among the one or more words extracted from the word extraction step S410 is the standard, and when the interval between words is 0 seconds or more and less than 0.25 seconds It is judged to be between phonemes and words, and when the interval between words is 0.25 seconds or more and less than 0.5 seconds, it is judged to be between phrases, and when the interval between words is 0.5 seconds or more, it is judged to be between sentences with commas and periods. can

다음으로, 상기 발화 정보 집단화단계(S430)는 상기 발화 정보 집단화부(430)에 의하여, 상기 단어 추출단계(S410)로부터 추출된 하나 이상의 단어 중 서술부가 추출될 수 있다. 그리고 상기 서술부가 기준이 되어 상기 단어 추출단계(S410)로부터 추출된 상기 하나 이상의 단어가 구(phrase) 단위로 집단화될 수 있다. Next, in the utterance information aggregation step S430 , a predicate may be extracted from the one or more words extracted from the word extraction step S410 by the utterance information aggregation unit 430 . In addition, the one or more words extracted from the word extraction step ( S410 ) may be grouped in a phrase unit as the predicate serves as a reference.

다시 말하면, 상기 발화 정보 집단화단계(S430)는 상기 서술부가 기준이 되어 상기 발화 정보 내 하나 이상의 단어들이 전반부 구(phrase), 주요동사부 구(phrase), 후반부 구(phrase)로 나눠질 수 있고, 각각의 구(phrase)에 포함된 단어들은 동일집단으로 판단되어 집단화될 수 있다. In other words, in the utterance information aggregation step (S430), the predicate is the standard, and one or more words in the utterance information can be divided into a first part phrase, a main verb phrase, and a second part phrase. , words included in each phrase may be grouped by being determined to be the same group.

다음으로, 상기 음계 결정단계(S440)는 상기 음계 결정부(440)에 의하여, 상기 발화 정보 집단화부(430)로부터 집단화된 임의의 구(phrase)와 서로 이웃하는 구(phrase)의 음계가 비교된 후 구간 음계 관계가 결정되고, 상기 구간 음계 관계가 결정된 각각의 구(phrase)에 포함된 단어 간 음계가 비교된 후 단어 간 음계 관계가 결정될 수 있다.Next, in the scale determining step (S440), the scale determining unit 440 compares the scale of an arbitrary phrase grouped from the utterance information grouping unit 430 with the neighboring phrases. After the interval scale relationship is determined, the scale relationship between words may be determined after the scale between words included in each of the phrases for which the interval scale relationship is determined is compared.

상기 [표 2]를 보면, 상기 음계 결정단계(S440)는 상기 음계 결정부(440)에 기 저장된 품사 및 동사 정보가 바탕이 되어, 상기 서술부가 2형식동사인지, 아닌지가 확인될 수 있다. 그리고 상기 음계 결정단계(S440)는 상기 서술부가 2형식동사라면 상기 구간 음계 관계가 ‘미레미’일 수 있고, 문장의 말단을 일컫는 문미에 부사가 포함되면 상기 구간 음계 관계가 ‘미레미미’, 포함되지 않으면 ‘미레미’로 상기 발화 정보 집단화단계(S430)로부터 집단화된 구(phrase) 간 높낮이가 도출될 수 있다. 이는 상기 서술부가 2형식동사일 경우에는 보어 및 부사에 강세를 주어야하기 때문이다.Referring to [Table 2], the scale determining step (S440) is based on the part-of-speech and verb information previously stored in the scale determining unit 440, so that it can be checked whether the predicate is a two-form verb or not. And, in the scale determining step (S440), if the predicate is a two-form verb, the interval scale relationship may be 'Miremi', and when an adverb is included in the end of the sentence, the scale relationship is 'Miremimi', If not included, the height between the grouped phrases may be derived from the utterance information aggregation step S430 as 'Miremi'. This is because, when the predicate is a two-form verb, stress must be given to the complement and the adverb.

반면에, 상기 서술부가 2형식동사가 아니라면 구간 음계 관계가 ‘레미레’일 수 있고, 문미에 부사/보어가 포함되면 ‘레미레미’로 상기 발화 정보 집단화단계(S430)로부터 집단화된 구(phrase) 간 높낮이가 도출될 수 있다. 이는 상기 서술부가 2형식동사가 아닐 경우에는 타동사, 보어, 부사에 강세를 주어야하기 때문이다. On the other hand, if the predicate is not a two-form verb, the interval scale relationship may be 'remire', and if an adverb/bore is included in the end, the phrase grouped from the utterance information aggregation step (S430) into 'remiremi'. ) can be derived. This is because, when the above predicate is not a two-form verb, stress must be given to transitive verbs, complements, and adverbs.

또한, 상기 음계 결정단계(S440)는 상기 발화 정보 집단화단계(S430)로부터 집단화된 각각의 구(phrase)에 포함된 단어 간 음계가 결정될 수 있다. 상기 구(phrase)에 포함된 단어 간 음계 관계는 상기 [표 2]를 이용하여 보다 상세히 설명해본다. In addition, in the step of determining the scale ( S440 ), the scale between words included in each grouped phrase from the step of grouping the utterance information ( S430 ) may be determined. The scale relationship between words included in the phrase will be described in more detail using [Table 2].

우선, 상기 발화 정보가 ‘What happens will have an important impact.’ 이면, 상기 발화 정보 집단화단계(S430)는 상기 발화 정보가 (What happen)/(will have)/(an important impact.)와 같이 구(phrase) 단위로 집단화될 수 있다. First, if the utterance information is 'What happens will have an important impact.' (phrase) can be grouped into units.

다음에, 상기 음계 결정단계(S440)는 상기 서술부인 have가 기준이 되어 음계가 결정될 수 있다. have는 목적어를 갖는 타동사이고, 문미에 목적어 이외의 구(phrase)를 포함하지 않으므로, 상기 발화 정보인 (What happen)/(will have)/(an important impact.)는 상기 [표 2]에 따라 ‘레미레’로 구(phrase) 간 음계가 결정될 수 있다. Next, in the scale determining step (S440), the scale may be determined based on have, which is the predicate, as a reference. have is a transitive verb having an object, and does not include a phrase other than the object at the end, so the utterance information (What happen)/(will have)/(an important impact.) is according to [Table 2] above The scale between phrases can be determined with 'remire'.

또한, 상기 음계 결정단계(S440)는 상기 구(phrase)에 포함된 단어 간 음계 관계가 결정될 수 있다. 상기 [표 3]를 이용하여 보다 상세히 설명해본다. In addition, in the scale determining step ( S440 ), a scale relationship between words included in the phrase may be determined. It will be described in more detail using the above [Table 3].

예컨대, 상기 발화 정보인 (What happen)/(will have)/(an important impact.)에 있어서, 상기 음계 결정단계(S440)는 (What happen) 구(phrase)를 전체 문장으로 보면 ‘레’로 구간 음계 관계가 결정될 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘단어+동사’에 포함되고, ‘낮음-높음’ 관계에 있다고 판단될 수 있다. 이는 ‘what’ 보다 ‘happen’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다.For example, in the utterance information (What happen)/(will have)/(an important impact.), the scale determining step (S440) is a (What happen) phrase when viewed as a whole sentence as 're' An interval scale relationship may be determined, and each word in a phrase may be included in 'word + verb' in Table 3 above, and may be determined to have a 'low-high' relationship. This is because the accent on ‘happen’ is closer to that of a native speaker than ‘what’.

또한, 상기 음계 결정단계(S440)는 (will have) 구(phrase)를 전체 문장으로 보면 ‘미’로 음계가 결정될 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘조동사+동사’에 포함되고, ‘낮음-높음’ 관계에 있다고 판단될 수 있다. 이는 ‘will’ 보다 ‘have’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다. In addition, in the scale determining step (S440), when the (will have) phrase is viewed as a whole sentence, the scale can be determined as 'mi', and each word in the phrase is an 'auxiliary verb' in [Table 3]. It is included in '+verb' and can be judged to have a 'low-high' relationship. This is because a stronger accent on ‘have’ than on ‘will’ is closer to a native-speaking accent.

또한, 상기 음계 결정단계(S440)는 (an important impact) 구(phrase)를 전체 문장으로 보면 ‘레’로 구간 음계 관계가 결정될 수 있고, 구(phrase) 내 각각의 단어는 상기 [표 3]에서 ‘형용사+명사’에 포함되고, ‘높음-낮음’ 관계에 있다고 판단될 수 있다. 이는 ‘an’ 이나 ‘impact’ 보다 ‘important’ 에 악센트가 세게 들어가는 것이 원어민 억양에 더 가깝기 때문이다.In addition, in the scale determining step (S440), (an important impact) when the phrase is viewed as a whole sentence, the interval scale relationship can be determined as 're', and each word in the phrase is shown in [Table 3] It is included in 'adjective + noun' and can be judged to have a 'high-low' relationship. This is because the accent on ‘important’ is closer to that of a native speaker than ‘an’ or ‘impact’.

즉, 종합해보면, 상기 음계 결정단계(S440)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장을 상기 억양 정보가 기반이 되어 상기 발화 정보가 평가된 상기 제1 평가 정보가 레(레/미)/미(레/미)/레(미/레/미)로 추출될 수 있다.That is, in summary, the scale determining step (S440) is the entire sentence of the utterance information (What happen)/(will have)/(an important impact.), the intonation information is the basis, and the utterance information is evaluated. The first evaluation information may be extracted as re(re/mi)/mi(re/mi)/re(mi/re/mi).

다음으로, 상기 제2 평가단계(S500)는 상기 제2 평가부(500)에 의하여, 상기 제1 평가 정보로부터 상기 발화 음성의 길이가 추출되고, 상기 발화 음성의 길이가 기반이 되어 상기 제1 평가 정보가 평가된 제2 평가 정보가 생성된다.Next, in the second evaluation step (S500), the length of the spoken voice is extracted from the first evaluation information by the second evaluation unit 500, and the length of the spoken voice is the basis for the first evaluation. The second evaluation information in which the evaluation information is evaluated is generated.

즉, 상기 제2 평가단계(S500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)를 대상으로 내부 배열이 명사, 단어순이면, 상기 명사는 0.5초의 음의 길이가 부여되고, 상기 단어는 (0.5/단어수)초의 음의 길이가 부여될 수 있다. 반대로, 상기 제2 평가부(500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)를 대상으로 내부 배열이 단어, 명사 순이면, 상기 단어는 (0.5/단어수)초의 음의 길이가 부여되고, 상기 명사는 0.5초의 음의 길이가 부여될 수 있다. 또한, 상기 제2 평가부(500)는 상기 제1 평가 정보에 포함된 임의의 구(phrase)가 동사구이면 주요 동사에 0.5초의 음의 길이가 부여될 수 있다.That is, in the second evaluation step (S500), if the internal arrangement of an arbitrary phrase included in the first evaluation information is in the order of nouns and words, the noun is given a negative length of 0.5 seconds, and the Words can be given a note length of (0.5/word count) seconds. Conversely, if the internal arrangement of the arbitrary phrases included in the first evaluation information is in the order of words and nouns, the second evaluation unit 500 determines that the word has a negative length of (0.5/number of words) seconds. is given, and the noun may be given a negative length of 0.5 seconds. In addition, if any phrase included in the first evaluation information is a verb phrase, the second evaluation unit 500 may assign a negative length of 0.5 seconds to the main verb.

예컨대, 상기 제2 평가단계(S500)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장에서 동사구는 ‘will have’ 이고, 주요 동사는 ‘have’이므로 0.5초의 음의 길이가 부여될 수 있고, 동사구의 나머지 단어는 1개이므로 (0.5초/1)하여, ‘will’에 0.5초의 음의 길이가 부여될 수 있다. 상기 ‘What happen’ 구(phrase)에서는 ‘What’은 대명사이므로 0.5초의 음의 길이가 부여될 수 있고, 해당 구(phrase)의 나머지 단어는 1개이므로 (0.5초/1)하여, ‘happen’에 0.5초의 음의 길이가 부여될 수 있다. 상기 ‘an important impact’ 구(phrase)에서는 ‘impact’는 명사이므로 0.5초의 음의 길이가 부여될 수 있고, 해당 구(phrase)의 나머지 단어는 2개이므로 (0.5초/2)하여, ‘an’과 ‘important’에 각각 0.25초의 음의 길이가 부여될 수 있다. For example, in the second evaluation step S500, the verb phrase is 'will have' and the main verb is 'have' in the entire sentence of the utterance information (What happen)/(will have)/(an important impact.) A note length of seconds can be given, and since there is one remaining word in the verb phrase (0.5 seconds/1), a note length of 0.5 seconds can be given to 'will'. In the 'What happen' phrase, 'What' is a pronoun, so a negative length of 0.5 seconds can be given, and since the remaining words of the phrase are one (0.5 seconds/1), 'happen' can be given a note length of 0.5 seconds. In the phrase 'an important impact', since 'impact' is a noun, a negative length of 0.5 seconds can be given, and since the remaining words of the phrase are two (0.5 seconds/2), 'an A note length of 0.25 seconds can be given to ' and 'important', respectively.

즉, 종합해보면, 상기 제2 평가단계(S500)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장이 상기 발화 음성의 길이가 기반이 되어 상기 제1 평가 정보가 평가된 제2 평가 정보인 레(레(0.5)/미(0.5))/미(레(0.5)/미(0.5))/레(미(0.25)/레(0.25)/미(0.5))로 추출될 수 있다.That is, in summary, in the second evaluation step S500, the entire sentence, which is the utterance information (What happen)/(will have)/(an important impact.), is based on the length of the uttered voice, so that the first evaluation The second evaluation information for which the information was evaluated, Re(Le(0.5)/Mi(0.5))/Mi(Le(0.5)/Mi(0.5))/Re(Mi(0.25)/Re(0.25)/Mi(0.5) )) can be extracted.

다음으로, 상기 제3 평가단계(S600)는 상기 제3 평가부(600)에 의하여, 상기 제2 평가 정보로부터 의미상 독립적 경계 유무가 판별되고, 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간이 추가된 제3 평가 정보가 생성된다. 상기 [표 4]를 보면, 상기 의미상 독립적인 경계는 쉼표, 마침표 후 절이나 문장이 끝나는 지점을 일컫는다. Next, in the third evaluation step (S600), the presence or absence of a semantically independent boundary is determined from the second evaluation information by the third evaluation unit 600, and the semantically independent boundary is determined in the second evaluation information. Third evaluation information to which one rest period is added is generated. Referring to [Table 4], the semantically independent boundary refers to a point where a clause or sentence ends after a comma or period.

예컨대, 상기 제3 평가단계(S600)는 상기 제3 평가부(600)에 의하여, 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장에서 상기 의미상 독립적인 경계가 ‘an important impact.’ 뒤에 발생되나, 단일 문장만 발화된 경우에는 휴지기간(Pause)이 추가되지 않고, 반면에 추가적인 문장이 덧붙여진다면 휴지기간(Pause)이 1 추가될 수 있다. For example, the third evaluation step (S600) is, by the third evaluation unit 600, semantically independent in the entire sentence of the utterance information (What happen)/(will have)/(an important impact.) Although a boundary occurs after 'an important impact.', if only a single sentence is uttered, a pause period is not added. On the other hand, if an additional sentence is added, a pause period may be added.

한편, 상기 제3 평가단계(S600)는 상기 제3 평가부(600)에 의하여, 문장 전체의 주파수가 평활화되기 위해서 상기 음계 결정부(440)로부터 결정된 상대적인 상기 구간 음계 관계 및 단어 간 음계 관계가 절대값으로 전환된 후 상기 제3 평가 정보가 생성될 수 있다. Meanwhile, in the third evaluation step (S600), the relative interval scale relation and the inter-word scale relation determined by the scale determining unit 440 in order to smooth the frequency of the entire sentence by the third evaluation unit 600 are After being converted to an absolute value, the third evaluation information may be generated.

상기 [표 5]를 보면, 예컨대, 상기 제3 평가단계(S600)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장이 추출된 상기 제2 평가 정보인 레(레(0.5)/미(0.5))/미(레(0.5)/미(0.5))/레(미(0.25)/레(0.25)/미(0.5))에 있어서, ‘What’을 ‘레’에서 기준이 되는 5가 음계 절대값으로 결정될 수 있고, ‘happen’이 ‘레’에서 ‘What’보다 높은 음계 절대값인 6으로 결정될 수 있다. Referring to Table 5, for example, the third evaluation step (S600) is the second evaluation information from which the entire sentence of the utterance information (What happen)/(will have)/(an important impact.) is extracted. In Re(Le(0.5)/Mi(0.5))/Mi(Le(0.5)/Mi(0.5))/Re(Mi(0.25)/Le(0.25)/Mi(0.5)), ‘What’ is In 'Re', 5 may be determined as an absolute scale value, and 'happen' may be determined as a scale absolute value 6, which is higher than 'What' in 'Re'.

그리고 상기 제3 평가단계(S600)는 ‘will’이 ‘미’에서 기준이 되는 8이 음계 절대값으로 결정될 수 있고, ‘have’가 ‘미’에서 ‘will’보다 높은 음계 절대값인 9로 결정될 수 있다. And, in the third evaluation step (S600), 'will' may be determined as the absolute scale value of 8 in 'mi', and 'have' is set to 9, which is a scale absolute value higher than 'will' in 'mi'. can be decided.

그리고 상기 제3 평가단계(S600)는 ‘an’이 ‘레’에서 기준이 되는 5가 음계 절대값으로 결정될 수 있고, ‘important’가 ‘레’에서 ‘an’보다 높은 음계 절대값인 6으로 결정될 수 있고, ‘impact’가 ‘레’에서 ‘important’보다 낮은 음계 절대값인 5로 결정될 수 있다. And in the third evaluation step (S600), 'an' may be determined as an absolute value of a 5-scale scale that is a reference in 'Le', and 'important' is set to 6, which is an absolute value of a scale higher than that of 'an' in 'Re'. may be determined, and 'impact' may be determined to be 5, which is an absolute value lower than 'important' in 're'.

즉, 종합해보면, 상기 제3 평가단계(S600)는 상기 발화 정보인 (What happen)/(will have)/(an important impact.) 전체 문장이 휴지기간 및 음계 절대값이 포함된 상기 제3 평가 정보가 (5(0.5)/6(0.5))/(8(0.5)/9(0.5))/(5(0.25)/6(0.25)/5(0.5))로 추출될 수 있다.That is, in summary, in the third evaluation step S600, the entire sentence, which is the utterance information (What happen)/(will have)/(an important impact.), includes a pause period and an absolute value of the scale. The information can be extracted as (5(0.5)/6(0.5))/(8(0.5)/9(0.5))/(5(0.25)/6(0.25)/5(0.5)).

다음으로, 상기 평가점수 제공단계(S700)는 상기 평가점수 제공부(700)에 의하여, 상기 제3 평가 정보가 점수화되고, 피평가자에게 평가점수가 제공된다. 상기 평가점수 제공단계(S700)는 통계적인 방법인 다중회귀분석(Multiple Regression)이 이용될 수 있다. 일반적으로 다중회귀분석(Multiple Regression)은 독립 변수(설명 변수)가 2개 이상인 경우를 분석 대상으로 하는 회귀 분석 방법 중 하나이다. Next, in the step of providing the evaluation score ( S700 ), the third evaluation information is scored by the evaluation score providing unit 700 , and the evaluation score is provided to the person to be evaluated. In the step of providing the evaluation score ( S700 ), multiple regression, which is a statistical method, may be used. In general, multiple regression is one of the regression analysis methods that target the case where there are two or more independent variables (explanatory variables).

다시 말하면, 상기 평가점수 제공단계(S700)는 상기 [수학식 1]로 상기 제3 평가 정보가 점수화될 수 있다. In other words, in the step of providing the evaluation score ( S700 ), the third evaluation information may be scored by Equation 1 above.

여기서, x는 특징값 1 내지 특징값 5를 표시한 a, b, c, d, e일 수 있다. 상기 특징값 1은 제3 평가 정보 내 의미상 독립적인 경계를 표시하는 휴지기간(pause), 상기 특징값 2는 상기 음계 결정단계(S440)로부터 결정된 구(Phrase) 간 높낮이, 상기 특징값 3은 상기 음계 결정단계(S440)로부터 결정된 구(Phrase) 내 단어 간 높낮이, 상기 특징값 4는 상기 제2 평가단계(S500)로부터 결정된 음길이, 상기 특징값 5는 상기 제3 평가단계(S600)로부터 결정된 음계 절대값일 수 있다. 상기

Figure pat00020
는 상기 제3 평가 정보에 포함된 단어 또는 휴지구간(pause) 수이고, 상기
Figure pat00021
는 상기 제3 평가 정보에 포함된 정답 수이다. 즉, 상기
Figure pat00022
는 0 내지 1의 값을 갖고, 각각의 특징값이 모두 틀리면 상기
Figure pat00023
는 0의 값을 갖고, 모두 맞으면 1의 값을 가질 수 있다.Here, x may be a, b, c, d, or e indicating the feature value 1 to the feature value 5. The feature value 1 is a pause period indicating semantically independent boundaries in the third evaluation information, the feature value 2 is the pitch between phrases determined in the scale determination step (S440), and the feature value 3 is The pitch between words in the phrase determined in the scale determination step S440, the feature value 4 is the pitch length determined in the second evaluation step S500, and the feature value 5 is the third evaluation step S600. It may be the determined absolute value of the scale. remind
Figure pat00020
is the number of words or pauses included in the third evaluation information, and
Figure pat00021
is the number of correct answers included in the third evaluation information. That is, the above
Figure pat00022
has a value of 0 to 1, and if all of the feature values are different, the
Figure pat00023
has a value of 0, and may have a value of 1 if all match.

각각의 특징값에 있어서, 상기

Figure pat00024
는 상기 제3 평가 정보에 포함된 휴지기간(pause)의 수에 대한 전체 문장에서 휴지기간(pause)의 정답 수이다. 상기
Figure pat00025
는 상기 제3 평가 정보에 포함된 상기 음계 결정단계(S440)로부터 결정된 구(Phrase) 간 높낮이에 대한 정답 수이다. 상기
Figure pat00026
는 상기 제3 평가 정보에 포함된 상기 음계 결정단계(S440)로부터 결정된 구(Phrase) 내 단어 간 높낮이에 대한 정답 수이다. 상기
Figure pat00027
는 상기 제3 평가 정보에 포함된 상기 제2 평가단계(S500)로부터 결정된 음길이에 대한 정답 수이다. 상기
Figure pat00028
는 상기 제3 평가 정보에 포함된 상기 제3 평가단계(S600)로부터 결정된 음계 절대값에 대한 정답 수이다. For each feature value, the
Figure pat00024
is the number of correct answers in the pause period in the entire sentence for the number of pauses included in the third evaluation information. remind
Figure pat00025
is the number of correct answers for the pitch between the phrases determined in the scale determining step (S440) included in the third evaluation information. remind
Figure pat00026
is the number of correct answers to the pitch between words in the phrase determined from the scale determination step ( S440 ) included in the third evaluation information. remind
Figure pat00027
is the number of correct answers for the sound length determined in the second evaluation step (S500) included in the third evaluation information. remind
Figure pat00028
is the number of correct answers to the absolute value of the scale determined in the third evaluation step (S600) included in the third evaluation information.

가장 바람직하게, 상기 평가점수 제공단계(S700)는 상기 [수학식 1]로 점수화된 상기 제3 평가 정보가 상기 [수학식 2]에 대입되어 최종적으로 평가점수가 도출될 수 있다. Most preferably, in the step of providing the evaluation score ( S700 ), the third evaluation information scored by the [Equation 1] may be substituted into the [Equation 2] to finally derive the evaluation score.

여기서, 상기

Figure pat00029
은 0 내지 25의 값을 갖고, 각각의 특징값이 모두 틀리면 상기
Figure pat00030
는 0의 값을 갖고, 모두 맞으면 25의 값을 가질 수 있다. 또한, 상기 평가점수 제공단계(S700)는 상기
Figure pat00031
이 0 내지 6.25이면 2가 부여되고, 상기
Figure pat00032
이 6.26 내지 12.5 이면 4가 부여되고, 상기
Figure pat00033
이 12.6 내지 18.75이면 8이 부여되고, 상기
Figure pat00034
이 18.76 내지 25이면 10이 부여될 수 있다. Here, the
Figure pat00029
has a value of 0 to 25, and if all of the feature values are different, the
Figure pat00030
has a value of 0, and may have a value of 25 if all match. In addition, the evaluation score providing step (S700) is
Figure pat00031
If this is 0 to 6.25, 2 is given, and
Figure pat00032
If it is 6.26 to 12.5, 4 is given, and
Figure pat00033
If this is 12.6 to 18.75, 8 is given, and
Figure pat00034
If it is 18.76 to 25, 10 can be given.

그리고 상기 평가점수 제공단계(S700)는 가장 바람직하게 상기

Figure pat00035
을 5회 간 받은 후 합한 값으로 0 내지 50의 값을 가질 수 있고, 여기서 상기
Figure pat00036
을 5회 간 받은 후 합한 값이 40점 이상이면 Excellent, 30점 이상이면 Great, 20점 이상이면 Good, 20점 미만이면 Fail이 최종적으로 부여될 수 있다. 즉, 결과적으로 상기 평가점수 제공단계(S700)는 반복적인 평가과정을 거쳐 보다 정확하게 상기 문제에 따른 피평가자의 발화 음성에 대한 평가점수가 제공될 수 있다.And the evaluation score providing step (S700) is most preferably the
Figure pat00035
It may have a value of 0 to 50 as a sum after receiving 5 times, where
Figure pat00036
After receiving 5 times, if the sum of the points is 40 or more, Excellent, 30 or more, Great, 20 or more, Good, and less than 20, Fail. That is, as a result, in the step of providing the evaluation score ( S700 ), the evaluation score for the speech voice of the subject according to the problem can be more accurately provided through an iterative evaluation process.

다음으로, 상기 평가점수 표시단계(S800)는 상기 인터페이스부(800)에 의하여, 상기 평가점수 도출부(700)로부터 전송받은 상기 평가점수가 표시된다. 즉, 상기 평가점수 표시단계(S800)는 피평가자에게 상기 평가점수 제공단계(S700)로부터 부여된 상기

Figure pat00037
을 5회 간 받은 후 합한 값과 Excellent, Great, Good, Fail 중 적어도 하나가 표시되도록 할 수 있다.Next, in the step of displaying the evaluation score ( S800 ), the evaluation score transmitted from the evaluation score deriving unit 700 is displayed by the interface unit 800 . That is, the step of displaying the evaluation score ( S800 ) is the step of providing the evaluation score to the person to be evaluated ( S700 ).
Figure pat00037
After receiving 5 times, the combined value and at least one of Excellent, Great, Good, and Fail can be displayed.

이에 따라, 본 발명은 평가 대상자의 발화가 원어민의 발화와 유사한 정도가 판단된 후 적합한 피드백이 제공될 수 있고, 사람에 의한 평가 시 빈번히 발생하는 평가자 간 점수 편차가 크게 줄어 평가시험의 신뢰성이 높아지고, 평가에 소요되는 시간 및 인력부담이 경감되는 효과가 있다.Accordingly, according to the present invention, appropriate feedback can be provided after determining that the subject's speech is similar to that of a native speaker, and the score deviation between evaluators that occurs frequently during evaluation by humans is greatly reduced, thereby increasing the reliability of the evaluation test. However, it has the effect of reducing the time required for evaluation and the burden of manpower.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the following claims.

100.. 문제 제공부
200.. 발화 음성 입력부
300.. 발화 정보 생성부
400.. 제1 평가부
410.. 단어 추출부
420.. 단어간격 판별부
430.. 발화 정보 집단화부
440.. 음계 결정부
500.. 제2 평가부
600.. 제3 평가부
700.. 평가점수 제공부
800.. 인터페이스부
100.. Problem Provision Department
200. Speech voice input
300.. Speech information generation unit
400.. First Evaluation Division
410. Word Extraction Unit
420. Word Spacing Determination Unit
430. Speech information aggregation unit
440.. Scale Determination Section
500.. 2nd Evaluation Division
600.. 3rd Evaluation Division
700.. Evaluation point provider
800.. Interface

Claims (5)

피평가자에게 문제를 제공하는 문제 제공부;
상기 문제에 따른 피평가자의 발화 음성을 입력받는 발화 음성 입력부;
음성인식 기술기반으로 상기 발화 음성을 음성열로 변환한 발화 정보를 생성하는 발화 정보 생성부;
상기 발화 정보로부터 상기 발화 음성의 높낮이를 표시한 억양 정보를 추출하고, 상기 억양 정보를 기반으로 상기 발화 정보가 평가된 제1 평가 정보를 생성하는 제1 평가부;
상기 제1 평가 정보로부터 상기 발화 음성의 길이를 추출하고, 상기 발화 음성의 길이를 기반으로 상기 제1 평가 정보가 평가된 제2 평가 정보를 생성하는 제2 평가부;
상기 제2 평가 정보로부터 의미상 독립적 경계 유무를 판별하고 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간(pause)이 추가된 제3 평가 정보를 생성하는 제3 평가부;
상기 제3 평가 정보를 점수화하고, 피평가자에게 평가점수를 제공하는 평가점수 제공부; 및
상기 문제 또는 평가점수 중 적어도 하나가 표시되는 인터페이스부;를 포함하는 영어 발음 자동 평가 시스템.
a problem providing unit that provides problems to the evaluated;
an uttered voice input unit for receiving the uttered voice of the person to be evaluated according to the above problem;
a speech information generation unit for generating speech information obtained by converting the speech speech into speech heat based on speech recognition technology;
a first evaluation unit extracting intonation information indicating the height of the spoken voice from the utterance information and generating first evaluation information in which the utterance information is evaluated based on the intonation information;
a second evaluation unit extracting a length of the spoken voice from the first evaluation information and generating second evaluation information in which the first evaluation information is evaluated based on the length of the spoken voice;
a third evaluation unit that determines whether there is a semantically independent boundary from the second evaluation information and generates third evaluation information in which one pause per semantically independent boundary is added to the second evaluation information;
an evaluation score providing unit for scoring the third evaluation information and providing an evaluation score to the evaluated; and
An automatic English pronunciation evaluation system comprising a; an interface unit for displaying at least one of the problem or the evaluation score.
제 1항에 있어서,
상기 제1 평가부는,
상기 발화 정보로부터 하나 이상의 단어를 추출하는 단어 추출부;
상기 하나 이상의 단어 간 간격인 단어간격을 판별하는 단어간격 판별부;
상기 단어 추출부로부터 추출된 하나 이상의 단어 중에서 서술부를 기준으로 상기 하나 이상의 단어를 구(phrase) 단위로 집단화하는 발화 정보 집단화부; 및
상기 발화 정보 집단화부로부터 집단화된 임의의 구(phrase)와 서로 이웃하는 구(phrase)의 음계를 비교한 후 구간 음계 관계를 결정하고, 상기 구간 음계 관계가 결정된 각각의 구(phrase)에 포함된 단어 간 음계를 비교한 후 단어 간 음계 관계를 결정하는 음계 결정부;를 포함하는 영어 발음 자동 평가 시스템.
The method of claim 1,
The first evaluation unit,
a word extraction unit for extracting one or more words from the utterance information;
a word spacing determining unit that determines a word spacing that is an interval between the one or more words;
an utterance information grouping unit for grouping the one or more words in a phrase unit based on the predicate among the one or more words extracted from the word extracting unit; and
After comparing the scales of an arbitrary phrase grouped by the utterance information aggregation unit with the neighboring phrases, the interval scale relationship is determined, and the interval scale relationship is included in each of the determined phrases. English pronunciation automatic evaluation system comprising; a scale determining unit that compares the scales between words and determines the scale relationship between words.
제 2항에 있어서,
상기 제3 평가부는,
상기 음계 결정부로부터 결정된 상기 구간 음계 관계 및 단어 간 음계 관계를 절대값으로 전환한 후 상기 제3 평가 정보를 생성하는 것을 특징으로 하는 것을 특징으로 하는 영어 발음 자동 평가 시스템.
3. The method of claim 2,
The third evaluation unit,
and generating the third evaluation information after converting the interval scale relationship and the scale relationship between words determined by the scale determining unit into absolute values.
제 1항에 있어서,
상기 평가점수 제공부는,
하기 [수학식 1]로 상기 제3 평가 정보를 점수화하고, 점수화된 상기 제3 평가 정보를 모두 더한 값을 평가점수로 도출하는 것을 특징으로 하는 영어 발음 자동 평가 시스템.
[수학식 1]
Figure pat00038

여기서, 상기
Figure pat00039
는 상기 제3 평가 정보에 포함된 정답 수이고, 상기
Figure pat00040
는 상기 제3 평가 정보에 포함된 모든 단어 또는 휴지구간(pause) 수이다.
The method of claim 1,
The evaluation score providing unit,
An automatic evaluation system for English pronunciation, characterized in that the third evaluation information is scored by the following [Equation 1], and a value obtained by adding all of the scored third evaluation information is deduced as an evaluation score.
[Equation 1]
Figure pat00038

Here, the
Figure pat00039
is the number of correct answers included in the third evaluation information, and
Figure pat00040
is the number of all words or pauses included in the third evaluation information.
문제 제공부에 의하여, 피평가자에게 문제가 표시되도록 인터페이스부에 상기 문제가 전송되는 문제 전송단계;
발화 음성 입력부에 의하여, 상기 인터페이스부에 표시된 상기 문제에 따른 피평가자의 발화 음성이 입력되는 발화 음성 입력단계;
발화 정보 생성부에 의하여, 음성인식 기술기반으로 상기 발화 음성이 음성열로 변환된 발화 정보가 생성되는 발화 정보 생성단계;
제1 평가부에 의하여, 상기 발화 정보로부터 상기 발화 음성의 높낮이가 표시된 억양 정보가 추출되고, 상기 억양 정보가 기반이 되어 상기 발화 정보가 평가된 제1 평가 정보가 생성되는 제1 평가단계;
제2 평가부에 의하여, 상기 제1 평가 정보로부터 상기 발화 음성의 길이가 추출되고, 상기 발화 음성의 길이가 기반이 되어 상기 제1 평가 정보가 평가된 제2 평가 정보가 생성되는 제2 평가단계;
제3 평가부에 의하여, 상기 제2 평가 정보로부터 의미상 독립적 경계 유무가 판별되고, 상기 제2 평가 정보에 상기 의미상 독립적 경계 당 하나의 휴지구간(pause)이 추가된 제3 평가 정보가 생성되는 제3 평가단계;
평가점수 제공부에 의하여, 상기 제3 평가 정보가 점수화되고, 피평가자에게 평가점수가 제공되는 평가점수 제공단계; 및
인터페이스부에 의하여, 상기 평가점수가 표시되는 평가점수 표시단계;를 포함하는 영어 발음 자동 평가 방법.
a problem sending step in which the problem is transmitted to the interface unit so that the problem is displayed to the examinee by the problem providing unit;
an uttered voice input step of inputting, by the uttered voice input unit, the uttered voice of the person to be evaluated according to the problem displayed on the interface unit;
an utterance information generation step of generating, by the utterance information generating unit, utterance information in which the uttered voice is converted into a voice sequence based on a voice recognition technology;
a first evaluation step of extracting, by the first evaluation unit, intonation information indicating the height of the spoken voice from the utterance information, and generating first evaluation information on which the utterance information is evaluated based on the intonation information;
a second evaluation step in which, by the second evaluation unit, the length of the spoken voice is extracted from the first evaluation information, and the length of the spoken voice is used as a basis to generate second evaluation information in which the first evaluation information is evaluated ;
The third evaluation unit determines whether there is a semantically independent boundary from the second evaluation information, and generates third evaluation information in which one pause per semantically independent boundary is added to the second evaluation information a third evaluation step to be;
an evaluation score providing step in which the third evaluation information is scored by the evaluation score providing unit and the evaluation score is provided to the evaluated; and
The automatic evaluation method for English pronunciation including; an evaluation score display step in which the evaluation score is displayed by the interface unit.
KR1020200177162A 2020-12-17 2020-12-17 English pronunciation automatic evaluation system and method KR102416000B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177162A KR102416000B1 (en) 2020-12-17 2020-12-17 English pronunciation automatic evaluation system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200177162A KR102416000B1 (en) 2020-12-17 2020-12-17 English pronunciation automatic evaluation system and method

Publications (2)

Publication Number Publication Date
KR20220086923A true KR20220086923A (en) 2022-06-24
KR102416000B1 KR102416000B1 (en) 2022-06-30

Family

ID=82214893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177162A KR102416000B1 (en) 2020-12-17 2020-12-17 English pronunciation automatic evaluation system and method

Country Status (1)

Country Link
KR (1) KR102416000B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110024624A (en) * 2009-09-02 2011-03-09 주식회사 케이티 System and method for evaluating foreign language pronunciation
KR101318377B1 (en) 2012-09-17 2013-10-16 비전워크코리아(주) System for evaluating foreign language speaking through on-line
KR101460447B1 (en) * 2013-07-25 2014-11-12 포항공과대학교 산학협력단 Apparatus of learning intonations for learning foreign language and method thereof
KR20170108622A (en) * 2016-03-18 2017-09-27 한국전자통신연구원 Apparatus and method for rating prosody and fluency of english talk
KR20180048136A (en) * 2016-11-02 2018-05-10 한국전자통신연구원 Method for pronunciation assessment and system using the method
KR101959080B1 (en) * 2017-10-13 2019-07-04 주식회사 하얀마인드 Apparatus and method for evaluating linguistic performance based on silence interval
KR20200088073A (en) 2019-01-14 2020-07-22 김주혁 English speaking evaluation system and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110024624A (en) * 2009-09-02 2011-03-09 주식회사 케이티 System and method for evaluating foreign language pronunciation
KR101318377B1 (en) 2012-09-17 2013-10-16 비전워크코리아(주) System for evaluating foreign language speaking through on-line
KR101460447B1 (en) * 2013-07-25 2014-11-12 포항공과대학교 산학협력단 Apparatus of learning intonations for learning foreign language and method thereof
KR20170108622A (en) * 2016-03-18 2017-09-27 한국전자통신연구원 Apparatus and method for rating prosody and fluency of english talk
KR20180048136A (en) * 2016-11-02 2018-05-10 한국전자통신연구원 Method for pronunciation assessment and system using the method
KR101959080B1 (en) * 2017-10-13 2019-07-04 주식회사 하얀마인드 Apparatus and method for evaluating linguistic performance based on silence interval
KR20200088073A (en) 2019-01-14 2020-07-22 김주혁 English speaking evaluation system and method thereof

Also Published As

Publication number Publication date
KR102416000B1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US10217464B2 (en) Vocabulary generation system
KR102191425B1 (en) Apparatus and method for learning foreign language based on interactive character
US7860705B2 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
US5752227A (en) Method and arrangement for speech to text conversion
US8204747B2 (en) Emotion recognition apparatus
US10861458B2 (en) Response sentence generation apparatus, method and program, and voice interaction system
US20040215456A1 (en) Two-way speech recognition and dialect system
Anderson et al. Recognition of elderly speech and voice-driven document retrieval
KR20160008949A (en) Apparatus and method for foreign language learning based on spoken dialogue
JP2007148039A (en) Speech translation device and speech translation method
US9805740B2 (en) Language analysis based on word-selection, and language analysis apparatus
JP2013025648A (en) Interaction device, interaction method and interaction program
Seljan et al. Combined automatic speech recognition and machine translation in business correspondence domain for english-croatian
KR102288797B1 (en) Cognitive test system
JP2006208644A (en) Server system and method for measuring linguistic speaking ability
KR20180022156A (en) Dialog management apparatus and method
Amrouche et al. Design and Implementation of a Diacritic Arabic Text-To-Speech System.
KR102416000B1 (en) English pronunciation automatic evaluation system and method
KR101188982B1 (en) Stress studying system and method for studying foreign language
Gibson et al. Polysyllabic shortening in speakers exposed to two languages
CN109918651B (en) Synonym part-of-speech template acquisition method and device
KR101004940B1 (en) Method for evaluating spoken ability through computer-lead speech recognition
NO318112B1 (en) Speech-to-speech conversion system and method
KR101775865B1 (en) Method and apparatus for training languages
Ykhlef et al. Towards building an emotional speech corpus of Algerian dialect: criteria and preliminary assessment results

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant