KR101318377B1 - System for evaluating foreign language speaking through on-line - Google Patents

System for evaluating foreign language speaking through on-line Download PDF

Info

Publication number
KR101318377B1
KR101318377B1 KR1020120102938A KR20120102938A KR101318377B1 KR 101318377 B1 KR101318377 B1 KR 101318377B1 KR 1020120102938 A KR1020120102938 A KR 1020120102938A KR 20120102938 A KR20120102938 A KR 20120102938A KR 101318377 B1 KR101318377 B1 KR 101318377B1
Authority
KR
South Korea
Prior art keywords
information
evaluation
answer
speaking
call
Prior art date
Application number
KR1020120102938A
Other languages
Korean (ko)
Inventor
김영섭
Original Assignee
비전워크코리아(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비전워크코리아(주) filed Critical 비전워크코리아(주)
Priority to KR1020120102938A priority Critical patent/KR101318377B1/en
Application granted granted Critical
Publication of KR101318377B1 publication Critical patent/KR101318377B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: An online system for assessment of speaking a foreign language is to provided to analyze gaps among sentences in a speaking answer to a speaking question, and to enable an assessor to give a speaking guidance to a learner by allowing the assessor to record assessment content for each sentence and to feed the recorded assessment content to the learner. CONSTITUTION: An online system for assessment of speaking a foreign language includes a speaking learning interface installed at a learner's server, and a speaking assessment interface installed at an assessor's server and capable of correcting voices spoken in the foreign language. The learner records voices as an answer to a question and transmits the recorded voices by using the speaking learning interface. The assessor analyzes gaps among each of sentences in the recorded content, inserts his or her voices into each of gaps, and generates a new file. The speaking assessment interface transmits the assessment result to the speaking learning interface so that the learner can check the corrected voice content. [Reference numerals] (AA,DD,FF) Answer information; (BB) Gap; (CC) Evaluation information inserting; (EE) Evaluation information; (GG) Integrated information; (HH) Interval

Description

온라인을 통한 외국어 말하기 평가 시스템{SYSTEM FOR EVALUATING FOREIGN LANGUAGE SPEAKING THROUGH ON-LINE}Foreign language speaking evaluation system online {SYSTEM FOR EVALUATING FOREIGN LANGUAGE SPEAKING THROUGH ON-LINE}

본 발명은 온라인을 통한 외국어 말하기 평가 시스템으로서, 기존의 음성 인식 프로그램을 이용한 기계적 발음 분석 방법과 달리, 외국어 말하기 테스트 중에서 외국어를 이용한 주관/설명/의견/생각 등에 대한 표현 능력을 평가하기 위하여 학습자의 음성을 다수 개의 문장으로 요청하여 이 문장 별 또는 전체에 대한 평가를 평가자가 보다 원활하고 합리적으로 수행함으로써 합리적인 평가 방식을 제시할 뿐 아니라 학습자의 실력을 향상시킬 수 있도록 하는 인터페이스를 포함한 외국어 말하기 평가 시스템에 관한 것이다.
The present invention is a foreign language speech evaluation system online, unlike the conventional mechanical pronunciation analysis method using a speech recognition program, in order to evaluate the learner's ability to express subjects, explanations, opinions, thoughts, etc. using a foreign language in a foreign language speaking test. Foreign language speaking evaluation system including an interface that requests voices in multiple sentences so that evaluators can perform the evaluation of each sentence or the whole more smoothly and reasonably, thereby providing a reasonable evaluation method and improving learners' skills. It is about.

현재 외국어 학습 방법 및 시스템은 상당히 다양한 종류가 공개되어 있고, 한국의 경우 외국어 중에서 특히 영어 학습에 대한 수많은 교재와 학습방법이 공개되어 있는 현실이다.At present, there are a great variety of foreign language learning methods and systems, and in Korea, many textbooks and methods of learning foreign languages, especially English, are disclosed.

외국어는 현재 4대 영역, 듣기(listening), 쓰기(writing), 읽기(reading), 말하기(speaking) 영역을 각각 구분하여 각 영역 별로 세분화되거나 특성화된 교육 방법이 제공되고 있는데, 인터넷 기술의 발달에 힘입어 이러한 외국어 교육이 인터넷 교육 사이트 내지 모바일 앱과 같은 온라인 매체를 통하여 널리 수행되고 있는 상황이다.Foreign languages are divided into four major areas, listening, writing, reading, and speaking, respectively, and are provided with detailed or specialized educational methods for each area. As a result, such foreign language education is widely performed through online media such as internet education sites or mobile apps.

한국의 교육과학기술부는 해외 영어 시험(TOEIC, TOEFL)의 의존도를 낮추고 학생들의 실질적인 영어 의사소통 능력을 향상시키기 위해 학생용 국가영어능력평가시험(NEAT : National English Ability Test)를 수행하기로 결정했다.The Korean Ministry of Education, Science and Technology decided to conduct the National English Ability Test (NEAT) for students to reduce the reliance on overseas English tests (TOEIC, TOEFL) and improve students' practical English communication skills.

즉, 이 NEAT는 듣기와 읽기는 잘하나 의사 표현 능력은 상대적으로 열세를 갖는 과거 한국인을 대상으로 하는 영어시험의 큰 문제점을 보완한 것으로, 특히 말하기와 쓰기에 대한 평가가 강화된 것이라 할 수 있다.In other words, the NEAT supplements the big problem of the English test for the past Koreans who are good at listening and reading but relatively poor in expressive ability, especially the evaluation of speaking and writing. .

여기서, '말하기'는 단순히 특정 문장을 학생에게 말하도록 하여 학생의 발음을 테스트하는 단편적인 수준을 넘어서 실질적인 표현 능력, 즉 여러 문장과 단어로서 학생의 의사 표현 능력을 평가하기 위한 기준을 제시하였고, 이는 앞서 언급한 바와 같이 발음의 옭고 그름을 표현하는 형식적 평가보다 학생의 생각을 말로서 자유로이 표현할 수 있는지 여부를 평가하는 실질적 평가가 더욱 중요하다고 판단하였기 때문이다.Here, 'speaking' has suggested a criterion for evaluating the student's expression ability through actual expression ability, that is, several sentences and words, beyond the fragmentary level of simply testing a student's pronunciation by simply telling the student a specific sentence. This is because, as mentioned above, it is more important to evaluate the actual evaluation of whether students can freely express their thoughts with words than the formal evaluation of the pronunciation of words.

예를 들어, 지문을 학생에게 제시한 다음 지문에 도시된 그림을 보고 학생의 의견을 표현하거나 문제점을 서술하도록 하되 가령 1분의 시간동안 5-6개의 문장 및 300 단어가 포함되어야 하는 기준을 제시하여 이에 맞게 학생이 말한 것을 평가할 수 있도록 하는 것이다.For example, present a fingerprint to a student, and then look at the pictures on the fingerprint to express the student's opinion or describe the problem, for example, suggesting that the criteria should include 5-6 sentences and 300 words in one minute. This allows students to evaluate what they say accordingly.

현재, 외국어(특히 영어) 말하기 학습 내지 평가 시스템에 대한 기술이 상당수 공개되어 있는바, 예를 들면 한국 특허 제 1145440호 '음성 인식 기술을 이용한 외국어 말하기 평가 방법 및 시스템', 한국 특허 제 385892호 ' 외국어 말하기 평가 시스템', 한국 특허 제 997255호 '음성 인식 기술을 활용한 언어학습 시스템', 한국 특허출원 제 10-2010-0083459호 '시험에 대한 분석 결과를 제공하기 위한 시스템'들 이외에 상당 수가 게시되어 있다.Currently, a large number of technologies for foreign language (especially English) speaking learning or evaluation systems are disclosed. For example, Korean Patent No. 1145440, 'Method and System for Evaluating Foreign Languages Using Speech Recognition Technology', and Korean Patent No. 385892 ' Foreign Language Speaking Evaluation System, Korean Patent No. 997255, 'Language Learning System Using Speech Recognition Technology', and Korean Patent Application No. 10-2010-0083459, 'System for Providing Analysis Results for Examination' It is.

그런데 상기 기술들에 의하면, 단순히 학습자가 말한 음성을 녹음하여 평가자에게 전달하는 온라인 프로세스만을 설명하거나 발음/억양 평가를 위한 음성 인식/분석 기술만을 위주로 학습자의 말하기를 평가한다는 한계를 벗어나지 못하고 있다. However, according to the above techniques, it is not limited to simply explaining the online process of recording the voice spoken by the learner and delivering it to the evaluator, or evaluating the learner's speech based only on the speech recognition / analysis technique for the pronunciation / inspiration evaluation.

즉, 상기 기술들에서 언급된 음성 인식 기술은 주파수 분석에 의해 발음/억양 수준을 평가하거나, 말하기 정답 데이터베이스 또는 핵심어 데이터베이스를 미리 구비한 상태에서 학습자의 음성에서 특정 단어가 포함되었는지 여부를 평가하는 방식을 지원하나, 복수 개의 문장의 논리적 구조와 실질적 유창성 등을 평가하는 것은 거의 불가능하다 할 수 있다.That is, the speech recognition technique mentioned in the above techniques is a method of evaluating the pronunciation / innation level by frequency analysis, or evaluating whether a specific word is included in the learner's speech with a speech answer database or a keyword database in advance. However, it is almost impossible to evaluate the logical structure and practical fluency of a plurality of sentences.

다시 말해, 말하기 평가(특히 자유로운 의사표현 능력에 대한 평가)에 대한 정답은 단순히 특정 단어를 포함하였는지 여부라는 1개 기준에 의하여 1-2개의 정답만으로 존재하는 것이 아니고, 네이티브 스피커와의 발음 비교를 통한 주파수 파형 차이와 같은 평가 방식을 통해서 말하기 능력이 뛰어나다고 평가할 수 있는 것이 아니라는 의미이다.In other words, the correct answer for speaking evaluation (especially for free speech expression ability) does not exist in one or two correct answers based on one criterion of whether a particular word is included or not. This means that it is not possible to judge that speaking ability is excellent through evaluation methods such as frequency waveform difference.

현재 공개된 음성 인식 기술이 아무리 발전했다 해도, 복수 개로 이루어진 문장으로 이루어진 학습자의 음성을 미리 준비한 정답 제시안과 단편적 프로그래밍에 의한 비교 판단하는 기술만으로는 합리적으로 학습자의 말하기 능력을 자동으로 평가하는데 부족함이 따른다.No matter how advanced the present speech recognition technology is, the technique of estimating the correct answer by preparing a speech consisting of a plurality of sentences in advance and comparing and judging by fragmentary programming is insufficient to automatically evaluate the learner's speaking ability. .

더불어, 음성 인식 기술이 아닌 사람(평가자)가 학습자의 문장을 듣고 평가를 할 때에도 문제점이 따르는데, 말하기 능력에 대한 평가 기준은 발음/억양, 유창성, 논리성, 구사된 단어의 수준 등의 다양한 평가 항목이 존재하는데 학습자의 음성이 긴 문장 내지 복수 개의 문장으로 이루어져 있기 때문에 복수 개의 문장을 다 듣고 평가자가 종합적인 평가만을 내리기에는 평가 수준이 낮아지거나 특정 문장에 치우쳐 평가를 하게 되어 학습자가 이러한 평가자의 평가 정보를 보아도 구체적으로 어떻게 말하기 방법을 보완해야 할지를 제대로 파악하지 못하게 하는 문제가 있기 때문이다.In addition, there is a problem when a person (evaluator) who is not a voice recognition technology listens and evaluates a learner's sentence, and the evaluation criteria for the speaking ability are various evaluations such as pronunciation / inspiration, fluency, logic, and spoken word level. Because there is an item, the learner's voice is composed of long sentences or plural sentences. This is because there is a problem that the evaluation information does not properly grasp how to speak in detail.

따라서 학습자의 말하기 능력을 음성 인식 기술과 같은 기계적 평가가 아닌 네이티브 스피커와 같은 평가자가 판단하도록 하고 추가적으로 음성 인식 기술의 보조를 받도록 하는 방식으로 학습자의 음성을 단편적이자 형식적 평가 기준에만 의존하지 아니함으로써 구체적인 첨삭 평가가 될 수 있도록 할 뿐 아니라, 복수 개의 문장으로 이루어진 음성에서 각 문장 별/전체에 대하여 구체적 평가를 수행하도록 하는 기술적 수단을 제시하여 보다 자세하고 합리적이면서 학습자의 피드백을 향상할 수 있는 평가를 수행하는 신규하고 진보한 외국어 말하기 평가 시스템을 개발할 필요성이 대두되는 실정이다.
Therefore, the learner's speech is not determined by mechanical evaluation such as speech recognition technology, but by evaluators such as native speakers and additionally assisted by speech recognition technology. In addition to providing a corrective evaluation, it also provides a technical means for performing a specific evaluation of each sentence / all in a sentence consisting of a plurality of sentences. There is a need to develop a new and advanced foreign language speaking system.

본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 스피킹 문제에 대한 학습자의 스피킹 답안에서 문장과 문장 사이의 갭을 파악하고 평가자가 문장 별로 평가 내용을 녹음하여 이 갭에 삽입하도록 한 다음 평가 결과와 함께 학습자에게 제공함으로써 학습자에게 보다 직접적이고 구체적인 스피킹 지도 학습을 수행할 수 있도록 하는 외국어 말하기 평가 시스템을 제공하는 것을 주요 목적으로 한다.The present invention has been made to overcome the problems of the above technique, in the learner's speaking answer to the speaking problem to grasp the gap between the sentences and the evaluator to record the evaluation content for each sentence to insert into this gap then evaluation The main objective is to provide a foreign language speaking evaluation system that provides learners with results to enable them to perform more direct and specific speaking supervised learning.

본 발명의 다른 목적은 학습자의 스피킹 답안에서 문장과 문장 사이에 보다 효율적으로 평가자의 평가 내용을 입력할 수 있는 수단을 제공하는 것이다.Another object of the present invention is to provide a means for more efficiently entering the evaluator's evaluation content between the sentences in the learner's speaking answer.

본 발명의 또 다른 목적은 평가자가 음성 평가 내용만을 제공하는 것이 아니라, 점수와 같은 텍스트 평가 정보를 음성 평가 정보와 함께 동시에 제공함으로서 보다 복합적인 평가를 수행하도록 하는 것이다.It is still another object of the present invention to provide a more complex evaluation by providing text evaluation information such as scores together with voice evaluation information, instead of providing only the voice evaluation contents.

본 발명의 추가 목적은 다수의 평가자가 하나의 스피킹 답안을 평가하는 효율적인 수단을 제공하여 객관성과 합리성을 담보하도록 하는 것이다.
It is a further object of the present invention to provide multiple evaluators with an efficient means of evaluating one speaking answer to ensure objectivity and reasonableness.

상기 목적을 달성하기 위하여, 본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템은, 학습자에게 스피킹 문제를 제공하는 문제 제공 모듈 및, 상기 스피킹 문제를 접한 학습자로부터 답안을 음성으로 녹음하여 답안 정보를 생성하는 답안 녹음 모듈과, 상기 답안 정보를 스피킹 평가 인터페이스에 전송하는 전송 모듈 및, 스피킹 평가 인터페이스로부터 통합 정보를 전송받아 학습자에게 재생시키는 피드백 모듈로 구성된, 스피킹 학습 인터페이스; 상기 답안 정보의 음성 주파수를 분석하여 답안 정보를 구성하는 문장 개수와 각 문장 사이의 갭 영역을 파악하는 문장 개수 파악 모듈과, 상기 답안 정보를 평가자에게 재생하는 답안 재생 모듈 및, 재생이 된 답안 정보의 각 문장 별로, 평가자로 하여금 각 문장의 평가 내용을 음성으로 녹음한 평가 정보를 생성하도록 하는 평가 정보 삽입 모듈 및, 상기 평가 정보를 답안 정보의 각 문장 사이에 삽입하여, 답안 정보와 평가 정보가 합체된 통합 정보를 생성하는 통합 정보 생성 모듈과, 상기 통합 정보를 상기 스피킹 학습자 인터페이스의 피드백 모듈에 전송하는 전송 모듈을 포함한, 스피킹 평가 인터페이스;로 구성된 것을 특징으로 한다.In order to achieve the above object, the foreign language speaking evaluation system through online according to the present invention is a problem providing module for providing a speaking problem to a learner, and generating answer information by recording an answer from a learner in contact with the speaking problem by voice. A speech learning interface comprising an answer recording module, a transmission module for transmitting the answer information to the speaking evaluation interface, and a feedback module for receiving the integrated information from the speaking evaluation interface and reproducing the information to the learner; A sentence counting module for identifying the number of sentences constituting the answer information and a gap region between the sentences by analyzing voice frequencies of the answer information, an answer replay module for reproducing the answer information to the evaluator, and the replied answer information For each sentence of, an evaluation information insertion module for causing the evaluator to generate evaluation information recorded by voice of the evaluation contents of each sentence, and the evaluation information is inserted between each sentence of the answer information, so that the answer information and the evaluation information And a speaking evaluation interface including an integrated information generating module for generating merged integrated information and a transmitting module for transmitting the integrated information to a feedback module of the speaking learner interface.

또한, 상기 문장 개수 분석 모듈은, 상기 답안 정보의 음성 주파수 분포를 파형 그래프로서 표시하는 파형 표시부; 상기 파형 그래프에서 데시벨 수치와 진폭 변위의 고저 상태를 비교하여 복수 개의 갭을 파악하는 갭 파악부;를 포함하는 것을 특징으로 하는 것을 특징으로 한다.The sentence number analysis module may further include a waveform display unit configured to display a voice frequency distribution of the answer information as a waveform graph; And a gap grasping unit for grasping a plurality of gaps by comparing a decibel value and a high and low state of amplitude displacement in the waveform graph.

더불어, 상기 갭 파악부는, 데시벨 수치와 진폭 변위의 고저 상태 비교에 의해 파악된 상기 복수 개의 갭에서, 갭의 길이 차이와 갭이 발생되기 전 파형 변화의 패턴 분석을 통하여 문장 단위를 구분할 수 있는 갭을 추출하는 갭 분석 수단;을 추가로 포함하는 것을 특징으로 한다.In addition, the gap determination unit, in the plurality of gaps identified by the high and low state comparison of the decibel value and the amplitude displacement, the gap that can distinguish the sentence unit through the pattern analysis of the waveform change before the gap and the gap length is generated The gap analysis means for extracting; characterized in that it further comprises.

추가적으로, 상기 답안 재생 모듈은, 상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프 상에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하는 형태로 시각적으로 표시된 기준선 표시부;를 포함하는 것을 특징으로 한다.In addition, the answer reproduction module may display a reference line extending vertically along the Y axis in the waveform graph on the waveform graph, wherein the reference line moves along the X axis of the waveform graph while indicating a current reproduction time of the answer information. And a baseline display portion visually displayed in the form.

추가적으로, 상기 평가 정보 삽입 모듈은, 복수 명의 평가자에 의해 음성으로 생성된 각각의 평가 정보를 텍스트로 변환하는 텍스트 변환 처리 파트; 학습자의 실력을 평가하는 평가 대상에 대한 의미를 갖는 객체 단어를 저장한 객체 단어 DB 및 호불호 의미를 갖는 호불호 단어를 저장한 호불호 DB를 포함한 단어 라이브러리; 상기 객체 단어 DB를 바탕으로 상기 텍스트 처리된 평가 정보 중 객체 단어를 추출하는 객체 단어 추출 파트; 상기 호불호 DB를 바탕으로 상기 객체 단어와 조사를 매개로 연결된 호불호 단어를 추출하는 호불호 단어 추출 파트; 상기 객체 단어와 상기 호불호 단어의 연관관계를 토대로 텍스트 처리된 평가 정보의 문장 별로 호불호 정보를 생성하는 호불호 정보 생성 파트; 복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보를 모두 추출하여 평가 정보의 평가 대상 별로 호불호 정보를 기산하여 객체별 호불호 수치를 생성하는 호불호 정보 기산 파트; 상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가 결과를 하나의 종합 수치로 산출하는 호불호 종합 판단 파트;로 구성된, 호불호 평가부;를 포함하는 것을 특징으로 한다.
In addition, the evaluation information insertion module may include: a text conversion processing part for converting each evaluation information generated by voice by a plurality of evaluators into text; A word library including an object word DB storing an object word having a meaning for an evaluation target for evaluating a learner's ability and a call disability DB storing a call dislike word having a dislike meaning; An object word extraction part for extracting an object word from the text processed evaluation information based on the object word DB; A call disagreement word extraction part for extracting a call disagreement word connected through the object word and the survey based on the call disagreement DB; A call dislike information generating part for generating call dislike information for each sentence of the evaluation information processed text based on the relation between the object word and the call dislike word; A call-and-call information calculating part for extracting all the call-like information generated from the plurality of text sentences constituting the plurality of evaluation information and calculating the call-like information for each evaluation target of the evaluation information to generate a call-like number for each object; And a call dislike evaluation unit, comprising: a call dislike evaluation unit configured to calculate a comprehensive evaluation result of a plurality of pieces of evaluation information by using the object dislike value for each object as one comprehensive figure.

본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템에 의하면,According to the foreign language speaking evaluation system through online according to the present invention,

1) 기계적인 스피킹 평가 방식을 지양하고 평가자가 직접 학습자의 스피킹 답안을 듣고 음성 평가를 수행하도록 하여 구체적인 평가 정보를 학습자에게 제공하되, 문장 별로 평가자의 평가 음성을 입력하도록 하여 추상적이거나 모호하지 않고 직접적이자 명쾌한 스피킹 지도 학습을 수행할 수 있고, 1) Refrain from the mechanical speaking evaluation method and allow the evaluator to directly listen to the learner's speaking answer and perform the voice evaluation to provide the learner with specific evaluation information. You can do this with clear speaking instruction,

2) 학습자의 스피킹 음성에서 음성 주파수를 기준으로 한 진폭 변화 내지 패턴 분석을 통해 문장 개수내지 문장 사이의 갭을 파악하도록 하여 합리적인 문장 개수 파악 방식을 제공하며,2) Provides a reasonable sentence counting method by grasping the gap between the number of sentences and the sentence through amplitude change or pattern analysis based on voice frequency in the learner's speaking voice,

3) 평가 항목을 세분화하여 구체적 평가 내용을 작성함과 동시에 음성 이외의 평가 정보를 학습자에게 제공할 수 있을 뿐 아니라,3) It is possible not only to provide the learner with evaluation information other than voice at the same time as writing detailed evaluation contents by subdividing the evaluation items.

4) 2인 이상의 평가 방식을 통해 보다 객관적이고 합리적인 평가 기준을 수립할 수 있음과 동시에,4) It is possible to establish more objective and reasonable evaluation criteria through two or more evaluation methods.

5) 평가자의 평가 음성이 학습자의 답안 음성과 겹치지 않도록 효율적으로 배치함으로써 학습자가 자연스럽게 자신의 음성과 평가자의 음성을 문장 별로 번갈아 청취할 수 있도록 하고,5) By effectively arranging the evaluator's evaluation voice so that it does not overlap with the learner's answer voice, the learner can naturally listen to his / her voice and the evaluator's voice alternately by sentence,

6) 높은 점수를 받은 다른 학습자의 답안을 제시하여 학습자의 경쟁의식을 고취시키면서 모범 답안을 참조할 수 있도록 하는 효과를 제공한다.
6) Providing the answers of other high-scoring learners to enhance the learner's sense of competition and provide the effect of referencing the best answer.

도 1은 본 발명의 주요 프로세스 및 답안 정보와 평가 정보에 대한 개략적인 파일 구조를 도시한 개념도.
도 2는 본 발명에 따른 시스템의 개략적인 구성을 도시한 블록도.
도 3은 본 발명의 스피킹 학습 인터페이스의 문제 제공 모듈을 개략적으로 도시한 개념도.
도 4는 본 발명의 스피킹 평가 인터페이스에서 답안 정보의 재생 상태를 파형 그래프로서 표현한 상태를 개략적으로 도시한 개념도.
1 is a conceptual diagram showing a schematic file structure for the main process and answer information and evaluation information of the present invention.
2 is a block diagram illustrating a schematic configuration of a system according to the present invention.
3 is a conceptual diagram schematically illustrating a problem providing module of the speaking learning interface of the present invention;
4 is a conceptual diagram schematically showing a state in which a reproduction state of answer information is represented as a waveform graph in the speaking evaluation interface of the present invention;

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale and wherein like reference numerals in the various drawings refer to like elements.

도 1은 본 발명의 주요 프로세스 및 답안 정보와 평가 정보에 대한 개략적인 파일 구조를 도시한 개념도이다.1 is a conceptual diagram illustrating a schematic file structure of main process and answer information and evaluation information of the present invention.

본 발명에 따른 시스템은 크게 학습자의 스피킹 실력을 평가하고 스피킹 관련 학습 자료를 제공하며 스피킹 평가 결과를 학습자에게 제공하기 위하여 학습자 서버에 설치되는 스피킹 학습 인터페이스(100)와, 평가자 서버에 설치되어 학습자의 스피킹 답안에 대한 음성 첨삭을 하여 평가 파일로 생성하고 이를 학습자 서버의 스피킹 학습 인터페이스에 전송하는 스피킹 평가 인터페이스(200)로 구성되어 있다.The system according to the present invention largely evaluates the learner's speaking ability, provides a learning-related learning material, and the learning learning interface 100 installed on the learner server to provide the learner's speaking result to the learner, and the learner's server is installed It is composed of a speech evaluation interface 200 for generating a speech file by speech correction for the answer to the answer and transmitting it to the speech learning interface of the learner server.

다시 말해, 학습자용 인터페이스와 평가자용 인터페이스로 구분 구성이 되며, 이 두 개의 인터페이스를 매개하기 위한 시스템 서버가 추가로 구비될 수 있고 더 나아가 학습자의 평가 결과 및 학습자의 답안 정보, 평가자의 평가 정보 등의 각종 정보와 여러 가지의 스피킹 관련 학습 자료를 저장하는 DB 서버를 별도로 구성하는 것도 가능하다.In other words, it is composed of a learner interface and an evaluator interface, and additionally, a system server for mediating the two interfaces may be further provided. Furthermore, the student's evaluation result, the student's answer information, the evaluator's evaluation information, etc. It is also possible to configure a DB server that stores various information and various learning-related learning materials.

본 발명의 주요 특성은 학습자의 스피킹 실력을 평가하기 위한 문제에 대한 답안을 스피킹 학습 인터페이스(100)를 매개로 학습자의 음성으로서 녹음한 것을 스피킹 평가 인터페이스(200)에 전송하여 평가자가 평가를 하되, 복수 개의 문장으로 이루어진 학습자의 녹음 내용에서 각 문장 사이에 평가자의 첨삭 음성을 삽입 녹음하여 새로운 파일 정보를 생성한 다음 이를 스피킹 학습 인터페이스(100)에 전송하여 학습자가 첨삭 음성 내용을 확인할 수 있도록 한 것이다.The main characteristic of the present invention is that the evaluator evaluates the answer to the problem for evaluating the speaking ability of the learner by recording the recording as the learner's voice through the speaking learning interface 100 to the speaking evaluation interface 200, In the recorded contents of the learners consisting of a plurality of sentences, the evaluator's additive voice is inserted between each sentence to generate new file information and then transmitted to the speaking learning interface 100 so that the learner can check the corrected voice contents. .

다시 말해, 본 발명의 시스템은 스피킹 평가에 대한 학습자의 복수 개의 문장으로 구성된 학습자의 녹음 내용에서 각 문장을 구분하여 문장 사이에 평가자의 첨삭 내용(평가 정보)을 입력하는 방식을 추구하는바, 각 문장에 대한 디테일한 평가 없이 종합적인 평가만을 내리거나 평가자의 구두 평가 내용의 수록이 없이 성의 없게 평가 점수만을 평가 결과로 도출하거나 음성 인식 프로그램에 의존한 추상적인 평가를 지양함으로써, 보다 구체적이고 직접적으로 학습자에게 도움이 될 수 있는 평가 정보를 제공하도록 하는 특성을 제공하는 것이다.In other words, the system of the present invention seeks a method of inputting corrective content (evaluation information) of the evaluator between the sentences by dividing each sentence from the learner's recording contents consisting of a plurality of sentences of the learner for the speaking evaluation. More specifically and directly, by making a comprehensive evaluation without detailed evaluation of sentences, deriving only the evaluation scores without any sincerity of the evaluator's oral evaluation contents, or avoiding abstract evaluations based on speech recognition programs. It is to provide a feature that allows learners to provide assessment information that may be helpful.

도 1을 보아 알 수 있듯이, 스피킹 학습 인터페이스(100)에서 학습자에게 제공된 문제를 통해 학습자가 그 답안을 음성으로 대답을 하면 이를 녹음하여 '답안 정보'를 파일 형태로 생성하고, 이 답안 정보를 스피킹 평가 인터페이스(200)에 전송을 한다.As can be seen from Figure 1, through the problem provided to the learner in the learning learning interface 100, when the answer to the answer to the answer to the answer by voice recording it to create a 'answer information' in the form of a file, the answer information The transmission is sent to the evaluation interface 200.

스피킹 평가 인터페이스(200)에서는 이 답안 정보의 파일 구조를 음성 주파수 분석 방식으로 분석하여 문장 사이의 갭(gap)을 발견하고 이 갭(gap)을 인위적으로 늘리거나 아니면 갭(gap)을 신규로 생성하는 다양한 방식에 의하여 평가자의 음성을 통한 첨삭 내용을 녹음한 '평가 정보'를 상기 답안 정보의 각 문장 사이에 합체한다. Speaking evaluation interface 200 analyzes the file structure of the answer information by speech frequency analysis to find gaps between sentences and artificially increase the gaps or create new gaps. In various ways, the evaluation information recorded by the evaluator's voice is recorded and merged between the sentences of the answer information.

본 발명에서는, 이와 같이 학습자의 답안 정보와 평가자의 평가 정보가 합체된 파일 형식의 정보를 '통합 정보'라 한다.In the present invention, the information in the file format in which the answer information of the learner and the evaluation information of the evaluator are merged is referred to as 'integrated information'.

이러한 통합 정보는 답안 정보에 십입된 상태에서 스피킹 평가 인터페이스(200)에서 스피킹 학습 인터페이스(100)로 전송이 되어, 학습자가 자신이 말한 음성, 즉 답안 정보를 문장 단위로 평가한 평가 정보를 청취함(학습자 자신의 답안에 관한 음성과 평가자가 이를 평가한 음성)으로써 문장의 구성과 각 문장의 발음, 표현력 등과 같은 세부 평가 내용을 확인할 수 있게 된다.The integrated information is transmitted from the speaking evaluation interface 200 to the speaking learning interface 100 in the state of being inputted in the answer information, and the learner listens to the evaluation information in which the learner evaluates his or her speech, that is, the answer information in sentence units. The voice of the learner's own answer and the voice of the evaluator's evaluation can be used to check the details of the sentence, such as the composition of the sentence and the pronunciation and expression of each sentence.

여기서, 답안 정보, 평가 정보, 통합 정보는 형식에 구애되지는 않으나 분석 및 구조 변경의 편의성을 위하여 wav, mp3 등의 확장자를 가진 음성 파일로 이루어지는 것이 보다 바람직하고, 물론 평가 정보는 반드시 음성으로만 이루어지지 않고 이미지, 텍스트로 이루어지거나 이를 보조적으로 첨부할 수 있다.Here, the answer information, the evaluation information, and the integrated information are not limited to the format, but for the convenience of analysis and structural change, it is more preferable that the voice file has an extension of wav, mp3, etc., and of course, the evaluation information must be spoken only. It can consist of an image, text, or it can be attached as an auxiliary.

일단, 하기에서는 답안 정보와 평가 정보들이 파일 구조로 이루어졌다는 가정 하에 설명하도록 한다.
First, the following explanation is based on the assumption that the answer information and the evaluation information have a file structure.

도 2는 본 발명에 따른 시스템의 개략적인 구성을 도시한 블록도이다.2 is a block diagram illustrating a schematic configuration of a system according to the present invention.

상술한 바와 같이, 본 발명의 시스템은 스피킹 학습 인터페이스(100)와 스피킹 평가 인터페이스(200)로 크게 구성이 되는바, 이를 각각 구분하여 설명하도록 한다.As described above, the system of the present invention is largely composed of the speaking learning interface 100 and the speaking evaluation interface 200, so that each of them will be described separately.

우선, 본 발명의 스피킹 학습 인터페이스(100)는 학습자 서버(PC, 스마트폰 등)에 프로그램 형태로 설치되어 다양한 외국어 학습 정보를 제공하는 것은 물론 외국어 말하기(스피킹) 테스트를 수행할 수 있는 주요 기능을 제공한다.First, the speaking learning interface 100 of the present invention is installed in the form of a program on a learner server (PC, smartphone, etc.) to provide a variety of foreign language learning information as well as the main function that can perform a foreign language speaking (speaking) test to provide.

도 2를 보아 알 수 있듯이, 본 발명의 스피킹 학습 인터페이스(100)는 구체적으로 문제 제공 모듈(110), 답안 녹음 모듈(120), 전송 모듈(130), 피드백 모듈(140)로 구성되어 있다.
As can be seen from FIG. 2, the speaking learning interface 100 of the present invention includes a problem providing module 110, an answer recording module 120, a transmission module 130, and a feedback module 140.

도 3은 본 발명의 스피킹 학습 인터페이스의 문제 제공 모듈을 개략적으로 도시한 개념도이다.3 is a conceptual diagram schematically illustrating a problem providing module of the speaking learning interface of the present invention.

본 발명에서 제공하는 말하기(스피킹) 문제는 단순히 네이티브 스피커의 음성을 제공한 다음 이를 따라하는 수준이 아니라, 학습자가 특정 외국어(주로 영어)로서 문제에 대한 해결 방안 내지 문제를 이해한 후 자신의 의견을 논리적으로 표현한 답안을 요구하는 것으로서, 예를 들어 도 3을 보아 알 수 있듯이 다양한 그림을 학습자에게 제공한 다음 이 그림들을 보고 연상되는 상황이나 사실관계를 학습자가 단답식이 아닌 복수 개의 문장 구조를 포함한 음성으로서 표현하도록 한다.Speaking (speaking) problem provided by the present invention is not merely to provide a voice of the native speaker and then to follow it, but the learner understands the problem or solves the problem in a specific foreign language (mainly English) after his opinion For example, as shown in FIG. 3, the learner provides a variety of pictures to the learner, and then learns the situation or facts associated with the pictures by including a plurality of sentence structures rather than a short answer. Express it as a voice.

본 발명에서 제공하는 문제가 상황 설명이나 학습자의 의견을 구하는 것이다보니, 학습자의 답안이 정상적으로 이루어지려면 단순히 한 개의 문장으로서 이루어지지 않고 복수 개의 문장으로 이루어지게 되며 이로써 단편적인 말하기 능력을 테스트하는 것이 아니라 문장 구조, 표현력 등의 종합적인 말하기 능력을 테스트할 수 있는 기반을 갖추게 된다.The problem provided by the present invention is to obtain a description of the situation or the opinion of the learner, so that the student's answer is normally made up of a plurality of sentences instead of a single sentence, thereby not testing the fragmentary speaking ability. Students will be prepared to test comprehensive speaking skills such as sentence structure and expression.

즉, 문제 제공 모듈(110)은 종합적인 문장을 학습자가 구사할 수 있도록 하는 문제를 문제 데이터베이스로서 구성하여 이를 이미지, 텍스트, 음성 등의 형식과 함께 학습자에게 제공하는 역할을 수행한다.
That is, the problem providing module 110 forms a problem database that allows a learner to speak a comprehensive sentence as a problem database and provides the learner with a format such as an image, text, and voice.

답안 녹음 모듈(120)은 학습자가 문제 제공 모듈(110)에서 제공된 문제를 이해한 다음, 문제 제공 창의 일 측에 형성된 녹음 아이콘을 누르는 방식 등으로 학습자의 음성 형식의 답안을 녹음하는 기능을 제공하는 것으로, 이 때 문제를 이해하고 곧바로 말하기 어려운 경우가 많기 때문에 문제를 이해할 수 있는 특성 시간(20 내지 60초 가량의 문제 이해 시간) 이후에 자동으로 녹음이 이루어지거나 아니면 학습자가 직접 녹음 아이콘을 클릭하는 방식으로서 학습자의 음성 답안이 녹음될 수 있는 환경을 구비할 수 있다.The answer recording module 120 provides a function of recording the answer of the learner's voice format by learning by understanding a problem provided by the problem providing module 110 and then pressing a recording icon formed on one side of the problem providing window. At this time, it is difficult to understand the problem and speak directly, so that the recording is automatically made after the characteristic time (20 to 60 seconds of problem understanding time) to understand the problem or the learner clicks the recording icon directly. In this way, the voice answer of the learner may be provided.

이와 같이 학습자의 음성 답안이 녹음이 된 것을 '답안 정보'라 하며, 녹음이 완성이 되었을 때 답안 녹음 모듈(120)은 답안 정보를 음성 파일 형태로 생성한다.In this way, the voice answer of the learner is recorded as 'answer information', and when the recording is completed, the answer recording module 120 generates answer information in the form of a voice file.

더불어, 답안 녹음 모듈(120)은 종료 시간 표시부(121)와 강제 녹음 종료부(122)를 추가로 포함할 수 있다.In addition, the answer recording module 120 may further include an end time display unit 121 and a forced recording end unit 122.

종료 시간 표시부(121)는 학습자가 녹음을 할 수 있는 제한 시간을 학습자에게 제시하는 기능을 수행하는바, 예를 들어 문제에 따라 학습자가 음성 녹음을 할 수 있는 시간을 약 1~2분으로 제한하여 학습자가 중언부언을 하거나 녹음 시간이 너무 지체되어 객관적인 평가가 이루어지지 못하는 문제를 방지하도록 한다.The end time display unit 121 performs a function of presenting the learner a limited time to record the learner, for example, according to the problem limit the time that the learner can record the voice to about 1 to 2 minutes This will prevent the learner from making utter remarks or recording too much time, which prevents the objective evaluation.

강제 녹음 종료부(122)는 상기 종료 시간 표시부(121)에서 표시한 제한 시간이 지난 경우, 강제로 녹음을 종료하여 종료 시간까지 녹음된 음성을 답안 정보로 생성하는 기능을 수행한다. The forced recording end unit 122 performs a function of forcibly terminating the recording and generating the recorded voice information as the answer information when the time limit indicated by the end time display unit 121 has passed.

즉, 학습자가 충분히 말할 수 있는 시간을 제공하되, 말하기 테스트라는 객관성을 담보하기 위하여 제한 시간 이내에 녹음된 것을 유효한 답안 정보로서 인식할 수 있도록 하는 기반을 제공하기 위함이다.That is, to provide a sufficient time for the learner to speak, but to provide a basis for recognizing the valid answer information recorded within the time limit to ensure the objectivity of the speaking test.

물론 강제로 녹음을 종료하지 않고 제한 시간을 넘어선 음성까지 녹음을 하되, 제한 시간 이후에 녹음이 된 경우에는 평가 기준에서 페널티를 부가하거나 제한 시간 이후 첫 번째 문장만을 유효한 답안 정보로 인식하도록 하는 기능을 부가할 수도 있다.
Of course, you can record the voice beyond the time limit without forcing the recording to end, but if it is recorded after the time limit, you can add a penalty in the evaluation criteria or recognize only the first sentence after the time limit as valid answer information. You can also add.

전송 모듈(130)은 상기 답안 녹음 모듈(120)에서 생성한 음성 파일 형식의 답안 정보를 스피킹 평가 인터페이스(200)에 전송하여 평가자가 해당 답안 정보를 평가할 수 있도록 하는 기반을 제공한다.
The transmission module 130 transmits the answer information of the voice file format generated by the answer recording module 120 to the speaking evaluation interface 200 to provide a basis for evaluators to evaluate the corresponding answer information.

피드백 모듈(140)은 답안 정보에 평가 정보가 합체된 통합 정보를 스피킹 평가 인터페이스(200)로부터 수신하여 학습자에게 제공하는 기능을 수행하는 것으로서, 후술하겠지만 학습자 자신이 말한 답안 정보와 평가자의 평가 정보가 수록된 통합 정보를 학습자가 확인(청취 또는 시청)함으로써, 학습자가 자신이 말한 답안에 대한 구체적인 첨삭 평가를 알기 쉽게 확인할 수 있게 하는 역할을 담당한다.
The feedback module 140 performs a function of receiving integrated information in which the evaluation information is incorporated into the answer information from the speaking evaluation interface 200 and providing the learner with the answer information and the evaluator's evaluation information, which will be described later. The learner confirms (listens or watches) the integrated information contained in the information, and plays a role in making it easier for the learner to check the specific additive evaluation of the answer.

도 4는 본 발명의 스피킹 평가 인터페이스에서 답안 정보를 파형 그래프로서 표현한 상태를 개략적으로 도시한 개념도이다.4 is a conceptual diagram schematically showing a state in which answer information is represented as a waveform graph in the speaking evaluation interface of the present invention.

본 발명의 스피킹 평가 인터페이스(200)는 평가자 서버(PC, 스마트폰 등)에 설치된 프로그램 형식으로 이루어져, 상기 답안 정보를 전송받아 평가자가 답안을 듣고 문장 단위로 첨삭 음성을 녹음한 평가 정보를 상기 답안 정보에 합체하여 이를 학습자에게 다시 전송하는 기능을 제공한다.Speaking evaluation interface 200 of the present invention consists of a program format installed on the evaluator server (PC, smart phone, etc.), the answer information received by the evaluator listens to the answer, the evaluation information recorded the correction voice by sentence unit the answer It provides the ability to coalesce information and send it back to learners.

즉, 스피킹 평가 인터페이스(200)는 음성 분석 프로그램에 의한 자동 평가가 아니라 평가자가 학습자의 답안을 직접적으로 평가할 수 있도록 하는 기능을 수행하는 것이다.That is, the speaking evaluation interface 200 performs a function of allowing the evaluator to directly evaluate the learner's answer, not the automatic evaluation by the voice analysis program.

이러한 스피킹 평가 인터페이스(200)는 도 2를 다시 보아 알 수 있듯이, 구체적으로 문장 개수 분석모듈(210), 문장 구조 분석 모듈(220), 답안 재생모듈(230), 삽입 부위 결정 모듈(240), 평가 정보 삽입 모듈(250), 통합 정보 생성 모듈(260), 전송 모듈(270)로 구성되어 있다.As can be seen again from FIG. 2, the speaking evaluation interface 200 includes a sentence count analysis module 210, a sentence structure analysis module 220, an answer reproduction module 230, an insertion site determination module 240, The evaluation information insertion module 250, the integrated information generation module 260, and the transmission module 270 are configured.

문장 개수 분석 모듈(210)은 답안 정보를 구성하는 복수 개의 문장의 개수를 파악하는 기능을 수행한다.The sentence number analysis module 210 performs a function of determining the number of the plurality of sentences constituting the answer information.

답안 정보의 문장 개수를 파악하는 것은 본 발명에서 매우 중요한바, 1차적으로 문장 단위를 분석하여 문장 사이에 평가자의 평가 정보를 삽입할 수 있는 기반을 갖춤과 동시에 2차적으로 문장의 개수를 통하여 학습자의 표현력과 구사력을 판단할 수 있는 평가 지표를 제공할 수 있기 때문이다.Understanding the number of sentences in the answer information is very important in the present invention, primarily by analyzing the sentence unit has a basis for inserting the evaluation information of the evaluator between the sentences and at the same time secondary learners through the number of sentences This is because it can provide evaluation indexes for judging the expressive and verbal powers of people.

이러한 문장 개수 분석 모듈(210)은 문장의 개수를 파악하기 위해 구체적으로 파형 표시부(211), 갭 파악부(212), 문장 개수 파악부(213)를 포함한다.The sentence number analysis module 210 includes a waveform display 211, a gap detector 212, and a sentence number determiner 213 in order to determine the number of sentences.

도 3을 보아 알 수 있듯이, 파형 표시부(211)는 음성 파일로 이루어진 답안 정보의 음성 주파수 분포를 파형 그래프 형식으로 시각적 표시를 하는 기능을 수행한다.As can be seen from Figure 3, the waveform display unit 211 performs a function of visually displaying the voice frequency distribution of the answer information consisting of a voice file in the form of a waveform graph.

즉, 음성 파일에서 문장의 개수를 파악하기 위한 기본적 방법으로서 음성 주파수의 진폭 변화에 따른 파형을 분석할 경우 주파수 수치를 가지지 않은 부위가 파악될 수 있을 뿐 아니라 진폭 변위가 적은 부위 역시 파악될 수 있는바, 이를 근간으로 갭(gap)을 지정하여 갭의 앞뒤 부위를 하나의 문장으로서 인식을 할 수 있고 더불어 음성 주파수로 표현되었을 때 학습자의 발음을 원어민(네이티브 스피커)의 발음과 비교하기 용이하기 때문이다.That is, as a basic method for determining the number of sentences in a voice file, when analyzing the waveform according to the amplitude change of the voice frequency, not only the portion having no frequency value can be identified, but also the portion having a small amplitude displacement can be identified. It is possible to recognize the front and rear parts of the gap as a sentence by designating a gap based on this, and to easily compare the learner's pronunciation with the native speaker's pronunciation when expressed in voice frequency. to be.

이러한 파형 표시부(211)는 평가자에게 직접 시각적으로 제공하는 것도 가능하고, 아니면 내부적으로 음성 주파수를 분석하기 위한 수단으로서 이용되는 것도 가능하다. The waveform display unit 211 may be provided directly to the evaluator visually, or may be used as a means for analyzing voice frequencies internally.

갭 파악부(212)는 상기 파형 그래프를 통하여 주파수 변화(파형 변화)가 일어나지 않는 영역, 즉 데시벨 수치가 0인 영역 또는 다른 영역에 비하여 파형 변화가 적은 영역을 갭(gap)(또는 갭 영역)으로서 인식하는 기능을 수행하는 것으로, 구체적으로 인터벌 파악수단(212a)과 진폭 변위 파악 수단(212b), 갭 분석 수단(212c) 중 어느 하나 또는 이들을 모두 포함한다. The gap grabbing unit 212 gaps (or gaps) an area where no frequency change (waveform change) occurs through the waveform graph, that is, an area where the decibel value is 0 or a region where the wave change is smaller than that of other areas. As a function of recognizing the device, one or both of the interval detecting unit 212a, the amplitude displacement detecting unit 212b, and the gap analyzing unit 212c are included.

인터벌 파악 수단(212a)은 파형에서 주파수 단위인 데시벨 수치가 0 인 부위를 갭으로 파악하는 기능을 수행하는 것으로, 일반적으로 문장과 문장 사이에 발생하는 인터벌을 파악하여 이를 갭으로서 인식하는 기능을 수행한다.The interval detecting unit 212a performs a function of capturing a portion of the waveform in which the decibel value, which is a frequency unit, is 0 as a gap. In general, the interval detecting unit 212a recognizes an interval between sentences and recognizes the gap as a gap. do.

진폭 변위 파악 수단(212b)은 데시벨 수치가 0은 아니나, 변화폭이 크지 않거나 비슷한 상태로 지속된 부위, 예를 들어 "에~", "음~"과 같이 발음한 부위를 파악하는 기능을 수행한다.The amplitude displacement estimating means 212b performs a function of identifying a portion where the decibel value is not zero but the change range is not large or is maintained in a similar state, for example, a pronounced portion such as "e" or "mm". .

갭 분석 수단(212c)은 상기 인터벌 파악 수단(212a) 또는 진폭 변위 파악수단(212b)에서 파악된 갭(gap)을 종합하여 갭의 길이, 갭이 발생되기 전의 주파수 파형 변화 상태를 파악하여 파악된 갭 중에서 실제 문장과 문장을 구분하는 갭을 추출하는 기능을 수행한다.The gap analyzing means 212c synthesizes the gaps identified by the interval detecting means 212a or the amplitude displacement detecting means 212b to grasp the length of the gap and the state of the change in the frequency waveform before the gap is generated. This function extracts the gap separating the actual sentence from the sentence.

즉, 외국어 구사 능력이 우수한 학습자의 경우 문장 중간에 말을 끊거나 '음~'과 같은 음성을 구사하지 않아 갭 발생만으로 문장과 문장 사이를 인식할 수 있지만, 외국어 구사 능력이 우수하지 않는 학습자의 경우 문장 사이에서도 잦은 인터벌이 발생하거나 "음~"과 같은 무의미한 단어가 자주 등장할 수 있기 때문이다. 즉, 명사를 열거할 때에도 명사 간에 갭이 발생할 수 있는데 이러한 갭을 기준으로 문장 단위를 파악할 경우 자칫 하나의 문장임에도 불구하고 복수 개의 문장으로 분할하여 인식하는 오류를 범할 수 있기 때문에 갭의 길이 단위를 기준으로 문장을 구별하는 갭을 추출하거나, 아니면 갭 이전의 파형의 특정 패턴(즉, 파형이 떨어지거나 규칙적으로 상승하는 변화 폭 등)을 통하여 복수 개의 갭 중에서 문장 단위를 구분할 수 있는 갭을 추출하는 기능을 제공한다.In other words, learners with excellent foreign language proficiency can recognize between sentences and sentences only by generating gaps because they do not hang up in the middle of the sentence or do not speak a voice such as 'Um ~'. This is because frequent intervals occur between sentences or meaningless words such as "um ~" may appear frequently. That is, even when nouns are listed, gaps may occur between nouns. When a sentence unit is identified based on such a gap, even if it is a single sentence, the gap unit may be divided into a plurality of sentences. By extracting the gap to distinguish the sentences by reference, or through the specific pattern of the waveform before the gap (that is, the width of the waveform falls or regularly rises, etc.) to extract the gap that can distinguish the sentence unit from the plurality of gaps Provide the function.

물론 복수 개의 단어가 열거되거나 제 1 문장을 마친 후 제 2 문장을 시작할 때의 음성 주파수 변화 패턴이 유사할 수 있고 의문문으로서 파형 끝이 상승하거나 and, so와 같은 접속사에 의해 실제 문장과 문장 사이에 인터벌이 짧은 경우와 같이 다양한 변수가 존재하기 때문에 이러한 다양한 변수에 의한 문장 구별 방식에 대해 발생할 수 있는 모호함은 직접 평가자가 해당 답안 정보를 청취한 다음 판단할 수 있는 기회를 재차 부가할 수 있도록 하여 이를 보완할 수 있도록 하는 것이 가능하다.Of course, a plurality of words may be enumerated, or the pattern of voice frequency changes at the beginning of the second sentence after completing the first sentence may be similar, and the end of the waveform may be raised as a question, or may be connected between the actual sentence and the sentence by a conjunction such as and, so. Ambiguity about how sentences are distinguished by these various variables, such as when there are short intervals, can cause the direct evaluator to re-add the opportunity to hear the answer and then make a judgment. It is possible to make up for it.

문장 개수 파악부(213)는 상술한 구성에 의하여 답안 정보를 구성하는 문장의 개수를 파악하는 기능을 수행하며, 파악된 문장 개수 정보는 평가자가 답안 정보를 듣기 전의 기본 정보로서 평가자에게 제공될 수 있다.
The sentence count determining unit 213 performs a function of identifying the number of sentences constituting the answer information by the above-described configuration, and the identified sentence count information may be provided to the evaluator as basic information before the evaluator hears the answer information. have.

문장 구조 분석 모듈(220)은 문장 단위(즉, 1개 문장)를 기준으로 해당 문장 내에 포함된 단어의 개수를 파악하는 기능을 수행하는 것으로, 이는 선택적으로 구비될 수 있고 스피킹 평가 인터페이스(200)에 별도로 구비된 음성 분석 프로그램과의 연동을 통해 구현되는 것이 가능하다.The sentence structure analysis module 220 performs a function of determining the number of words included in a sentence based on a sentence unit (ie, one sentence), which may be selectively provided and the speech evaluation interface 200. It is possible to be implemented through the linkage with the speech analysis program provided separately.

즉, 음성 분석 프로그램을 통해 개략적으로 각각의 문장에 포함된 단어의 개수를 파악하여 이 단어 개수 정보를 역시 평가자가 답안 정보를 듣기 이전에 제공함으로써 학습자의 문장 구사력을 양적으로 파악할 수 있는 기반을 제공한다.In other words, through the speech analysis program, the number of words included in each sentence is roughly identified, and this word count information is also provided before the evaluator hears the answer information, thereby providing a foundation for quantitatively understanding the sentence proficiency of the learner. do.

음성 분석 프로그램은 현재 공지된 음성 분석 기술을 기반으로 한 프로그램을 의미하는 것으로, 현재까지는 아직 음성을 정확히 텍스트로서 인식하는데 오류가 많다는 한계를 받아들여, 문장의 의미를 분석하기 위함이 아니라 답안 정보를 구성하는 단어의 개수를 파악하는 최소 수준에서만 이용하여 답안 정보를 평가할 때 학습자가 구사한 음성에 포함된 단어 개수를 통해 질적 평가가 아니라 양적 평가를 수행할 수 있는 하나의 기준을 제시할 수 있도록 한다.
The speech analysis program refers to a program based on the currently known speech analysis technology. Up to now, the speech analysis program accepts the limitation that there is a lot of error in recognizing the speech exactly as text. When evaluating the answer information by using only the minimum level of the number of words to be composed, the number of words included in the spoken language used by the learner can provide one criterion for performing quantitative evaluation, not qualitative evaluation. .

답안 재생 모듈(230)은 평가자가 답안 정보를 청취할 수 있도록 평가자에게 스피커를 통해 음성 파일 형식의 답안 정보를 음성 재생하는 기능을 수행하는 것으로, 다시 말해 본 발명은 음성 분석 프로그램에 의한 평가 방식이 아니라 평가자가 학습자의 음성을 직접 들어 평가할 수 있는 방식을 추구하는 것을 기본으로 한다.The answer replay module 230 performs a function of voice reproducing the answer information in the form of a voice file through a speaker so that the evaluator can listen to the answer information. In other words, the present invention provides an evaluation method using a voice analysis program. Rather, it is based on pursuing a way in which the evaluator can hear and evaluate the learner's voice directly.

구체적으로, 상기 답안 재생 모듈(230)은 재생부(231)와 기준선 표시부(232)를 포함한다.In detail, the answer reproduction module 230 includes a playback unit 231 and a baseline display unit 232.

재생부(231)는 음성 파일로 이루어진 답안 정보를 평가자에게 재생하는 기능을 수행하는 것으로, 다시 말해 평가가가 답안을 평가할 수 있도록 평가자에게 답안 정보를 들려주는 역할을 한다.The playback unit 231 plays a function of reproducing the answer information consisting of a voice file to the evaluator, that is, plays a role of telling the evaluator the answer information so that the evaluator can evaluate the answer.

이러한 재생부(231)는 평가의 구체성과 신뢰성을 위하여 구간 반복 기능, 재생 회수 설정 기능은 물론 상기 문장 개수 분석 모듈(210)과 연동하여 문장 별로 재생 후 일시 정지 후 다음 문장 반복 기능, 전 구간 1회 재생 후 각 문장 별 반복 재생 기능을 포함할 수 있다.
The playback unit 231 is a section repeat function, the number of playback setting function as well as the sentence number analysis module 210 in conjunction with the sentence number analysis module 210 for the specificity and reliability of the evaluation, the next sentence repeat function after the pause after the sentence, all sections 1 It may include a replay function for each sentence after the replay.

도 3을 다시 살펴보면, 파형 그래프에서 수직으로 연장된 점선이 존재하는 것을 알 수 있는바 이를 '기준선'이라 한다.Referring back to Figure 3, it can be seen that there is a dotted line extending vertically in the waveform graph is referred to as 'reference line'.

이러한 기준선은 답안 정보가 재생되는 중에 재생 시점을 파형 그래프의 x 축을 따라 이동하는 형태로 표시하는 기능을 수행하는바, 바로 기준선 표시부(232)에서 이와 같은 기능을 수행한다.The reference line performs the function of displaying the reproduction time in the form of moving along the x-axis of the waveform graph while the answer information is reproduced. The reference line 232 performs the same function.

다시 말해, 상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하도록 시각적으로 표시한 것이다.In other words, a reference line extending vertically along the Y axis in the waveform graph is displayed on the waveform graph, wherein the reference line is visually displayed to move along the X axis of the waveform graph while indicating a current reproduction time of the answer information.

이러한 기준선은 답안 정보가 재생되는 지점을 시각적으로 알기 쉽게 평가자에게 알려주는 기본적인 기능 이외에, 평가자의 간단한 조작에 의하여 평가 정보를 녹음할 수 있도록 하는 인디케이터(indicator)의 역할을 수행하는 것으로 이러한 기준선을 활용한 구성은 하기에서 보다 구체적으로 설명한다.This baseline serves as an indicator that allows the evaluator to record the evaluation information by simple manipulation by the evaluator, in addition to the basic function of informing the evaluator visually at the point where the answer information is reproduced. One configuration is described in more detail below.

즉, 답안 재생모듈(230)은 평가자가 직접 답안 정보를 듣도록 하여 보다 정확하고 구체적인 답안 평가를 수행할 수 있도록 하는 환경을 제공함과 동시에, 본 발명에서 기본적으로 추구하는 문장 별 평가 방식을 제공할 수 있는 하나의 기반을 갖추도록 한다.
That is, the answer play module 230 provides an environment that allows the evaluator to directly listen to the answer information to perform a more accurate and specific answer evaluation, and at the same time provide a sentence-by-sent evaluation method basically pursued by the present invention. Make sure you have one foundation.

삽입 부위 결정모듈(240)은 평가자가 문장 별로 평가자의 평가 음성을 녹음하여 삽입할 수 있는 부위, 즉 답안 정보에서의 삽입 부위를 결정하는 기능을 제공하는 것으로서, 기본적으로 답안 정보를 들은 평가자의 마우스 클릭, 키보드 입력에 의해 인위적으로 기준선을 정지(답안 정보의 재생에 대한 일시 정지)시키고 그 정지 부위를 삽입 부위로 지정할 수 있고, 더 나아가 자동 판단에 의하여 삽입 부위를 결정하는 기능을 추가로 제공할 수 있다.Insertion site determination module 240 is to provide a function that allows the evaluator to record and insert the evaluation voice of the evaluator for each sentence, that is, the insertion site in the answer information, basically, the mouse of the evaluator listening to the answer information By clicking and keyboard input, it is possible to artificially stop the baseline (pause for playback of answer information) and designate the stop site as an insertion site, and further provide the function of determining the insertion site by automatic judgment. Can be.

이러한 삽입 부위 결정모듈(240)은 구체적으로 기준선 활성 처리부(241), 기준선 수동 정지부(242), 기준선 자동 정지부(243), 삽입 부위 결정부(244), 삽입 부위 보정부(245)를 포함할 수 있다.Specifically, the insertion site determination module 240 includes a baseline active processing unit 241, a baseline manual stop unit 242, a baseline auto stop unit 243, an insertion site determination unit 244, and an insertion site correction unit 245. It may include.

기준선 활성 처리부(241)는 상기 문장 개수 분석모듈(210)과 연동되어 문장 개수 분석모듈(210)에서 파악한 갭(gap) 영역을 기준선이 지나갈 때 해당 갭 영역에서 기준선을 다른 색으로 표현하거나 깜박이는 것과 같이 시각적 식별성을 추가로 부여하는 기능을 수행한다.The baseline active processor 241 is interlocked with the sentence number analysis module 210 to express or blink the reference line in a different color when the reference line passes through the gap region determined by the sentence number analysis module 210. As such, it performs a function of additional visual identification.

즉, 문장 개수 분석모듈(210)에서 파악한 갭 영역을 평가자에게 알려주도록 하여, 해당 갭 영역을 기준으로 평가 정보를 음성으로 녹음하도록 무언의 지시를 하거나 아니면 해당 갭 영역이 문장과 문장을 구별하는 것이 아니라 문장 중간의 영역인지 여부를 평가자가 주의해서 판단할 수 있는 주의 환기 기능을 부여한다.That is, it is to inform the evaluator of the gap area grasped by the sentence count analysis module 210, and instructs the user to silently record the evaluation information based on the gap area, or if the gap area distinguishes a sentence from a sentence. Rather, it gives the caller the ability for the evaluator to carefully determine whether it is in the middle of a sentence.

기준선 수동 정지부(242)는 상술한 바와 같이 답안 정보를 듣고 있는 평가자의 마우스 클릭 등의 신호 생성에 의해 기준선이 정지되고 그 부위를 평가 정보라 삽입되는 삽입 부위로 인식하도록 하는 역할을 담당하고, 여기서 평가자의 수정에 의하여 삽입 부위가 수정될 수도 있다. As described above, the baseline manual stop unit 242 plays a role of recognizing the site as an insertion site where the baseline is stopped and inserted as evaluation information by the generation of a signal such as a mouse click of the evaluator listening to the answer information. Here, the insertion site may be modified by the evaluator's modification.

기준선 자동 정지부(243)는 상기 문장 개수 분석모듈(210)에서 파악한 갭을 기준으로 1개 문장이 종료되는 답안 정보 재생 시점에서 기준선 및 답안 정보의 음성 재생이 자동으로 일시 정지되도록 하는 기능을 수행한다. The baseline automatic stop unit 243 performs a function of automatically reproducing the voice reproduction of the baseline and the answer information at the time point of the answer information playback in which one sentence is terminated based on the gap determined by the sentence number analysis module 210. do.

다시 말해 평가자의 주관에 의하여 수동으로 답안 정보의 재생을 정지시키고 해당 지점을 삽입 부위로 결정할 수도 있으나, 평가자에게 재생하였음에도 평가자가 평가 정보를 입력하지 않았거나 아니면 평가자의 주의력을 환기시키기 위하여 갭(gap)을 중심으로 하는 재생 시점에서 자동으로 답안 정보 재생이 일시 정지할 수 있도록 하는 기능을 제공하는 것이다.In other words, it is possible to manually stop replaying answer information by the evaluator's supervision and determine the corresponding point as an insertion site. It is to provide a function to automatically stop the playback of answer information at the time of playback centered on the).

기준선 자동 정지부(243)는 반복 재생부(243a)와 알람부(243b)를 포함하는 것이 가능하다.The baseline automatic stop part 243 may include a repeat playback part 243a and an alarm part 243b.

반복 재생부(243a)는 갭 영역에서 답안 정보 재생을 일단 정지한 뒤에 일정 시간이 지나도 평가 정보가 해당 부위에 입력되지 않았을 경우 답안 정보의 재생을 이어 실행함과 동시에 반복 재생을 수행하는 기능을 제공한다.The repeat reproducing unit 243a provides a function of reproducing and reproducing the answer information and executing the replay information when the evaluation information is not input to the corresponding part even after a certain time after the reproduction of the answer information in the gap region is stopped. do.

즉, 문장 개수 분석 모듈(210)에서 파악된 갭 영역이 실제 문장을 구분하는 영역이 아닐 경우 그 외의 재생 시점에서라도 평가자가 평가 정보를 입력하는 프로세스가 실행되어야 함에도 불구하고 평가자의 아무런 조치가 없는 경우에는 평가자가 답안 정보를 반복하여 듣기를 희망하거나 아니면 평가자가 주의를 갖지 않고 답안 정보를 듣거나 아예 듣지 않는 것으로 간주하고 1회차 재생 시 갭 영역에서 답안 정보의 재생을 일시 정지하고, 2회차 이후 재생에서는 일시 정지되는 동작 없이 연속적으로 답안 정보를 미리 설정한 n회차까지 재생하는 기능을 수행한다.That is, if the gap area identified by the sentence count analysis module 210 is not an area for distinguishing the actual sentence, even if the evaluator inputs the evaluation information at other playback points, the evaluator does not take any action. If the evaluator wishes to hear the answer information repeatedly, or the evaluator regards the answer information as not paying attention or does not hear the answer information at all, the play of the answer information is paused in the gap area during the first play, and the play after the second play. Performs a function of continuously reproducing answer information up to n preset times without pausing the operation.

즉, 답안 정보를 평가하는 평가자의 주의력을 요하도록 하거나 아니면 n회차 반복을 통하여 강제적으로 평가자에게 주의력을 부여하는 기능을 제공하여, 답안 평가의 집중력을 제공하도록 하는 특성을 제공한다.In other words, it requires the evaluator's attention to evaluate the answer information or by providing a function to give the evaluator the attention through the n iterations, to provide the concentration of the answer evaluation.

알람부(243b)는 갭 영역에서 답안 정보 재생을 일시 정지한 뒤에 일정 시간이 지나도 평가자의 아무런 조치(해당 갭 영역이 문장 구분 기준이 되지 못하는 것으로 판단하여 재생버튼을 누르거나 아니면 해당 갭 영역이 문장 구분 기준이 되어 평가 정보를 입력하는 일련의 평가 행위)가 없을 경우 시각적 내지 청각적 알람 신호로서 평가자에게 알람 정보를 출력하는 기능을 수행한다.The alarm unit 243b pauses playback of the answer information in the gap area and then presses the play button because it determines that the gap area is not a sentence classification criterion even if a certain time passes. If there is no series of evaluation actions for inputting evaluation information as a classification standard, the alarm information is output to the evaluator as a visual or audio alarm signal.

이 역시, 평가자가 평가 시에 주의를 집중하여 평가를 수행할 수 있도록 한 것으로 이러한 인위적인 알람 기능을 통하여 평가자가 보다 집중하여 답안 정보를 평가할 수 있는 기반을 제공할 수 있도록 한다.
This also allows the evaluator to conduct the evaluation by paying attention to the evaluation. This artificial alarm function provides the basis for the evaluator to concentrate on and evaluate the answer information.

삽입 부위 결정부(244)는 갭 영역에서 기준선이 자동 정지한 부위가 아니라 평가자가 인위적으로 마우스 클릭 등의 행위에 의하여 기준선을 수동 정지시킨 지점을 평가 정보가 삽입될 수 있는 삽입 부위로 최종 결정하는 기능을 제공한다.The insertion site determining unit 244 determines not the site where the reference line is automatically stopped in the gap region but the insertion site where evaluation information can be inserted at the point where the evaluator manually stops the baseline by an action such as a mouse click. Provide the function.

즉, 문장 개수 분석모듈(210)에서 파악한 갭 영역을 평가자가 수정할 수 있도록 하여, 실제 문장 사이 영역을 평가자의 클릭 등의 행위로서 결정하여 이 지점을 문장과 문장의 사이의 영역으로 인식하여 이를'삽입 부위'로서 결정하도록 하는 것이다. That is, the evaluator can correct the gap area identified by the sentence count analysis module 210, and determines the area between the actual sentences as an action such as the clicker of the evaluator, and recognizes this point as the area between the sentences and the sentence. It is to be determined as the insertion site.

삽입 부위 보정부(245)는 평가자가 갭 영역이 아닌 문장 중간 지점에 평가 정보를 인위적으로 삽입하였을 경우 해당 평가 지점에서 제일 근접한 갭 영역으로 해당 평가 정보를 자동으로 이동시켜 학습자의 음성과 평가자의 평가 음성이 서로 겹치는 것을 방지하도록 하는 것이다.When the evaluator artificially inserts the evaluation information into the middle point of the sentence rather than the gap region, the insertion site corrector 245 automatically moves the evaluation information to the gap region closest to the evaluation point to evaluate the learner's voice and the evaluator's evaluation. This is to prevent the voices from overlapping each other.

즉, 평가자의 열의에 의하여 문장의 중간 부위에 인위적으로 평가 정보를 삽입할 수도 있는데 이 경우 학습자의 발음과 겹치거나 다른 학습자의 평가 정보 삽입 부위와 형평성을 유지할 수 없다는 문제가 발생할 수 있기 때문에, 상기 문장 개수 분석 모듈(210)에서 파악한 갭(gap) 영역 중 해당 평가 정보가 입력된 지점에서 가장 가까운 지점의 갭 영역으로 해당 평가 정보를 이동하도록 하는 것이다.That is, the evaluation information may be artificially inserted into the middle part of the sentence due to the enthusiasm of the evaluator. In this case, the problem may occur because it cannot overlap with the learner's pronunciation or maintain the equity of the other learner's evaluation information insertion part. The evaluation information is moved to the gap area of the closest point to the point where the evaluation information is input among the gap areas identified by the sentence count analysis module 210.

정리하면, 이러한 삽입 부위 결정 모듈(240)은 음성 파일 형태의 답안 정보에서 평가자의 평가 음성이 삽입될 수 있는 지점을 효율적으로 결정하여 학습자가 평가자의 평가를 보다 알기 쉽고 문장 별로 이해하기 용이한 첨삭 결과를 제공하도록 한다.
In summary, the insertion site determination module 240 effectively determines the point where the evaluator's evaluation voice can be inserted in the answer file information in the form of a voice file, so that the learner understands the evaluator's evaluation more easily and understands it by sentence. Provide results.

본 발명의 평가정보 삽입모듈(250)은 평가자가 답안 정보에서 상기 삽입 부위 별로 평가자가 작성한 평가 정보를 생성 및 삽입하는 것으로서, 형식 평가부(251), 실질 평가부(252), 문자 평가부(253), 복수 평가부(254), 비교 평가부(255)를 포함하는 것이 가능하다.Evaluation information insertion module 250 of the present invention is that the evaluator generates and inserts the evaluation information prepared by the evaluator for each insertion site in the answer information, form evaluation unit 251, real evaluation unit 252, character evaluation unit ( 253, a plurality of evaluation units 254, and a comparison evaluation unit 255 can be included.

즉, 학습자의 답안 정보를 평가할 때 다양한 평가 요소가 준비될 수 있는데, 본 발명에서는 발음/단어 개수/문장 개수를 평가하는 기준을 '형식 평가 기준'이라 하고, 문장의 구성력, 표현력, 논리성, 연관성, 이해도 등을 평가하는 기준을 '실질 평가 기준'이라 한다.That is, when evaluating the answer information of the learner, various evaluation elements may be prepared. In the present invention, a criterion for evaluating pronunciation / word count / sentence count is referred to as a 'formal evaluation criterion', and sentence composition, expression, logic, and relevance The criteria for evaluating the level of understanding, understanding, etc. are referred to as 'real evaluation criteria'.

형식 평가부(251)는 학습자의 답안 정보를 상술한 형식 평가 기준에 의거하여 평가한 정보를 제공하는 것으로, 구성 정보 평가 파트(251a), 발음 정보 평가 파트(251b)를 포함하는 것이 가능하다.The formal evaluation unit 251 provides information evaluated based on the formal evaluation criteria of the learner's answer information, and may include a configuration information evaluation part 251a and a pronunciation information evaluation part 251b.

구성 정보 평가 파트(251a)는 상술한 구성과 연동되어 답안 정보에 포함된 문장/단어 개수에 대해 평가한 정보를 제공하는 것으로서, 이는 답안 정보가 너무 짧거나 문장은 많은데 너무 단답식이거나 여부를 파악하여 최소한 좋은 문장을 구성할 때 특정 개수에 대한 문장/단어를 포함하였는지 여부를 평가한 정보를 제공한다.The configuration information evaluation part 251a is to provide information evaluated for the number of sentences / words included in the answer information in association with the above-described configuration, which is to determine whether the answer information is too short or too many sentences but too short-answer. At the very least, when a good sentence is composed, information on evaluating whether a specific number of sentences / words is included or not is provided.

발음 정보 평가 파트(251b)는 평가자가 답안 정보를 청취한 뒤에 학습자의 발음의 좋고 나쁜 정도를 평가한 정보를 제공하는 기능을 수행한다.
The pronunciation information evaluation part 251b performs a function of providing information that evaluates the good and bad degree of pronunciation of the learner after the evaluator listens to the answer information.

실질 평가부(252)는 학습자의 답안 정보를 상술한 실질 평가 기준에 입각하여 평가한 정보를 제공하는 것으로, 상술한 실질 평가 항목(문장 구성력, 표현력, 유창함 등)을 평가한 정보를 제공하는 기능을 수행한다.The real evaluation unit 252 provides information obtained by evaluating the student's answer information based on the above-described real evaluation criteria, and provides information on evaluating the above-described real evaluation items (statement of composition, expression, fluency, etc.). Do this.

이러한 각각의 평가 정보는 평가자가 음성으로 녹음한 형식을 기본적으로 취하게 되는데, 이를 '평가 정보'라 한다.Each of the evaluation information basically takes the form recorded by the evaluator by voice, which is called 'evaluation information'.

즉, 평가 정보는 다양한 평가 항목을 포함한 상태에서 답안 정보의 문장 사이에 각 문장 구성 내지 구조에 대한 평가 및 문장의 맨 마지막에서 전체적인 표현력 등의 평가 대상을 평가자의 음성을 기본적으로 포함하여 답안 정보의 삽입 부위에 직접 삽입된다.That is, the evaluation information includes the evaluation object such as the evaluation of each sentence structure or structure between the sentences of the answer information and the overall expression power at the end of the sentence, including various evaluation items. Inserted directly into the insertion site.

이 때, 수치로서 평가 가능한 평가 항목은 종합적인 평가 결과인 점수로 평가하는 것도 가능한데, 예를 들어 발음 78점, 표현력 85점과 같이 평가자가 음성으로 구체성 있게 평가한 것을 점수로서 수치화하여 이를 평가 정보의 일환으로 제공하는 것도 가능하며, 이러한 점수로 표현된 평가 정보는 음성 형식이 아니라 텍스트 내지 이미지 형식으로 구현되어 별도의 파일로서 생성되는 것이 가능하다. In this case, the evaluation items that can be evaluated as numerical values can also be evaluated by a score that is a comprehensive evaluation result. It is also possible to provide as part of, and the evaluation information represented by these scores can be generated as a separate file is implemented in a text or image format rather than a voice format.

또한, 평가 정보는 기본적으로 평가자의 직접적인 음성으로 이루어지나, 평가자가 타이핑을 치거나 아니면 평가자의 평가 음성을 음성 변환 프로그램에 의하여 텍스트로 변환한 형식으로 이루어지는 것도 가능한바, 이를 음성으로 이루어진 평가 정보와 구분되는 개념으로서'문자 평가 정보'라 한다.In addition, the evaluation information is basically composed of the direct voice of the evaluator, but it is also possible that the evaluator is typing or otherwise the evaluator's voice is converted into text by a voice conversion program. As a distinct concept, it is called 'character evaluation information'.

즉, 문자 평가부(253)는 상술한 평가 정보를 텍스트 처리한 형식으로 제공하는 기능을 수행하고, 이러한 문자 형식의 평가 정보는, 문장과 문장 사이에서 학습자의 답안 정보 재생이 잠시 정지가 되도록 한 다음 이러한 문자 평가 정보를 포함한 평가 창이 문장과 문장 사이에서 각 문장 별로 활성 처리되는 방식으로 학습자에게 제공될 수 있다.That is, the character evaluator 253 performs the function of providing the above-mentioned evaluation information in a text-processed form, and the evaluation information in such a character format is designed so that the learner's answer information reproduction is paused between the sentence and the sentence. Next, the evaluation window including the character evaluation information may be provided to the learner in such a manner that the sentence is processed for each sentence between sentences.

다시 말해 본 발명에서의 평가 정보는 물론 평가자의 음성을 통하여 보다 친숙하고 구체적인 평가 내용을 학습자에게 전달하는 것을 주요 목적으로 하나, 반드시 이에 한정되는 것은 아니고 문자/텍스트와 같은 형식으로 제공되는 것도 가능하다.In other words, the main purpose of the present invention is to deliver more familiar and specific evaluation contents to the learner through the voice of the evaluator, as well as the evaluation information. However, the present invention is not necessarily limited thereto and may be provided in a text / text format. .

복수 평가부(254)는 2명 이상의 평가자에 의하여 각각 평가 정보를 생성하도록 한 다음 이를 취합한 종합 평가 정보를 제공하는 기능을 수행한다.The plurality of evaluators 254 allow the two or more evaluators to generate the evaluation information, respectively, and then perform the function of providing the comprehensive evaluation information.

즉, 평가의 객관성을 더욱 보장하기 위하여 하나의 답안 정보를 2명 이상의 평가자에게 전달한 다음 각각의 평가자가 평가를 하도록 하여 제 1 평가정보, 제 2 평가정보,..., 제 n 평가 정보를 생성한 다음 이들을 취합하여 종합적인 평가 정보, 즉 '종합 평가 정보'를 제공하는 것이다.That is, in order to further ensure the objectivity of the evaluation, one answer information is transmitted to two or more evaluators, and then each evaluator generates the first evaluation information, the second evaluation information, ..., the nth evaluation information. They are then aggregated to provide comprehensive assessment information, that is, comprehensive assessment information.

이 때, 음성으로 이루어진 각각의 평가 정보는 학습자의 구체적인 피드백을 위하여, 답안 정보의 삽입 부위에 복수 개의 평가 정보를 모두 삽입하여 학습자에게 제공할 수도 있다.At this time, each of the evaluation information made of voice may be provided to the learner by inserting all the plurality of evaluation information in the insertion site of the answer information for the learner's specific feedback.

이러한 복수 평가부(254)는 구체적으로 평균 점수 생성 파트(254a), 점수 비교 판단 파트(254b) 중 어느 하나로 구성될 수 있다.The plurality of evaluation units 254 may be specifically configured as one of the average score generation part 254a and the score comparison determination part 254b.

앞서 말한 바와 같이, 평가자는 3인 이상일 수 있지만 설명의 편의성을 위하여 3인의 평가자가 평가(즉, 제 1,2,3 평가 정보 존재)한다는 가정에서 설명하도록 한다.As mentioned above, the evaluator may be three or more, but for convenience of explanation, the evaluator assumes that three evaluators evaluate (that is, the presence of the first, second, and third evaluation information).

평균 점수 생성 파트(254a)는 제 1,2,3 평가 정보에서 세부 평가 대상에 대한 점수를 평균 처리하여 이를 종합 평가 정보로 생성 및 제공하는 기능을 수행하는 것으로, 이는 가장 일반적인 종합 평가 방식으로 무난하게 이용할 수 있는 평가 방식이라 할 수 있다.The average score generation part 254a performs a function of averaging the scores for the detailed evaluation targets in the first, second, and third evaluation information, and generating and providing them as comprehensive evaluation information, which is the most general comprehensive evaluation method. This can be called an evaluation method that can be used easily.

점수 비교 판단 파트(254b)는 바람직하게 3인 이상의 평가자가 존재할 때 유용하게 활용할 수 있는 평가 구성으로서, 세부 평가 대상 중 가장 높은 점수와 낮은 점수를 제외한 나머지 점수를 평균 처리하여 종합 평가 정보를 생성 및 제공하는 것이다.The score comparison determination part 254b is preferably an evaluation configuration that can be usefully used when there are three or more evaluators, and generates comprehensive evaluation information by averaging the remaining scores except the highest and lowest scores of the detailed evaluation targets. To provide.

호불호 평가부(255)는 복수 평가부(254)를 특화 처리한 것으로서 복수 개의 평가 정보를 통해 보다 합리적인 종합 결과를 도출하기 위하여 음성으로 이루어진 평가 정보를 텍스트화하여 텍스트 내의 단어의 의미를 분석하여 종합적인 결과를 산정하는 것이다. The call disapproval evaluation unit 255 is a specialized processing of the plurality of evaluation units 254. In order to derive a more rational synthesis result through a plurality of evaluation information, texts of the evaluation information composed of voice are analyzed to synthesize the meaning of the words in the text. Is to calculate the result.

즉, 호불호 평가부(255)는 텍스트를 기반으로 한 오피니언 마이닝(opinion mining) 프로그램을 접목하여 평가자의 평가 정보 내에 포함된 호불호(즉, 좋고 나쁜 의미)를 나타내는 단어의 회수 집계에 의하여 평가 점수를 산정하는 것으로서, 다시 말해 음성으로 이루어진 평가 정보를 텍스트로 변환하거나 아니면 평가 정보 자체를 평가자가 텍스트로 생성한 것에서 텍스트의 의미를 파악하여 세부 평가 대상의 호(好), 불호(不好) 평가를 캐취(catch)한 다음 호불호 회수를 집계(counting)하여 가중치 부여 방식에 의해 종합하여 점수를 산정하는 기능을 제공한다.That is, the call disapproval evaluation unit 255 combines the text-based opinion mining program to calculate the evaluation score by counting the number of words indicating the dislike (ie, good or bad) included in the evaluator's evaluation information. In other words, the evaluation information composed of voice is converted into text, or the evaluation information itself is generated by the evaluator, and the meaning of the text is grasped to determine the good or bad evaluation of the detailed evaluation target. It catches and then counts the number of call failures, and provides a function of calculating the score by combining them by a weighting method.

여기서, 오피니언 마이닝(opinion mining)이라 함은 텍스트(text)화된 언어의 의미를 분석하여 해당 언어가 표현하는 의미 중 최소한 그 의미가 좋고 나쁨을 표현하는지 여부를 파악하는 기능을 제공하는 것으로, 호불호 판단부(255)는 단어 라이브러리를 필수적으로 구비한다.Here, the opinion mining (opinion mining) is to analyze the meaning of the text (language) language to provide a function to determine whether at least the meaning of the meaning of the language expresses good or bad, it is determined as unfavorable The unit 255 essentially includes a word library.

상기 단어 라이브러리는 객체 단어를 분류 및 저장한 객체 단어 DB(255a)와 호불호 단어를 호/불호 의미 별(즉, 좋은 평가를 나타내는 의미와 나쁜 평가를 나타내는 의미)로 분류하여 저장한 호불호 단어 DB(255b) 등을 포함한다.The word library includes an object word DB (255a) that classifies and stores an object word and a call-unfavorable word DB that classifies and stores the call-unfavorable words into call / unlike meanings (that is, meanings indicating good evaluation and bad evaluation). 255b) and the like.

구체적으로 호불호 평가부(255)는 단어 라이브러리 이외에 텍스트 처리 파트(255c), 객체 단어 추출 파트(255d), 호불호 단어 추출 파트(255e), 호불호 정보 생성 파트(255f), 호불호 기산 파트(255g), 호불호 종합 판단 파트(255g)를 포함한다.Specifically, the call disability evaluation unit 255 may include a text processing part 255c, an object word extraction part 255d, a call disagreement word extraction part 255e, a call disability information generation part 255f, a call dismissal calculation part 255g, and the like in addition to the word library. A call dislike synthesis judgment part 255g is included.

텍스트 처리 파트(255c)는 음성으로 이루어진 평가 정보를 음성 변환 프로그램과의 연동을 통하여 텍스트로 변환시키는 역할을 수행한다.The text processing part 255c converts the evaluation information composed of speech into text through interworking with the speech conversion program.

객체 단어 추출 파트(255d)는 객체 단어 DB(255a)를 바탕으로 텍스트 처리된 평가 정보를 구성하는 다양한 단어들 중 평가 대상의 단어, 즉 표현력, 발음, 구사력과 같은 평가 대상을 의미하는 단어인 '객체 단어'를 감지하여 추출하고, 호불호 단어 추출 파트(255e)는 호불호 단어 DB(255b)를 바탕으로 상기 객체 단어와 조사 등을 매개로 연결된 호불호 단어를 추출하는바, 예를 들어 '표현력이 아주 좋은 문장이다.'라는 텍스트 문장이 평가 정보에 수록된 경우, 객체 단어인 '표현력'과 '이'이라는 조사를 매개로 연관된 '아주 좋은'라는 호불호 단어를 추출하는 기능을 수행한다. The object word extracting part 255d is a word of the evaluation object, that is, a word representing an evaluation object such as expression power, pronunciation, or speaking power, among various words constituting the evaluation information processed text based on the object word DB 255a. Object word 'is detected and extracted, and the call-unfavorable word extraction part 255e extracts the call-unfavorable word connected through the object word and the survey based on the call-unfavorable word DB 255b. If the text sentence "is a good sentence." Is included in the evaluation information, it performs the function of extracting the unfavorable word of "very good" associated with the object words "expression power" and "yi".

또한 호불호 정보 생성 파트(255e)은 상기 양 단어의 연관관계를 토대로 호불호 여부(매우 좋은, 좋음, 보통, 나쁨, 매우 나쁨 또는 우수함, 어색함, 부족함 등)가 구별되어 있는 호불호 단어 DB(255b)를 통해 호불호 정보를 파악한 후 평가 정보를 구성하는 하나의 텍스트 문장에서 추출된 복수 개의 호불호 정보 중 해당 텍스트 문장을 대표하는 핵심적인 호불호 정보를 추출하는바, 이는 예를 들어 가장 긍정적이거나 가장 부정적인(다시 말해, '좋아' 보다 '정말 좋아'가 도출되도록) 호불호 정보를 도출하는 기능을 수행하며 이를 위해 비교급, 최상급, 부사 등의 단어를 판별하는 기능을 포함한다.In addition, the call disagreement information generation part 255e selects the call disagreement word DB 255b in which call disagreement (very good, good, normal, bad, very bad or excellent, awkward, lack, etc.) is distinguished based on the relationship between the two words. After grasping the dislike information, the core dislike information representing the text sentence is extracted from the plurality of dislike information extracted from one text sentence constituting the evaluation information, for example, the most positive or the most negative (that is, In this case, the function of deriving disfavor information is derived and the words such as comparative, superlative, and adverb are included.

이는 본 발명에서 정의한 객체가 아닌 다른 객체(예를 들어, 발음/표현력과 같은 평가 대상에 관한 객체가 아닌 다른 객체)를 목적으로 호불호를 표현한 텍스트에서 호불호 정보가 도출되지 않도록 함으로써 평가 대상에 대한 평가자의 판단을 보다 명확히 파악할 수 있도록 할 뿐만 아니라, 평가자가 표현한 평가 정보 중 하나의 텍스트 문장 안에서 여러 호불호 정보가 생성될 경우 복수 개의 호불호 정보가 세부 평가 대상을 기준으로 구분되어 동시에 생성됨으로써 하나의 평가 대상에 대해서 상호 모순되거나 호/불호가 동시에 평가되는 문제를 방지할 수 있다.This is because the evaluator for the evaluation target is prevented from deriving the call disability information from the text expressing the dislike for the purpose of an object other than the object defined in the present invention (for example, an object other than the object related to the evaluation target such as pronunciation / expression ability). In addition to making it possible to more clearly understand the judgment of the decision, when multiple call dislike information is generated in one text sentence among the evaluation information expressed by the evaluator, a plurality of call dislike information is generated based on the detailed evaluation target and simultaneously generated, It is possible to prevent the problem of mutual contradictions or simultaneous call / disapproval.

호불호 정보 기산 파트(255f)는 다수 평가자에 의한 복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보(또는 호불호 단어)를 모두 추출하여 평가 대상(객체) 별로 호불호 정보를 기산하여 일명 '객체별 호불호 수치'를 생성하는 역할을 한다. The call dislike information calculating part 255f extracts all the dislike information (or dislike word) generated from a plurality of text sentences constituting a plurality of evaluation information by a plurality of evaluators and calculates the dislike information for each evaluation object (object). It creates a 'call-to-object number' for each object.

즉, 호불호 정보 기산 파트(255f)는 평가자를 기준으로 구분을 하지 않고 평가 대상(객체) 별로 호불호 정보를 모두 기산, 즉 회수 체크를 하여 체크된 수치로 객체별 호불호 수치를 생성하는 역할을 수행하는바, 이러한 객체별 호불호 수치는 세부 평가 대상 별로 생성될 수 있다. 가령 발음 a, 표현력, b, 문장 구성 c와 같이 a,b,c라는 개별 수치로서 객체 별 호불호 수치가 생성될 수 있는 것이다. That is, the call disagreement information calculating part 255f does not distinguish based on the evaluator, and calculates the call disagreement information for each evaluation target (object), that is, performs a function of generating a check disagreement number for each object with the checked value. Bar, the object-like call number may be generated for each detailed evaluation target. For example, like a pronunciation, expression power, b, sentence configuration c, a, b, c as a separate numerical value can be generated for each object.

이 때, 기산을 위해서 '좋음'을 나타내는 호불호 정보는 1 내지 5의 수치가 할당되고, '나쁨'을 나타내는 호불호 정보는 ??1 내지 ??5 의 수치가 할당되어 이를 합산 처리하도록 한다. 여기서, 호불호 정보의 값이 다른 경우는 수식어의 최상급 표현 여부, 비교급 표현 여부에 의하여 좋다는 가치가 차별화(1에서 5까지)될 수 있기 때문이다.At this time, for the calculation, the call disability information indicating 'good' is assigned a value of 1 to 5, and the call disability information indicating 'bad' is assigned a numerical value of ?? 1 to ?? 5 so as to be summed up. In this case, when the value of the call disagreement information is different, the value of goodness may be differentiated (from 1 to 5) depending on whether the expression of the qualifier is expressed or not.

호불호 종합 판단 파트(255g)는, 상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가를 하나의 종합 수치로서 도출하는 역할을 수행하는 것으로, 본 발명에서는 객체 별 호불호 수치에 대한 가중치를 차등 처리하여 다중 회귀분석 방법을 사용할 수 있고 구체적으로 정규화, 가중치 부여 계산 과정 등을 회귀이론과 접목하여 각각의 객체별 호불호 수치를 독립 변수로 설정하여 가령 "Y= ax1+bx2+cx3+...+nxn"과 같은 선형식에 의하여 산출하는 방식을 취하도록 한다. The call disagreement comprehensive decision part 255g serves to derive a comprehensive evaluation obtained by synthesizing a plurality of evaluation information by using the object disagreement number for each object as one comprehensive value. Multiple regression analysis can be used by differential processing. In particular, normalization, weighting calculation process, etc. can be combined with regression theory to set each object's call-like number as an independent variable, for example, "Y = ax1 + bx2 + cx3 + .. The calculation is done by a linear equation such as. + nxn ".

상기 식에서 a 내지 n에 대한 각각의 상수는 각 객체별 호불호 수치로 할당된 독립변수 x1 내지 xn에 대한 가중치 부여 방식에 의하여 결정이 되는데, 가중치는 발음/표현력/단어 개수/문장 구성과 같은 세부 평가 대상 중 우선이 되어야할 대상을 미리 선정하여 우선순위에 따라 높은 가중치에서 낮은 가중치로 미리 구분하여 설정할 수 있고, 이러한 가중치 부여 방법은 이미 잘 알려진 회귀분석 이론에 따를 수 있으며 이러한 본 발명의 특징이 특정 회계 처리를 위한 수식에 한정되지 않는 것은 물론이다.In the above equation, each constant for a to n is determined by a weighting method for the independent variables x1 to xn assigned as the number of unfavorable numbers for each object, and the weight is evaluated in detail such as pronunciation / expression power / word count / sentence structure. Among the targets, the targets to be prioritized can be pre-selected and pre-divided into high and low weights according to their priorities. The weighting method can be based on a well-known regression theory. Of course, it is not limited to the formula for accounting processing.

더불어, Y 역시 반드시 하나의 수치로서만 대별되는 것이 아니라, 하나의 세부 평가 대상 별로 Y1, Y2 등과 같은 복수 개의 결과 수치를 얻을 수도 있다. In addition, Y is not necessarily classified as a single value, but a plurality of result values such as Y1 and Y2 may be obtained for each detailed evaluation target.

즉, 이와 같은 호불호 평가부(255)에 의하여, 복수의 평가 정보를 보다 합리적으로 종합하여 하나의 수치, 즉 종합 평가 정보로서 제공할 수 있기 때문에 예를 들어 수많은 학습자가 존재할 때 상호 비교 우위를 가릴 기준을 잡기 어렵거나 평가자에 의한 각각의 학습자에 대한 평가를 수치로 표현하기 애매하거나 난해할 때 보다 합리적이고 과학적으로 학습자의 평가 기준, 즉 수치로 대별되는 평가 점수를 산정할 수 있는 기준을 제시할 수 있다.
That is, since the call disapproval evaluation unit 255 can more rationally combine a plurality of evaluation information and provide it as one numerical value, that is, comprehensive evaluation information, for example, when there are a large number of learners, they can distinguish mutually superior advantages. When it is difficult to establish a standard or when it is ambiguous or difficult to express numerically the evaluation of each learner by the evaluator, it is more rational and scientific to present the evaluation criteria of the learner, that is, the criteria for estimating the evaluation scores which are divided by the numerical value. Can be.

비교 평가부(256)는 학습자 자신의 평가 정보는 물론 다른 학습자의 평가 정보를 참조용 내지 비교 판단용으로 동시에 제공하는 기능을 수행하는 것으로, 다시 말해 최고 점수를 받은 학습자(제 2 학습자)의 답안 정보 및 평가 정보를 해당 학습자(제 1 학습자)의 평가 정보에 수록하여 제 1 학습자가 자신의 답안보다 우수한 다른 평가자의 답안을 참조함으로서 학습 의욕을 고취시킬 수 있도록 하는 기능을 제공한다.The comparison evaluation unit 256 performs the function of simultaneously providing the evaluation information of the learner's own evaluation information as well as the other learner's evaluation information for reference or comparison judgment, that is, the answer of the learner (second learner) who received the highest score. The information and the evaluation information are included in the evaluation information of the learner (first learner) to provide a function for the first learner to inspire learning motivation by referring to the answer of another evaluator superior to his or her answer.

구체적으로, 비교 평가부(256)는 점수 수집 파트(256a), 우선순위 판단 파트(256b), 비교 평가 파트(256c)로 구성된다.Specifically, the comparison evaluation unit 256 is composed of a score collection part 256a, a priority determination part 256b, and a comparison evaluation part 256c.

점수 수집 파트(256a)는 다수의 학습자에 대한 평가 정보를 수집하는 기능을 수행하는 것으로, 특히 점수 비교 판단 파트(254b)와 연동되어 학습자에 대한 평가 정보 중에서 점수로 이루어진 문자 평가 정보를 수집하는 역할을 담당한다.The score collection part 256a performs a function of collecting evaluation information for a plurality of learners, and in particular, interlocked with the score comparison determination part 254b to collect character evaluation information consisting of scores among evaluation information about learners. In charge of.

우선순위 판단 파트(256b)는 해당 문자 평가 정보의 점수의 고저를 비교하여 가장 점수가 높은 학습자의 답안 정보를 추출하는 기능을 수행한다.The priority determination part 256b compares the scores of the corresponding character evaluation information and extracts the answer information of the learner having the highest score.

이 때, 점수는 종합 점수일 수도 있고 각각의 형식/실질적 평가 기준 별 점수일 수도 있다.In this case, the score may be a comprehensive score or a score for each type / substantial evaluation criterion.

비교 평가 파트(256c)는 가장 점수가 높은 학습자에 대한 답안 정보를 평가 정보의 후단에 수록하는 기능을 수행한다.The comparison evaluation part 256c performs a function of recording answer information for the learner having the highest score at the end of the evaluation information.

즉, 제 1 학습자의 답안 정보- 평가자의 평가 정보- 제 2 학습자(가장 높은 점수를 받은 학습자)의 답안 정보 순으로 문장 별로 파일 구성이 이루어지도록 함으로써, 학습자가 평가자의 평가 음성을 듣는 것은 물론 가장 높은 점수를 받은 평가자의 답안 음성도 같이 들을 수 있도록 하여, 학습자의 경쟁 의욕을 고취시키거나 우수 학습자의 답안 정보를 참조할 수 있도록 할 수 있다.That is, the learner listens to the evaluation voice of the evaluator by arranging files by sentence in the order of answer information of the first learner-evaluation information of the evaluator-answer information of the second learner (the student with the highest score). The voice of the high-score evaluator's answer can also be heard so that the learner's competitive motivation can be encouraged or the excellent learner's answer information can be referred to.

정리하면, 상술한 평가 정보 삽입 모듈(250)은 다양한 형식과 내용을 수록한 평가 정보를 생성하여 학습자가 자신의 잘못과 오류를 쉽게 파악할 수 있도록 하는 학습 능력 고취 기능을 제공할 수 있다.
In summary, the above-described evaluation information insertion module 250 may provide a function for enhancing learning ability by generating evaluation information including various forms and contents so that a learner may easily grasp his own errors and errors.

본 발명의 통합 정보 생성 모듈을 상기 평가 정보 삽입 모듈에서 생성된 평가 정보를 답안 정보의 각 문장 별로 삽입하여 결과적으로 답안 정보와 평가 정보를 합체하여 통합 정보를 생성하는 기능을 한다.The integrated information generation module of the present invention inserts the evaluation information generated by the evaluation information insertion module for each sentence of the answer information and consequently combines the answer information and the evaluation information to generate the integrated information.

여기서, 통합 정보라 함은 답안 정보와 평가 정보가 합체된 정보를 의미하고, 음성 형식을 주요 구성으로 하면서 부가적으로 점수 등의 문자 정보를 포함할 수 있다.Here, the integrated information may mean information in which the answer information and the evaluation information are merged, and may include text information such as a score while additionally configuring the voice format.

이러한 통합 정보 생성 모듈은 구체적으로 통합 정보 합체부와 인터벌 제어부로 구성된다.The integrated information generation module is specifically composed of an integrated information coalescing unit and an interval control unit.

통합 정보 합체부는 답안 정보의 각각의 문장 별로 평가자가 생성한 평가 정보를 해당 문장 뒤에 합체하는 기능을 수행한다.The integrated information coalescing unit merges the evaluation information generated by the evaluator for each sentence of the answer information after the corresponding sentence.

즉, 평가자가 평가 정보를 생성할 때 답안 정보에서 문장 뒤에 평가 정보를 직접 녹음하여 삽입할 수도 있으나, 평가자가 녹음한 평가 정보를 임시 저장한 다음 평가 정보를 답안 정보의 삽입 부위에 각각 입력하여 합체하는 기능을 제공할 수도 있다.In other words, when the evaluator generates the evaluation information, the evaluation information may be recorded by inserting the evaluation information directly after the sentence in the answer information, but the evaluation information recorded by the evaluator is temporarily stored, and then the evaluation information is entered into the insertion part of the answer information, respectively. It can also provide the ability to:

다시 말해, 답안 정보가 제 1 내지 6개의 문장으로 이루어진 경우, 평가 정보 역시 제 1 내지 6의 개수로 이루어질 수 있는바, 답안 정보의 각각의 갭, 즉 삽입 부위에 연변을 부여하고 이에 상응하도록 평가 정보에도 연번을 부가하여 각각의 연번이 일치하도록 평가 정보를 답안 정보의 삽입 부위에 합체할 수 있다.In other words, when the answer information consists of the first to six sentences, the evaluation information may also be the number of the first to six, so that each gap of the answer information, i. The information can also be added to the sequence number so that the evaluation information can be incorporated into the insertion site of the answer information so that each sequence coincides.

이와 같이 각각의 위치에 맞게 답안 정보에 합체된 평가 정보와 더불어 통합 장보(파일 형식)이 생성되고, 평가 정보 중 음성이 아닌 형식(점수 등의 문자, 이미지)은 별도의 분리된 파일 형태로 생성되는 것이 가능하며, 앞서 말한 바와 같이 학습자가 이 통합 정보를 재생할 때 음성의 재생시간에 맞추어 문자 평가 정보가 화면에 활성 처리될 수 있다.In this way, the integrated information (file format) is generated along with the evaluation information incorporated in the answer information for each location, and the non-speech format (characters such as scores and images) of the evaluation information is generated in a separate file format. As described above, when the learner reproduces the integrated information, the character evaluation information can be activated on the screen in accordance with the reproduction time of the voice.

인터벌 제어부는 삽입 부위, 즉 문장과 문장 사이에 삽입(합체)된 평가 정보를 학습자가 들을 때 학습자의 음성과 평가자의 음성이 인터벌 없이 겹쳐지는 것을 방지하기 위해, 강제적인 인터벌을 부여하는 기능을 수행한다.The interval controller performs a function of providing a forced interval to prevent the learner's voice and the evaluator's voice from overlapping without an interval when the learner listens to the insertion part, that is, the evaluation information inserted between the sentences and the sentences. do.

즉, 인터벌 제어부는 평가 정보가 답안 정보의 삽입 부위에 삽입될 때 삽입 부위의 재생 시간을 강제적으로 늘려 늘려진 삽입 부위에 평가 정보가 삽입되도록 하여, 답안 정보의 제 1 문장 - 평가 정보 - 답안 정보의 제 2 문장과 같은 각각의 음성 객체 사이에 예를 들어 2 내지 3초의 강제적인 인터벌(무음)이 발생하도록 하는 역할을 담당하는 것이다.That is, when the evaluation information is inserted into the insertion site of the answer information, the interval control unit forcibly increases the playing time of the insertion site so that the evaluation information is inserted into the extended insertion site, so that the first sentence of the answer information-evaluation information-answer information It is responsible for causing a forced interval (silence) of, for example, 2 to 3 seconds between each voice object, such as the second sentence.

이는, 학습자의 음성과 평가자의 음성이 겹치거나 인터벌 없이 학습자의 문장 재생이 끝난 뒤 곧바로 평가자의 평가 음성이 시작됨으로 학습자의 연상/ 학습 대기 시간을 갖지 못하는 폐해를 방지하는 특성을 제공하기 위함이다.This is to provide a characteristic of preventing a learner's voice from having an association / learning waiting time since the evaluator's evaluation voice starts immediately after the learner's voice overlaps or the learner's sentence is reproduced without an interval.

즉, 음성 파일 사이에 별도의 음성을 삽입하는 본 발명의 특성에서 최소한 음성과 음성 간에 맞물리는 문제가 발생하는 것을 방지하도록 하여 보다 안정적으로 학습자가 통합 정보를 청취할 수 있도록 하는 분위기를 조성한다.
That is, in the characteristic of the present invention in which separate voices are inserted between voice files, at least a problem of interlocking between voices and voices is prevented from occurring, thereby creating an atmosphere that enables the learner to listen to the integrated information more stably.

전송 모듈은 상기 통합 정보를 스피킹 학습 인터페이스, 구체적으로 피드백 모듈에 전송하여 학습자가 이를 청취하거나 시청함으로써 자신의 오류와 점수, 개선 방향을 확인할 수 있도록 한다.
The transmitting module transmits the integrated information to the speaking learning interface, specifically, the feedback module, so that the learner can check his or her error, score, and improvement direction by listening to or watching it.

지금까지 설명한 바와 같이, 본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.
As described so far, the configuration and operation of the foreign language speaking evaluation system through the online according to the present invention have been expressed in the above description and the drawings, but this is merely an example, and the spirit of the present invention is not limited to the above description and the drawings. Of course, various changes and modifications are possible without departing from the spirit of the present invention.

100: 스피킹 학습 인터페이스 110: 문제 제공 모듈
120: 답안 녹음 모듈 121: 종료시간 표시부
122: 강제녹음 종료부 130: 전송 모듈
140: 피드백 모듈 200: 스피킹 평가 인터페이스
210: 문장 개수 분석모듈 211: 파형 표시부
212: 갭 파악부 212a: 인터벌 파악수단
212b: 진폭 변위 파악 수단 212c: 갭 분석 수단
213: 문장 개수 파악부 220: 문장 구조 분석 모듈
230: 답안 재생모듈 231: 재생부
232: 기준선 표시부 240: 삽입 부위 결정 모듈
241: 기준선 활성 처리부 242: 기준선 수동 정지부
243: 기준선 자동 정지부 243a: 반복 재생부
243b: 알람부 244: 삽입 부위 결정부
245: 삽입 부위 보정부 250: 평가 정보 삽입 모듈
251: 형식 평가부 251a: 구성 정보 평가 파트
252b: 발음 정보 평가 파트 252: 실질 평가부
253: 문자 평가부 254: 복수 평가부
254a: 평균 점수 생성 파트 254b: 점수 비교 판단 파트
255: 호불호 평가부 255a: 객체 단어 DB
255b: 호불호 단어 DB 255c: 텍스트 처리 파트
255d : 객체 단어 추출 파트 255e : 호불호 단어 추출 파트
255f: 호불호 정보 생성 파트 255g : 호불호 기산 파트
255e: 호불호 종합 판단 파트 256: 비교 평가부
256a: 점수 수집 파트 256b: 우선순위 판단 파트
256c: 비교 평가 파트 260: 통합 정보 생성 모듈
261: 통합 정보 합체부 262: 인터벌 제어부
270: 전송 모듈
100: speaking learning interface 110: problem provision module
120: answer recording module 121: end time display unit
122: forced recording end 130: transmission module
140: feedback module 200: speaking evaluation interface
210: sentence number analysis module 211: waveform display unit
212: gap grasp unit 212a: interval grasp means
212b: amplitude displacement checking means 212c: gap analysis means
213: sentence number grasping unit 220: sentence structure analysis module
230: answer playback module 231: playback unit
232: reference line display unit 240: insertion site determination module
241: baseline active processing unit 242: baseline manual stop
243: reference line auto stop 243a: repeat playback
243b: alarm unit 244: insertion site determining unit
245: insertion site correction unit 250: evaluation information insertion module
251: type evaluation unit 251a: configuration information evaluation part
252b: pronunciation information evaluation part 252: real evaluation unit
253: character evaluation unit 254: plural evaluation unit
254a: Average Score Generation Part 254b: Score Comparison Determination Part
255: call disagreement unit 255a: object word DB
255b: dislike word DB 255c: text processing part
255d: object word extraction part 255e: unfavorable word extraction part
255f: disagreement information generation part 255g: disagreement calculation part
255e: dissatisfaction comprehensive judgment part 256: comparative evaluation unit
256a: Score Collection Part 256b: Priority Decision Part
256c: Evaluation of Comparison Part 260: Integration Information Generation Module
261: integrated information coalescing unit 262: interval control unit
270: transmission module

Claims (11)

온라인을 통한 외국어 말하기 평가 시스템으로서,
학습자에게 스피킹 문제를 제공하는 문제 제공 모듈 및,
상기 스피킹 문제를 접한 학습자로부터 답안을 음성으로 녹음하여 답안 정보를 생성하는 답안 녹음 모듈과,
상기 답안 정보를 스피킹 평가 인터페이스에 전송하는 전송 모듈 및,
스피킹 평가 인터페이스로부터 통합 정보를 전송받아 학습자에게 재생시키는 피드백 모듈로 구성된, 스피킹 학습 인터페이스;
상기 답안 정보의 음성 주파수를 분석하여 답안 정보를 구성하는 문장 개수와 각 문장 사이의 갭 영역을 파악하는 문장 개수 파악 모듈과,
상기 답안 정보를 평가자에게 재생하는 답안 재생 모듈 및,
재생이 된 답안 정보의 각 문장별로, 평가자의 음성으로 녹음한 평가 정보를 생성하는 평가 정보 삽입 모듈 및,
상기 평가 정보를 답안 정보의 각 문장 사이에 삽입하여, 답안 정보와 평가 정보가 합체된 통합 정보를 생성하는 통합 정보 생성 모듈과,
상기 통합 정보를 상기 스피킹 학습자 인터페이스의 피드백 모듈에 전송하는 전송 모듈을 포함한, 스피킹 평가 인터페이스;로 구성되되,
상기 평가 정보 삽입 모듈은,
하나의 답안 정보를 기준으로, 복수 명의 평가자의 음성으로 각각 녹음되어 복수 개로 생성된 평가 정보를 텍스트로 변환하는 텍스트 변환 처리 파트;
학습자의 실력을 평가하는 평가 대상에 대한 의미를 갖는 객체 단어를 저장한 객체 단어 DB 및 호불호 의미를 갖는 호불호 단어를 저장한 호불호 DB를 포함한 단어 라이브러리;
상기 객체 단어 DB를 바탕으로 상기 텍스트 처리된 평가 정보 중 객체 단어를 추출하는 객체 단어 추출 파트;
상기 호불호 DB를 바탕으로 상기 객체 단어와 조사를 매개로 연결된 호불호 단어를 추출하는 호불호 단어 추출 파트;
상기 객체 단어와 상기 호불호 단어의 연관관계를 토대로 텍스트 처리된 평가 정보의 문장 별로 호불호 정보를 생성하는 호불호 정보 생성 파트;
복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보를 모두 추출하여 평가 정보의 평가 대상 별로 호불호 정보를 기산하여 객체별 호불호 수치를 생성하는 호불호 정보 기산 파트;
상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가 결과를 하나의 종합 수치로 산출하는 호불호 종합 판단 파트;로 구성된, 호불호 평가부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
As a foreign language speaking evaluation system online,
A problem-providing module that provides the speaker with a speaking problem, and
An answer recording module for generating answer information by recording an answer from a learner who is in contact with the speaking problem;
A transmission module for transmitting the answer information to a speaking evaluation interface;
A speaking learning interface comprising a feedback module for receiving the integrated information from the speaking evaluation interface and playing the information to the learner;
A sentence number grasping module for analyzing the voice frequency of the answer information and grasping the number of sentences constituting the answer information and a gap region between the sentences;
An answer playing module for playing the answer information to an evaluator;
An evaluation information insertion module for generating evaluation information recorded by an evaluator's voice for each sentence of the replied answer information;
An integrated information generation module which inserts the evaluation information between the sentences in the answer information and generates integrated information in which the answer information and the evaluation information are combined;
Speaking evaluation interface, including a transmission module for transmitting the integrated information to the feedback module of the speaker learner interface,
The evaluation information insertion module,
A text conversion processing part for converting a plurality of pieces of evaluation information, which are respectively recorded by voices of a plurality of evaluators based on one answer information, into text;
A word library including an object word DB storing an object word having a meaning for an evaluation target for evaluating a learner's ability and a call disability DB storing a call dislike word having a dislike meaning;
An object word extraction part for extracting an object word from the text processed evaluation information based on the object word DB;
A call disagreement word extraction part for extracting a call disagreement word connected through the object word and the survey based on the call disagreement DB;
A call dislike information generating part for generating call dislike information for each sentence of the evaluation information processed text based on the relation between the object word and the call dislike word;
A call-and-call information calculating part for extracting all the call-like information generated from the plurality of text sentences constituting the plurality of evaluation information and calculating the call-like information for each evaluation target of the evaluation information to generate a call-like number for each object;
Foreign language via online, comprising a; call disfavor evaluation unit consisting of; a call disfavor comprehensive decision part for calculating a comprehensive evaluation result of a plurality of evaluation information by using the call dislike number for each object as one comprehensive value Speaking assessment system.
제 1항에 있어서,
상기 문장 개수 분석 모듈은,
상기 답안 정보의 음성 주파수 분포를 파형 그래프로서 표시하는 파형 표시부;
상기 파형 그래프에서 데시벨 수치와 진폭 변위의 고저 상태를 비교하여 복수 개의 갭을 파악하는 갭 파악부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
The method of claim 1,
The sentence count analysis module,
A waveform display for displaying the speech frequency distribution of the answer information as a waveform graph;
And a gap determination unit for comparing a high and low state of the decibel value and the amplitude displacement in the waveform graph to identify a plurality of gaps.
제 2항에 있어서,
상기 갭 파악부는,
데시벨 수치와 진폭 변위의 고저 상태 비교에 의해 파악된 상기 복수 개의 갭에서, 갭의 길이 차이와 갭이 발생되기 전 파형 변화의 패턴 분석을 통하여 문장 단위를 구분할 수 있는 갭을 추출하는 갭 분석 수단;을 추가로 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
The method of claim 2,
The gap grasp portion,
Gap analysis means for extracting a gap capable of classifying sentence units in the plurality of gaps identified by a decibel value and a high and low state comparison of amplitude displacements, by analyzing a pattern of waveform changes before gaps and gaps are generated; Further comprising a, foreign language speaking evaluation system online.
제 2항에 있어서,
상기 답안 재생 모듈은,
상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프 상에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하는 형태로 시각적으로 표시된 기준선 표시부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
The method of claim 2,
The answer reproduction module,
A baseline display unit displaying a reference line extending vertically along a Y axis in the waveform graph on the waveform graph, the reference line visually displayed along the X axis of the waveform graph while indicating a current reproduction time of the answer information; Characterized in that the foreign language speaking evaluation system through online.
제 4항에 있어서,
상기 스피킹 평가 인터페이스는,
상기 문장 개수 분석모듈에서 파악한 상기 갭 영역을 상기 기준선이 지나갈 때 해당 갭 영역에서 표시되는 상기 기준선을 색상과 점멸 방식으로 시각적 식별성을 부여하는 기준선 활성 처리부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
5. The method of claim 4,
The speaking evaluation interface,
And a reference line active processor configured to provide visual identification of the reference line displayed in the corresponding gap region in a color and blinking manner when the gap region identified by the sentence count analysis module passes. A foreign language speaking evaluation system through online.
제 4항에 있어서,
상기 스피킹 평가 인터페이스는,
상기 문장 개수 분석모듈에서 파악한 상기 갭을 기준으로 1개 문장이 종료되는 답안 정보 재생 시점에 상기 기준선의 이동상태 및 답안 정보의 재생이 일시 정지되도록 하는 기준선 자동 정지부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
5. The method of claim 4,
The speaking evaluation interface,
Insertion part determination module, including; a reference line automatic stop unit to pause the reproduction of the reference state and the movement state of the answer information at the time when the answer information information that ends one sentence on the basis of the gap identified by the sentence count analysis module; And a foreign language speaking evaluation system online.
제 2항에 있어서,
상기 스피킹 평가 인터페이스는,
상기 통합 정보 생성 모듈에서 평가자에 의하여 답안 정보 중 갭 영역이 아닌 재생 지점에 평가 정보가 삽입되었는지 여부를 판단하여, 평가 정보가 갭 영역에 삽입된 것이 아닌 경우 해당 평가 정보가 삽입된 지점에서 가장 가까운 재생 시점인 갭 영역으로 해당 평가 정보를 이동시키는, 삽입 부위 보정부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.
The method of claim 2,
The speaking evaluation interface,
In the integrated information generating module, the evaluator determines whether the evaluation information is inserted into the reproduction point other than the gap area of the answer information, and when the evaluation information is not inserted into the gap area, the evaluation information is the closest to the point where the evaluation information is inserted. And an insertion site determination module for moving the corresponding evaluation information to a gap region which is a reproduction point of time.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020120102938A 2012-09-17 2012-09-17 System for evaluating foreign language speaking through on-line KR101318377B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120102938A KR101318377B1 (en) 2012-09-17 2012-09-17 System for evaluating foreign language speaking through on-line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120102938A KR101318377B1 (en) 2012-09-17 2012-09-17 System for evaluating foreign language speaking through on-line

Publications (1)

Publication Number Publication Date
KR101318377B1 true KR101318377B1 (en) 2013-10-16

Family

ID=49638514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120102938A KR101318377B1 (en) 2012-09-17 2012-09-17 System for evaluating foreign language speaking through on-line

Country Status (1)

Country Link
KR (1) KR101318377B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101474389B1 (en) 2013-12-31 2014-12-18 경희대학교 산학협력단 Method for operating evaluation server of speech evaluation system and recording medium
KR101478756B1 (en) * 2014-10-29 2014-12-31 경희대학교 산학협력단 Method for evaluating speech using speech evaluation program executed in evaluator computer and recording medium thereof
KR101992370B1 (en) * 2018-04-20 2019-06-24 주식회사 스터디맥스 Method for learning speaking and system for learning
KR20200081707A (en) 2018-12-28 2020-07-08 주식회사 이르테크 A apparatus of learning feedback and making express for speaking trainee
KR20200088073A (en) * 2019-01-14 2020-07-22 김주혁 English speaking evaluation system and method thereof
KR20200113143A (en) 2019-03-23 2020-10-06 주식회사 이르테크 A calibration system for language learner by using audio information and voice recognition result
KR20210077172A (en) 2019-12-17 2021-06-25 주식회사 이르테크 Phone Language Learning Automation System Using Speech Visualization and Storytelling Chatbot Framework
KR20210103831A (en) 2020-02-14 2021-08-24 김영섭 Apparatus and method for managing foreign language study on line
KR102294735B1 (en) 2021-03-26 2021-08-27 (주)에이피아이넥스트 Method, device and system for providing speaking analysis content using feedback based on artificial intelligence
KR20220053412A (en) * 2020-10-22 2022-04-29 이화여자대학교 산학협력단 Evaluation method for consecutive interpretation training, recording medium and device for performing the method
KR20220086923A (en) 2020-12-17 2022-06-24 최효준 English pronunciation automatic evaluation system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060083862A (en) * 2005-01-18 2006-07-21 서문종 System and method for synthesizing music and voice, and service system and method thereof
KR20090082602A (en) * 2008-01-28 2009-07-31 박형진 Method of English Study By Using Voice File
KR20100050946A (en) * 2008-11-06 2010-05-14 (주) 아이보린 Foreign language studying system using on-line and method thereof
KR20120022100A (en) * 2010-09-01 2012-03-12 김영각 Method and system for managing online correction of practice test

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060083862A (en) * 2005-01-18 2006-07-21 서문종 System and method for synthesizing music and voice, and service system and method thereof
KR20090082602A (en) * 2008-01-28 2009-07-31 박형진 Method of English Study By Using Voice File
KR20100050946A (en) * 2008-11-06 2010-05-14 (주) 아이보린 Foreign language studying system using on-line and method thereof
KR20120022100A (en) * 2010-09-01 2012-03-12 김영각 Method and system for managing online correction of practice test

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101474389B1 (en) 2013-12-31 2014-12-18 경희대학교 산학협력단 Method for operating evaluation server of speech evaluation system and recording medium
KR101478756B1 (en) * 2014-10-29 2014-12-31 경희대학교 산학협력단 Method for evaluating speech using speech evaluation program executed in evaluator computer and recording medium thereof
KR101992370B1 (en) * 2018-04-20 2019-06-24 주식회사 스터디맥스 Method for learning speaking and system for learning
KR20200081707A (en) 2018-12-28 2020-07-08 주식회사 이르테크 A apparatus of learning feedback and making express for speaking trainee
KR102196917B1 (en) 2019-01-14 2020-12-30 김주혁 English speaking evaluation system and method thereof
KR20200088073A (en) * 2019-01-14 2020-07-22 김주혁 English speaking evaluation system and method thereof
KR20200113143A (en) 2019-03-23 2020-10-06 주식회사 이르테크 A calibration system for language learner by using audio information and voice recognition result
KR20210077172A (en) 2019-12-17 2021-06-25 주식회사 이르테크 Phone Language Learning Automation System Using Speech Visualization and Storytelling Chatbot Framework
KR20210103831A (en) 2020-02-14 2021-08-24 김영섭 Apparatus and method for managing foreign language study on line
KR20220053412A (en) * 2020-10-22 2022-04-29 이화여자대학교 산학협력단 Evaluation method for consecutive interpretation training, recording medium and device for performing the method
KR102529241B1 (en) * 2020-10-22 2023-05-08 이화여자대학교 산학협력단 Evaluation method for consecutive interpretation training, recording medium and device for performing the method
KR20220086923A (en) 2020-12-17 2022-06-24 최효준 English pronunciation automatic evaluation system and method
KR102294735B1 (en) 2021-03-26 2021-08-27 (주)에이피아이넥스트 Method, device and system for providing speaking analysis content using feedback based on artificial intelligence

Similar Documents

Publication Publication Date Title
KR101318377B1 (en) System for evaluating foreign language speaking through on-line
Suzuki et al. The relationship between utterance and perceived fluency: A meta‐analysis of correlational studies
Kendall Speech rate, pause and sociolinguistic variation: studies in corpus sociophonetics
CN109785698B (en) Method, device, electronic equipment and medium for oral language level evaluation
Chen Note-taking in consecutive interpreting: New data from pen recording
US6397185B1 (en) Language independent suprasegmental pronunciation tutoring system and methods
Cucchiarini et al. Oral proficiency training in Dutch L2: The contribution of ASR-based corrective feedback
CN102034475B (en) Method for interactively scoring open short conversation by using computer
US20170323577A1 (en) Automated generation and presentation of lessons via digital media content extraction
US20110207099A1 (en) Measuring cognitive load
Tavakoli et al. Scoring validity of the Aptis Speaking Test: Investigating fluency across tasks and levels of proficiency
Al-Ghazali et al. Silent pauses in the speech of Yemeni EFL learners
Che et al. Automatic online lecture highlighting based on multimedia analysis
Xu et al. Assessing L2 English speaking using automated scoring technology: examining automarker reliability
Uchihara et al. Re-examining the relationship between productive vocabulary and second language oral ability
Baur et al. A shared task for spoken CALL?
Neumeyer et al. Webgrader: a multilingual pronunciation practice tool
KR20100078374A (en) Apparatus for correcting pronunciation service utilizing social learning and semantic technology
KR102460272B1 (en) One cycle foreign language learning system using mother toungue and method thereof
CN114241835A (en) Student spoken language quality evaluation method and device
KR101315095B1 (en) Foreign language listening studying system through inputting words by user
RU135830U1 (en) TRAINING DEVICE FOR EXERCISING SKILLS IN LEARNING LANGUAGES
Nagamine Formant dynamics in second language speech: Japanese speakers' production of English liquids
Nagao et al. Discussion-skill Analytics with Acoustic, Linguistic and Psychophysiological Data.
Pellegrini et al. ASR-based exercises for listening comprehension practice in European Portuguese

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170901

Year of fee payment: 5