KR101318377B1 - System for evaluating foreign language speaking through on-line - Google Patents
System for evaluating foreign language speaking through on-line Download PDFInfo
- Publication number
- KR101318377B1 KR101318377B1 KR1020120102938A KR20120102938A KR101318377B1 KR 101318377 B1 KR101318377 B1 KR 101318377B1 KR 1020120102938 A KR1020120102938 A KR 1020120102938A KR 20120102938 A KR20120102938 A KR 20120102938A KR 101318377 B1 KR101318377 B1 KR 101318377B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- evaluation
- answer
- speaking
- call
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 299
- 238000003780 insertion Methods 0.000 claims description 40
- 230000037431 insertion Effects 0.000 claims description 40
- 238000004458 analytical method Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012357 Gap analysis Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000004397 blinking Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 49
- 230000008859 change Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Signal Processing (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 온라인을 통한 외국어 말하기 평가 시스템으로서, 기존의 음성 인식 프로그램을 이용한 기계적 발음 분석 방법과 달리, 외국어 말하기 테스트 중에서 외국어를 이용한 주관/설명/의견/생각 등에 대한 표현 능력을 평가하기 위하여 학습자의 음성을 다수 개의 문장으로 요청하여 이 문장 별 또는 전체에 대한 평가를 평가자가 보다 원활하고 합리적으로 수행함으로써 합리적인 평가 방식을 제시할 뿐 아니라 학습자의 실력을 향상시킬 수 있도록 하는 인터페이스를 포함한 외국어 말하기 평가 시스템에 관한 것이다.
The present invention is a foreign language speech evaluation system online, unlike the conventional mechanical pronunciation analysis method using a speech recognition program, in order to evaluate the learner's ability to express subjects, explanations, opinions, thoughts, etc. using a foreign language in a foreign language speaking test. Foreign language speaking evaluation system including an interface that requests voices in multiple sentences so that evaluators can perform the evaluation of each sentence or the whole more smoothly and reasonably, thereby providing a reasonable evaluation method and improving learners' skills. It is about.
현재 외국어 학습 방법 및 시스템은 상당히 다양한 종류가 공개되어 있고, 한국의 경우 외국어 중에서 특히 영어 학습에 대한 수많은 교재와 학습방법이 공개되어 있는 현실이다.At present, there are a great variety of foreign language learning methods and systems, and in Korea, many textbooks and methods of learning foreign languages, especially English, are disclosed.
외국어는 현재 4대 영역, 듣기(listening), 쓰기(writing), 읽기(reading), 말하기(speaking) 영역을 각각 구분하여 각 영역 별로 세분화되거나 특성화된 교육 방법이 제공되고 있는데, 인터넷 기술의 발달에 힘입어 이러한 외국어 교육이 인터넷 교육 사이트 내지 모바일 앱과 같은 온라인 매체를 통하여 널리 수행되고 있는 상황이다.Foreign languages are divided into four major areas, listening, writing, reading, and speaking, respectively, and are provided with detailed or specialized educational methods for each area. As a result, such foreign language education is widely performed through online media such as internet education sites or mobile apps.
한국의 교육과학기술부는 해외 영어 시험(TOEIC, TOEFL)의 의존도를 낮추고 학생들의 실질적인 영어 의사소통 능력을 향상시키기 위해 학생용 국가영어능력평가시험(NEAT : National English Ability Test)를 수행하기로 결정했다.The Korean Ministry of Education, Science and Technology decided to conduct the National English Ability Test (NEAT) for students to reduce the reliance on overseas English tests (TOEIC, TOEFL) and improve students' practical English communication skills.
즉, 이 NEAT는 듣기와 읽기는 잘하나 의사 표현 능력은 상대적으로 열세를 갖는 과거 한국인을 대상으로 하는 영어시험의 큰 문제점을 보완한 것으로, 특히 말하기와 쓰기에 대한 평가가 강화된 것이라 할 수 있다.In other words, the NEAT supplements the big problem of the English test for the past Koreans who are good at listening and reading but relatively poor in expressive ability, especially the evaluation of speaking and writing. .
여기서, '말하기'는 단순히 특정 문장을 학생에게 말하도록 하여 학생의 발음을 테스트하는 단편적인 수준을 넘어서 실질적인 표현 능력, 즉 여러 문장과 단어로서 학생의 의사 표현 능력을 평가하기 위한 기준을 제시하였고, 이는 앞서 언급한 바와 같이 발음의 옭고 그름을 표현하는 형식적 평가보다 학생의 생각을 말로서 자유로이 표현할 수 있는지 여부를 평가하는 실질적 평가가 더욱 중요하다고 판단하였기 때문이다.Here, 'speaking' has suggested a criterion for evaluating the student's expression ability through actual expression ability, that is, several sentences and words, beyond the fragmentary level of simply testing a student's pronunciation by simply telling the student a specific sentence. This is because, as mentioned above, it is more important to evaluate the actual evaluation of whether students can freely express their thoughts with words than the formal evaluation of the pronunciation of words.
예를 들어, 지문을 학생에게 제시한 다음 지문에 도시된 그림을 보고 학생의 의견을 표현하거나 문제점을 서술하도록 하되 가령 1분의 시간동안 5-6개의 문장 및 300 단어가 포함되어야 하는 기준을 제시하여 이에 맞게 학생이 말한 것을 평가할 수 있도록 하는 것이다.For example, present a fingerprint to a student, and then look at the pictures on the fingerprint to express the student's opinion or describe the problem, for example, suggesting that the criteria should include 5-6 sentences and 300 words in one minute. This allows students to evaluate what they say accordingly.
현재, 외국어(특히 영어) 말하기 학습 내지 평가 시스템에 대한 기술이 상당수 공개되어 있는바, 예를 들면 한국 특허 제 1145440호 '음성 인식 기술을 이용한 외국어 말하기 평가 방법 및 시스템', 한국 특허 제 385892호 ' 외국어 말하기 평가 시스템', 한국 특허 제 997255호 '음성 인식 기술을 활용한 언어학습 시스템', 한국 특허출원 제 10-2010-0083459호 '시험에 대한 분석 결과를 제공하기 위한 시스템'들 이외에 상당 수가 게시되어 있다.Currently, a large number of technologies for foreign language (especially English) speaking learning or evaluation systems are disclosed. For example, Korean Patent No. 1145440, 'Method and System for Evaluating Foreign Languages Using Speech Recognition Technology', and Korean Patent No. 385892 ' Foreign Language Speaking Evaluation System, Korean Patent No. 997255, 'Language Learning System Using Speech Recognition Technology', and Korean Patent Application No. 10-2010-0083459, 'System for Providing Analysis Results for Examination' It is.
그런데 상기 기술들에 의하면, 단순히 학습자가 말한 음성을 녹음하여 평가자에게 전달하는 온라인 프로세스만을 설명하거나 발음/억양 평가를 위한 음성 인식/분석 기술만을 위주로 학습자의 말하기를 평가한다는 한계를 벗어나지 못하고 있다. However, according to the above techniques, it is not limited to simply explaining the online process of recording the voice spoken by the learner and delivering it to the evaluator, or evaluating the learner's speech based only on the speech recognition / analysis technique for the pronunciation / inspiration evaluation.
즉, 상기 기술들에서 언급된 음성 인식 기술은 주파수 분석에 의해 발음/억양 수준을 평가하거나, 말하기 정답 데이터베이스 또는 핵심어 데이터베이스를 미리 구비한 상태에서 학습자의 음성에서 특정 단어가 포함되었는지 여부를 평가하는 방식을 지원하나, 복수 개의 문장의 논리적 구조와 실질적 유창성 등을 평가하는 것은 거의 불가능하다 할 수 있다.That is, the speech recognition technique mentioned in the above techniques is a method of evaluating the pronunciation / innation level by frequency analysis, or evaluating whether a specific word is included in the learner's speech with a speech answer database or a keyword database in advance. However, it is almost impossible to evaluate the logical structure and practical fluency of a plurality of sentences.
다시 말해, 말하기 평가(특히 자유로운 의사표현 능력에 대한 평가)에 대한 정답은 단순히 특정 단어를 포함하였는지 여부라는 1개 기준에 의하여 1-2개의 정답만으로 존재하는 것이 아니고, 네이티브 스피커와의 발음 비교를 통한 주파수 파형 차이와 같은 평가 방식을 통해서 말하기 능력이 뛰어나다고 평가할 수 있는 것이 아니라는 의미이다.In other words, the correct answer for speaking evaluation (especially for free speech expression ability) does not exist in one or two correct answers based on one criterion of whether a particular word is included or not. This means that it is not possible to judge that speaking ability is excellent through evaluation methods such as frequency waveform difference.
현재 공개된 음성 인식 기술이 아무리 발전했다 해도, 복수 개로 이루어진 문장으로 이루어진 학습자의 음성을 미리 준비한 정답 제시안과 단편적 프로그래밍에 의한 비교 판단하는 기술만으로는 합리적으로 학습자의 말하기 능력을 자동으로 평가하는데 부족함이 따른다.No matter how advanced the present speech recognition technology is, the technique of estimating the correct answer by preparing a speech consisting of a plurality of sentences in advance and comparing and judging by fragmentary programming is insufficient to automatically evaluate the learner's speaking ability. .
더불어, 음성 인식 기술이 아닌 사람(평가자)가 학습자의 문장을 듣고 평가를 할 때에도 문제점이 따르는데, 말하기 능력에 대한 평가 기준은 발음/억양, 유창성, 논리성, 구사된 단어의 수준 등의 다양한 평가 항목이 존재하는데 학습자의 음성이 긴 문장 내지 복수 개의 문장으로 이루어져 있기 때문에 복수 개의 문장을 다 듣고 평가자가 종합적인 평가만을 내리기에는 평가 수준이 낮아지거나 특정 문장에 치우쳐 평가를 하게 되어 학습자가 이러한 평가자의 평가 정보를 보아도 구체적으로 어떻게 말하기 방법을 보완해야 할지를 제대로 파악하지 못하게 하는 문제가 있기 때문이다.In addition, there is a problem when a person (evaluator) who is not a voice recognition technology listens and evaluates a learner's sentence, and the evaluation criteria for the speaking ability are various evaluations such as pronunciation / inspiration, fluency, logic, and spoken word level. Because there is an item, the learner's voice is composed of long sentences or plural sentences. This is because there is a problem that the evaluation information does not properly grasp how to speak in detail.
따라서 학습자의 말하기 능력을 음성 인식 기술과 같은 기계적 평가가 아닌 네이티브 스피커와 같은 평가자가 판단하도록 하고 추가적으로 음성 인식 기술의 보조를 받도록 하는 방식으로 학습자의 음성을 단편적이자 형식적 평가 기준에만 의존하지 아니함으로써 구체적인 첨삭 평가가 될 수 있도록 할 뿐 아니라, 복수 개의 문장으로 이루어진 음성에서 각 문장 별/전체에 대하여 구체적 평가를 수행하도록 하는 기술적 수단을 제시하여 보다 자세하고 합리적이면서 학습자의 피드백을 향상할 수 있는 평가를 수행하는 신규하고 진보한 외국어 말하기 평가 시스템을 개발할 필요성이 대두되는 실정이다.
Therefore, the learner's speech is not determined by mechanical evaluation such as speech recognition technology, but by evaluators such as native speakers and additionally assisted by speech recognition technology. In addition to providing a corrective evaluation, it also provides a technical means for performing a specific evaluation of each sentence / all in a sentence consisting of a plurality of sentences. There is a need to develop a new and advanced foreign language speaking system.
본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 스피킹 문제에 대한 학습자의 스피킹 답안에서 문장과 문장 사이의 갭을 파악하고 평가자가 문장 별로 평가 내용을 녹음하여 이 갭에 삽입하도록 한 다음 평가 결과와 함께 학습자에게 제공함으로써 학습자에게 보다 직접적이고 구체적인 스피킹 지도 학습을 수행할 수 있도록 하는 외국어 말하기 평가 시스템을 제공하는 것을 주요 목적으로 한다.The present invention has been made to overcome the problems of the above technique, in the learner's speaking answer to the speaking problem to grasp the gap between the sentences and the evaluator to record the evaluation content for each sentence to insert into this gap then evaluation The main objective is to provide a foreign language speaking evaluation system that provides learners with results to enable them to perform more direct and specific speaking supervised learning.
본 발명의 다른 목적은 학습자의 스피킹 답안에서 문장과 문장 사이에 보다 효율적으로 평가자의 평가 내용을 입력할 수 있는 수단을 제공하는 것이다.Another object of the present invention is to provide a means for more efficiently entering the evaluator's evaluation content between the sentences in the learner's speaking answer.
본 발명의 또 다른 목적은 평가자가 음성 평가 내용만을 제공하는 것이 아니라, 점수와 같은 텍스트 평가 정보를 음성 평가 정보와 함께 동시에 제공함으로서 보다 복합적인 평가를 수행하도록 하는 것이다.It is still another object of the present invention to provide a more complex evaluation by providing text evaluation information such as scores together with voice evaluation information, instead of providing only the voice evaluation contents.
본 발명의 추가 목적은 다수의 평가자가 하나의 스피킹 답안을 평가하는 효율적인 수단을 제공하여 객관성과 합리성을 담보하도록 하는 것이다.
It is a further object of the present invention to provide multiple evaluators with an efficient means of evaluating one speaking answer to ensure objectivity and reasonableness.
상기 목적을 달성하기 위하여, 본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템은, 학습자에게 스피킹 문제를 제공하는 문제 제공 모듈 및, 상기 스피킹 문제를 접한 학습자로부터 답안을 음성으로 녹음하여 답안 정보를 생성하는 답안 녹음 모듈과, 상기 답안 정보를 스피킹 평가 인터페이스에 전송하는 전송 모듈 및, 스피킹 평가 인터페이스로부터 통합 정보를 전송받아 학습자에게 재생시키는 피드백 모듈로 구성된, 스피킹 학습 인터페이스; 상기 답안 정보의 음성 주파수를 분석하여 답안 정보를 구성하는 문장 개수와 각 문장 사이의 갭 영역을 파악하는 문장 개수 파악 모듈과, 상기 답안 정보를 평가자에게 재생하는 답안 재생 모듈 및, 재생이 된 답안 정보의 각 문장 별로, 평가자로 하여금 각 문장의 평가 내용을 음성으로 녹음한 평가 정보를 생성하도록 하는 평가 정보 삽입 모듈 및, 상기 평가 정보를 답안 정보의 각 문장 사이에 삽입하여, 답안 정보와 평가 정보가 합체된 통합 정보를 생성하는 통합 정보 생성 모듈과, 상기 통합 정보를 상기 스피킹 학습자 인터페이스의 피드백 모듈에 전송하는 전송 모듈을 포함한, 스피킹 평가 인터페이스;로 구성된 것을 특징으로 한다.In order to achieve the above object, the foreign language speaking evaluation system through online according to the present invention is a problem providing module for providing a speaking problem to a learner, and generating answer information by recording an answer from a learner in contact with the speaking problem by voice. A speech learning interface comprising an answer recording module, a transmission module for transmitting the answer information to the speaking evaluation interface, and a feedback module for receiving the integrated information from the speaking evaluation interface and reproducing the information to the learner; A sentence counting module for identifying the number of sentences constituting the answer information and a gap region between the sentences by analyzing voice frequencies of the answer information, an answer replay module for reproducing the answer information to the evaluator, and the replied answer information For each sentence of, an evaluation information insertion module for causing the evaluator to generate evaluation information recorded by voice of the evaluation contents of each sentence, and the evaluation information is inserted between each sentence of the answer information, so that the answer information and the evaluation information And a speaking evaluation interface including an integrated information generating module for generating merged integrated information and a transmitting module for transmitting the integrated information to a feedback module of the speaking learner interface.
또한, 상기 문장 개수 분석 모듈은, 상기 답안 정보의 음성 주파수 분포를 파형 그래프로서 표시하는 파형 표시부; 상기 파형 그래프에서 데시벨 수치와 진폭 변위의 고저 상태를 비교하여 복수 개의 갭을 파악하는 갭 파악부;를 포함하는 것을 특징으로 하는 것을 특징으로 한다.The sentence number analysis module may further include a waveform display unit configured to display a voice frequency distribution of the answer information as a waveform graph; And a gap grasping unit for grasping a plurality of gaps by comparing a decibel value and a high and low state of amplitude displacement in the waveform graph.
더불어, 상기 갭 파악부는, 데시벨 수치와 진폭 변위의 고저 상태 비교에 의해 파악된 상기 복수 개의 갭에서, 갭의 길이 차이와 갭이 발생되기 전 파형 변화의 패턴 분석을 통하여 문장 단위를 구분할 수 있는 갭을 추출하는 갭 분석 수단;을 추가로 포함하는 것을 특징으로 한다.In addition, the gap determination unit, in the plurality of gaps identified by the high and low state comparison of the decibel value and the amplitude displacement, the gap that can distinguish the sentence unit through the pattern analysis of the waveform change before the gap and the gap length is generated The gap analysis means for extracting; characterized in that it further comprises.
추가적으로, 상기 답안 재생 모듈은, 상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프 상에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하는 형태로 시각적으로 표시된 기준선 표시부;를 포함하는 것을 특징으로 한다.In addition, the answer reproduction module may display a reference line extending vertically along the Y axis in the waveform graph on the waveform graph, wherein the reference line moves along the X axis of the waveform graph while indicating a current reproduction time of the answer information. And a baseline display portion visually displayed in the form.
추가적으로, 상기 평가 정보 삽입 모듈은, 복수 명의 평가자에 의해 음성으로 생성된 각각의 평가 정보를 텍스트로 변환하는 텍스트 변환 처리 파트; 학습자의 실력을 평가하는 평가 대상에 대한 의미를 갖는 객체 단어를 저장한 객체 단어 DB 및 호불호 의미를 갖는 호불호 단어를 저장한 호불호 DB를 포함한 단어 라이브러리; 상기 객체 단어 DB를 바탕으로 상기 텍스트 처리된 평가 정보 중 객체 단어를 추출하는 객체 단어 추출 파트; 상기 호불호 DB를 바탕으로 상기 객체 단어와 조사를 매개로 연결된 호불호 단어를 추출하는 호불호 단어 추출 파트; 상기 객체 단어와 상기 호불호 단어의 연관관계를 토대로 텍스트 처리된 평가 정보의 문장 별로 호불호 정보를 생성하는 호불호 정보 생성 파트; 복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보를 모두 추출하여 평가 정보의 평가 대상 별로 호불호 정보를 기산하여 객체별 호불호 수치를 생성하는 호불호 정보 기산 파트; 상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가 결과를 하나의 종합 수치로 산출하는 호불호 종합 판단 파트;로 구성된, 호불호 평가부;를 포함하는 것을 특징으로 한다.
In addition, the evaluation information insertion module may include: a text conversion processing part for converting each evaluation information generated by voice by a plurality of evaluators into text; A word library including an object word DB storing an object word having a meaning for an evaluation target for evaluating a learner's ability and a call disability DB storing a call dislike word having a dislike meaning; An object word extraction part for extracting an object word from the text processed evaluation information based on the object word DB; A call disagreement word extraction part for extracting a call disagreement word connected through the object word and the survey based on the call disagreement DB; A call dislike information generating part for generating call dislike information for each sentence of the evaluation information processed text based on the relation between the object word and the call dislike word; A call-and-call information calculating part for extracting all the call-like information generated from the plurality of text sentences constituting the plurality of evaluation information and calculating the call-like information for each evaluation target of the evaluation information to generate a call-like number for each object; And a call dislike evaluation unit, comprising: a call dislike evaluation unit configured to calculate a comprehensive evaluation result of a plurality of pieces of evaluation information by using the object dislike value for each object as one comprehensive figure.
본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템에 의하면,According to the foreign language speaking evaluation system through online according to the present invention,
1) 기계적인 스피킹 평가 방식을 지양하고 평가자가 직접 학습자의 스피킹 답안을 듣고 음성 평가를 수행하도록 하여 구체적인 평가 정보를 학습자에게 제공하되, 문장 별로 평가자의 평가 음성을 입력하도록 하여 추상적이거나 모호하지 않고 직접적이자 명쾌한 스피킹 지도 학습을 수행할 수 있고, 1) Refrain from the mechanical speaking evaluation method and allow the evaluator to directly listen to the learner's speaking answer and perform the voice evaluation to provide the learner with specific evaluation information. You can do this with clear speaking instruction,
2) 학습자의 스피킹 음성에서 음성 주파수를 기준으로 한 진폭 변화 내지 패턴 분석을 통해 문장 개수내지 문장 사이의 갭을 파악하도록 하여 합리적인 문장 개수 파악 방식을 제공하며,2) Provides a reasonable sentence counting method by grasping the gap between the number of sentences and the sentence through amplitude change or pattern analysis based on voice frequency in the learner's speaking voice,
3) 평가 항목을 세분화하여 구체적 평가 내용을 작성함과 동시에 음성 이외의 평가 정보를 학습자에게 제공할 수 있을 뿐 아니라,3) It is possible not only to provide the learner with evaluation information other than voice at the same time as writing detailed evaluation contents by subdividing the evaluation items.
4) 2인 이상의 평가 방식을 통해 보다 객관적이고 합리적인 평가 기준을 수립할 수 있음과 동시에,4) It is possible to establish more objective and reasonable evaluation criteria through two or more evaluation methods.
5) 평가자의 평가 음성이 학습자의 답안 음성과 겹치지 않도록 효율적으로 배치함으로써 학습자가 자연스럽게 자신의 음성과 평가자의 음성을 문장 별로 번갈아 청취할 수 있도록 하고,5) By effectively arranging the evaluator's evaluation voice so that it does not overlap with the learner's answer voice, the learner can naturally listen to his / her voice and the evaluator's voice alternately by sentence,
6) 높은 점수를 받은 다른 학습자의 답안을 제시하여 학습자의 경쟁의식을 고취시키면서 모범 답안을 참조할 수 있도록 하는 효과를 제공한다.
6) Providing the answers of other high-scoring learners to enhance the learner's sense of competition and provide the effect of referencing the best answer.
도 1은 본 발명의 주요 프로세스 및 답안 정보와 평가 정보에 대한 개략적인 파일 구조를 도시한 개념도.
도 2는 본 발명에 따른 시스템의 개략적인 구성을 도시한 블록도.
도 3은 본 발명의 스피킹 학습 인터페이스의 문제 제공 모듈을 개략적으로 도시한 개념도.
도 4는 본 발명의 스피킹 평가 인터페이스에서 답안 정보의 재생 상태를 파형 그래프로서 표현한 상태를 개략적으로 도시한 개념도.1 is a conceptual diagram showing a schematic file structure for the main process and answer information and evaluation information of the present invention.
2 is a block diagram illustrating a schematic configuration of a system according to the present invention.
3 is a conceptual diagram schematically illustrating a problem providing module of the speaking learning interface of the present invention;
4 is a conceptual diagram schematically showing a state in which a reproduction state of answer information is represented as a waveform graph in the speaking evaluation interface of the present invention;
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale and wherein like reference numerals in the various drawings refer to like elements.
도 1은 본 발명의 주요 프로세스 및 답안 정보와 평가 정보에 대한 개략적인 파일 구조를 도시한 개념도이다.1 is a conceptual diagram illustrating a schematic file structure of main process and answer information and evaluation information of the present invention.
본 발명에 따른 시스템은 크게 학습자의 스피킹 실력을 평가하고 스피킹 관련 학습 자료를 제공하며 스피킹 평가 결과를 학습자에게 제공하기 위하여 학습자 서버에 설치되는 스피킹 학습 인터페이스(100)와, 평가자 서버에 설치되어 학습자의 스피킹 답안에 대한 음성 첨삭을 하여 평가 파일로 생성하고 이를 학습자 서버의 스피킹 학습 인터페이스에 전송하는 스피킹 평가 인터페이스(200)로 구성되어 있다.The system according to the present invention largely evaluates the learner's speaking ability, provides a learning-related learning material, and the
다시 말해, 학습자용 인터페이스와 평가자용 인터페이스로 구분 구성이 되며, 이 두 개의 인터페이스를 매개하기 위한 시스템 서버가 추가로 구비될 수 있고 더 나아가 학습자의 평가 결과 및 학습자의 답안 정보, 평가자의 평가 정보 등의 각종 정보와 여러 가지의 스피킹 관련 학습 자료를 저장하는 DB 서버를 별도로 구성하는 것도 가능하다.In other words, it is composed of a learner interface and an evaluator interface, and additionally, a system server for mediating the two interfaces may be further provided. Furthermore, the student's evaluation result, the student's answer information, the evaluator's evaluation information, etc. It is also possible to configure a DB server that stores various information and various learning-related learning materials.
본 발명의 주요 특성은 학습자의 스피킹 실력을 평가하기 위한 문제에 대한 답안을 스피킹 학습 인터페이스(100)를 매개로 학습자의 음성으로서 녹음한 것을 스피킹 평가 인터페이스(200)에 전송하여 평가자가 평가를 하되, 복수 개의 문장으로 이루어진 학습자의 녹음 내용에서 각 문장 사이에 평가자의 첨삭 음성을 삽입 녹음하여 새로운 파일 정보를 생성한 다음 이를 스피킹 학습 인터페이스(100)에 전송하여 학습자가 첨삭 음성 내용을 확인할 수 있도록 한 것이다.The main characteristic of the present invention is that the evaluator evaluates the answer to the problem for evaluating the speaking ability of the learner by recording the recording as the learner's voice through the
다시 말해, 본 발명의 시스템은 스피킹 평가에 대한 학습자의 복수 개의 문장으로 구성된 학습자의 녹음 내용에서 각 문장을 구분하여 문장 사이에 평가자의 첨삭 내용(평가 정보)을 입력하는 방식을 추구하는바, 각 문장에 대한 디테일한 평가 없이 종합적인 평가만을 내리거나 평가자의 구두 평가 내용의 수록이 없이 성의 없게 평가 점수만을 평가 결과로 도출하거나 음성 인식 프로그램에 의존한 추상적인 평가를 지양함으로써, 보다 구체적이고 직접적으로 학습자에게 도움이 될 수 있는 평가 정보를 제공하도록 하는 특성을 제공하는 것이다.In other words, the system of the present invention seeks a method of inputting corrective content (evaluation information) of the evaluator between the sentences by dividing each sentence from the learner's recording contents consisting of a plurality of sentences of the learner for the speaking evaluation. More specifically and directly, by making a comprehensive evaluation without detailed evaluation of sentences, deriving only the evaluation scores without any sincerity of the evaluator's oral evaluation contents, or avoiding abstract evaluations based on speech recognition programs. It is to provide a feature that allows learners to provide assessment information that may be helpful.
도 1을 보아 알 수 있듯이, 스피킹 학습 인터페이스(100)에서 학습자에게 제공된 문제를 통해 학습자가 그 답안을 음성으로 대답을 하면 이를 녹음하여 '답안 정보'를 파일 형태로 생성하고, 이 답안 정보를 스피킹 평가 인터페이스(200)에 전송을 한다.As can be seen from Figure 1, through the problem provided to the learner in the
스피킹 평가 인터페이스(200)에서는 이 답안 정보의 파일 구조를 음성 주파수 분석 방식으로 분석하여 문장 사이의 갭(gap)을 발견하고 이 갭(gap)을 인위적으로 늘리거나 아니면 갭(gap)을 신규로 생성하는 다양한 방식에 의하여 평가자의 음성을 통한 첨삭 내용을 녹음한 '평가 정보'를 상기 답안 정보의 각 문장 사이에 합체한다. Speaking
본 발명에서는, 이와 같이 학습자의 답안 정보와 평가자의 평가 정보가 합체된 파일 형식의 정보를 '통합 정보'라 한다.In the present invention, the information in the file format in which the answer information of the learner and the evaluation information of the evaluator are merged is referred to as 'integrated information'.
이러한 통합 정보는 답안 정보에 십입된 상태에서 스피킹 평가 인터페이스(200)에서 스피킹 학습 인터페이스(100)로 전송이 되어, 학습자가 자신이 말한 음성, 즉 답안 정보를 문장 단위로 평가한 평가 정보를 청취함(학습자 자신의 답안에 관한 음성과 평가자가 이를 평가한 음성)으로써 문장의 구성과 각 문장의 발음, 표현력 등과 같은 세부 평가 내용을 확인할 수 있게 된다.The integrated information is transmitted from the speaking
여기서, 답안 정보, 평가 정보, 통합 정보는 형식에 구애되지는 않으나 분석 및 구조 변경의 편의성을 위하여 wav, mp3 등의 확장자를 가진 음성 파일로 이루어지는 것이 보다 바람직하고, 물론 평가 정보는 반드시 음성으로만 이루어지지 않고 이미지, 텍스트로 이루어지거나 이를 보조적으로 첨부할 수 있다.Here, the answer information, the evaluation information, and the integrated information are not limited to the format, but for the convenience of analysis and structural change, it is more preferable that the voice file has an extension of wav, mp3, etc., and of course, the evaluation information must be spoken only. It can consist of an image, text, or it can be attached as an auxiliary.
일단, 하기에서는 답안 정보와 평가 정보들이 파일 구조로 이루어졌다는 가정 하에 설명하도록 한다.
First, the following explanation is based on the assumption that the answer information and the evaluation information have a file structure.
도 2는 본 발명에 따른 시스템의 개략적인 구성을 도시한 블록도이다.2 is a block diagram illustrating a schematic configuration of a system according to the present invention.
상술한 바와 같이, 본 발명의 시스템은 스피킹 학습 인터페이스(100)와 스피킹 평가 인터페이스(200)로 크게 구성이 되는바, 이를 각각 구분하여 설명하도록 한다.As described above, the system of the present invention is largely composed of the speaking
우선, 본 발명의 스피킹 학습 인터페이스(100)는 학습자 서버(PC, 스마트폰 등)에 프로그램 형태로 설치되어 다양한 외국어 학습 정보를 제공하는 것은 물론 외국어 말하기(스피킹) 테스트를 수행할 수 있는 주요 기능을 제공한다.First, the speaking
도 2를 보아 알 수 있듯이, 본 발명의 스피킹 학습 인터페이스(100)는 구체적으로 문제 제공 모듈(110), 답안 녹음 모듈(120), 전송 모듈(130), 피드백 모듈(140)로 구성되어 있다.
As can be seen from FIG. 2, the speaking
도 3은 본 발명의 스피킹 학습 인터페이스의 문제 제공 모듈을 개략적으로 도시한 개념도이다.3 is a conceptual diagram schematically illustrating a problem providing module of the speaking learning interface of the present invention.
본 발명에서 제공하는 말하기(스피킹) 문제는 단순히 네이티브 스피커의 음성을 제공한 다음 이를 따라하는 수준이 아니라, 학습자가 특정 외국어(주로 영어)로서 문제에 대한 해결 방안 내지 문제를 이해한 후 자신의 의견을 논리적으로 표현한 답안을 요구하는 것으로서, 예를 들어 도 3을 보아 알 수 있듯이 다양한 그림을 학습자에게 제공한 다음 이 그림들을 보고 연상되는 상황이나 사실관계를 학습자가 단답식이 아닌 복수 개의 문장 구조를 포함한 음성으로서 표현하도록 한다.Speaking (speaking) problem provided by the present invention is not merely to provide a voice of the native speaker and then to follow it, but the learner understands the problem or solves the problem in a specific foreign language (mainly English) after his opinion For example, as shown in FIG. 3, the learner provides a variety of pictures to the learner, and then learns the situation or facts associated with the pictures by including a plurality of sentence structures rather than a short answer. Express it as a voice.
본 발명에서 제공하는 문제가 상황 설명이나 학습자의 의견을 구하는 것이다보니, 학습자의 답안이 정상적으로 이루어지려면 단순히 한 개의 문장으로서 이루어지지 않고 복수 개의 문장으로 이루어지게 되며 이로써 단편적인 말하기 능력을 테스트하는 것이 아니라 문장 구조, 표현력 등의 종합적인 말하기 능력을 테스트할 수 있는 기반을 갖추게 된다.The problem provided by the present invention is to obtain a description of the situation or the opinion of the learner, so that the student's answer is normally made up of a plurality of sentences instead of a single sentence, thereby not testing the fragmentary speaking ability. Students will be prepared to test comprehensive speaking skills such as sentence structure and expression.
즉, 문제 제공 모듈(110)은 종합적인 문장을 학습자가 구사할 수 있도록 하는 문제를 문제 데이터베이스로서 구성하여 이를 이미지, 텍스트, 음성 등의 형식과 함께 학습자에게 제공하는 역할을 수행한다.
That is, the
답안 녹음 모듈(120)은 학습자가 문제 제공 모듈(110)에서 제공된 문제를 이해한 다음, 문제 제공 창의 일 측에 형성된 녹음 아이콘을 누르는 방식 등으로 학습자의 음성 형식의 답안을 녹음하는 기능을 제공하는 것으로, 이 때 문제를 이해하고 곧바로 말하기 어려운 경우가 많기 때문에 문제를 이해할 수 있는 특성 시간(20 내지 60초 가량의 문제 이해 시간) 이후에 자동으로 녹음이 이루어지거나 아니면 학습자가 직접 녹음 아이콘을 클릭하는 방식으로서 학습자의 음성 답안이 녹음될 수 있는 환경을 구비할 수 있다.The
이와 같이 학습자의 음성 답안이 녹음이 된 것을 '답안 정보'라 하며, 녹음이 완성이 되었을 때 답안 녹음 모듈(120)은 답안 정보를 음성 파일 형태로 생성한다.In this way, the voice answer of the learner is recorded as 'answer information', and when the recording is completed, the
더불어, 답안 녹음 모듈(120)은 종료 시간 표시부(121)와 강제 녹음 종료부(122)를 추가로 포함할 수 있다.In addition, the
종료 시간 표시부(121)는 학습자가 녹음을 할 수 있는 제한 시간을 학습자에게 제시하는 기능을 수행하는바, 예를 들어 문제에 따라 학습자가 음성 녹음을 할 수 있는 시간을 약 1~2분으로 제한하여 학습자가 중언부언을 하거나 녹음 시간이 너무 지체되어 객관적인 평가가 이루어지지 못하는 문제를 방지하도록 한다.The end
강제 녹음 종료부(122)는 상기 종료 시간 표시부(121)에서 표시한 제한 시간이 지난 경우, 강제로 녹음을 종료하여 종료 시간까지 녹음된 음성을 답안 정보로 생성하는 기능을 수행한다. The forced
즉, 학습자가 충분히 말할 수 있는 시간을 제공하되, 말하기 테스트라는 객관성을 담보하기 위하여 제한 시간 이내에 녹음된 것을 유효한 답안 정보로서 인식할 수 있도록 하는 기반을 제공하기 위함이다.That is, to provide a sufficient time for the learner to speak, but to provide a basis for recognizing the valid answer information recorded within the time limit to ensure the objectivity of the speaking test.
물론 강제로 녹음을 종료하지 않고 제한 시간을 넘어선 음성까지 녹음을 하되, 제한 시간 이후에 녹음이 된 경우에는 평가 기준에서 페널티를 부가하거나 제한 시간 이후 첫 번째 문장만을 유효한 답안 정보로 인식하도록 하는 기능을 부가할 수도 있다.
Of course, you can record the voice beyond the time limit without forcing the recording to end, but if it is recorded after the time limit, you can add a penalty in the evaluation criteria or recognize only the first sentence after the time limit as valid answer information. You can also add.
전송 모듈(130)은 상기 답안 녹음 모듈(120)에서 생성한 음성 파일 형식의 답안 정보를 스피킹 평가 인터페이스(200)에 전송하여 평가자가 해당 답안 정보를 평가할 수 있도록 하는 기반을 제공한다.
The
피드백 모듈(140)은 답안 정보에 평가 정보가 합체된 통합 정보를 스피킹 평가 인터페이스(200)로부터 수신하여 학습자에게 제공하는 기능을 수행하는 것으로서, 후술하겠지만 학습자 자신이 말한 답안 정보와 평가자의 평가 정보가 수록된 통합 정보를 학습자가 확인(청취 또는 시청)함으로써, 학습자가 자신이 말한 답안에 대한 구체적인 첨삭 평가를 알기 쉽게 확인할 수 있게 하는 역할을 담당한다.
The
도 4는 본 발명의 스피킹 평가 인터페이스에서 답안 정보를 파형 그래프로서 표현한 상태를 개략적으로 도시한 개념도이다.4 is a conceptual diagram schematically showing a state in which answer information is represented as a waveform graph in the speaking evaluation interface of the present invention.
본 발명의 스피킹 평가 인터페이스(200)는 평가자 서버(PC, 스마트폰 등)에 설치된 프로그램 형식으로 이루어져, 상기 답안 정보를 전송받아 평가자가 답안을 듣고 문장 단위로 첨삭 음성을 녹음한 평가 정보를 상기 답안 정보에 합체하여 이를 학습자에게 다시 전송하는 기능을 제공한다.Speaking
즉, 스피킹 평가 인터페이스(200)는 음성 분석 프로그램에 의한 자동 평가가 아니라 평가자가 학습자의 답안을 직접적으로 평가할 수 있도록 하는 기능을 수행하는 것이다.That is, the speaking
이러한 스피킹 평가 인터페이스(200)는 도 2를 다시 보아 알 수 있듯이, 구체적으로 문장 개수 분석모듈(210), 문장 구조 분석 모듈(220), 답안 재생모듈(230), 삽입 부위 결정 모듈(240), 평가 정보 삽입 모듈(250), 통합 정보 생성 모듈(260), 전송 모듈(270)로 구성되어 있다.As can be seen again from FIG. 2, the speaking
문장 개수 분석 모듈(210)은 답안 정보를 구성하는 복수 개의 문장의 개수를 파악하는 기능을 수행한다.The sentence
답안 정보의 문장 개수를 파악하는 것은 본 발명에서 매우 중요한바, 1차적으로 문장 단위를 분석하여 문장 사이에 평가자의 평가 정보를 삽입할 수 있는 기반을 갖춤과 동시에 2차적으로 문장의 개수를 통하여 학습자의 표현력과 구사력을 판단할 수 있는 평가 지표를 제공할 수 있기 때문이다.Understanding the number of sentences in the answer information is very important in the present invention, primarily by analyzing the sentence unit has a basis for inserting the evaluation information of the evaluator between the sentences and at the same time secondary learners through the number of sentences This is because it can provide evaluation indexes for judging the expressive and verbal powers of people.
이러한 문장 개수 분석 모듈(210)은 문장의 개수를 파악하기 위해 구체적으로 파형 표시부(211), 갭 파악부(212), 문장 개수 파악부(213)를 포함한다.The sentence
도 3을 보아 알 수 있듯이, 파형 표시부(211)는 음성 파일로 이루어진 답안 정보의 음성 주파수 분포를 파형 그래프 형식으로 시각적 표시를 하는 기능을 수행한다.As can be seen from Figure 3, the
즉, 음성 파일에서 문장의 개수를 파악하기 위한 기본적 방법으로서 음성 주파수의 진폭 변화에 따른 파형을 분석할 경우 주파수 수치를 가지지 않은 부위가 파악될 수 있을 뿐 아니라 진폭 변위가 적은 부위 역시 파악될 수 있는바, 이를 근간으로 갭(gap)을 지정하여 갭의 앞뒤 부위를 하나의 문장으로서 인식을 할 수 있고 더불어 음성 주파수로 표현되었을 때 학습자의 발음을 원어민(네이티브 스피커)의 발음과 비교하기 용이하기 때문이다.That is, as a basic method for determining the number of sentences in a voice file, when analyzing the waveform according to the amplitude change of the voice frequency, not only the portion having no frequency value can be identified, but also the portion having a small amplitude displacement can be identified. It is possible to recognize the front and rear parts of the gap as a sentence by designating a gap based on this, and to easily compare the learner's pronunciation with the native speaker's pronunciation when expressed in voice frequency. to be.
이러한 파형 표시부(211)는 평가자에게 직접 시각적으로 제공하는 것도 가능하고, 아니면 내부적으로 음성 주파수를 분석하기 위한 수단으로서 이용되는 것도 가능하다. The
갭 파악부(212)는 상기 파형 그래프를 통하여 주파수 변화(파형 변화)가 일어나지 않는 영역, 즉 데시벨 수치가 0인 영역 또는 다른 영역에 비하여 파형 변화가 적은 영역을 갭(gap)(또는 갭 영역)으로서 인식하는 기능을 수행하는 것으로, 구체적으로 인터벌 파악수단(212a)과 진폭 변위 파악 수단(212b), 갭 분석 수단(212c) 중 어느 하나 또는 이들을 모두 포함한다. The
인터벌 파악 수단(212a)은 파형에서 주파수 단위인 데시벨 수치가 0 인 부위를 갭으로 파악하는 기능을 수행하는 것으로, 일반적으로 문장과 문장 사이에 발생하는 인터벌을 파악하여 이를 갭으로서 인식하는 기능을 수행한다.The
진폭 변위 파악 수단(212b)은 데시벨 수치가 0은 아니나, 변화폭이 크지 않거나 비슷한 상태로 지속된 부위, 예를 들어 "에~", "음~"과 같이 발음한 부위를 파악하는 기능을 수행한다.The amplitude displacement estimating means 212b performs a function of identifying a portion where the decibel value is not zero but the change range is not large or is maintained in a similar state, for example, a pronounced portion such as "e" or "mm". .
갭 분석 수단(212c)은 상기 인터벌 파악 수단(212a) 또는 진폭 변위 파악수단(212b)에서 파악된 갭(gap)을 종합하여 갭의 길이, 갭이 발생되기 전의 주파수 파형 변화 상태를 파악하여 파악된 갭 중에서 실제 문장과 문장을 구분하는 갭을 추출하는 기능을 수행한다.The gap analyzing means 212c synthesizes the gaps identified by the interval detecting means 212a or the amplitude displacement detecting means 212b to grasp the length of the gap and the state of the change in the frequency waveform before the gap is generated. This function extracts the gap separating the actual sentence from the sentence.
즉, 외국어 구사 능력이 우수한 학습자의 경우 문장 중간에 말을 끊거나 '음~'과 같은 음성을 구사하지 않아 갭 발생만으로 문장과 문장 사이를 인식할 수 있지만, 외국어 구사 능력이 우수하지 않는 학습자의 경우 문장 사이에서도 잦은 인터벌이 발생하거나 "음~"과 같은 무의미한 단어가 자주 등장할 수 있기 때문이다. 즉, 명사를 열거할 때에도 명사 간에 갭이 발생할 수 있는데 이러한 갭을 기준으로 문장 단위를 파악할 경우 자칫 하나의 문장임에도 불구하고 복수 개의 문장으로 분할하여 인식하는 오류를 범할 수 있기 때문에 갭의 길이 단위를 기준으로 문장을 구별하는 갭을 추출하거나, 아니면 갭 이전의 파형의 특정 패턴(즉, 파형이 떨어지거나 규칙적으로 상승하는 변화 폭 등)을 통하여 복수 개의 갭 중에서 문장 단위를 구분할 수 있는 갭을 추출하는 기능을 제공한다.In other words, learners with excellent foreign language proficiency can recognize between sentences and sentences only by generating gaps because they do not hang up in the middle of the sentence or do not speak a voice such as 'Um ~'. This is because frequent intervals occur between sentences or meaningless words such as "um ~" may appear frequently. That is, even when nouns are listed, gaps may occur between nouns. When a sentence unit is identified based on such a gap, even if it is a single sentence, the gap unit may be divided into a plurality of sentences. By extracting the gap to distinguish the sentences by reference, or through the specific pattern of the waveform before the gap (that is, the width of the waveform falls or regularly rises, etc.) to extract the gap that can distinguish the sentence unit from the plurality of gaps Provide the function.
물론 복수 개의 단어가 열거되거나 제 1 문장을 마친 후 제 2 문장을 시작할 때의 음성 주파수 변화 패턴이 유사할 수 있고 의문문으로서 파형 끝이 상승하거나 and, so와 같은 접속사에 의해 실제 문장과 문장 사이에 인터벌이 짧은 경우와 같이 다양한 변수가 존재하기 때문에 이러한 다양한 변수에 의한 문장 구별 방식에 대해 발생할 수 있는 모호함은 직접 평가자가 해당 답안 정보를 청취한 다음 판단할 수 있는 기회를 재차 부가할 수 있도록 하여 이를 보완할 수 있도록 하는 것이 가능하다.Of course, a plurality of words may be enumerated, or the pattern of voice frequency changes at the beginning of the second sentence after completing the first sentence may be similar, and the end of the waveform may be raised as a question, or may be connected between the actual sentence and the sentence by a conjunction such as and, so. Ambiguity about how sentences are distinguished by these various variables, such as when there are short intervals, can cause the direct evaluator to re-add the opportunity to hear the answer and then make a judgment. It is possible to make up for it.
문장 개수 파악부(213)는 상술한 구성에 의하여 답안 정보를 구성하는 문장의 개수를 파악하는 기능을 수행하며, 파악된 문장 개수 정보는 평가자가 답안 정보를 듣기 전의 기본 정보로서 평가자에게 제공될 수 있다.
The sentence
문장 구조 분석 모듈(220)은 문장 단위(즉, 1개 문장)를 기준으로 해당 문장 내에 포함된 단어의 개수를 파악하는 기능을 수행하는 것으로, 이는 선택적으로 구비될 수 있고 스피킹 평가 인터페이스(200)에 별도로 구비된 음성 분석 프로그램과의 연동을 통해 구현되는 것이 가능하다.The sentence
즉, 음성 분석 프로그램을 통해 개략적으로 각각의 문장에 포함된 단어의 개수를 파악하여 이 단어 개수 정보를 역시 평가자가 답안 정보를 듣기 이전에 제공함으로써 학습자의 문장 구사력을 양적으로 파악할 수 있는 기반을 제공한다.In other words, through the speech analysis program, the number of words included in each sentence is roughly identified, and this word count information is also provided before the evaluator hears the answer information, thereby providing a foundation for quantitatively understanding the sentence proficiency of the learner. do.
음성 분석 프로그램은 현재 공지된 음성 분석 기술을 기반으로 한 프로그램을 의미하는 것으로, 현재까지는 아직 음성을 정확히 텍스트로서 인식하는데 오류가 많다는 한계를 받아들여, 문장의 의미를 분석하기 위함이 아니라 답안 정보를 구성하는 단어의 개수를 파악하는 최소 수준에서만 이용하여 답안 정보를 평가할 때 학습자가 구사한 음성에 포함된 단어 개수를 통해 질적 평가가 아니라 양적 평가를 수행할 수 있는 하나의 기준을 제시할 수 있도록 한다.
The speech analysis program refers to a program based on the currently known speech analysis technology. Up to now, the speech analysis program accepts the limitation that there is a lot of error in recognizing the speech exactly as text. When evaluating the answer information by using only the minimum level of the number of words to be composed, the number of words included in the spoken language used by the learner can provide one criterion for performing quantitative evaluation, not qualitative evaluation. .
답안 재생 모듈(230)은 평가자가 답안 정보를 청취할 수 있도록 평가자에게 스피커를 통해 음성 파일 형식의 답안 정보를 음성 재생하는 기능을 수행하는 것으로, 다시 말해 본 발명은 음성 분석 프로그램에 의한 평가 방식이 아니라 평가자가 학습자의 음성을 직접 들어 평가할 수 있는 방식을 추구하는 것을 기본으로 한다.The
구체적으로, 상기 답안 재생 모듈(230)은 재생부(231)와 기준선 표시부(232)를 포함한다.In detail, the
재생부(231)는 음성 파일로 이루어진 답안 정보를 평가자에게 재생하는 기능을 수행하는 것으로, 다시 말해 평가가가 답안을 평가할 수 있도록 평가자에게 답안 정보를 들려주는 역할을 한다.The
이러한 재생부(231)는 평가의 구체성과 신뢰성을 위하여 구간 반복 기능, 재생 회수 설정 기능은 물론 상기 문장 개수 분석 모듈(210)과 연동하여 문장 별로 재생 후 일시 정지 후 다음 문장 반복 기능, 전 구간 1회 재생 후 각 문장 별 반복 재생 기능을 포함할 수 있다.
The
도 3을 다시 살펴보면, 파형 그래프에서 수직으로 연장된 점선이 존재하는 것을 알 수 있는바 이를 '기준선'이라 한다.Referring back to Figure 3, it can be seen that there is a dotted line extending vertically in the waveform graph is referred to as 'reference line'.
이러한 기준선은 답안 정보가 재생되는 중에 재생 시점을 파형 그래프의 x 축을 따라 이동하는 형태로 표시하는 기능을 수행하는바, 바로 기준선 표시부(232)에서 이와 같은 기능을 수행한다.The reference line performs the function of displaying the reproduction time in the form of moving along the x-axis of the waveform graph while the answer information is reproduced. The
다시 말해, 상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하도록 시각적으로 표시한 것이다.In other words, a reference line extending vertically along the Y axis in the waveform graph is displayed on the waveform graph, wherein the reference line is visually displayed to move along the X axis of the waveform graph while indicating a current reproduction time of the answer information.
이러한 기준선은 답안 정보가 재생되는 지점을 시각적으로 알기 쉽게 평가자에게 알려주는 기본적인 기능 이외에, 평가자의 간단한 조작에 의하여 평가 정보를 녹음할 수 있도록 하는 인디케이터(indicator)의 역할을 수행하는 것으로 이러한 기준선을 활용한 구성은 하기에서 보다 구체적으로 설명한다.This baseline serves as an indicator that allows the evaluator to record the evaluation information by simple manipulation by the evaluator, in addition to the basic function of informing the evaluator visually at the point where the answer information is reproduced. One configuration is described in more detail below.
즉, 답안 재생모듈(230)은 평가자가 직접 답안 정보를 듣도록 하여 보다 정확하고 구체적인 답안 평가를 수행할 수 있도록 하는 환경을 제공함과 동시에, 본 발명에서 기본적으로 추구하는 문장 별 평가 방식을 제공할 수 있는 하나의 기반을 갖추도록 한다.
That is, the
삽입 부위 결정모듈(240)은 평가자가 문장 별로 평가자의 평가 음성을 녹음하여 삽입할 수 있는 부위, 즉 답안 정보에서의 삽입 부위를 결정하는 기능을 제공하는 것으로서, 기본적으로 답안 정보를 들은 평가자의 마우스 클릭, 키보드 입력에 의해 인위적으로 기준선을 정지(답안 정보의 재생에 대한 일시 정지)시키고 그 정지 부위를 삽입 부위로 지정할 수 있고, 더 나아가 자동 판단에 의하여 삽입 부위를 결정하는 기능을 추가로 제공할 수 있다.Insertion
이러한 삽입 부위 결정모듈(240)은 구체적으로 기준선 활성 처리부(241), 기준선 수동 정지부(242), 기준선 자동 정지부(243), 삽입 부위 결정부(244), 삽입 부위 보정부(245)를 포함할 수 있다.Specifically, the insertion
기준선 활성 처리부(241)는 상기 문장 개수 분석모듈(210)과 연동되어 문장 개수 분석모듈(210)에서 파악한 갭(gap) 영역을 기준선이 지나갈 때 해당 갭 영역에서 기준선을 다른 색으로 표현하거나 깜박이는 것과 같이 시각적 식별성을 추가로 부여하는 기능을 수행한다.The baseline
즉, 문장 개수 분석모듈(210)에서 파악한 갭 영역을 평가자에게 알려주도록 하여, 해당 갭 영역을 기준으로 평가 정보를 음성으로 녹음하도록 무언의 지시를 하거나 아니면 해당 갭 영역이 문장과 문장을 구별하는 것이 아니라 문장 중간의 영역인지 여부를 평가자가 주의해서 판단할 수 있는 주의 환기 기능을 부여한다.That is, it is to inform the evaluator of the gap area grasped by the sentence
기준선 수동 정지부(242)는 상술한 바와 같이 답안 정보를 듣고 있는 평가자의 마우스 클릭 등의 신호 생성에 의해 기준선이 정지되고 그 부위를 평가 정보라 삽입되는 삽입 부위로 인식하도록 하는 역할을 담당하고, 여기서 평가자의 수정에 의하여 삽입 부위가 수정될 수도 있다. As described above, the baseline
기준선 자동 정지부(243)는 상기 문장 개수 분석모듈(210)에서 파악한 갭을 기준으로 1개 문장이 종료되는 답안 정보 재생 시점에서 기준선 및 답안 정보의 음성 재생이 자동으로 일시 정지되도록 하는 기능을 수행한다. The baseline
다시 말해 평가자의 주관에 의하여 수동으로 답안 정보의 재생을 정지시키고 해당 지점을 삽입 부위로 결정할 수도 있으나, 평가자에게 재생하였음에도 평가자가 평가 정보를 입력하지 않았거나 아니면 평가자의 주의력을 환기시키기 위하여 갭(gap)을 중심으로 하는 재생 시점에서 자동으로 답안 정보 재생이 일시 정지할 수 있도록 하는 기능을 제공하는 것이다.In other words, it is possible to manually stop replaying answer information by the evaluator's supervision and determine the corresponding point as an insertion site. It is to provide a function to automatically stop the playback of answer information at the time of playback centered on the).
기준선 자동 정지부(243)는 반복 재생부(243a)와 알람부(243b)를 포함하는 것이 가능하다.The baseline
반복 재생부(243a)는 갭 영역에서 답안 정보 재생을 일단 정지한 뒤에 일정 시간이 지나도 평가 정보가 해당 부위에 입력되지 않았을 경우 답안 정보의 재생을 이어 실행함과 동시에 반복 재생을 수행하는 기능을 제공한다.The
즉, 문장 개수 분석 모듈(210)에서 파악된 갭 영역이 실제 문장을 구분하는 영역이 아닐 경우 그 외의 재생 시점에서라도 평가자가 평가 정보를 입력하는 프로세스가 실행되어야 함에도 불구하고 평가자의 아무런 조치가 없는 경우에는 평가자가 답안 정보를 반복하여 듣기를 희망하거나 아니면 평가자가 주의를 갖지 않고 답안 정보를 듣거나 아예 듣지 않는 것으로 간주하고 1회차 재생 시 갭 영역에서 답안 정보의 재생을 일시 정지하고, 2회차 이후 재생에서는 일시 정지되는 동작 없이 연속적으로 답안 정보를 미리 설정한 n회차까지 재생하는 기능을 수행한다.That is, if the gap area identified by the sentence
즉, 답안 정보를 평가하는 평가자의 주의력을 요하도록 하거나 아니면 n회차 반복을 통하여 강제적으로 평가자에게 주의력을 부여하는 기능을 제공하여, 답안 평가의 집중력을 제공하도록 하는 특성을 제공한다.In other words, it requires the evaluator's attention to evaluate the answer information or by providing a function to give the evaluator the attention through the n iterations, to provide the concentration of the answer evaluation.
알람부(243b)는 갭 영역에서 답안 정보 재생을 일시 정지한 뒤에 일정 시간이 지나도 평가자의 아무런 조치(해당 갭 영역이 문장 구분 기준이 되지 못하는 것으로 판단하여 재생버튼을 누르거나 아니면 해당 갭 영역이 문장 구분 기준이 되어 평가 정보를 입력하는 일련의 평가 행위)가 없을 경우 시각적 내지 청각적 알람 신호로서 평가자에게 알람 정보를 출력하는 기능을 수행한다.The
이 역시, 평가자가 평가 시에 주의를 집중하여 평가를 수행할 수 있도록 한 것으로 이러한 인위적인 알람 기능을 통하여 평가자가 보다 집중하여 답안 정보를 평가할 수 있는 기반을 제공할 수 있도록 한다.
This also allows the evaluator to conduct the evaluation by paying attention to the evaluation. This artificial alarm function provides the basis for the evaluator to concentrate on and evaluate the answer information.
삽입 부위 결정부(244)는 갭 영역에서 기준선이 자동 정지한 부위가 아니라 평가자가 인위적으로 마우스 클릭 등의 행위에 의하여 기준선을 수동 정지시킨 지점을 평가 정보가 삽입될 수 있는 삽입 부위로 최종 결정하는 기능을 제공한다.The insertion
즉, 문장 개수 분석모듈(210)에서 파악한 갭 영역을 평가자가 수정할 수 있도록 하여, 실제 문장 사이 영역을 평가자의 클릭 등의 행위로서 결정하여 이 지점을 문장과 문장의 사이의 영역으로 인식하여 이를'삽입 부위'로서 결정하도록 하는 것이다. That is, the evaluator can correct the gap area identified by the sentence
삽입 부위 보정부(245)는 평가자가 갭 영역이 아닌 문장 중간 지점에 평가 정보를 인위적으로 삽입하였을 경우 해당 평가 지점에서 제일 근접한 갭 영역으로 해당 평가 정보를 자동으로 이동시켜 학습자의 음성과 평가자의 평가 음성이 서로 겹치는 것을 방지하도록 하는 것이다.When the evaluator artificially inserts the evaluation information into the middle point of the sentence rather than the gap region, the
즉, 평가자의 열의에 의하여 문장의 중간 부위에 인위적으로 평가 정보를 삽입할 수도 있는데 이 경우 학습자의 발음과 겹치거나 다른 학습자의 평가 정보 삽입 부위와 형평성을 유지할 수 없다는 문제가 발생할 수 있기 때문에, 상기 문장 개수 분석 모듈(210)에서 파악한 갭(gap) 영역 중 해당 평가 정보가 입력된 지점에서 가장 가까운 지점의 갭 영역으로 해당 평가 정보를 이동하도록 하는 것이다.That is, the evaluation information may be artificially inserted into the middle part of the sentence due to the enthusiasm of the evaluator. In this case, the problem may occur because it cannot overlap with the learner's pronunciation or maintain the equity of the other learner's evaluation information insertion part. The evaluation information is moved to the gap area of the closest point to the point where the evaluation information is input among the gap areas identified by the sentence
정리하면, 이러한 삽입 부위 결정 모듈(240)은 음성 파일 형태의 답안 정보에서 평가자의 평가 음성이 삽입될 수 있는 지점을 효율적으로 결정하여 학습자가 평가자의 평가를 보다 알기 쉽고 문장 별로 이해하기 용이한 첨삭 결과를 제공하도록 한다.
In summary, the insertion
본 발명의 평가정보 삽입모듈(250)은 평가자가 답안 정보에서 상기 삽입 부위 별로 평가자가 작성한 평가 정보를 생성 및 삽입하는 것으로서, 형식 평가부(251), 실질 평가부(252), 문자 평가부(253), 복수 평가부(254), 비교 평가부(255)를 포함하는 것이 가능하다.Evaluation
즉, 학습자의 답안 정보를 평가할 때 다양한 평가 요소가 준비될 수 있는데, 본 발명에서는 발음/단어 개수/문장 개수를 평가하는 기준을 '형식 평가 기준'이라 하고, 문장의 구성력, 표현력, 논리성, 연관성, 이해도 등을 평가하는 기준을 '실질 평가 기준'이라 한다.That is, when evaluating the answer information of the learner, various evaluation elements may be prepared. In the present invention, a criterion for evaluating pronunciation / word count / sentence count is referred to as a 'formal evaluation criterion', and sentence composition, expression, logic, and relevance The criteria for evaluating the level of understanding, understanding, etc. are referred to as 'real evaluation criteria'.
형식 평가부(251)는 학습자의 답안 정보를 상술한 형식 평가 기준에 의거하여 평가한 정보를 제공하는 것으로, 구성 정보 평가 파트(251a), 발음 정보 평가 파트(251b)를 포함하는 것이 가능하다.The
구성 정보 평가 파트(251a)는 상술한 구성과 연동되어 답안 정보에 포함된 문장/단어 개수에 대해 평가한 정보를 제공하는 것으로서, 이는 답안 정보가 너무 짧거나 문장은 많은데 너무 단답식이거나 여부를 파악하여 최소한 좋은 문장을 구성할 때 특정 개수에 대한 문장/단어를 포함하였는지 여부를 평가한 정보를 제공한다.The configuration
발음 정보 평가 파트(251b)는 평가자가 답안 정보를 청취한 뒤에 학습자의 발음의 좋고 나쁜 정도를 평가한 정보를 제공하는 기능을 수행한다.
The pronunciation
실질 평가부(252)는 학습자의 답안 정보를 상술한 실질 평가 기준에 입각하여 평가한 정보를 제공하는 것으로, 상술한 실질 평가 항목(문장 구성력, 표현력, 유창함 등)을 평가한 정보를 제공하는 기능을 수행한다.The
이러한 각각의 평가 정보는 평가자가 음성으로 녹음한 형식을 기본적으로 취하게 되는데, 이를 '평가 정보'라 한다.Each of the evaluation information basically takes the form recorded by the evaluator by voice, which is called 'evaluation information'.
즉, 평가 정보는 다양한 평가 항목을 포함한 상태에서 답안 정보의 문장 사이에 각 문장 구성 내지 구조에 대한 평가 및 문장의 맨 마지막에서 전체적인 표현력 등의 평가 대상을 평가자의 음성을 기본적으로 포함하여 답안 정보의 삽입 부위에 직접 삽입된다.That is, the evaluation information includes the evaluation object such as the evaluation of each sentence structure or structure between the sentences of the answer information and the overall expression power at the end of the sentence, including various evaluation items. Inserted directly into the insertion site.
이 때, 수치로서 평가 가능한 평가 항목은 종합적인 평가 결과인 점수로 평가하는 것도 가능한데, 예를 들어 발음 78점, 표현력 85점과 같이 평가자가 음성으로 구체성 있게 평가한 것을 점수로서 수치화하여 이를 평가 정보의 일환으로 제공하는 것도 가능하며, 이러한 점수로 표현된 평가 정보는 음성 형식이 아니라 텍스트 내지 이미지 형식으로 구현되어 별도의 파일로서 생성되는 것이 가능하다. In this case, the evaluation items that can be evaluated as numerical values can also be evaluated by a score that is a comprehensive evaluation result. It is also possible to provide as part of, and the evaluation information represented by these scores can be generated as a separate file is implemented in a text or image format rather than a voice format.
또한, 평가 정보는 기본적으로 평가자의 직접적인 음성으로 이루어지나, 평가자가 타이핑을 치거나 아니면 평가자의 평가 음성을 음성 변환 프로그램에 의하여 텍스트로 변환한 형식으로 이루어지는 것도 가능한바, 이를 음성으로 이루어진 평가 정보와 구분되는 개념으로서'문자 평가 정보'라 한다.In addition, the evaluation information is basically composed of the direct voice of the evaluator, but it is also possible that the evaluator is typing or otherwise the evaluator's voice is converted into text by a voice conversion program. As a distinct concept, it is called 'character evaluation information'.
즉, 문자 평가부(253)는 상술한 평가 정보를 텍스트 처리한 형식으로 제공하는 기능을 수행하고, 이러한 문자 형식의 평가 정보는, 문장과 문장 사이에서 학습자의 답안 정보 재생이 잠시 정지가 되도록 한 다음 이러한 문자 평가 정보를 포함한 평가 창이 문장과 문장 사이에서 각 문장 별로 활성 처리되는 방식으로 학습자에게 제공될 수 있다.That is, the
다시 말해 본 발명에서의 평가 정보는 물론 평가자의 음성을 통하여 보다 친숙하고 구체적인 평가 내용을 학습자에게 전달하는 것을 주요 목적으로 하나, 반드시 이에 한정되는 것은 아니고 문자/텍스트와 같은 형식으로 제공되는 것도 가능하다.In other words, the main purpose of the present invention is to deliver more familiar and specific evaluation contents to the learner through the voice of the evaluator, as well as the evaluation information. However, the present invention is not necessarily limited thereto and may be provided in a text / text format. .
복수 평가부(254)는 2명 이상의 평가자에 의하여 각각 평가 정보를 생성하도록 한 다음 이를 취합한 종합 평가 정보를 제공하는 기능을 수행한다.The plurality of
즉, 평가의 객관성을 더욱 보장하기 위하여 하나의 답안 정보를 2명 이상의 평가자에게 전달한 다음 각각의 평가자가 평가를 하도록 하여 제 1 평가정보, 제 2 평가정보,..., 제 n 평가 정보를 생성한 다음 이들을 취합하여 종합적인 평가 정보, 즉 '종합 평가 정보'를 제공하는 것이다.That is, in order to further ensure the objectivity of the evaluation, one answer information is transmitted to two or more evaluators, and then each evaluator generates the first evaluation information, the second evaluation information, ..., the nth evaluation information. They are then aggregated to provide comprehensive assessment information, that is, comprehensive assessment information.
이 때, 음성으로 이루어진 각각의 평가 정보는 학습자의 구체적인 피드백을 위하여, 답안 정보의 삽입 부위에 복수 개의 평가 정보를 모두 삽입하여 학습자에게 제공할 수도 있다.At this time, each of the evaluation information made of voice may be provided to the learner by inserting all the plurality of evaluation information in the insertion site of the answer information for the learner's specific feedback.
이러한 복수 평가부(254)는 구체적으로 평균 점수 생성 파트(254a), 점수 비교 판단 파트(254b) 중 어느 하나로 구성될 수 있다.The plurality of
앞서 말한 바와 같이, 평가자는 3인 이상일 수 있지만 설명의 편의성을 위하여 3인의 평가자가 평가(즉, 제 1,2,3 평가 정보 존재)한다는 가정에서 설명하도록 한다.As mentioned above, the evaluator may be three or more, but for convenience of explanation, the evaluator assumes that three evaluators evaluate (that is, the presence of the first, second, and third evaluation information).
평균 점수 생성 파트(254a)는 제 1,2,3 평가 정보에서 세부 평가 대상에 대한 점수를 평균 처리하여 이를 종합 평가 정보로 생성 및 제공하는 기능을 수행하는 것으로, 이는 가장 일반적인 종합 평가 방식으로 무난하게 이용할 수 있는 평가 방식이라 할 수 있다.The average
점수 비교 판단 파트(254b)는 바람직하게 3인 이상의 평가자가 존재할 때 유용하게 활용할 수 있는 평가 구성으로서, 세부 평가 대상 중 가장 높은 점수와 낮은 점수를 제외한 나머지 점수를 평균 처리하여 종합 평가 정보를 생성 및 제공하는 것이다.The score
호불호 평가부(255)는 복수 평가부(254)를 특화 처리한 것으로서 복수 개의 평가 정보를 통해 보다 합리적인 종합 결과를 도출하기 위하여 음성으로 이루어진 평가 정보를 텍스트화하여 텍스트 내의 단어의 의미를 분석하여 종합적인 결과를 산정하는 것이다. The call
즉, 호불호 평가부(255)는 텍스트를 기반으로 한 오피니언 마이닝(opinion mining) 프로그램을 접목하여 평가자의 평가 정보 내에 포함된 호불호(즉, 좋고 나쁜 의미)를 나타내는 단어의 회수 집계에 의하여 평가 점수를 산정하는 것으로서, 다시 말해 음성으로 이루어진 평가 정보를 텍스트로 변환하거나 아니면 평가 정보 자체를 평가자가 텍스트로 생성한 것에서 텍스트의 의미를 파악하여 세부 평가 대상의 호(好), 불호(不好) 평가를 캐취(catch)한 다음 호불호 회수를 집계(counting)하여 가중치 부여 방식에 의해 종합하여 점수를 산정하는 기능을 제공한다.That is, the call
여기서, 오피니언 마이닝(opinion mining)이라 함은 텍스트(text)화된 언어의 의미를 분석하여 해당 언어가 표현하는 의미 중 최소한 그 의미가 좋고 나쁨을 표현하는지 여부를 파악하는 기능을 제공하는 것으로, 호불호 판단부(255)는 단어 라이브러리를 필수적으로 구비한다.Here, the opinion mining (opinion mining) is to analyze the meaning of the text (language) language to provide a function to determine whether at least the meaning of the meaning of the language expresses good or bad, it is determined as unfavorable The
상기 단어 라이브러리는 객체 단어를 분류 및 저장한 객체 단어 DB(255a)와 호불호 단어를 호/불호 의미 별(즉, 좋은 평가를 나타내는 의미와 나쁜 평가를 나타내는 의미)로 분류하여 저장한 호불호 단어 DB(255b) 등을 포함한다.The word library includes an object word DB (255a) that classifies and stores an object word and a call-unfavorable word DB that classifies and stores the call-unfavorable words into call / unlike meanings (that is, meanings indicating good evaluation and bad evaluation). 255b) and the like.
구체적으로 호불호 평가부(255)는 단어 라이브러리 이외에 텍스트 처리 파트(255c), 객체 단어 추출 파트(255d), 호불호 단어 추출 파트(255e), 호불호 정보 생성 파트(255f), 호불호 기산 파트(255g), 호불호 종합 판단 파트(255g)를 포함한다.Specifically, the call
텍스트 처리 파트(255c)는 음성으로 이루어진 평가 정보를 음성 변환 프로그램과의 연동을 통하여 텍스트로 변환시키는 역할을 수행한다.The
객체 단어 추출 파트(255d)는 객체 단어 DB(255a)를 바탕으로 텍스트 처리된 평가 정보를 구성하는 다양한 단어들 중 평가 대상의 단어, 즉 표현력, 발음, 구사력과 같은 평가 대상을 의미하는 단어인 '객체 단어'를 감지하여 추출하고, 호불호 단어 추출 파트(255e)는 호불호 단어 DB(255b)를 바탕으로 상기 객체 단어와 조사 등을 매개로 연결된 호불호 단어를 추출하는바, 예를 들어 '표현력이 아주 좋은 문장이다.'라는 텍스트 문장이 평가 정보에 수록된 경우, 객체 단어인 '표현력'과 '이'이라는 조사를 매개로 연관된 '아주 좋은'라는 호불호 단어를 추출하는 기능을 수행한다. The object
또한 호불호 정보 생성 파트(255e)은 상기 양 단어의 연관관계를 토대로 호불호 여부(매우 좋은, 좋음, 보통, 나쁨, 매우 나쁨 또는 우수함, 어색함, 부족함 등)가 구별되어 있는 호불호 단어 DB(255b)를 통해 호불호 정보를 파악한 후 평가 정보를 구성하는 하나의 텍스트 문장에서 추출된 복수 개의 호불호 정보 중 해당 텍스트 문장을 대표하는 핵심적인 호불호 정보를 추출하는바, 이는 예를 들어 가장 긍정적이거나 가장 부정적인(다시 말해, '좋아' 보다 '정말 좋아'가 도출되도록) 호불호 정보를 도출하는 기능을 수행하며 이를 위해 비교급, 최상급, 부사 등의 단어를 판별하는 기능을 포함한다.In addition, the call disagreement
이는 본 발명에서 정의한 객체가 아닌 다른 객체(예를 들어, 발음/표현력과 같은 평가 대상에 관한 객체가 아닌 다른 객체)를 목적으로 호불호를 표현한 텍스트에서 호불호 정보가 도출되지 않도록 함으로써 평가 대상에 대한 평가자의 판단을 보다 명확히 파악할 수 있도록 할 뿐만 아니라, 평가자가 표현한 평가 정보 중 하나의 텍스트 문장 안에서 여러 호불호 정보가 생성될 경우 복수 개의 호불호 정보가 세부 평가 대상을 기준으로 구분되어 동시에 생성됨으로써 하나의 평가 대상에 대해서 상호 모순되거나 호/불호가 동시에 평가되는 문제를 방지할 수 있다.This is because the evaluator for the evaluation target is prevented from deriving the call disability information from the text expressing the dislike for the purpose of an object other than the object defined in the present invention (for example, an object other than the object related to the evaluation target such as pronunciation / expression ability). In addition to making it possible to more clearly understand the judgment of the decision, when multiple call dislike information is generated in one text sentence among the evaluation information expressed by the evaluator, a plurality of call dislike information is generated based on the detailed evaluation target and simultaneously generated, It is possible to prevent the problem of mutual contradictions or simultaneous call / disapproval.
호불호 정보 기산 파트(255f)는 다수 평가자에 의한 복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보(또는 호불호 단어)를 모두 추출하여 평가 대상(객체) 별로 호불호 정보를 기산하여 일명 '객체별 호불호 수치'를 생성하는 역할을 한다. The call dislike
즉, 호불호 정보 기산 파트(255f)는 평가자를 기준으로 구분을 하지 않고 평가 대상(객체) 별로 호불호 정보를 모두 기산, 즉 회수 체크를 하여 체크된 수치로 객체별 호불호 수치를 생성하는 역할을 수행하는바, 이러한 객체별 호불호 수치는 세부 평가 대상 별로 생성될 수 있다. 가령 발음 a, 표현력, b, 문장 구성 c와 같이 a,b,c라는 개별 수치로서 객체 별 호불호 수치가 생성될 수 있는 것이다. That is, the call disagreement
이 때, 기산을 위해서 '좋음'을 나타내는 호불호 정보는 1 내지 5의 수치가 할당되고, '나쁨'을 나타내는 호불호 정보는 ??1 내지 ??5 의 수치가 할당되어 이를 합산 처리하도록 한다. 여기서, 호불호 정보의 값이 다른 경우는 수식어의 최상급 표현 여부, 비교급 표현 여부에 의하여 좋다는 가치가 차별화(1에서 5까지)될 수 있기 때문이다.At this time, for the calculation, the call disability information indicating 'good' is assigned a value of 1 to 5, and the call disability information indicating 'bad' is assigned a numerical value of ?? 1 to ?? 5 so as to be summed up. In this case, when the value of the call disagreement information is different, the value of goodness may be differentiated (from 1 to 5) depending on whether the expression of the qualifier is expressed or not.
호불호 종합 판단 파트(255g)는, 상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가를 하나의 종합 수치로서 도출하는 역할을 수행하는 것으로, 본 발명에서는 객체 별 호불호 수치에 대한 가중치를 차등 처리하여 다중 회귀분석 방법을 사용할 수 있고 구체적으로 정규화, 가중치 부여 계산 과정 등을 회귀이론과 접목하여 각각의 객체별 호불호 수치를 독립 변수로 설정하여 가령 "Y= ax1+bx2+cx3+...+nxn"과 같은 선형식에 의하여 산출하는 방식을 취하도록 한다. The call disagreement comprehensive decision part 255g serves to derive a comprehensive evaluation obtained by synthesizing a plurality of evaluation information by using the object disagreement number for each object as one comprehensive value. Multiple regression analysis can be used by differential processing. In particular, normalization, weighting calculation process, etc. can be combined with regression theory to set each object's call-like number as an independent variable, for example, "Y = ax1 + bx2 + cx3 + .. The calculation is done by a linear equation such as. + nxn ".
상기 식에서 a 내지 n에 대한 각각의 상수는 각 객체별 호불호 수치로 할당된 독립변수 x1 내지 xn에 대한 가중치 부여 방식에 의하여 결정이 되는데, 가중치는 발음/표현력/단어 개수/문장 구성과 같은 세부 평가 대상 중 우선이 되어야할 대상을 미리 선정하여 우선순위에 따라 높은 가중치에서 낮은 가중치로 미리 구분하여 설정할 수 있고, 이러한 가중치 부여 방법은 이미 잘 알려진 회귀분석 이론에 따를 수 있으며 이러한 본 발명의 특징이 특정 회계 처리를 위한 수식에 한정되지 않는 것은 물론이다.In the above equation, each constant for a to n is determined by a weighting method for the independent variables x1 to xn assigned as the number of unfavorable numbers for each object, and the weight is evaluated in detail such as pronunciation / expression power / word count / sentence structure. Among the targets, the targets to be prioritized can be pre-selected and pre-divided into high and low weights according to their priorities. The weighting method can be based on a well-known regression theory. Of course, it is not limited to the formula for accounting processing.
더불어, Y 역시 반드시 하나의 수치로서만 대별되는 것이 아니라, 하나의 세부 평가 대상 별로 Y1, Y2 등과 같은 복수 개의 결과 수치를 얻을 수도 있다. In addition, Y is not necessarily classified as a single value, but a plurality of result values such as Y1 and Y2 may be obtained for each detailed evaluation target.
즉, 이와 같은 호불호 평가부(255)에 의하여, 복수의 평가 정보를 보다 합리적으로 종합하여 하나의 수치, 즉 종합 평가 정보로서 제공할 수 있기 때문에 예를 들어 수많은 학습자가 존재할 때 상호 비교 우위를 가릴 기준을 잡기 어렵거나 평가자에 의한 각각의 학습자에 대한 평가를 수치로 표현하기 애매하거나 난해할 때 보다 합리적이고 과학적으로 학습자의 평가 기준, 즉 수치로 대별되는 평가 점수를 산정할 수 있는 기준을 제시할 수 있다.
That is, since the call
비교 평가부(256)는 학습자 자신의 평가 정보는 물론 다른 학습자의 평가 정보를 참조용 내지 비교 판단용으로 동시에 제공하는 기능을 수행하는 것으로, 다시 말해 최고 점수를 받은 학습자(제 2 학습자)의 답안 정보 및 평가 정보를 해당 학습자(제 1 학습자)의 평가 정보에 수록하여 제 1 학습자가 자신의 답안보다 우수한 다른 평가자의 답안을 참조함으로서 학습 의욕을 고취시킬 수 있도록 하는 기능을 제공한다.The
구체적으로, 비교 평가부(256)는 점수 수집 파트(256a), 우선순위 판단 파트(256b), 비교 평가 파트(256c)로 구성된다.Specifically, the
점수 수집 파트(256a)는 다수의 학습자에 대한 평가 정보를 수집하는 기능을 수행하는 것으로, 특히 점수 비교 판단 파트(254b)와 연동되어 학습자에 대한 평가 정보 중에서 점수로 이루어진 문자 평가 정보를 수집하는 역할을 담당한다.The
우선순위 판단 파트(256b)는 해당 문자 평가 정보의 점수의 고저를 비교하여 가장 점수가 높은 학습자의 답안 정보를 추출하는 기능을 수행한다.The
이 때, 점수는 종합 점수일 수도 있고 각각의 형식/실질적 평가 기준 별 점수일 수도 있다.In this case, the score may be a comprehensive score or a score for each type / substantial evaluation criterion.
비교 평가 파트(256c)는 가장 점수가 높은 학습자에 대한 답안 정보를 평가 정보의 후단에 수록하는 기능을 수행한다.The
즉, 제 1 학습자의 답안 정보- 평가자의 평가 정보- 제 2 학습자(가장 높은 점수를 받은 학습자)의 답안 정보 순으로 문장 별로 파일 구성이 이루어지도록 함으로써, 학습자가 평가자의 평가 음성을 듣는 것은 물론 가장 높은 점수를 받은 평가자의 답안 음성도 같이 들을 수 있도록 하여, 학습자의 경쟁 의욕을 고취시키거나 우수 학습자의 답안 정보를 참조할 수 있도록 할 수 있다.That is, the learner listens to the evaluation voice of the evaluator by arranging files by sentence in the order of answer information of the first learner-evaluation information of the evaluator-answer information of the second learner (the student with the highest score). The voice of the high-score evaluator's answer can also be heard so that the learner's competitive motivation can be encouraged or the excellent learner's answer information can be referred to.
정리하면, 상술한 평가 정보 삽입 모듈(250)은 다양한 형식과 내용을 수록한 평가 정보를 생성하여 학습자가 자신의 잘못과 오류를 쉽게 파악할 수 있도록 하는 학습 능력 고취 기능을 제공할 수 있다.
In summary, the above-described evaluation
본 발명의 통합 정보 생성 모듈을 상기 평가 정보 삽입 모듈에서 생성된 평가 정보를 답안 정보의 각 문장 별로 삽입하여 결과적으로 답안 정보와 평가 정보를 합체하여 통합 정보를 생성하는 기능을 한다.The integrated information generation module of the present invention inserts the evaluation information generated by the evaluation information insertion module for each sentence of the answer information and consequently combines the answer information and the evaluation information to generate the integrated information.
여기서, 통합 정보라 함은 답안 정보와 평가 정보가 합체된 정보를 의미하고, 음성 형식을 주요 구성으로 하면서 부가적으로 점수 등의 문자 정보를 포함할 수 있다.Here, the integrated information may mean information in which the answer information and the evaluation information are merged, and may include text information such as a score while additionally configuring the voice format.
이러한 통합 정보 생성 모듈은 구체적으로 통합 정보 합체부와 인터벌 제어부로 구성된다.The integrated information generation module is specifically composed of an integrated information coalescing unit and an interval control unit.
통합 정보 합체부는 답안 정보의 각각의 문장 별로 평가자가 생성한 평가 정보를 해당 문장 뒤에 합체하는 기능을 수행한다.The integrated information coalescing unit merges the evaluation information generated by the evaluator for each sentence of the answer information after the corresponding sentence.
즉, 평가자가 평가 정보를 생성할 때 답안 정보에서 문장 뒤에 평가 정보를 직접 녹음하여 삽입할 수도 있으나, 평가자가 녹음한 평가 정보를 임시 저장한 다음 평가 정보를 답안 정보의 삽입 부위에 각각 입력하여 합체하는 기능을 제공할 수도 있다.In other words, when the evaluator generates the evaluation information, the evaluation information may be recorded by inserting the evaluation information directly after the sentence in the answer information, but the evaluation information recorded by the evaluator is temporarily stored, and then the evaluation information is entered into the insertion part of the answer information, respectively. It can also provide the ability to:
다시 말해, 답안 정보가 제 1 내지 6개의 문장으로 이루어진 경우, 평가 정보 역시 제 1 내지 6의 개수로 이루어질 수 있는바, 답안 정보의 각각의 갭, 즉 삽입 부위에 연변을 부여하고 이에 상응하도록 평가 정보에도 연번을 부가하여 각각의 연번이 일치하도록 평가 정보를 답안 정보의 삽입 부위에 합체할 수 있다.In other words, when the answer information consists of the first to six sentences, the evaluation information may also be the number of the first to six, so that each gap of the answer information, i. The information can also be added to the sequence number so that the evaluation information can be incorporated into the insertion site of the answer information so that each sequence coincides.
이와 같이 각각의 위치에 맞게 답안 정보에 합체된 평가 정보와 더불어 통합 장보(파일 형식)이 생성되고, 평가 정보 중 음성이 아닌 형식(점수 등의 문자, 이미지)은 별도의 분리된 파일 형태로 생성되는 것이 가능하며, 앞서 말한 바와 같이 학습자가 이 통합 정보를 재생할 때 음성의 재생시간에 맞추어 문자 평가 정보가 화면에 활성 처리될 수 있다.In this way, the integrated information (file format) is generated along with the evaluation information incorporated in the answer information for each location, and the non-speech format (characters such as scores and images) of the evaluation information is generated in a separate file format. As described above, when the learner reproduces the integrated information, the character evaluation information can be activated on the screen in accordance with the reproduction time of the voice.
인터벌 제어부는 삽입 부위, 즉 문장과 문장 사이에 삽입(합체)된 평가 정보를 학습자가 들을 때 학습자의 음성과 평가자의 음성이 인터벌 없이 겹쳐지는 것을 방지하기 위해, 강제적인 인터벌을 부여하는 기능을 수행한다.The interval controller performs a function of providing a forced interval to prevent the learner's voice and the evaluator's voice from overlapping without an interval when the learner listens to the insertion part, that is, the evaluation information inserted between the sentences and the sentences. do.
즉, 인터벌 제어부는 평가 정보가 답안 정보의 삽입 부위에 삽입될 때 삽입 부위의 재생 시간을 강제적으로 늘려 늘려진 삽입 부위에 평가 정보가 삽입되도록 하여, 답안 정보의 제 1 문장 - 평가 정보 - 답안 정보의 제 2 문장과 같은 각각의 음성 객체 사이에 예를 들어 2 내지 3초의 강제적인 인터벌(무음)이 발생하도록 하는 역할을 담당하는 것이다.That is, when the evaluation information is inserted into the insertion site of the answer information, the interval control unit forcibly increases the playing time of the insertion site so that the evaluation information is inserted into the extended insertion site, so that the first sentence of the answer information-evaluation information-answer information It is responsible for causing a forced interval (silence) of, for example, 2 to 3 seconds between each voice object, such as the second sentence.
이는, 학습자의 음성과 평가자의 음성이 겹치거나 인터벌 없이 학습자의 문장 재생이 끝난 뒤 곧바로 평가자의 평가 음성이 시작됨으로 학습자의 연상/ 학습 대기 시간을 갖지 못하는 폐해를 방지하는 특성을 제공하기 위함이다.This is to provide a characteristic of preventing a learner's voice from having an association / learning waiting time since the evaluator's evaluation voice starts immediately after the learner's voice overlaps or the learner's sentence is reproduced without an interval.
즉, 음성 파일 사이에 별도의 음성을 삽입하는 본 발명의 특성에서 최소한 음성과 음성 간에 맞물리는 문제가 발생하는 것을 방지하도록 하여 보다 안정적으로 학습자가 통합 정보를 청취할 수 있도록 하는 분위기를 조성한다.
That is, in the characteristic of the present invention in which separate voices are inserted between voice files, at least a problem of interlocking between voices and voices is prevented from occurring, thereby creating an atmosphere that enables the learner to listen to the integrated information more stably.
전송 모듈은 상기 통합 정보를 스피킹 학습 인터페이스, 구체적으로 피드백 모듈에 전송하여 학습자가 이를 청취하거나 시청함으로써 자신의 오류와 점수, 개선 방향을 확인할 수 있도록 한다.
The transmitting module transmits the integrated information to the speaking learning interface, specifically, the feedback module, so that the learner can check his or her error, score, and improvement direction by listening to or watching it.
지금까지 설명한 바와 같이, 본 발명에 따른 온라인을 통한 외국어 말하기 평가 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.
As described so far, the configuration and operation of the foreign language speaking evaluation system through the online according to the present invention have been expressed in the above description and the drawings, but this is merely an example, and the spirit of the present invention is not limited to the above description and the drawings. Of course, various changes and modifications are possible without departing from the spirit of the present invention.
100: 스피킹 학습 인터페이스 110: 문제 제공 모듈
120: 답안 녹음 모듈 121: 종료시간 표시부
122: 강제녹음 종료부 130: 전송 모듈
140: 피드백 모듈 200: 스피킹 평가 인터페이스
210: 문장 개수 분석모듈 211: 파형 표시부
212: 갭 파악부 212a: 인터벌 파악수단
212b: 진폭 변위 파악 수단 212c: 갭 분석 수단
213: 문장 개수 파악부 220: 문장 구조 분석 모듈
230: 답안 재생모듈 231: 재생부
232: 기준선 표시부 240: 삽입 부위 결정 모듈
241: 기준선 활성 처리부 242: 기준선 수동 정지부
243: 기준선 자동 정지부 243a: 반복 재생부
243b: 알람부 244: 삽입 부위 결정부
245: 삽입 부위 보정부 250: 평가 정보 삽입 모듈
251: 형식 평가부 251a: 구성 정보 평가 파트
252b: 발음 정보 평가 파트 252: 실질 평가부
253: 문자 평가부 254: 복수 평가부
254a: 평균 점수 생성 파트 254b: 점수 비교 판단 파트
255: 호불호 평가부 255a: 객체 단어 DB
255b: 호불호 단어 DB 255c: 텍스트 처리 파트
255d : 객체 단어 추출 파트 255e : 호불호 단어 추출 파트
255f: 호불호 정보 생성 파트 255g : 호불호 기산 파트
255e: 호불호 종합 판단 파트 256: 비교 평가부
256a: 점수 수집 파트 256b: 우선순위 판단 파트
256c: 비교 평가 파트 260: 통합 정보 생성 모듈
261: 통합 정보 합체부 262: 인터벌 제어부
270: 전송 모듈100: speaking learning interface 110: problem provision module
120: answer recording module 121: end time display unit
122: forced recording end 130: transmission module
140: feedback module 200: speaking evaluation interface
210: sentence number analysis module 211: waveform display unit
212:
212b: amplitude displacement checking means 212c: gap analysis means
213: sentence number grasping unit 220: sentence structure analysis module
230: answer playback module 231: playback unit
232: reference line display unit 240: insertion site determination module
241: baseline active processing unit 242: baseline manual stop
243: reference
243b: alarm unit 244: insertion site determining unit
245: insertion site correction unit 250: evaluation information insertion module
251:
252b: pronunciation information evaluation part 252: real evaluation unit
253: character evaluation unit 254: plural evaluation unit
254a: Average
255: call
255b:
255d: object
255f: disagreement information generation part 255g: disagreement calculation part
255e: dissatisfaction comprehensive judgment part 256: comparative evaluation unit
256a:
256c: Evaluation of Comparison Part 260: Integration Information Generation Module
261: integrated information coalescing unit 262: interval control unit
270: transmission module
Claims (11)
학습자에게 스피킹 문제를 제공하는 문제 제공 모듈 및,
상기 스피킹 문제를 접한 학습자로부터 답안을 음성으로 녹음하여 답안 정보를 생성하는 답안 녹음 모듈과,
상기 답안 정보를 스피킹 평가 인터페이스에 전송하는 전송 모듈 및,
스피킹 평가 인터페이스로부터 통합 정보를 전송받아 학습자에게 재생시키는 피드백 모듈로 구성된, 스피킹 학습 인터페이스;
상기 답안 정보의 음성 주파수를 분석하여 답안 정보를 구성하는 문장 개수와 각 문장 사이의 갭 영역을 파악하는 문장 개수 파악 모듈과,
상기 답안 정보를 평가자에게 재생하는 답안 재생 모듈 및,
재생이 된 답안 정보의 각 문장별로, 평가자의 음성으로 녹음한 평가 정보를 생성하는 평가 정보 삽입 모듈 및,
상기 평가 정보를 답안 정보의 각 문장 사이에 삽입하여, 답안 정보와 평가 정보가 합체된 통합 정보를 생성하는 통합 정보 생성 모듈과,
상기 통합 정보를 상기 스피킹 학습자 인터페이스의 피드백 모듈에 전송하는 전송 모듈을 포함한, 스피킹 평가 인터페이스;로 구성되되,
상기 평가 정보 삽입 모듈은,
하나의 답안 정보를 기준으로, 복수 명의 평가자의 음성으로 각각 녹음되어 복수 개로 생성된 평가 정보를 텍스트로 변환하는 텍스트 변환 처리 파트;
학습자의 실력을 평가하는 평가 대상에 대한 의미를 갖는 객체 단어를 저장한 객체 단어 DB 및 호불호 의미를 갖는 호불호 단어를 저장한 호불호 DB를 포함한 단어 라이브러리;
상기 객체 단어 DB를 바탕으로 상기 텍스트 처리된 평가 정보 중 객체 단어를 추출하는 객체 단어 추출 파트;
상기 호불호 DB를 바탕으로 상기 객체 단어와 조사를 매개로 연결된 호불호 단어를 추출하는 호불호 단어 추출 파트;
상기 객체 단어와 상기 호불호 단어의 연관관계를 토대로 텍스트 처리된 평가 정보의 문장 별로 호불호 정보를 생성하는 호불호 정보 생성 파트;
복수 개의 평가 정보를 구성하는 복수 개의 텍스트 문장에서 생성된 호불호 정보를 모두 추출하여 평가 정보의 평가 대상 별로 호불호 정보를 기산하여 객체별 호불호 수치를 생성하는 호불호 정보 기산 파트;
상기 객체별 호불호 수치를 이용하여 복수 개의 평가 정보를 종합한 종합 평가 결과를 하나의 종합 수치로 산출하는 호불호 종합 판단 파트;로 구성된, 호불호 평가부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.As a foreign language speaking evaluation system online,
A problem-providing module that provides the speaker with a speaking problem, and
An answer recording module for generating answer information by recording an answer from a learner who is in contact with the speaking problem;
A transmission module for transmitting the answer information to a speaking evaluation interface;
A speaking learning interface comprising a feedback module for receiving the integrated information from the speaking evaluation interface and playing the information to the learner;
A sentence number grasping module for analyzing the voice frequency of the answer information and grasping the number of sentences constituting the answer information and a gap region between the sentences;
An answer playing module for playing the answer information to an evaluator;
An evaluation information insertion module for generating evaluation information recorded by an evaluator's voice for each sentence of the replied answer information;
An integrated information generation module which inserts the evaluation information between the sentences in the answer information and generates integrated information in which the answer information and the evaluation information are combined;
Speaking evaluation interface, including a transmission module for transmitting the integrated information to the feedback module of the speaker learner interface,
The evaluation information insertion module,
A text conversion processing part for converting a plurality of pieces of evaluation information, which are respectively recorded by voices of a plurality of evaluators based on one answer information, into text;
A word library including an object word DB storing an object word having a meaning for an evaluation target for evaluating a learner's ability and a call disability DB storing a call dislike word having a dislike meaning;
An object word extraction part for extracting an object word from the text processed evaluation information based on the object word DB;
A call disagreement word extraction part for extracting a call disagreement word connected through the object word and the survey based on the call disagreement DB;
A call dislike information generating part for generating call dislike information for each sentence of the evaluation information processed text based on the relation between the object word and the call dislike word;
A call-and-call information calculating part for extracting all the call-like information generated from the plurality of text sentences constituting the plurality of evaluation information and calculating the call-like information for each evaluation target of the evaluation information to generate a call-like number for each object;
Foreign language via online, comprising a; call disfavor evaluation unit consisting of; a call disfavor comprehensive decision part for calculating a comprehensive evaluation result of a plurality of evaluation information by using the call dislike number for each object as one comprehensive value Speaking assessment system.
상기 문장 개수 분석 모듈은,
상기 답안 정보의 음성 주파수 분포를 파형 그래프로서 표시하는 파형 표시부;
상기 파형 그래프에서 데시벨 수치와 진폭 변위의 고저 상태를 비교하여 복수 개의 갭을 파악하는 갭 파악부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.The method of claim 1,
The sentence count analysis module,
A waveform display for displaying the speech frequency distribution of the answer information as a waveform graph;
And a gap determination unit for comparing a high and low state of the decibel value and the amplitude displacement in the waveform graph to identify a plurality of gaps.
상기 갭 파악부는,
데시벨 수치와 진폭 변위의 고저 상태 비교에 의해 파악된 상기 복수 개의 갭에서, 갭의 길이 차이와 갭이 발생되기 전 파형 변화의 패턴 분석을 통하여 문장 단위를 구분할 수 있는 갭을 추출하는 갭 분석 수단;을 추가로 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.The method of claim 2,
The gap grasp portion,
Gap analysis means for extracting a gap capable of classifying sentence units in the plurality of gaps identified by a decibel value and a high and low state comparison of amplitude displacements, by analyzing a pattern of waveform changes before gaps and gaps are generated; Further comprising a, foreign language speaking evaluation system online.
상기 답안 재생 모듈은,
상기 파형 그래프에서 Y 축을 따라 수직으로 연장된 기준선을 상기 파형 그래프 상에 표시하되, 상기 기준선은 상기 답안 정보의 현재 재생 시점을 나타내면서 상기 파형 그래프의 X 축을 따라 이동하는 형태로 시각적으로 표시된 기준선 표시부;를 포함하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.The method of claim 2,
The answer reproduction module,
A baseline display unit displaying a reference line extending vertically along a Y axis in the waveform graph on the waveform graph, the reference line visually displayed along the X axis of the waveform graph while indicating a current reproduction time of the answer information; Characterized in that the foreign language speaking evaluation system through online.
상기 스피킹 평가 인터페이스는,
상기 문장 개수 분석모듈에서 파악한 상기 갭 영역을 상기 기준선이 지나갈 때 해당 갭 영역에서 표시되는 상기 기준선을 색상과 점멸 방식으로 시각적 식별성을 부여하는 기준선 활성 처리부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.5. The method of claim 4,
The speaking evaluation interface,
And a reference line active processor configured to provide visual identification of the reference line displayed in the corresponding gap region in a color and blinking manner when the gap region identified by the sentence count analysis module passes. A foreign language speaking evaluation system through online.
상기 스피킹 평가 인터페이스는,
상기 문장 개수 분석모듈에서 파악한 상기 갭을 기준으로 1개 문장이 종료되는 답안 정보 재생 시점에 상기 기준선의 이동상태 및 답안 정보의 재생이 일시 정지되도록 하는 기준선 자동 정지부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.5. The method of claim 4,
The speaking evaluation interface,
Insertion part determination module, including; a reference line automatic stop unit to pause the reproduction of the reference state and the movement state of the answer information at the time when the answer information information that ends one sentence on the basis of the gap identified by the sentence count analysis module; And a foreign language speaking evaluation system online.
상기 스피킹 평가 인터페이스는,
상기 통합 정보 생성 모듈에서 평가자에 의하여 답안 정보 중 갭 영역이 아닌 재생 지점에 평가 정보가 삽입되었는지 여부를 판단하여, 평가 정보가 갭 영역에 삽입된 것이 아닌 경우 해당 평가 정보가 삽입된 지점에서 가장 가까운 재생 시점인 갭 영역으로 해당 평가 정보를 이동시키는, 삽입 부위 보정부;를 포함한, 삽입 부위 결정모듈;을 구비하는 것을 특징으로 하는, 온라인을 통한 외국어 말하기 평가 시스템.The method of claim 2,
The speaking evaluation interface,
In the integrated information generating module, the evaluator determines whether the evaluation information is inserted into the reproduction point other than the gap area of the answer information, and when the evaluation information is not inserted into the gap area, the evaluation information is the closest to the point where the evaluation information is inserted. And an insertion site determination module for moving the corresponding evaluation information to a gap region which is a reproduction point of time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120102938A KR101318377B1 (en) | 2012-09-17 | 2012-09-17 | System for evaluating foreign language speaking through on-line |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120102938A KR101318377B1 (en) | 2012-09-17 | 2012-09-17 | System for evaluating foreign language speaking through on-line |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101318377B1 true KR101318377B1 (en) | 2013-10-16 |
Family
ID=49638514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120102938A KR101318377B1 (en) | 2012-09-17 | 2012-09-17 | System for evaluating foreign language speaking through on-line |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101318377B1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101474389B1 (en) | 2013-12-31 | 2014-12-18 | 경희대학교 산학협력단 | Method for operating evaluation server of speech evaluation system and recording medium |
KR101478756B1 (en) * | 2014-10-29 | 2014-12-31 | 경희대학교 산학협력단 | Method for evaluating speech using speech evaluation program executed in evaluator computer and recording medium thereof |
KR101992370B1 (en) * | 2018-04-20 | 2019-06-24 | 주식회사 스터디맥스 | Method for learning speaking and system for learning |
KR20200081707A (en) | 2018-12-28 | 2020-07-08 | 주식회사 이르테크 | A apparatus of learning feedback and making express for speaking trainee |
KR20200088073A (en) * | 2019-01-14 | 2020-07-22 | 김주혁 | English speaking evaluation system and method thereof |
KR20200113143A (en) | 2019-03-23 | 2020-10-06 | 주식회사 이르테크 | A calibration system for language learner by using audio information and voice recognition result |
KR20210077172A (en) | 2019-12-17 | 2021-06-25 | 주식회사 이르테크 | Phone Language Learning Automation System Using Speech Visualization and Storytelling Chatbot Framework |
KR20210103831A (en) | 2020-02-14 | 2021-08-24 | 김영섭 | Apparatus and method for managing foreign language study on line |
KR102294735B1 (en) | 2021-03-26 | 2021-08-27 | (주)에이피아이넥스트 | Method, device and system for providing speaking analysis content using feedback based on artificial intelligence |
KR20220053412A (en) * | 2020-10-22 | 2022-04-29 | 이화여자대학교 산학협력단 | Evaluation method for consecutive interpretation training, recording medium and device for performing the method |
KR20220086923A (en) | 2020-12-17 | 2022-06-24 | 최효준 | English pronunciation automatic evaluation system and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060083862A (en) * | 2005-01-18 | 2006-07-21 | 서문종 | System and method for synthesizing music and voice, and service system and method thereof |
KR20090082602A (en) * | 2008-01-28 | 2009-07-31 | 박형진 | Method of English Study By Using Voice File |
KR20100050946A (en) * | 2008-11-06 | 2010-05-14 | (주) 아이보린 | Foreign language studying system using on-line and method thereof |
KR20120022100A (en) * | 2010-09-01 | 2012-03-12 | 김영각 | Method and system for managing online correction of practice test |
-
2012
- 2012-09-17 KR KR1020120102938A patent/KR101318377B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060083862A (en) * | 2005-01-18 | 2006-07-21 | 서문종 | System and method for synthesizing music and voice, and service system and method thereof |
KR20090082602A (en) * | 2008-01-28 | 2009-07-31 | 박형진 | Method of English Study By Using Voice File |
KR20100050946A (en) * | 2008-11-06 | 2010-05-14 | (주) 아이보린 | Foreign language studying system using on-line and method thereof |
KR20120022100A (en) * | 2010-09-01 | 2012-03-12 | 김영각 | Method and system for managing online correction of practice test |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101474389B1 (en) | 2013-12-31 | 2014-12-18 | 경희대학교 산학협력단 | Method for operating evaluation server of speech evaluation system and recording medium |
KR101478756B1 (en) * | 2014-10-29 | 2014-12-31 | 경희대학교 산학협력단 | Method for evaluating speech using speech evaluation program executed in evaluator computer and recording medium thereof |
KR101992370B1 (en) * | 2018-04-20 | 2019-06-24 | 주식회사 스터디맥스 | Method for learning speaking and system for learning |
KR20200081707A (en) | 2018-12-28 | 2020-07-08 | 주식회사 이르테크 | A apparatus of learning feedback and making express for speaking trainee |
KR102196917B1 (en) | 2019-01-14 | 2020-12-30 | 김주혁 | English speaking evaluation system and method thereof |
KR20200088073A (en) * | 2019-01-14 | 2020-07-22 | 김주혁 | English speaking evaluation system and method thereof |
KR20200113143A (en) | 2019-03-23 | 2020-10-06 | 주식회사 이르테크 | A calibration system for language learner by using audio information and voice recognition result |
KR20210077172A (en) | 2019-12-17 | 2021-06-25 | 주식회사 이르테크 | Phone Language Learning Automation System Using Speech Visualization and Storytelling Chatbot Framework |
KR20210103831A (en) | 2020-02-14 | 2021-08-24 | 김영섭 | Apparatus and method for managing foreign language study on line |
KR20220053412A (en) * | 2020-10-22 | 2022-04-29 | 이화여자대학교 산학협력단 | Evaluation method for consecutive interpretation training, recording medium and device for performing the method |
KR102529241B1 (en) * | 2020-10-22 | 2023-05-08 | 이화여자대학교 산학협력단 | Evaluation method for consecutive interpretation training, recording medium and device for performing the method |
KR20220086923A (en) | 2020-12-17 | 2022-06-24 | 최효준 | English pronunciation automatic evaluation system and method |
KR102294735B1 (en) | 2021-03-26 | 2021-08-27 | (주)에이피아이넥스트 | Method, device and system for providing speaking analysis content using feedback based on artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101318377B1 (en) | System for evaluating foreign language speaking through on-line | |
Suzuki et al. | The relationship between utterance and perceived fluency: A meta‐analysis of correlational studies | |
Kendall | Speech rate, pause and sociolinguistic variation: studies in corpus sociophonetics | |
CN109785698B (en) | Method, device, electronic equipment and medium for oral language level evaluation | |
Chen | Note-taking in consecutive interpreting: New data from pen recording | |
US6397185B1 (en) | Language independent suprasegmental pronunciation tutoring system and methods | |
Cucchiarini et al. | Oral proficiency training in Dutch L2: The contribution of ASR-based corrective feedback | |
CN102034475B (en) | Method for interactively scoring open short conversation by using computer | |
US20170323577A1 (en) | Automated generation and presentation of lessons via digital media content extraction | |
US20110207099A1 (en) | Measuring cognitive load | |
Tavakoli et al. | Scoring validity of the Aptis Speaking Test: Investigating fluency across tasks and levels of proficiency | |
Al-Ghazali et al. | Silent pauses in the speech of Yemeni EFL learners | |
Che et al. | Automatic online lecture highlighting based on multimedia analysis | |
Xu et al. | Assessing L2 English speaking using automated scoring technology: examining automarker reliability | |
Uchihara et al. | Re-examining the relationship between productive vocabulary and second language oral ability | |
Baur et al. | A shared task for spoken CALL? | |
Neumeyer et al. | Webgrader: a multilingual pronunciation practice tool | |
KR20100078374A (en) | Apparatus for correcting pronunciation service utilizing social learning and semantic technology | |
KR102460272B1 (en) | One cycle foreign language learning system using mother toungue and method thereof | |
CN114241835A (en) | Student spoken language quality evaluation method and device | |
KR101315095B1 (en) | Foreign language listening studying system through inputting words by user | |
RU135830U1 (en) | TRAINING DEVICE FOR EXERCISING SKILLS IN LEARNING LANGUAGES | |
Nagamine | Formant dynamics in second language speech: Japanese speakers' production of English liquids | |
Nagao et al. | Discussion-skill Analytics with Acoustic, Linguistic and Psychophysiological Data. | |
Pellegrini et al. | ASR-based exercises for listening comprehension practice in European Portuguese |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170901 Year of fee payment: 5 |