KR20100078374A - Apparatus for correcting pronunciation service utilizing social learning and semantic technology - Google Patents

Apparatus for correcting pronunciation service utilizing social learning and semantic technology Download PDF

Info

Publication number
KR20100078374A
KR20100078374A KR1020080136624A KR20080136624A KR20100078374A KR 20100078374 A KR20100078374 A KR 20100078374A KR 1020080136624 A KR1020080136624 A KR 1020080136624A KR 20080136624 A KR20080136624 A KR 20080136624A KR 20100078374 A KR20100078374 A KR 20100078374A
Authority
KR
South Korea
Prior art keywords
pronunciation
learning
semantic
learner
correction
Prior art date
Application number
KR1020080136624A
Other languages
Korean (ko)
Other versions
KR101048214B1 (en
Inventor
김정관
김명숙
구명완
이해규
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020080136624A priority Critical patent/KR101048214B1/en
Publication of KR20100078374A publication Critical patent/KR20100078374A/en
Application granted granted Critical
Publication of KR101048214B1 publication Critical patent/KR101048214B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0018Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Acoustics & Sound (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A device for providing a pronunciation correcting service using social learning and semantic technologies is provided to apply a pronunciation correction service using voice recognition and social learning and semantic technologies, thereby providing correct pronunciation learning to a student. CONSTITUTION: A user interfacing unit(110) provides a corresponding correct feedback after inputting voice of a student. A voice recognizing unit(120) separates and recognizes the voice of the student according to each pronunciation element. A pronunciation correcting unit(130) performs diagnosis and evaluation for each pronunciation element. The pronunciation correcting unit provides a correction guide and a feedback parameter. A statistic processing unit makes information related to the pronunciation correction with statistics.

Description

소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치{APPARATUS FOR CORRECTING PRONUNCIATION SERVICE UTILIZING SOCIAL LEARNING AND SEMANTIC TECHNOLOGY}Phonetic correction service device applying social learning and semantic technology {APPARATUS FOR CORRECTING PRONUNCIATION SERVICE UTILIZING SOCIAL LEARNING AND SEMANTIC TECHNOLOGY}

본 발명은 학습자의 외국어(예 : 영어) 발음을 진단 및 평가한 후 바람직한 발음으로 교정을 유도하기 위한 발음 교정 서비스 장치에 관한 것으로, 더욱 상세하게는 음성 인식 기술을 사용하여 학습자의 발음 수준을 발음 요소별로 정확히 평가하고, 학습자의 발음상의 실수나 잘못된 발음 습관을 인식하여 교정을 유도하며, 시맨틱 기술을 응용하여 학습자 자신의 특징적인 발음상의 실수가 무엇인지 파악할 수 있고, 점수 통계를 통해 발음 수준이 상대적으로 어느 정도 위치인지 알 수 있으며, 소셜 러닝 개념을 통해 학습자들이 직접 학습 콘텐츠를 생산 및 소비할 수 있도록 유도하여 발음 학습 콘텐츠의 양과 질, 학습 효과를 동시에 향상시킬 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 관한 것이다.The present invention relates to a pronunciation correction service device for inducing correction of a desired pronunciation after diagnosing and evaluating a learner's pronunciation of a foreign language (eg, English), and more specifically, using a speech recognition technology to pronounce a learner's pronunciation level. Accurately evaluate by element, recognize the learner's pronunciation mistakes or wrong pronunciation habits, induce correction, and apply semantic techniques to identify the learner's characteristic pronunciation mistakes. Social learning and semantic technology that can know the relative position and improve the quantity, quality, and learning effect of pronunciation learning content by inducing learners to produce and consume learning content directly through social learning concept. It is related with the pronunciation correction service apparatus which applied.

이하의 본 발명의 일실시예에서는 영어 발음 교정 서비스를 예로 들어 설명하나, 본 발명이 영어 발음 교정 서비스에 한정되는 것이 아님을 미리 밝혀둔다.In the following embodiments of the present invention, an English pronunciation proofing service is described as an example, but it is apparent that the present invention is not limited to the English pronunciation proofing service.

현재 대부분의 발음 교정 서비스는 파닉스(PHONICS) 위주의 단순 교정에 그치고 있는 것이 현실이다. 파닉스는 자음과 모음의 분절 요소 발음을 위주로 각 철자가 실제 단어의 발음과 어떻게 연결되는지를 교육하는 것에 중심에 두고 발음 학습을 진행한다. 이러한 학습 서비스는 발음 교정을 위하여 사용자에게 원어민의 발음을 들려주고 단순히 따라하게 한다. 또는, 이러한 학습 서비스는 사용자에게 구강 구조를 보여주면서 발음할 때 움직이는 입술 모양 및 혀 위치 등을 시각적으로 표현하여 준다. 또는, 이러한 학습 서비스는 발음 그래프를 사용자에게 보여줌으로써, 원어민 발음을 익힐 수 있도록 도와주고 있다.Currently, most pronunciation correction services are only phonics-based simple corrections. Phonics focuses on teaching pronunciation of segmental elements of consonants and vowels, focusing on teaching how each spelling relates to the pronunciation of real words. This learning service tells the user the pronunciation of the native speaker for pronunciation correction and simply follows. Alternatively, the learning service visually expresses the shape of the lips and the position of the tongue when the user pronounces the oral structure while speaking. Or, such a learning service helps users learn native pronunciation by showing the pronunciation graph to the user.

그러나 상기와 같은 단순 파닉스형 학습 서비스 시스템의 경우, 분절 요소보다는 초분절 요소가 올바른 발음 교육에 있어 더욱 중시되어야 한다는 언어학계의 연구 결과를 제대로 반영하지 못하고 있다.However, the simple phonics learning service system as described above does not properly reflect the results of linguistic studies that supra-segmental elements should be more important in correct pronunciation education than segmental elements.

오늘날, 이러한 단순 파닉스형 학습 시스템을 넘어 음성 인식 기능을 추가하여 발음 교정을 유도하는 서비스도 제공되고 있다. 이러한 음성 인식 기능이 추가된 발음 교정 서비스는 서비스 내에서 제공되는 스크립트에 따라 사용자가 그대로 읽고 발음하면, 원어민 발음과의 유사도에 따라 통과/실패 등의 평가가 매겨진다. 그러나 이러한 발음 교정 서비스에 있어서, 자음과 모음 등의 분절 요소 위주로 평가되는 것이 현실이다. 또한, 이러한 발음 교정 서비스에서는 억양, 리듬 등의 초분절 요소의 평가 비중이 매우 낮거나 단순한 수준에 머물고 있다.Today, beyond the simple phonics learning system, a service for inducing pronunciation correction by adding a speech recognition function is also provided. The pronunciation correction service added with the speech recognition function is read and pronounced by the user according to the script provided in the service, and the evaluation of passing / failure is made according to the similarity with the native speaker's pronunciation. However, in the pronunciation correction service, the reality is evaluated based on segment elements such as consonants and vowels. In addition, in the pronunciation correction service, the evaluation ratio of hypersegmental elements such as intonation and rhythm is very low or remains at a simple level.

한편, 웹 2.0 트렌드가 이미 성숙해 있는 요즘에, 소셜 네트워킹 서비 스(SOCIAL NETWORKING SERVICE)는 다수가 인터넷 및 모바일 공간에서 이용하는 서비스이자 플랫폼이다. 또한, 시맨틱 기술은 구축된 온톨로지를 기반으로 특정 분야에서 구체적인 지식 체계를 구현하고 이렇게 구축한 지식 체계를 응용하여 이전보다 인텔리전트(INTELLIGENT)한 시스템을 개발하는 것에 크게 도움을 줄 수 있는 기술이다.Meanwhile, as the Web 2.0 trend is already mature, SOCIAL NETWORKING SERVICE is a service and platform that many use in the Internet and mobile space. In addition, semantic technology is a technology that can help to develop a more intelligent system than before by implementing a specific knowledge system in a specific field based on the built ontology and applying this knowledge system.

따라서 이러한 소셜 러닝 및 시맨틱 기술을 충분히 이용하여 학습 콘텐츠를 개발하고 학습자가 효율적으로 학습할 수 있는 발음 교정 서비스가 절실히 필요한 상황이다.Therefore, there is an urgent need for a pronunciation correction service that can fully utilize the social learning and semantic technologies to develop learning content and enable learners to learn efficiently.

따라서 상기와 같은 종래 기술은 발음 교정 서비스에 있어서 초분절 요소가 제대로 반영되지 못하거나, 반영되더라도 초분절 요소의 평가 비중이 매우 낮은 문제점이 있으며, 이러한 문제점을 해결하고 상기 요구에 부응하고자 하는 것이 본 발명의 과제이다.Therefore, the prior art as described above has a problem in that the hypersegmental element is not properly reflected in the pronunciation correction service, or even if it is reflected, the evaluation ratio of the hypersegmental element is very low. It is a subject of invention.

따라서 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 보다 유연하고 양질의 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.Accordingly, the present invention provides a pronunciation correction service device applying social learning and semantic technology to provide a more flexible and high quality pronunciation correction service by applying social learning and semantic technology together with pronunciation correction using speech recognition. There is this.

즉, 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 분절 요소뿐만 아니라 초분절 요소도 신뢰성 있게 평가 및 진단하고 학습자에게 올바른 발음 학습을 제공하기 위한 피드백을 적절히 줄 수 있는 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.That is, the present invention is capable of reliably evaluating and diagnosing not only segmental elements but also hyperfragmental elements by applying social learning and semantic techniques along with pronunciation correction using speech recognition, and appropriately giving feedback for providing correct pronunciation learning to learners. An object of the present invention is to provide a pronunciation correction service apparatus using social learning and semantic techniques for providing a pronunciation correction service.

다시 말하면, 본 발명은 소셜 네트워크 개념을 응용한 소셜 러닝(SOCIAL LEARNING) 개념과 시맨틱 기술을 도입하여, 학습자 자신 또는 교사, 학부모들이 보다 많은 학습 컨텐츠를 생산/소비토록 유도하고, 학습자의 발음 특성을 인식하여 개인화된 피드백을 제공하며, 학습자들 간의 상대적인 발음 평가 및 원어민의 표준 발음을 기준으로 한 진단 및 평가를 제시할 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.In other words, the present invention introduces the concept of social learning (SOCIAL LEARNING) and semantic technology applied to the concept of social network, induces learners themselves, teachers, and parents to produce / consume more learning content, and learner's pronunciation characteristics To provide pronunciation correction service device applying social learning and semantic technology that can recognize and provide personalized feedback, and can present relative pronunciation evaluation among learners and diagnosis and evaluation based on native pronunciation of native speakers. There is this.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 장치는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서, 학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단; 상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단; 상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단; 상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단; 상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및 상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단을 포함한다.An apparatus of the present invention for achieving the above object, the apparatus for pronunciation correction service applying social learning and semantic technology, comprising: user interfacing means for receiving a learner's voice and providing a corresponding correction feedback; Speech recognition means for recognizing the received speech of the learner by pronunciation elements; Pronunciation correction means for performing diagnosis and evaluation for each pronunciation element based on the speech recognition result and providing a correction guide and a feedback parameter; Statistical processing means for collecting and statistically processing information related to pronunciation correction based on the pronunciation correction result; Semantic processing means for applying the pronunciation correction result to an ontology to select and display pronunciation correction feedback and to recommend pronunciation correction contents; And reporting means for combining the statistical processing means and the semantic processing means to provide a pronunciation correction guide and feedback.

또한, 상기 본 발명의 장치는, 상기 사용자 인터페이싱 수단, 상기 통계 처 리 수단, 상기 시맨틱 처리 수단, 및 상기 레포팅 수단과 연동하여 발음 교정 서비스에 필요한 데이터를 저장하고 제공하기 위한 데이터 저장 수단을 더 포함한다.The apparatus of the present invention further includes data storage means for storing and providing data necessary for a pronunciation correction service in association with the user interfacing means, the statistical processing means, the semantic processing means, and the reporting means. do.

또한, 상기 본 발명의 장치는, 템플릿 콘텐츠를 제작하거나 복수의 템플릿을 모아 하나의 세션을 생성하기 위한 학습 콘텐츠 제작 수단을 더 포함한다.The apparatus of the present invention further includes learning content producing means for producing template content or collecting a plurality of templates to create a session.

상기와 같이 본 발명은, 음성 인식을 이용한 발음 교정과 더불어 시맨틱 기술과 소셜 러닝 개념을 적용하여 보다 유연하고 양질의 발음 교육이 이루어질 수 있도록 도와주는 효과가 있다.As described above, the present invention has the effect of helping to achieve more flexible and high-quality pronunciation education by applying semantic technology and social learning concepts together with pronunciation correction using speech recognition.

즉, 본 발명은 학습자가 다른 학습자들과의 상대 평가를 통해 실력을 검증함으로써, 보다 의욕적인 학습 동기를 고취해나갈 수 있으며, 시맨틱 모델이 적용되어 보다 개인화된 진단 평가 결과를 제공함으로써, 보다 정교한 발음 지도가 가능하도록 발음 교정 서비스를 제공할 수 있는 효과가 있다.In other words, the present invention allows learners to verify their abilities through relative evaluation with other learners, thereby inspiring more motivated learning motivation, and by applying semantic models to provide more personalized diagnostic evaluation results, It is effective to provide pronunciation correction service to enable pronunciation instruction.

나아가, 본 발명은 개인화된 진단 평가 결과를 통하여 각 개인의 부족한 부분에 따라 기존에 구축되어 있는 템플릿/세션을 추천할 수 있는 기능을 갖추어 보다 인텔리전트(intelligent)한 발음 교육 환경을 제공할 수 있다.Furthermore, the present invention can provide a more intelligent pronunciation education environment by having a function of recommending a template / session established according to a lack of each individual through personalized diagnosis evaluation results.

또한, 본 발명은 학습자들 또는 그 보호자들이 직접 참여하여 발음 콘텐츠를 구성하고 공유함으로써, 보다 폭넓은 콘텐츠 선택이 가능하고 활발한 참여를 유도할 수 있고, 또한 실제 콘텐츠 개발 업체가 템플릿을 작성 및 배포하여 보다 전문적인 콘텐츠 구성이 가능하도록 유도할 수 있으며, 이 콘텐츠에 대한 매매가 이루 어질 수 있도록 허용하여 학습 콘텐츠 제작 및 유통에 관한 새로운 비즈니스 모델의 창출도 가능하다.In addition, the present invention by the learners or their guardians directly participate in configuring and sharing the pronunciation content, it is possible to induce a wider selection of content and induce active participation, and the actual content developer to create and distribute the template It is possible to induce more professional content composition and to allow the sale and sale of this content, and to create a new business model related to learning content production and distribution.

다시 말하면, 본 발명은 기존의 틀에 박힌 발음 교육을 뛰어넘어 학습자가 보다 적극적으로 참여하고, 개인화된 피드백을 받으며, 개인화된 피드백이 콘텐츠에 대한 추천으로 이어지고, 이는 다시 양질의 콘텐츠에 대한 소비와 유통으로 이어져 학습자의 참여를 자극하는 선순환 구조로 학습이 이루어질 수 있도록 하는 효과가 있다.In other words, the present invention goes beyond the conventional stereotyped pronunciation education, in which learners participate more actively, receive personalized feedback, and personalized feedback leads to recommendations for content, which in turn leads to consumption of quality content. There is an effect that learning can be done in a virtuous cycle structure that leads to distribution and stimulates learner participation.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It can be easily carried out. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도이다.1 is a configuration diagram of an apparatus for correcting a pronunciation application using social learning and semantic techniques according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 발음 교정 서비스 장치(100)는 사 용자 인터페이스부(110), 음성 인식부(120), 발음 교정부(130), 통계부(140), 시맨틱부(150), 레포팅부(160), 및 데이터 저장부(170)를 포함한다.As shown in FIG. 1, the pronunciation correction service apparatus 100 according to the present invention includes a user interface unit 110, a voice recognition unit 120, a pronunciation correction unit 130, a statistics unit 140, and a semantic unit. 150, a reporting unit 160, and a data storage unit 170.

먼저, 본 발명에 따른 발음 교정 서비스 장치(100)를 전반적으로 설명하면, 상기 발음 교정 서비스 장치(100)는 학습자의 발화 입력을 받아들여 음성 인식 기술을 이용하여 발음 요소별로 특징을 추출하고, 진단 및 평가하며, 통계 및 시맨틱 기술을 이용하여 학습자들 간의 상대 평가 피드백을 제공하고, 개인별로 맞춤화된 피드백을 주며, 진단 결과에 따라 적절한 학습 콘텐츠를 추천한다. 또한, 상기 발음 교정 서비스 장치(100)는 소셜 러닝 기술을 이용하여, 학습자가 스스로 콘텐츠를 생산, 소비 및 공유할 수 있는 환경을 구축하여 학습 효과를 극대화할 수 있는 발음 교정 서비스를 제공한다.First, referring to the pronunciation correction service apparatus 100 according to the present invention as a whole, the pronunciation correction service apparatus 100 receives a speech input of a learner, extracts a feature for each pronunciation element using a speech recognition technology, and diagnoses the diagnosis. And evaluation, providing relative evaluation feedback between learners using statistics and semantic techniques, giving personalized feedback, and recommending appropriate learning content according to the diagnosis result. In addition, the pronunciation correction service apparatus 100 provides a pronunciation correction service that maximizes the learning effect by establishing an environment in which a learner can produce, consume, and share content by using a social learning technology.

다음으로, 상기 발음 교정 서비스 장치(100)의 각 구성 요소를 살펴보면 다음과 같다.Next, each component of the pronunciation correction service apparatus 100 will be described.

상기 사용자 인터페이스부(110)는 학습자(사용자)와의 인터페이스를 통해 학습자의 음성을 입력받고 그에 대한 교정 피드백을 제공한다.The user interface 110 receives a learner's voice through an interface with a learner (user) and provides correction feedback thereto.

그리고 음성 인식부(120)는 사용자 인터페이스부(110)를 통해 수집된 학습자의 음성을 발음 요소별로 분해하여 인식한다.The voice recognition unit 120 decomposes and recognizes the learner's voice collected by the pronunciation elements through the user interface unit 110.

그리고 발음 교정부(130)는 상기 음성 인식부(120)로부터의 음성 인식 결과를 바탕으로 발음 요소별로 진단/평가를 수행하고 잘못된 발음에 대한 교정 가이드 및 피드백 파라미터를 제공한다.The pronunciation corrector 130 performs diagnosis / evaluation for each pronunciation element based on the speech recognition result from the speech recognizer 120, and provides a correction guide and feedback parameter for the wrong pronunciation.

그리고 통계부(140)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 바 탕으로 전체 또는 특정 학습자 그룹별로 발음 평가 점수 및 교정에 관련된 내역 정보들을 수집하여 통계 처리한다.The statistical unit 140 collects statistical information related to the pronunciation evaluation score and the correction for each or all learner groups based on the pronunciation correction result from the pronunciation correction unit 130.

그리고 시맨틱부(150)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 기 구축된 온톨로지에 적용하여 학습자에게 개인화된 발음 교정 피드백을 선택하여 표시하고 콘텐츠를 추천해 준다.In addition, the semantic unit 150 applies the pronunciation correction result from the pronunciation correction unit 130 to the established ontology, selects and displays personalized pronunciation correction feedback to the learner, and recommends content.

그리고 레포팅부(160)는 상기 통계부(140)와 상기 시맨틱부(150)에서의 처리 결과를 취합하여 진단 및 평가에 알맞은 발음 교정 가이드와 피드백을 일예로 상기 사용자 인터페이스부(110)를 통해 시각 및 청각적으로 표시해 준다.In addition, the reporting unit 160 collects the processing results of the statistical unit 140 and the semantic unit 150 to visualize the pronunciation correction guide and feedback suitable for diagnosis and evaluation through the user interface unit 110 as an example. And acoustically.

그리고 부가적으로, 데이터 저장부(170)는 상기 사용자 인터페이스부(110), 상기 통계부(140), 상기 시맨틱부(150), 및 상기 레포팅부(160) 등과 연동하여 발음 교정 서비스에 필요한 각종 데이터(예 : 템플릿 기반 콘텐츠 등)를 저장하고 제공한다.In addition, the data storage unit 170 may be linked to the user interface unit 110, the statistical unit 140, the semantic unit 150, the reporting unit 160, and the like to perform various kinds of pronunciation correction services. Store and provide data (eg template-based content).

그리고 상기 발음 교정 서비스 장치(100)는 템플릿 콘텐츠를 제작하거나 복수 개의 템플릿들을 모아 하나의 세션을 생성할 수 있는 웹 학습 편의툴(도면에 도시되지 않음)을 더 포함한다.The pronunciation correction service apparatus 100 further includes a web learning convenience tool (not shown in the drawing) capable of producing a template content or generating a session by collecting a plurality of templates.

여기서, 상기 각각의 구성요소는 각각 하나의 독립적인 모듈(엔진)로 구현될 수 있으며, 구현 방식에 따라 몇 개의 모듈(엔진)들을 하나로 묶어 대형 모듈로 구현할 수도 있다.In this case, each of the components may be implemented as one independent module (engine), and may be implemented as a large module by combining several modules (engines) into one according to an implementation method.

이하, 발음 교정 서비스 장치(100)의 구성요소 각각에 대하여 그 구체적인 실시예를 좀 더 상세하게 살펴보기로 한다.Hereinafter, specific embodiments of the components of the pronunciation correction service apparatus 100 will be described in more detail.

상기 사용자 인터페이스부(110)는 학습자가 학습 콘텐츠를 직관적이고 발음 교정 이론상 의미 있는 방식으로 발화를 입력하도록 지원하고, 그에 상응하는 교정 피드백을 상기 학습자에게 제공한다.The user interface 110 supports the learner to input the utterance of the learning content in an intuitive and pronunciation correcting theory meaningful manner, and provides the learner with corresponding correction feedback.

즉, 발음해야 할 내용을 글자로 먼저 보여주어 읽게 하고 발음 교정 피드백을 주는 방식 대신에, 상기 사용자 인터페이스부(110)는 원어민의 발음을 먼저 들려주고, 기억을 돕기 위한 이미지를 함께 보여준다. 따라서 사용자 인터페이스부(110)는 읽기 및 말하기(Reading & Speaking)가 아닌 듣기와 말하기(Listening & Speaking)가 될 수 있도록 학습자를 유도한다.That is, instead of a method of showing the content to be pronounced first by reading it and giving a pronunciation correction feedback, the user interface 110 first speaks the native speaker's pronunciation and shows an image to help the memory. Accordingly, the user interface 110 induces the learner to be listening and speaking instead of reading and speaking.

예를 들어, 발음해야 하는 콘텐츠가 문장인 경우, 사용자 인터페이스부(110)는 해당 문장을 처음부터 보여주는 방식 대신에, 먼저 원어민의 문장 발음을 학습자에게 들려준다. 그리고 사용자 인터페이스부(110)는 관련된 이미지를 함께 디스플레이함으로써 듣고 말하는 방식으로 학습자에게 발화를 시킨다. 이러한 방식으로 학습자가 사용자 인터페이스부(110)를 통해 발화를 입력하면, 사용자 인터페이스부(110)는 학습자의 음성 발음 데이터를 음성 인식부(120)로 전달한다.For example, when the content to be pronounced is a sentence, the user interface 110 first tells the learner a sentence pronunciation of a native speaker instead of showing the sentence from the beginning. In addition, the user interface 110 displays a related image together to utter the learner in a manner of listening and speaking. When the learner inputs speech through the user interface 110 in this manner, the user interface 110 transmits the learner's voice pronunciation data to the voice recognition unit 120.

이때, 학습자의 흥미를 유발하고 집중력을 유지할 수 있도록, 사용자 인터페이스부(110)는 스토리 라인을 따라 학습을 진행하거나 게임 형식의 학습 진행을 유도할 수 있는 학습 콘텐츠를 사용자에게 제공한다.At this time, in order to induce the learner's interest and maintain the concentration, the user interface 110 provides the user with the learning content that can proceed learning along the story line or induces the learning progress of the game type.

이를 통해, 사용자 인터페이스부(110)가 딱딱한 발음 학습에 보다 적극적으로 학습자의 참여를 유도하여 보다 효과적인 학습이 기대될 수 있다. 예를 들어, 학습에 이용될 콘텐츠는 문장들이 연결되어 하나의 스토리 라인을 형성하거나, 문장 발음을 잘할 때마다 학습자가 아이템을 획득하여 특정 미션을 수행하는 등의 게임 형식으로 구현할 수 있다.Through this, the user interface 110 may induce the learner's participation more actively in the hard pronunciation learning can be expected more effective learning. For example, the content to be used for learning may be implemented in a game form in which sentences are connected to form a story line, or the learner acquires an item and performs a specific mission whenever the sentence is pronounced well.

아울러, 이 발음 교정 서비스의 사용자 인터페이스부(110)는 발음이 부정확한 부분의 텍스트에 밑줄을 긋거나 색깔을 변화시켜 학습자가 어느 부분의 발음에 교정이 필요한지를 인식할 수 있도록 한다. 예를 들어, 학습자가 한 문장을 발음하였을 경우, 발음이 부정확하거나 일반적으로 많이 틀리는 오류를 범하였을 경우, 사용자 인터페이스부(110)는 해당 위치의 단어 또는 어구 등에 밑줄 또는 글 색깔을 변화시켜 한눈에 잘못된 부분을 학습자가 인식할 수 있게 한다. 특히, 밑줄 또는 다른 색으로 표시된 단어 또는 어구 등을 클릭하거나 터치하면, 사용자 인터페이스부(110)는 교정 가이드 콘텐츠를 제공한다. 여기서, 상기 교정 가이드 콘텐츠는 학습자가 어떤 발음을 하였고, 어떤 실수를 하였으며, 어떻게 발음하는 것이 옳은 것인지를 알려준다. 또는, 사용자 인터페이스부(110)는 클릭 또는 터치된 해당 부분에 대한 원어민의 표준 발음과 학습자의 발음을 차례로 들려주어 그 차이점을 학습자가 인식하도록 하는 방식도 가능하다. 예를 들어, 잘못 발음한 어구 부분이 "a cup of coffee"라면 이에 대한 원어민의 옳은 발음과 학습자의 잘못된 발음이 실시간으로 발췌되어 한번씩 들려주는 것이 가능하다.In addition, the user interface unit 110 of the pronunciation correction service underlines or changes the color of the text where the pronunciation is incorrect so that the learner can recognize which part of the pronunciation is required for correction. For example, when a learner pronounces a sentence, when the pronunciation is inaccurate or a general mistake is made, the user interface unit 110 changes the underline or the text color at a word or phrase at a corresponding position, and at a glance. Allows learners to recognize what is wrong. In particular, when clicking or touching a word or phrase displayed in underline or other colors, the user interface 110 provides the calibration guide content. Here, the correction guide content tells the learner what pronunciation, what mistake, and how to pronounce is correct. Alternatively, the user interface 110 may also listen to the native speaker's standard pronunciation and the learner's pronunciation for the corresponding part clicked or touched, so that the learner recognizes the difference. For example, if the phrase is incorrectly pronounced "a cup of coffee", the native speaker's right pronunciation and the learner's wrong pronunciation can be extracted in real time and heard once.

이때, 본 발명에서는 밑줄 또는 글 색깔을 변화시키는 단위로 풋(foot)을 이용하는 것을 원칙으로 한다. 풋(Foot)은 소리 인지에 중요한 기능을 하며, 영어 리 듬 및 강세의 주요소를 구성하는 단위이다. 따라서 사용자 인터페이스부(110)는 풋(foot)을 기준으로 잘못된 발음을 알려주고 교정 피드백을 제시한다. 이처럼 풋(foot) 단위로 밑줄 또는 글 색깔을 변화시키는 이유는 보다 효과적으로 초분절 요소가 인지되고 분절 요소와의 관련성을 체득할 수 있도록 유도하기 위함이다.In this case, in the present invention, the foot is used as a unit for changing the underline or the text color. Foot plays an important role in sound perception and is a major component of English rhythm and stress. Accordingly, the user interface 110 notifies the wrong pronunciation based on the foot and provides correction feedback. The reason for changing the underline or the text color in the foot unit is to induce the hypersegmental element to be recognized more effectively and to acquire the relationship with the segmental element.

한편, 사용자 인터페이스부(110)는 상기 교정 가이드 컨텐츠를 통해 다양한 방식으로 학습자에게 정보를 제공해 줄 수 있다. 예를 들어, 사용자 인터페이스부(110)는 팝업 형식을 이용하여 해당 학습자에 대한 맞춤형 발음 교정 가이드 텍스트를 보여준다. 그리고 사용자 인터페이스부(110)는 구강 구조 및 발음 그래프 등 이미지를 함께 표시할 수 있다. 더 나아가, 사용자 인터페이스부(110)는 학습자의 문장 발음 중 해당 어구 발음을 자동으로 발췌하여 들려주고 뒤이어 원어민의 바른 발음을 들려줌으로써, 학습자가 직접 발음을 비교하여 교정할 수 있도록 유도할 수 있다.On the other hand, the user interface 110 may provide information to the learner in a variety of ways through the calibration guide content. For example, the user interface 110 shows a customized pronunciation correction guide text for the learner using a popup format. In addition, the user interface 110 may display an image including an oral structure and a pronunciation graph. In addition, the user interface 110 may automatically induce the learner to compare and correct the pronunciation by automatically extracting the corresponding phrase pronunciation from the learner's sentence pronunciation and then hearing the correct pronunciation of the native speaker.

한편, 음성 인식부(120)는 상기 사용자 인터페이스부(110)를 통하여 학습자의 발화를 입력받아 특징을 추출한다. 특히, 상기 음성 인식부(120)는 발음의 세 가지 요소인 낱소리, 높낮이, 및 박자를 분리하여 각각 특징을 추출한다. 여기서, 낱소리란 발음의 분절 요소로서, 자음과 모음처럼 분리되어 분명히 들리는 음성 단위를 말한다. 그리고 높낮이는 말소리의 높낮이(PITCH)의 변화를 지칭하는 요소로서, 강세(STRESS) 또는 억양(INTONATION)이라고도 알려져 있다. 그리고 박자는 발화 시간의 지속 패턴을 일컫는 말로서, 보다 자연스러운 발음 교정을 위한 중요 요소이다. 음성 인식부(120)는 학습자의 발화를 상기 3요소(낱소리, 높낮이, 박자)로 분리하여 신호 처리를 통해 각 요소별 특징(Feature)을 추출하고 계산하는 과정을 수행한다.Meanwhile, the voice recognition unit 120 receives a learner's speech through the user interface unit 110 and extracts a feature. In particular, the speech recognition unit 120 extracts the features by separating the three elements of the pronunciation of the sound, height, and beat. Here, the word "single" is a segmental element of pronunciation, which is a unit of speech that can be clearly heard like consonants and vowels. In addition, the height is an element indicating a change in the pitch of the speech (PITCH), also known as stress (STRESS) or intonation (INTONATION). In addition, beat refers to a continuous pattern of speech time, and is an important factor for more natural pronunciation correction. The speech recognition unit 120 performs a process of extracting and calculating a feature for each element through signal processing by dividing a learner's speech into the three elements (single, pitch, beat).

한편, 상기 발음 교정부(130)는 음성 인식부(120)로부터 전달받은 학습자 발음의 특징들(features)을 분석하여 어떤 부분이 잘 발음되었고, 어떤 부분이 잘못 발음되었는지를 판단한다. 이때, 발음 교정부(130)는 해당 발음에 대한 원어민의 올바른 발음을 이용하여 훈련되도록, 학습자의 발음 특징과 원어민의 올바른 발음을 비교 및 분석하여 평가 점수를 산출한다. 이러한 비교 및 분석 과정에서, 낱소리, 높낮이, 및 박자 교정의 최소 단위로서 풋(Foot) 단위가 이용되는 것이 바람직하다. 이는 학습자가 문장을 발화하였다고 하더라도 낱소리, 높낮이 및 박자를 의미 있게 다루는 최소의 단위가 단어보다는 풋(foot)인 경우가 많음으로, 음성 언어학적으로 보다 의미 있는 교정이 이루어질 수 있도록 유도하기 위함이다.Meanwhile, the pronunciation corrector 130 analyzes features of learner pronunciation received from the speech recognizer 120 to determine which part is pronounced well and which part is pronounced incorrectly. In this case, the pronunciation corrector 130 compares and analyzes the pronunciation characteristics of the learner and the correct pronunciation of the native speaker so as to be trained using the correct pronunciation of the native speaker for the corresponding pronunciation, and calculates an evaluation score. In this comparison and analysis process, it is preferable to use the foot unit as the minimum unit of the sound, height, and time signature correction. This is intended to induce a more meaningful correction in phonological linguistics because even if a learner utters a sentence, the minimum unit dealing with the sounds, pitches, and beats is often foot rather than words. .

한편, 통계부(140)는 발음 교정부(130)에서 출력된 특징 파라미터들을 수집하여 다양한 통계 자료를 산출한다. 상기 통계부(140)는 기본적으로 학습자 개개인의 성적을 수집하고 학습자들 간의 상대 성적을 계산하고 저장하는 기능을 수행한다.Meanwhile, the statistics unit 140 calculates various statistical data by collecting feature parameters output from the pronunciation corrector 130. The statistics unit 140 basically collects individual learner grades, calculates and stores relative grades between learners.

예를 들어, 통계부(140)는 학습자의 점수를 바탕으로 학습자들의 점수 평균치, 및 분산 등과 같이 의미를 부여할 수 있는 통계치를 연산할 수 있다. 이렇게 연산된 통계치는 학습자 자신 또는 교사 및 학부모 등의 보호자에게 제공되는 성적 보고에 포함될 수 있다. 학습자는 현재 특정 발음을 학습하고 있는 자신의 발음 수준이 상대적으로 어느 위치에 있는지를 그 통계치를 통해 확인할 수 있다. 이를 통 해 학습자의 학습 의욕을 고취할 수 있다.For example, the statistics unit 140 may calculate statistical values that can give meaning, such as average scores and variance of the learners, based on the scores of the learners. The calculated statistics may be included in the grade report provided to the learner himself or his guardian, such as the teacher and the parent. The learner can check the relative position of his / her pronunciation level, which is currently learning a particular pronunciation, through the statistics. This can inspire learners to learn.

아울러, 통계부(140)는 수집된 자료를 바탕으로 세션 별로 통계를 낼 수 있다. 이를 통해, 통계부(140)는 학습자가 어떤 세션을 학습하는 것을 어려워하는지, 어떤 세션이 가장 인기가 있으며, 그 세션의 생산자가 누구인지 등과 같은 정보를 제공할 수 있다. 또한, 통계부(140)는 세션 별 통계를 통해 어떤 학습자들이 해당 세션을 이용하고 있는지, 어떤 학습 콘텐츠가 어떤 시기 또는 지역에서 많이 학습되는지 등을 확인할 수 있다.In addition, the statistics unit 140 may generate statistics for each session based on the collected data. Through this, the statistics unit 140 may provide information such as which session it is difficult for the learner to learn, which session is the most popular, and who is the producer of the session. In addition, the statistics unit 140 may identify which learners are using the session, what learning content is learned at a certain time or region, and the like, through session-specific statistics.

더 나아가, 통계부(140)는 어떤 발음을 학습자들이 주로 실수하는지, 어떤 발음을 쉽게 발음하는지 등 교육적으로 의미 있는 통계 자료를 생성하고 이를 이용하여 학습자에게 통계치를 제공한다.Furthermore, the statistics unit 140 generates statistically educational statistical data such as which pronunciations are mainly made by learners and which pronunciations are easily pronounced, and provides statistics to the learners using the same.

여기서, 상기 통계부(140)에서 이용되는 정보는 시맨틱부(150)에서도 이용되어 학습을 보조할 수 있는 추론 기능에 사용된다. 상기 시맨틱부(150)를 충분히 이용하기 위해, 본 발명에서는 발음 학습자를 위한 발음 교정 온톨로지를 사전에 구축한다.Here, the information used in the statistics unit 140 is also used in the semantic unit 150 is used in the inference function that can assist learning. In order to fully utilize the semantic unit 150, the present invention establishes a pronunciation correction ontology for the pronunciation learner in advance.

예를 들어, 시맨틱부(150)는 한국인이 자주 틀리거나 어려워하는 발음들, 강세 및 억양이 어렵거나 예외적인 어구 또는 문장 구조, 다양한 발음이 가능한 단어들 등과 같은 발음 교정 도메인에 필요한 정보를 이용하여 사전에 온톨로지를 구축한다.For example, the semantic unit 150 may use information necessary for a pronunciation correction domain such as pronunciations that are frequently wrong or difficult for Koreans, difficult or unusual accents or unusual phrases or sentence structures, and various pronunciation words. Build an ontology in advance.

도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도이 다.2 is a conceptual diagram of an ontology for the joint phenomenon applied to the present invention.

어떤 음소가 여러 조건에 따라 다르게 발음되는 경우 화자에게는 같은 소리로 인식되는 음운 현상, 즉 이음 현상(200)에 대한 온톨로지가 도 2에 도시되어 있다.When a phoneme is pronounced differently according to various conditions, the ontology of the phonological phenomenon, that is, the joint phenomenon 200, is recognized by the speaker as the same sound is illustrated in FIG. 2.

본 발명에 따른 발음 교정 서비스 장치(100)는 학습 시 해당 음운 현상들이 발생할 경우 각 항목별로 발생 횟수를 기록한다. 도 2에 도시된 바와 같이, 이음(200)은 구개음화(201), 성문음화(202), 설탄음화(203), 격음(204), 모음발음길이(205), L 발음(206), 및 R 발음(R-Coloring)(207)을 포함한다. 여기서, 설탄음화(203)는 플래핑(2031)과 비음화 플래핑(2032)을 포함한다. 그리고 L 발음(206)은 "Clear L"(2061)과 "Dark L"(2062)을 포함한다. 그리고 R 발음(207)은 W 발음(2071)과 연결되어 있다.When the phonetic phenomena occur during learning, the pronunciation correction service apparatus 100 according to the present invention records the number of occurrences for each item. As shown in FIG. 2, the seam 200 has a palatalization 201, a vocalization 202, a sultanization 203, a septum 204, a vowel length 205, a L pronunciation 206, and an R. R-Coloring 207 is included. Here, the Sultanate 203 includes flapping 2031 and non-negative flapping 2032. And the L pronunciation 206 includes "Clear L" 2061 and "Dark L" 2062. The R pronunciation 207 is connected to the W pronunciation 2071.

그리고 발음 교정 서비스 장치(100)는 학습자가 이음 현상(200)을 중심으로 문제가 있음을 진단하여 학습자에게 알려줄 수 있다.In addition, the pronunciation correction service apparatus 100 may diagnose the learner having a problem centering on the joint phenomenon 200 and inform the learner.

그리고 시맨틱부(150)는 상기와 같은 형식으로 기 구축된 온톨로지를 이용하여, 학습자가 자주 틀리는 발음이 어떤 발음인지, 또는 자주 실수하는 단어가 어떤 단어인지 인지하여 개인화된 진단 피드백을 레포팅부(160)를 통해 제공한다.In addition, the semantic unit 150 uses the ontology pre-built in the above-described format, and recognizes which pronunciation is a wrong pronunciation or a word that is frequently mistaken. Provide through.

아울러, 온톨로지 상의 어느 부분에서 학습자 개인의 학습 내용이 부족한지가 파악되면, 시맨틱부(150)는 상기 학습 부족 부분의 발음 교정에 효과적인 학습 콘텐츠를 추천한다.In addition, when it is determined in which part of the ontology the learning content of the learner is insufficient, the semantic unit 150 recommends the learning content effective for correcting the pronunciation of the lack of learning.

예를 들어, 통계부(140)는 학습자가 L 발음(206)을 탁하게 발음해야 하는 "Dark L"(2062)의 음운 현상 부분에서 잦은 실수를 보일 경우에 그에 맞는 통계치를 생성한다. 그러면, 레포팅부(160)는 상기 생성된 통계치를 학습자에게 제공한다. 그리고 레포팅부(160)는 학습자에게 L 발음(206)에 대한 진단 내용 및 교정 가이드를 제공하여 학습자가 부족한 부분에 대한 인지를 할 수 있도록 한다.For example, the statistics unit 140 generates statistics corresponding to frequent mistakes in the phonological phenomenon of “Dark L” 2062 where the learner should pronounce the L pronunciation 206 happily. Then, the reporting unit 160 provides the generated statistics to the learner. In addition, the reporting unit 160 provides the learner with the diagnosis contents and the correction guide for the L pronunciation 206 so that the learner can recognize the lacking part.

또한, 시맨틱부(150)는 L 발음(206)을 위주로 구성된 학습 콘텐츠를 검색하여 레포팅부(160)를 통해 학습자에게 추천한다. 이는 학습자가 같은 음운 현상을 계속하여 연습할 수 있도록 도울 수 있다.In addition, the semantic unit 150 searches for learning content based on the L pronunciation 206 and recommends it to the learner through the reporting unit 160. This can help learners continue to practice the same phonological phenomena.

다른 예로, 통계부(140)에서 R 발음(Coloring)(207)의 음운 현상에 문제가 있다고 진단된 경우, 시맨틱부(150)는 해당 음운 현상으로 구성된 학습 콘텐츠를 학습자에게 레포팅부(160)를 통해 추천한다. 이때, 보다 포괄적인 R 발음(207)을 비교하면서 학습할 수 있도록, 시맨틱부(150)는 R 발음 전반에 관련된 학습 콘텐츠를 추천한다.As another example, when the statistics unit 140 diagnoses a problem in the phonological phenomenon of the R pronunciation 207, the semantic unit 150 reports the learning content 160 configured to the learner to the learner. Recommended through. In this case, the semantic unit 150 recommends learning content related to the overall R pronunciation so that the more comprehensive R pronunciation 207 can be learned.

더 나아가, 시맨틱부(150)는 학습자 정보를 고려하여 학습 콘텐츠를 추천할 수 있다. 즉, 학습자의 연령이 어리다면, 포괄적인 R 발음(207)이 익숙해지기 전에 W 발음(2071)을 먼저 잘 발음할 수 있어야 하는 교육적 선후 관계에 따라, 시맨틱부(150)는 W 발음(2071)과 관련된 학습 콘텐츠를 추천한다.In addition, the semantic unit 150 may recommend the learning content in consideration of learner information. That is, if the learner is young, the semantic unit 150 may pronounce the W pronunciation (2071) in accordance with an educational relationship between the pronunciation of the W pronunciation (2071) first before the comprehensive R pronunciation (207) becomes accustomed. Recommend learning content related to.

여기서, 시맨틱부(150)의 추천 기능이 가능하도록 하기 위하여, 각 학습 콘텐츠별로 주석(Annotation)이 미리 되어 있어야 한다. 예를 들어, 학습 콘텐츠는 어떤 음운 현상에 관계된 것인지에 대한 태그(Tag)가 제작 시에 미리 포함되어 있어야 한다. 그에 따라, 시맨틱부(150)는 온톨로지를 이용하여 콘텐츠를 추천할 때 상기 태그 즉, 메타 정보를 이용하여 콘텐츠를 추천한다.In this case, in order to enable the recommendation function of the semantic unit 150, annotations should be made for each learning content in advance. For example, a tag about what phonological phenomenon is related to the learning content should be included in the production in advance. Accordingly, when the semantic unit 150 recommends the content using the ontology, the semantic unit 150 recommends the content using the tag, that is, the meta information.

아울러, 각 음운 현상별로 규칙화할 수 있는 철자 및 어구 또는 문장 구조가 존재하거나 대표적인 사례들이 존재한다면, 시맨틱부(150)가 이를 체계화하여 해당하는 각 콘텐츠를 스캔하고 자동으로 태깅하는 방법 또한 추가될 수 있다. 이를 통하여, 시맨틱부(150)는 콘텐츠 제공자가 미처 주석을 달지 못한 콘텐츠도 추천할 수 있다.In addition, if there is a spelling, a phrase, or a sentence structure that can be regularized for each phonological phenomenon or representative examples, a method of synthesizing the semantic unit 150 to scan and automatically tag each corresponding content may be added. have. Through this, the semantic unit 150 may recommend content that the content provider has not annotated.

이때, 태깅이 이루어지는 콘텐츠 단위로는 템플릿(Template) 또는 세션(Session)이 존재한다. 이러한 템플릿(Template) 또는 세션(Session)은 시맨틱부(150)가 학습 콘텐츠를 추천할 때, 또는 학습자가 학습할 콘텐츠를 선택할 때 가장 기본이 되는 단위이고, 소셜 러닝을 가능하게 하는 요소이다.At this time, a template or session is present as a content unit for tagging. Such a template or session is the most basic unit when the semantic unit 150 recommends learning content or when a learner selects content to learn, and is a component that enables social learning.

한편, 통계부(140)와 시맨틱부(150)의 처리 결과를 바탕으로 레포팅부(160)는 학습자의 점수 및 개인화된 진단 결과, 학습자들 간의 상대 평가 내용 등과 같은 다양한 보고 내용을 동적으로 표시한다.On the other hand, based on the processing results of the statistical unit 140 and the semantic unit 150, the reporting unit 160 dynamically displays a variety of reporting content, such as the learner's score, personalized diagnosis results, relative evaluation between the learners, etc. .

우선, 레포팅부(160)는 통계부(140)와 연계하여 경쟁적 성적 보고를 표시할 수 있다. 즉, 다른 학습자들의 평균 점수 및 지역별 점수 분포, 학년별 점수 분포 등을 통하여 학습자의 발음 수준이 특정 그룹 내에서 어느 정도인지 표시한다. 이는 경쟁을 통한 학습 의욕 고취 및 참고 자료로 이용되도록 하기 위함이다.First, the reporting unit 160 may display a competitive grade report in association with the statistical unit 140. That is, the degree of pronunciation of the learner is displayed in the specific group through the average score, the regional score distribution, and the grade distribution of the other learners. This is to encourage learning motivation through competition and to be used as reference materials.

또한, 레포팅부(160)는 세션별 상대 점수 보고가 가능하여 각 세션별로 다른 학습자들이 어느 정도의 성과를 올렸는지를 확인하여 세션별 난이도를 적절히 판별할 수 있다. 또한, 레포팅부(160)는 부족한 세션을 재학습할 수 있는 근거를 학습 자에게 표시할 수 있다. 또한, 레포팅부(160)는 상기와 같은 통계 자료들을 바탕으로 학습자가 자신의 성적 향상 추이를 쉽게 파악할 수 있는 히스토그램을 동적으로 표시할 수 있다. 또한, 레포팅부(160)는 학습자가 자신의 학습 현황을 확인할 수 있는 정보를 제공한다.In addition, the reporting unit 160 can report the relative scores for each session, so that the difficulty of each session can be appropriately determined by checking how much the other learners have achieved for each session. In addition, the reporting unit 160 may display to the learner the reason for relearning the insufficient session. In addition, the reporting unit 160 may dynamically display a histogram in which the learner can easily grasp his or her grade improvement based on the statistical data as described above. In addition, the reporting unit 160 provides information that allows the learner to check his / her learning status.

아울러, 레포팅부(160)는 시맨틱부(15)와 연계하여 학습자가 어느 발음에 특별히 취약한지를 표시할 수 있다. 또한, 레포팅부(160)는 이러한 학습자의 발음 취약 내용을 바탕으로 어떤 세션을 학습하는 것이 효과적일지를 추천하는 추천 내용을 시맨틱부(150)로부터 전달받아 표시할 수 있다. 또한, 레포팅부(160)는 개개인 학습자에 특화된 발음 진단 및 교정 가이드를 각 학습자에게 제공하여 개인화된 피드백을 받아보는 것이 가능하도록 한다.In addition, the reporting unit 160 may display which learner is particularly vulnerable to the semantic unit 15. In addition, the reporting unit 160 may receive and display the recommendation content from the semantic unit 150 recommending which session to learn effectively based on the pronunciation weakness of the learner. In addition, the reporting unit 160 provides a pronunciation diagnosis and correction guide specialized for each learner to each learner to receive personalized feedback.

이러한 레포팅부(160)의 결과물은 학습자가 연계된 웹사이트에 로그인하여 확인할 수 있다. 또는, 레포팅부(160)는 학습에 이용되고 있는 단말기 상에서 바로 읽을 수 있게 상기 사용자 인터페이스부(110)를 통하여 표시하거나, 이메일 등으로 점수 및 진단 결과를 통보할 수 있다.The result of the reporting unit 160 can be confirmed by logging in to the website associated with the learner. Alternatively, the reporting unit 160 may display through the user interface 110 to read directly on the terminal used for learning, or may notify the score and the diagnosis result by e-mail or the like.

도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고, 도 4는 본 발명에 따른 세션의 일실시예 구조도이다.3 is an embodiment structural diagram of a template according to the present invention, and FIG. 4 is an embodiment structural diagram of a session according to the present invention.

전술한 바와 같이, 소셜 러닝에 대한 템플릿(TEMPLATE)이 학습 콘텐츠에 이용된다. 여기서, 템플릿은 학습 콘텐츠를 담을 수 있는 일종의 컨테이너로서, 학습자 또는 교사 및 학부모가 원하는 학습 콘텐츠를 자유롭게 포함시킬 수 있는 틀을 말한다.As described above, a template for social learning is used for learning content. Here, the template is a kind of container that can hold the learning content, and refers to a frame that can freely include the learning content desired by the learner, teacher, or parent.

도 3에 도시된 바와 같이, 템플릿(310)은 가장 위 상단에 템플릿의 제목을 입력할 수 있는 템플릿 제목(311), 좌측으로 문장 또는 어구 등의 발음 콘텐츠가 입력될 공란인 문장/어구(312), 우측으로 해당 문장/어구가 어떤 발음 현상에 관한 내용인지를 수동 또는 자동으로 설명(Annotate)할 수 있는 태깅(Tagging) 입력 공간인 태그(313)를 포함한다.As shown in FIG. 3, the template 310 includes a template title 311 for inputting a title of a template at the top and a sentence / phrase 312 which is a blank space for pronunciation content such as a sentence or phrase to the left. ), A tag 313, which is a tagging input space that can annotate manually or automatically, which pronunciation phenomenon is the sentence / phrase.

이러한 템플릿(310)을 만들고자 하는 학습자가 데이터 저장부(170)의 학습 콘텐츠 데이터베이스(DB)에서 필요한 문장/어구(321), 태그(322), 및 설명(323) 등을 드래그 앤 드롭 또는 직접 입력 등을 이용하여 요청하면, 사용자 인터페이스부(110)는 학습 콘텐츠 데이터베이스로부터 필요한 콘텐츠들로 가져다가 템플릿에 채워 넣어 해당 템플릿을 생성한다. 따라서 사용자 인터페이스부(110)는 학습자가 부족하거나 집중 학습이 필요한 내용을 간편하게 추가 또는 삭제할 수 있다. 이렇게 생성된 복수 개의 템플릿이 모여서 학습의 최소 단위인 세션(400, 도 4 참조)을 형성한다. 그리고 발음 교정 서비스 장치(100)는 이러한 세션(400)을 이용하여 학습을 진행한다.The learner who wants to create the template 310 drags and drops or directly inputs a sentence / phrase 321, a tag 322, and a description 323 required in the learning content database DB of the data storage unit 170. When the request is made using the same, the user interface unit 110 takes the necessary contents from the learning content database, fills the template, and generates a corresponding template. Therefore, the user interface 110 may easily add or delete contents that the learner lacks or needs intensive learning. The plurality of templates thus generated are gathered to form a session 400 (see FIG. 4) which is the minimum unit of learning. The pronunciation correction service apparatus 100 proceeds with the learning using the session 400.

도 4에 도시된 바와 같이, 세션(400)은 세션 제목(401)과 복수 개의 템플릿(310)을 포함한다. 여기서, 템플릿(310)은 콘텐츠가 전혀 포함되어 있지 않아 학습자 또는 교사, 및 학부모가 콘텐츠를 일일이 모두 채워야만 학습이 가능한 템플릿(310)도 있고, 다른 학습자 또는 콘텐츠 제공 업체가 콘텐츠의 일부 또는 전체를 이미 채워 넣어 템플릿(310)을 생성하여 별다른 콘텐츠 추가/삭제가 필요하지 않은 템플릿도 있다.As shown in FIG. 4, the session 400 includes a session title 401 and a plurality of templates 310. In this case, the template 310 does not contain any content, so that the learner or teacher, and the parent can fill the content in order to learn the template 310, and another learner or a content provider may partially or completely replace the content. There is also a template that does not need to add / delete content by creating a template 310 already filled in.

특히, 템플릿(310) 및 세션(400)은 학습자들 간의 공유가 가능하도록, 즉 한 학습자가 생산 및 편집한 템플릿(310) 및 세션(400)을 다른 학습자가 가져와 사용할 수 있도록, 템플릿(310) 및 세션(400)은 데이터 저장부(170)에 저장된다. 그러면, 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 템플릿(310) 및 세션(400)을 이용하여 학습자가 새로운 템플릿(310) 및 세션(400)을 생성 및 편집할 수 있게 지원한다.In particular, the template 310 and the session 400 can be shared among the learners, that is, the template 310 and the session 400 produced and edited by one learner can be imported and used by other learners. And the session 400 is stored in the data storage unit 170. Then, the user interface 110 supports the learner to create and edit a new template 310 and session 400 using the template 310 and the session 400 stored in the data storage unit 170. .

이를 통해, 학습자들 간의 활발한 콘텐츠 생산 및 공유가 일어날 수 있는 소셜 러닝이 구현될 수 있다. 더 나아가, 발음 교육적으로 의미가 있도록 구성되고 수동 또는 자동으로 설명된 템플릿(310)들이 저장되어 있는 경우, 본 발명에 따른 발음 교정 서비스 장치(100)는 학습자 발음에 대한 시맨틱부(150)의 추론 결과에 따라 해당 템플릿(310)을 추천하여 학습을 진행하는 기능을 제공한다.Through this, social learning may be implemented in which active content production and sharing among learners may occur. Furthermore, when templates 310 that are configured to have a pronunciation education meaning and are manually or automatically explained are stored, the pronunciation correction service apparatus 100 according to the present invention infers the semantic unit 150 for learner pronunciation. Based on the result, the template 310 is recommended to provide a function of proceeding with the learning.

한편, 사용자 인터페이스부(110)는 템플릿(310), 및 세션(400)의 구조 등 다양한 학습자 편의 기능을 제공하기 위하여 다양한 툴 또는 사용자 인터페이스를 웹을 통해 제공할 수 있다. 그리고 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 학습 콘텐츠 데이터베이스(DB)에서 템플릿의 구성요소(예를 들면, 문장/어구, 태그, 설명 등)를 드래그 앤 드롭 형식으로 쉽게 끌어다 템플릿(310)을 생성할 수 있도록 지원한다. 그리고 사용자 인터페이스부(110)는 생성된 복수의 템플릿(310)들로 이루어진 세션(400)들이 순서에 맞게 학습될 수 있도록 학습 스케줄을 조정할 수 있는 기능, 학습자가 특정 문장이나 어구들을 따로 저장하여 복습할 수 있는 복습 노트 기능 등을 구현하여 소셜 러닝을 지원하는 동시에 학습 편의를 돕 도록 지원한다.Meanwhile, the user interface unit 110 may provide various tools or user interfaces through the web in order to provide various learner convenience functions such as the template 310 and the structure of the session 400. In addition, the user interface 110 drags and drops a component (eg, a sentence / phrase, a tag, a description, etc.) of the template in a drag-and-drop format from the learning content database DB stored in the data storage unit 170. Support 310 to create. In addition, the user interface 110 may adjust a learning schedule so that the sessions 400 formed of the plurality of templates 310 may be learned in order, and learners may separately store specific sentences or phrases. It supports the social learning by implementing the review note function that can be done, and supports the learning convenience.

한편, 발음 교정 서비스 장치(100)는 효율적인 콘텐츠 생산 및 소비 활동을 돕도록 학습자 또는 교사, 학부모가 활동할 수 있는 온라인 커뮤니티를 지원할 수 있다. 또한, 발음 교정 서비스 장치(100)는 정기 세미나를 유치하여 발음 이론 및 콘텐츠 제작 방법을 교육하는 오프라인 활동을 지원하며, 영어 마을 할인 제공 등 각종 프로모션 진행을 포함하는 마케팅 노력 또한 지원할 수 있다.Meanwhile, the pronunciation correction service apparatus 100 may support an online community where learners, teachers, and parents can work to help efficient content production and consumption activities. In addition, the pronunciation correction service apparatus 100 may support offline activities for attracting regular seminars and teaching pronunciation theory and content production methods, and may also support marketing efforts including various promotions, such as providing English village discounts.

한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도,1 is a configuration diagram of an apparatus for pronunciation correction service applying social learning and semantic technology according to the present invention;

도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도,2 is a conceptual diagram of one embodiment of an ontology for a joint phenomenon applied to the present invention;

도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고,3 is a structural diagram of an embodiment of a template according to the present invention;

도 4는 본 발명에 따른 세션의 일실시예 구조도이다.4 is a structural diagram of an embodiment of a session according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

100 : 발음 교정 서비스 장치 110 : 사용자 인터페이스부100: pronunciation correction service device 110: user interface unit

120 : 음성 인식부 130 : 발음 교정부120: speech recognition unit 130: pronunciation correction unit

140 : 통계부 150 : 시맨틱부140: statistical unit 150: semantic unit

160 : 레포팅부 170 : 데이터 저장부160: reporting unit 170: data storage unit

Claims (7)

소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서,In the pronunciation correction service device applying the social learning and semantic technology, 학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단;User interfacing means for receiving a learner's voice and providing corresponding calibration feedback; 상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단;Speech recognition means for recognizing the received speech of the learner by pronunciation elements; 상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단;Pronunciation correction means for performing diagnosis and evaluation for each pronunciation element based on the speech recognition result and providing a correction guide and a feedback parameter; 상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단;Statistical processing means for collecting and statistically processing information related to pronunciation correction based on the pronunciation correction result; 상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및Semantic processing means for applying the pronunciation correction result to an ontology to select and display pronunciation correction feedback and to recommend pronunciation correction contents; And 상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단Reporting means for gathering the processing results from the statistical processing means and the semantic processing means to provide a pronunciation correction guide and feedback 을 포함하는 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device applying a social learning and semantic technology comprising a. 제 1 항에 있어서,The method of claim 1, 상기 사용자 인터페이싱 수단, 상기 통계 처리 수단, 상기 시맨틱 처리 수 단, 및 상기 레포팅 수단과 연동하여 발음 교정 서비스에 필요한 데이터를 저장하고 제공하기 위한 데이터 저장 수단Data storage means for storing and providing data necessary for a pronunciation correction service in association with the user interfacing means, the statistical processing means, the semantic processing means, and the reporting means 을 더 포함하는 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device applying a social learning and semantic technology further comprising. 제 1 항에 있어서,The method of claim 1, 템플릿 콘텐츠를 제작하거나 복수의 템플릿을 모아 하나의 세션을 생성하기 위한 학습 콘텐츠 제작 수단Learning content creation means for creating template content or gathering multiple templates to create a session 을 더 포함하는 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device applying a social learning and semantic technology further comprising. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,4. The method according to any one of claims 1 to 3, 상기 사용자 인터페이싱 수단은,The user interface means, 풋(foot) 단위로 발음 부정확 부분을 표시하는To show phonetic inaccuracies in foot units 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device using social learning and semantic technology. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,4. The method according to any one of claims 1 to 3, 상기 음성 인식 수단은,The speech recognition means, 상기 사용자 인터페이싱 수단을 통하여 입력받은 상기 학습자의 발화를 발음 의 세 가지 요소인 낱소리, 높낮이, 및 박자로 분리하여 신호 처리를 통해 각 요소별 특징(Feature)을 추출하고 계산하는The learner's speech inputted through the user interfacing means is separated into three elements of pronunciation, namely sound, pitch, and beat, to extract and calculate a feature for each element through signal processing. 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device using social learning and semantic technology. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,4. The method according to any one of claims 1 to 3, 상기 발음 교정 수단은,The pronunciation correction means, 상기 음성 인식 결과를 바탕으로 상기 학습자의 발음 특징과 원어민의 발음을 비교 및 분석 시에, 낱소리, 높낮이, 및 박자 교정의 최소 단위로서 풋(Foot) 단위를 사용하는In the comparison and analysis of the pronunciation characteristics of the learner and the pronunciation of the native speaker based on the speech recognition result, the foot unit is used as the minimum unit of the sound, height, and time signature correction. 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device using social learning and semantic technology. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,4. The method according to any one of claims 1 to 3, 상기 시맨틱 처리 수단은,The semantic processing means, 템플릿(Template) 또는 세션(Session) 단위로 학습 콘텐츠를 태깅하는Tag learning content by template or session 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치.Pronunciation correction service device using social learning and semantic technology.
KR1020080136624A 2008-12-30 2008-12-30 Pronunciation Correction Service Device Using Social Learning and Semantic Technology KR101048214B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080136624A KR101048214B1 (en) 2008-12-30 2008-12-30 Pronunciation Correction Service Device Using Social Learning and Semantic Technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080136624A KR101048214B1 (en) 2008-12-30 2008-12-30 Pronunciation Correction Service Device Using Social Learning and Semantic Technology

Publications (2)

Publication Number Publication Date
KR20100078374A true KR20100078374A (en) 2010-07-08
KR101048214B1 KR101048214B1 (en) 2011-07-08

Family

ID=42639599

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080136624A KR101048214B1 (en) 2008-12-30 2008-12-30 Pronunciation Correction Service Device Using Social Learning and Semantic Technology

Country Status (1)

Country Link
KR (1) KR101048214B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508523A (en) * 2019-01-30 2020-08-07 沪江教育科技(上海)股份有限公司 Voice training prompting method and system
KR20220038852A (en) * 2020-09-21 2022-03-29 주식회사 케이엠에듀 English teaching method and apparatus using teaching media
KR20220039679A (en) * 2019-12-31 2022-03-29 (주)헤이스타즈 Method for providing personalized problems for pronunciation evaluation
KR20220054964A (en) * 2020-10-26 2022-05-03 주식회사 에듀템 Foreign language pronunciation training and evaluation system
CN114566256A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for consonant d dysarthria
CN114566257A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for dysarthria of initial consonant b
CN114566259A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for m dysarthria of initial consonant
WO2022139559A1 (en) * 2020-12-24 2022-06-30 주식회사 셀바스에이아이 Device and method for providing user interface for pronunciation evaluation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100362292B1 (en) * 2001-02-19 2002-11-23 보이스미디어텍(주) Method and system for english pronunciation study based on speech recognition technology
KR100499854B1 (en) * 2002-04-11 2005-07-08 주식회사 언어과학 System and Method for detecting error type by phoneme, and System and method using the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111508523A (en) * 2019-01-30 2020-08-07 沪江教育科技(上海)股份有限公司 Voice training prompting method and system
KR20220039679A (en) * 2019-12-31 2022-03-29 (주)헤이스타즈 Method for providing personalized problems for pronunciation evaluation
KR20220038852A (en) * 2020-09-21 2022-03-29 주식회사 케이엠에듀 English teaching method and apparatus using teaching media
KR20220054964A (en) * 2020-10-26 2022-05-03 주식회사 에듀템 Foreign language pronunciation training and evaluation system
WO2022139559A1 (en) * 2020-12-24 2022-06-30 주식회사 셀바스에이아이 Device and method for providing user interface for pronunciation evaluation
CN114566256A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for consonant d dysarthria
CN114566257A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for dysarthria of initial consonant b
CN114566259A (en) * 2022-01-18 2022-05-31 华东师范大学 Correction scheme generation system for m dysarthria of initial consonant

Also Published As

Publication number Publication date
KR101048214B1 (en) 2011-07-08

Similar Documents

Publication Publication Date Title
Hoover et al. The cognitive foundations of reading and its acquisition
Engwall et al. Pronunciation feedback from real and virtual language teachers
Field Cognitive validity
Chen Developing and evaluating an oral skills training website supported by automatic speech recognition technology
Tsai Beyond self-directed computer-assisted pronunciation learning: A qualitative investigation of a collaborative approach
Ashwell et al. How Accurately Can the Google Web Speech API Recognize and Transcribe Japanese L2 English Learners' Oral Production?.
Nurani et al. Improving english pronunciation of adult esl learners through reading aloud assessments
KR101048214B1 (en) Pronunciation Correction Service Device Using Social Learning and Semantic Technology
Kennedy et al. Pronunciation acquisition
Sánchez-Narváez et al. EFL oral skills behaviour when implementing blended learning in a content-subject teachers’ professional development course
Baur The potential of interactive speech-enabled CALL in the Swiss education system: A large-scale experiment on the basis of English CALL-SLT
Wik The Virtual Language Teacher: Models and applications for language learning using embodied conversational agents
Beals et al. Speech and language technology for language disorders
Łodzikowski Association between allophonic transcription tool use and phonological awareness level
JP2016224283A (en) Conversation training system for foreign language
Engwall Feedback strategies of human and virtual tutors in pronunciation training
Clifford et al. Applications of technology to language acquisition processes: What can work and why
Stephen The importance of teaching listening
Wik The virtual language teacher
Walesiak Mobile apps for pronunciation training
Xu Language technologies in speech-enabled second language learning games: From reading to dialogue
Kastner et al. Exploring a Text-to-Speech Feature by Describing Learning Experience, Enjoyment, Learning Styles, and Values--A Basis for Future Studies
Mangersnes Spoken word production in Norwegian-English bilinguals Investigating effects of bilingual profile and articulatory divergence
Brinton Effective pronunciation teaching
Neri The pedagogical effectiveness of ASR-based computer assisted pronunciation training

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160901

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 8