KR20100078374A - Apparatus for correcting pronunciation service utilizing social learning and semantic technology - Google Patents
Apparatus for correcting pronunciation service utilizing social learning and semantic technology Download PDFInfo
- Publication number
- KR20100078374A KR20100078374A KR1020080136624A KR20080136624A KR20100078374A KR 20100078374 A KR20100078374 A KR 20100078374A KR 1020080136624 A KR1020080136624 A KR 1020080136624A KR 20080136624 A KR20080136624 A KR 20080136624A KR 20100078374 A KR20100078374 A KR 20100078374A
- Authority
- KR
- South Korea
- Prior art keywords
- pronunciation
- learning
- semantic
- learner
- correction
- Prior art date
Links
- 230000009326 social learning Effects 0.000 title claims abstract description 30
- 238000013550 semantic technology Methods 0.000 title claims abstract description 21
- 238000012937 correction Methods 0.000 claims abstract description 97
- 230000013016 learning Effects 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000011156 evaluation Methods 0.000 claims abstract description 17
- 238000003745 diagnosis Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 18
- 238000013500 data storage Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 239000011295 pitch Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007435 diagnostic evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000012925 reference material Substances 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0018—Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Tourism & Hospitality (AREA)
- Acoustics & Sound (AREA)
- Educational Technology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 학습자의 외국어(예 : 영어) 발음을 진단 및 평가한 후 바람직한 발음으로 교정을 유도하기 위한 발음 교정 서비스 장치에 관한 것으로, 더욱 상세하게는 음성 인식 기술을 사용하여 학습자의 발음 수준을 발음 요소별로 정확히 평가하고, 학습자의 발음상의 실수나 잘못된 발음 습관을 인식하여 교정을 유도하며, 시맨틱 기술을 응용하여 학습자 자신의 특징적인 발음상의 실수가 무엇인지 파악할 수 있고, 점수 통계를 통해 발음 수준이 상대적으로 어느 정도 위치인지 알 수 있으며, 소셜 러닝 개념을 통해 학습자들이 직접 학습 콘텐츠를 생산 및 소비할 수 있도록 유도하여 발음 학습 콘텐츠의 양과 질, 학습 효과를 동시에 향상시킬 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 관한 것이다.The present invention relates to a pronunciation correction service device for inducing correction of a desired pronunciation after diagnosing and evaluating a learner's pronunciation of a foreign language (eg, English), and more specifically, using a speech recognition technology to pronounce a learner's pronunciation level. Accurately evaluate by element, recognize the learner's pronunciation mistakes or wrong pronunciation habits, induce correction, and apply semantic techniques to identify the learner's characteristic pronunciation mistakes. Social learning and semantic technology that can know the relative position and improve the quantity, quality, and learning effect of pronunciation learning content by inducing learners to produce and consume learning content directly through social learning concept. It is related with the pronunciation correction service apparatus which applied.
이하의 본 발명의 일실시예에서는 영어 발음 교정 서비스를 예로 들어 설명하나, 본 발명이 영어 발음 교정 서비스에 한정되는 것이 아님을 미리 밝혀둔다.In the following embodiments of the present invention, an English pronunciation proofing service is described as an example, but it is apparent that the present invention is not limited to the English pronunciation proofing service.
현재 대부분의 발음 교정 서비스는 파닉스(PHONICS) 위주의 단순 교정에 그치고 있는 것이 현실이다. 파닉스는 자음과 모음의 분절 요소 발음을 위주로 각 철자가 실제 단어의 발음과 어떻게 연결되는지를 교육하는 것에 중심에 두고 발음 학습을 진행한다. 이러한 학습 서비스는 발음 교정을 위하여 사용자에게 원어민의 발음을 들려주고 단순히 따라하게 한다. 또는, 이러한 학습 서비스는 사용자에게 구강 구조를 보여주면서 발음할 때 움직이는 입술 모양 및 혀 위치 등을 시각적으로 표현하여 준다. 또는, 이러한 학습 서비스는 발음 그래프를 사용자에게 보여줌으로써, 원어민 발음을 익힐 수 있도록 도와주고 있다.Currently, most pronunciation correction services are only phonics-based simple corrections. Phonics focuses on teaching pronunciation of segmental elements of consonants and vowels, focusing on teaching how each spelling relates to the pronunciation of real words. This learning service tells the user the pronunciation of the native speaker for pronunciation correction and simply follows. Alternatively, the learning service visually expresses the shape of the lips and the position of the tongue when the user pronounces the oral structure while speaking. Or, such a learning service helps users learn native pronunciation by showing the pronunciation graph to the user.
그러나 상기와 같은 단순 파닉스형 학습 서비스 시스템의 경우, 분절 요소보다는 초분절 요소가 올바른 발음 교육에 있어 더욱 중시되어야 한다는 언어학계의 연구 결과를 제대로 반영하지 못하고 있다.However, the simple phonics learning service system as described above does not properly reflect the results of linguistic studies that supra-segmental elements should be more important in correct pronunciation education than segmental elements.
오늘날, 이러한 단순 파닉스형 학습 시스템을 넘어 음성 인식 기능을 추가하여 발음 교정을 유도하는 서비스도 제공되고 있다. 이러한 음성 인식 기능이 추가된 발음 교정 서비스는 서비스 내에서 제공되는 스크립트에 따라 사용자가 그대로 읽고 발음하면, 원어민 발음과의 유사도에 따라 통과/실패 등의 평가가 매겨진다. 그러나 이러한 발음 교정 서비스에 있어서, 자음과 모음 등의 분절 요소 위주로 평가되는 것이 현실이다. 또한, 이러한 발음 교정 서비스에서는 억양, 리듬 등의 초분절 요소의 평가 비중이 매우 낮거나 단순한 수준에 머물고 있다.Today, beyond the simple phonics learning system, a service for inducing pronunciation correction by adding a speech recognition function is also provided. The pronunciation correction service added with the speech recognition function is read and pronounced by the user according to the script provided in the service, and the evaluation of passing / failure is made according to the similarity with the native speaker's pronunciation. However, in the pronunciation correction service, the reality is evaluated based on segment elements such as consonants and vowels. In addition, in the pronunciation correction service, the evaluation ratio of hypersegmental elements such as intonation and rhythm is very low or remains at a simple level.
한편, 웹 2.0 트렌드가 이미 성숙해 있는 요즘에, 소셜 네트워킹 서비 스(SOCIAL NETWORKING SERVICE)는 다수가 인터넷 및 모바일 공간에서 이용하는 서비스이자 플랫폼이다. 또한, 시맨틱 기술은 구축된 온톨로지를 기반으로 특정 분야에서 구체적인 지식 체계를 구현하고 이렇게 구축한 지식 체계를 응용하여 이전보다 인텔리전트(INTELLIGENT)한 시스템을 개발하는 것에 크게 도움을 줄 수 있는 기술이다.Meanwhile, as the Web 2.0 trend is already mature, SOCIAL NETWORKING SERVICE is a service and platform that many use in the Internet and mobile space. In addition, semantic technology is a technology that can help to develop a more intelligent system than before by implementing a specific knowledge system in a specific field based on the built ontology and applying this knowledge system.
따라서 이러한 소셜 러닝 및 시맨틱 기술을 충분히 이용하여 학습 콘텐츠를 개발하고 학습자가 효율적으로 학습할 수 있는 발음 교정 서비스가 절실히 필요한 상황이다.Therefore, there is an urgent need for a pronunciation correction service that can fully utilize the social learning and semantic technologies to develop learning content and enable learners to learn efficiently.
따라서 상기와 같은 종래 기술은 발음 교정 서비스에 있어서 초분절 요소가 제대로 반영되지 못하거나, 반영되더라도 초분절 요소의 평가 비중이 매우 낮은 문제점이 있으며, 이러한 문제점을 해결하고 상기 요구에 부응하고자 하는 것이 본 발명의 과제이다.Therefore, the prior art as described above has a problem in that the hypersegmental element is not properly reflected in the pronunciation correction service, or even if it is reflected, the evaluation ratio of the hypersegmental element is very low. It is a subject of invention.
따라서 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 보다 유연하고 양질의 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.Accordingly, the present invention provides a pronunciation correction service device applying social learning and semantic technology to provide a more flexible and high quality pronunciation correction service by applying social learning and semantic technology together with pronunciation correction using speech recognition. There is this.
즉, 본 발명은 음성 인식을 이용한 발음 교정과 더불어 소셜 러닝 및 시맨틱 기술을 적용하여 분절 요소뿐만 아니라 초분절 요소도 신뢰성 있게 평가 및 진단하고 학습자에게 올바른 발음 학습을 제공하기 위한 피드백을 적절히 줄 수 있는 발음 교정 서비스를 제공하기 위한, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.That is, the present invention is capable of reliably evaluating and diagnosing not only segmental elements but also hyperfragmental elements by applying social learning and semantic techniques along with pronunciation correction using speech recognition, and appropriately giving feedback for providing correct pronunciation learning to learners. An object of the present invention is to provide a pronunciation correction service apparatus using social learning and semantic techniques for providing a pronunciation correction service.
다시 말하면, 본 발명은 소셜 네트워크 개념을 응용한 소셜 러닝(SOCIAL LEARNING) 개념과 시맨틱 기술을 도입하여, 학습자 자신 또는 교사, 학부모들이 보다 많은 학습 컨텐츠를 생산/소비토록 유도하고, 학습자의 발음 특성을 인식하여 개인화된 피드백을 제공하며, 학습자들 간의 상대적인 발음 평가 및 원어민의 표준 발음을 기준으로 한 진단 및 평가를 제시할 수 있는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치를 제공하는데 그 목적이 있다.In other words, the present invention introduces the concept of social learning (SOCIAL LEARNING) and semantic technology applied to the concept of social network, induces learners themselves, teachers, and parents to produce / consume more learning content, and learner's pronunciation characteristics To provide pronunciation correction service device applying social learning and semantic technology that can recognize and provide personalized feedback, and can present relative pronunciation evaluation among learners and diagnosis and evaluation based on native pronunciation of native speakers. There is this.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기 목적을 달성하기 위한 본 발명의 장치는, 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치에 있어서, 학습자의 음성을 입력받고 상응하는 교정 피드백을 제공하기 위한 사용자 인터페이싱 수단; 상기 입력받은 상기 학습자의 음성을 발음 요소별로 분해하여 인식하기 위한 음성 인식 수단; 상기 음성 인식 결과를 바탕으로 발음 요소별로 진단 및 평가를 수행하고 교정 가이드 및 피드백 파라미터를 제공하기 위한 발음 교정 수단; 상기 발음 교정 결과를 바탕으로 발음 교정에 관련된 정보들을 수집하여 통계 처리하기 위한 통계 처리 수단; 상기 발음 교정 결과를 온톨로지에 적용하여 발음 교정 피드백을 선택하여 표시하고 발음 교정 콘텐츠를 추천하기 위한 시맨틱 처리 수단; 및 상기 통계 처리 수단과 상기 시맨틱 처리 수단에서의 처리 결과를 취합하여 발음 교정 가이드와 피드백을 제공하기 위한 레포팅 수단을 포함한다.An apparatus of the present invention for achieving the above object, the apparatus for pronunciation correction service applying social learning and semantic technology, comprising: user interfacing means for receiving a learner's voice and providing a corresponding correction feedback; Speech recognition means for recognizing the received speech of the learner by pronunciation elements; Pronunciation correction means for performing diagnosis and evaluation for each pronunciation element based on the speech recognition result and providing a correction guide and a feedback parameter; Statistical processing means for collecting and statistically processing information related to pronunciation correction based on the pronunciation correction result; Semantic processing means for applying the pronunciation correction result to an ontology to select and display pronunciation correction feedback and to recommend pronunciation correction contents; And reporting means for combining the statistical processing means and the semantic processing means to provide a pronunciation correction guide and feedback.
또한, 상기 본 발명의 장치는, 상기 사용자 인터페이싱 수단, 상기 통계 처 리 수단, 상기 시맨틱 처리 수단, 및 상기 레포팅 수단과 연동하여 발음 교정 서비스에 필요한 데이터를 저장하고 제공하기 위한 데이터 저장 수단을 더 포함한다.The apparatus of the present invention further includes data storage means for storing and providing data necessary for a pronunciation correction service in association with the user interfacing means, the statistical processing means, the semantic processing means, and the reporting means. do.
또한, 상기 본 발명의 장치는, 템플릿 콘텐츠를 제작하거나 복수의 템플릿을 모아 하나의 세션을 생성하기 위한 학습 콘텐츠 제작 수단을 더 포함한다.The apparatus of the present invention further includes learning content producing means for producing template content or collecting a plurality of templates to create a session.
상기와 같이 본 발명은, 음성 인식을 이용한 발음 교정과 더불어 시맨틱 기술과 소셜 러닝 개념을 적용하여 보다 유연하고 양질의 발음 교육이 이루어질 수 있도록 도와주는 효과가 있다.As described above, the present invention has the effect of helping to achieve more flexible and high-quality pronunciation education by applying semantic technology and social learning concepts together with pronunciation correction using speech recognition.
즉, 본 발명은 학습자가 다른 학습자들과의 상대 평가를 통해 실력을 검증함으로써, 보다 의욕적인 학습 동기를 고취해나갈 수 있으며, 시맨틱 모델이 적용되어 보다 개인화된 진단 평가 결과를 제공함으로써, 보다 정교한 발음 지도가 가능하도록 발음 교정 서비스를 제공할 수 있는 효과가 있다.In other words, the present invention allows learners to verify their abilities through relative evaluation with other learners, thereby inspiring more motivated learning motivation, and by applying semantic models to provide more personalized diagnostic evaluation results, It is effective to provide pronunciation correction service to enable pronunciation instruction.
나아가, 본 발명은 개인화된 진단 평가 결과를 통하여 각 개인의 부족한 부분에 따라 기존에 구축되어 있는 템플릿/세션을 추천할 수 있는 기능을 갖추어 보다 인텔리전트(intelligent)한 발음 교육 환경을 제공할 수 있다.Furthermore, the present invention can provide a more intelligent pronunciation education environment by having a function of recommending a template / session established according to a lack of each individual through personalized diagnosis evaluation results.
또한, 본 발명은 학습자들 또는 그 보호자들이 직접 참여하여 발음 콘텐츠를 구성하고 공유함으로써, 보다 폭넓은 콘텐츠 선택이 가능하고 활발한 참여를 유도할 수 있고, 또한 실제 콘텐츠 개발 업체가 템플릿을 작성 및 배포하여 보다 전문적인 콘텐츠 구성이 가능하도록 유도할 수 있으며, 이 콘텐츠에 대한 매매가 이루 어질 수 있도록 허용하여 학습 콘텐츠 제작 및 유통에 관한 새로운 비즈니스 모델의 창출도 가능하다.In addition, the present invention by the learners or their guardians directly participate in configuring and sharing the pronunciation content, it is possible to induce a wider selection of content and induce active participation, and the actual content developer to create and distribute the template It is possible to induce more professional content composition and to allow the sale and sale of this content, and to create a new business model related to learning content production and distribution.
다시 말하면, 본 발명은 기존의 틀에 박힌 발음 교육을 뛰어넘어 학습자가 보다 적극적으로 참여하고, 개인화된 피드백을 받으며, 개인화된 피드백이 콘텐츠에 대한 추천으로 이어지고, 이는 다시 양질의 콘텐츠에 대한 소비와 유통으로 이어져 학습자의 참여를 자극하는 선순환 구조로 학습이 이루어질 수 있도록 하는 효과가 있다.In other words, the present invention goes beyond the conventional stereotyped pronunciation education, in which learners participate more actively, receive personalized feedback, and personalized feedback leads to recommendations for content, which in turn leads to consumption of quality content. There is an effect that learning can be done in a virtuous cycle structure that leads to distribution and stimulates learner participation.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It can be easily carried out. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도이다.1 is a configuration diagram of an apparatus for correcting a pronunciation application using social learning and semantic techniques according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 발음 교정 서비스 장치(100)는 사 용자 인터페이스부(110), 음성 인식부(120), 발음 교정부(130), 통계부(140), 시맨틱부(150), 레포팅부(160), 및 데이터 저장부(170)를 포함한다.As shown in FIG. 1, the pronunciation
먼저, 본 발명에 따른 발음 교정 서비스 장치(100)를 전반적으로 설명하면, 상기 발음 교정 서비스 장치(100)는 학습자의 발화 입력을 받아들여 음성 인식 기술을 이용하여 발음 요소별로 특징을 추출하고, 진단 및 평가하며, 통계 및 시맨틱 기술을 이용하여 학습자들 간의 상대 평가 피드백을 제공하고, 개인별로 맞춤화된 피드백을 주며, 진단 결과에 따라 적절한 학습 콘텐츠를 추천한다. 또한, 상기 발음 교정 서비스 장치(100)는 소셜 러닝 기술을 이용하여, 학습자가 스스로 콘텐츠를 생산, 소비 및 공유할 수 있는 환경을 구축하여 학습 효과를 극대화할 수 있는 발음 교정 서비스를 제공한다.First, referring to the pronunciation
다음으로, 상기 발음 교정 서비스 장치(100)의 각 구성 요소를 살펴보면 다음과 같다.Next, each component of the pronunciation
상기 사용자 인터페이스부(110)는 학습자(사용자)와의 인터페이스를 통해 학습자의 음성을 입력받고 그에 대한 교정 피드백을 제공한다.The
그리고 음성 인식부(120)는 사용자 인터페이스부(110)를 통해 수집된 학습자의 음성을 발음 요소별로 분해하여 인식한다.The
그리고 발음 교정부(130)는 상기 음성 인식부(120)로부터의 음성 인식 결과를 바탕으로 발음 요소별로 진단/평가를 수행하고 잘못된 발음에 대한 교정 가이드 및 피드백 파라미터를 제공한다.The
그리고 통계부(140)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 바 탕으로 전체 또는 특정 학습자 그룹별로 발음 평가 점수 및 교정에 관련된 내역 정보들을 수집하여 통계 처리한다.The
그리고 시맨틱부(150)는 상기 발음 교정부(130)로부터의 발음 교정 결과를 기 구축된 온톨로지에 적용하여 학습자에게 개인화된 발음 교정 피드백을 선택하여 표시하고 콘텐츠를 추천해 준다.In addition, the
그리고 레포팅부(160)는 상기 통계부(140)와 상기 시맨틱부(150)에서의 처리 결과를 취합하여 진단 및 평가에 알맞은 발음 교정 가이드와 피드백을 일예로 상기 사용자 인터페이스부(110)를 통해 시각 및 청각적으로 표시해 준다.In addition, the
그리고 부가적으로, 데이터 저장부(170)는 상기 사용자 인터페이스부(110), 상기 통계부(140), 상기 시맨틱부(150), 및 상기 레포팅부(160) 등과 연동하여 발음 교정 서비스에 필요한 각종 데이터(예 : 템플릿 기반 콘텐츠 등)를 저장하고 제공한다.In addition, the
그리고 상기 발음 교정 서비스 장치(100)는 템플릿 콘텐츠를 제작하거나 복수 개의 템플릿들을 모아 하나의 세션을 생성할 수 있는 웹 학습 편의툴(도면에 도시되지 않음)을 더 포함한다.The pronunciation
여기서, 상기 각각의 구성요소는 각각 하나의 독립적인 모듈(엔진)로 구현될 수 있으며, 구현 방식에 따라 몇 개의 모듈(엔진)들을 하나로 묶어 대형 모듈로 구현할 수도 있다.In this case, each of the components may be implemented as one independent module (engine), and may be implemented as a large module by combining several modules (engines) into one according to an implementation method.
이하, 발음 교정 서비스 장치(100)의 구성요소 각각에 대하여 그 구체적인 실시예를 좀 더 상세하게 살펴보기로 한다.Hereinafter, specific embodiments of the components of the pronunciation
상기 사용자 인터페이스부(110)는 학습자가 학습 콘텐츠를 직관적이고 발음 교정 이론상 의미 있는 방식으로 발화를 입력하도록 지원하고, 그에 상응하는 교정 피드백을 상기 학습자에게 제공한다.The
즉, 발음해야 할 내용을 글자로 먼저 보여주어 읽게 하고 발음 교정 피드백을 주는 방식 대신에, 상기 사용자 인터페이스부(110)는 원어민의 발음을 먼저 들려주고, 기억을 돕기 위한 이미지를 함께 보여준다. 따라서 사용자 인터페이스부(110)는 읽기 및 말하기(Reading & Speaking)가 아닌 듣기와 말하기(Listening & Speaking)가 될 수 있도록 학습자를 유도한다.That is, instead of a method of showing the content to be pronounced first by reading it and giving a pronunciation correction feedback, the
예를 들어, 발음해야 하는 콘텐츠가 문장인 경우, 사용자 인터페이스부(110)는 해당 문장을 처음부터 보여주는 방식 대신에, 먼저 원어민의 문장 발음을 학습자에게 들려준다. 그리고 사용자 인터페이스부(110)는 관련된 이미지를 함께 디스플레이함으로써 듣고 말하는 방식으로 학습자에게 발화를 시킨다. 이러한 방식으로 학습자가 사용자 인터페이스부(110)를 통해 발화를 입력하면, 사용자 인터페이스부(110)는 학습자의 음성 발음 데이터를 음성 인식부(120)로 전달한다.For example, when the content to be pronounced is a sentence, the
이때, 학습자의 흥미를 유발하고 집중력을 유지할 수 있도록, 사용자 인터페이스부(110)는 스토리 라인을 따라 학습을 진행하거나 게임 형식의 학습 진행을 유도할 수 있는 학습 콘텐츠를 사용자에게 제공한다.At this time, in order to induce the learner's interest and maintain the concentration, the
이를 통해, 사용자 인터페이스부(110)가 딱딱한 발음 학습에 보다 적극적으로 학습자의 참여를 유도하여 보다 효과적인 학습이 기대될 수 있다. 예를 들어, 학습에 이용될 콘텐츠는 문장들이 연결되어 하나의 스토리 라인을 형성하거나, 문장 발음을 잘할 때마다 학습자가 아이템을 획득하여 특정 미션을 수행하는 등의 게임 형식으로 구현할 수 있다.Through this, the
아울러, 이 발음 교정 서비스의 사용자 인터페이스부(110)는 발음이 부정확한 부분의 텍스트에 밑줄을 긋거나 색깔을 변화시켜 학습자가 어느 부분의 발음에 교정이 필요한지를 인식할 수 있도록 한다. 예를 들어, 학습자가 한 문장을 발음하였을 경우, 발음이 부정확하거나 일반적으로 많이 틀리는 오류를 범하였을 경우, 사용자 인터페이스부(110)는 해당 위치의 단어 또는 어구 등에 밑줄 또는 글 색깔을 변화시켜 한눈에 잘못된 부분을 학습자가 인식할 수 있게 한다. 특히, 밑줄 또는 다른 색으로 표시된 단어 또는 어구 등을 클릭하거나 터치하면, 사용자 인터페이스부(110)는 교정 가이드 콘텐츠를 제공한다. 여기서, 상기 교정 가이드 콘텐츠는 학습자가 어떤 발음을 하였고, 어떤 실수를 하였으며, 어떻게 발음하는 것이 옳은 것인지를 알려준다. 또는, 사용자 인터페이스부(110)는 클릭 또는 터치된 해당 부분에 대한 원어민의 표준 발음과 학습자의 발음을 차례로 들려주어 그 차이점을 학습자가 인식하도록 하는 방식도 가능하다. 예를 들어, 잘못 발음한 어구 부분이 "a cup of coffee"라면 이에 대한 원어민의 옳은 발음과 학습자의 잘못된 발음이 실시간으로 발췌되어 한번씩 들려주는 것이 가능하다.In addition, the
이때, 본 발명에서는 밑줄 또는 글 색깔을 변화시키는 단위로 풋(foot)을 이용하는 것을 원칙으로 한다. 풋(Foot)은 소리 인지에 중요한 기능을 하며, 영어 리 듬 및 강세의 주요소를 구성하는 단위이다. 따라서 사용자 인터페이스부(110)는 풋(foot)을 기준으로 잘못된 발음을 알려주고 교정 피드백을 제시한다. 이처럼 풋(foot) 단위로 밑줄 또는 글 색깔을 변화시키는 이유는 보다 효과적으로 초분절 요소가 인지되고 분절 요소와의 관련성을 체득할 수 있도록 유도하기 위함이다.In this case, in the present invention, the foot is used as a unit for changing the underline or the text color. Foot plays an important role in sound perception and is a major component of English rhythm and stress. Accordingly, the
한편, 사용자 인터페이스부(110)는 상기 교정 가이드 컨텐츠를 통해 다양한 방식으로 학습자에게 정보를 제공해 줄 수 있다. 예를 들어, 사용자 인터페이스부(110)는 팝업 형식을 이용하여 해당 학습자에 대한 맞춤형 발음 교정 가이드 텍스트를 보여준다. 그리고 사용자 인터페이스부(110)는 구강 구조 및 발음 그래프 등 이미지를 함께 표시할 수 있다. 더 나아가, 사용자 인터페이스부(110)는 학습자의 문장 발음 중 해당 어구 발음을 자동으로 발췌하여 들려주고 뒤이어 원어민의 바른 발음을 들려줌으로써, 학습자가 직접 발음을 비교하여 교정할 수 있도록 유도할 수 있다.On the other hand, the
한편, 음성 인식부(120)는 상기 사용자 인터페이스부(110)를 통하여 학습자의 발화를 입력받아 특징을 추출한다. 특히, 상기 음성 인식부(120)는 발음의 세 가지 요소인 낱소리, 높낮이, 및 박자를 분리하여 각각 특징을 추출한다. 여기서, 낱소리란 발음의 분절 요소로서, 자음과 모음처럼 분리되어 분명히 들리는 음성 단위를 말한다. 그리고 높낮이는 말소리의 높낮이(PITCH)의 변화를 지칭하는 요소로서, 강세(STRESS) 또는 억양(INTONATION)이라고도 알려져 있다. 그리고 박자는 발화 시간의 지속 패턴을 일컫는 말로서, 보다 자연스러운 발음 교정을 위한 중요 요소이다. 음성 인식부(120)는 학습자의 발화를 상기 3요소(낱소리, 높낮이, 박자)로 분리하여 신호 처리를 통해 각 요소별 특징(Feature)을 추출하고 계산하는 과정을 수행한다.Meanwhile, the
한편, 상기 발음 교정부(130)는 음성 인식부(120)로부터 전달받은 학습자 발음의 특징들(features)을 분석하여 어떤 부분이 잘 발음되었고, 어떤 부분이 잘못 발음되었는지를 판단한다. 이때, 발음 교정부(130)는 해당 발음에 대한 원어민의 올바른 발음을 이용하여 훈련되도록, 학습자의 발음 특징과 원어민의 올바른 발음을 비교 및 분석하여 평가 점수를 산출한다. 이러한 비교 및 분석 과정에서, 낱소리, 높낮이, 및 박자 교정의 최소 단위로서 풋(Foot) 단위가 이용되는 것이 바람직하다. 이는 학습자가 문장을 발화하였다고 하더라도 낱소리, 높낮이 및 박자를 의미 있게 다루는 최소의 단위가 단어보다는 풋(foot)인 경우가 많음으로, 음성 언어학적으로 보다 의미 있는 교정이 이루어질 수 있도록 유도하기 위함이다.Meanwhile, the
한편, 통계부(140)는 발음 교정부(130)에서 출력된 특징 파라미터들을 수집하여 다양한 통계 자료를 산출한다. 상기 통계부(140)는 기본적으로 학습자 개개인의 성적을 수집하고 학습자들 간의 상대 성적을 계산하고 저장하는 기능을 수행한다.Meanwhile, the
예를 들어, 통계부(140)는 학습자의 점수를 바탕으로 학습자들의 점수 평균치, 및 분산 등과 같이 의미를 부여할 수 있는 통계치를 연산할 수 있다. 이렇게 연산된 통계치는 학습자 자신 또는 교사 및 학부모 등의 보호자에게 제공되는 성적 보고에 포함될 수 있다. 학습자는 현재 특정 발음을 학습하고 있는 자신의 발음 수준이 상대적으로 어느 위치에 있는지를 그 통계치를 통해 확인할 수 있다. 이를 통 해 학습자의 학습 의욕을 고취할 수 있다.For example, the
아울러, 통계부(140)는 수집된 자료를 바탕으로 세션 별로 통계를 낼 수 있다. 이를 통해, 통계부(140)는 학습자가 어떤 세션을 학습하는 것을 어려워하는지, 어떤 세션이 가장 인기가 있으며, 그 세션의 생산자가 누구인지 등과 같은 정보를 제공할 수 있다. 또한, 통계부(140)는 세션 별 통계를 통해 어떤 학습자들이 해당 세션을 이용하고 있는지, 어떤 학습 콘텐츠가 어떤 시기 또는 지역에서 많이 학습되는지 등을 확인할 수 있다.In addition, the
더 나아가, 통계부(140)는 어떤 발음을 학습자들이 주로 실수하는지, 어떤 발음을 쉽게 발음하는지 등 교육적으로 의미 있는 통계 자료를 생성하고 이를 이용하여 학습자에게 통계치를 제공한다.Furthermore, the
여기서, 상기 통계부(140)에서 이용되는 정보는 시맨틱부(150)에서도 이용되어 학습을 보조할 수 있는 추론 기능에 사용된다. 상기 시맨틱부(150)를 충분히 이용하기 위해, 본 발명에서는 발음 학습자를 위한 발음 교정 온톨로지를 사전에 구축한다.Here, the information used in the
예를 들어, 시맨틱부(150)는 한국인이 자주 틀리거나 어려워하는 발음들, 강세 및 억양이 어렵거나 예외적인 어구 또는 문장 구조, 다양한 발음이 가능한 단어들 등과 같은 발음 교정 도메인에 필요한 정보를 이용하여 사전에 온톨로지를 구축한다.For example, the
도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도이 다.2 is a conceptual diagram of an ontology for the joint phenomenon applied to the present invention.
어떤 음소가 여러 조건에 따라 다르게 발음되는 경우 화자에게는 같은 소리로 인식되는 음운 현상, 즉 이음 현상(200)에 대한 온톨로지가 도 2에 도시되어 있다.When a phoneme is pronounced differently according to various conditions, the ontology of the phonological phenomenon, that is, the
본 발명에 따른 발음 교정 서비스 장치(100)는 학습 시 해당 음운 현상들이 발생할 경우 각 항목별로 발생 횟수를 기록한다. 도 2에 도시된 바와 같이, 이음(200)은 구개음화(201), 성문음화(202), 설탄음화(203), 격음(204), 모음발음길이(205), L 발음(206), 및 R 발음(R-Coloring)(207)을 포함한다. 여기서, 설탄음화(203)는 플래핑(2031)과 비음화 플래핑(2032)을 포함한다. 그리고 L 발음(206)은 "Clear L"(2061)과 "Dark L"(2062)을 포함한다. 그리고 R 발음(207)은 W 발음(2071)과 연결되어 있다.When the phonetic phenomena occur during learning, the pronunciation
그리고 발음 교정 서비스 장치(100)는 학습자가 이음 현상(200)을 중심으로 문제가 있음을 진단하여 학습자에게 알려줄 수 있다.In addition, the pronunciation
그리고 시맨틱부(150)는 상기와 같은 형식으로 기 구축된 온톨로지를 이용하여, 학습자가 자주 틀리는 발음이 어떤 발음인지, 또는 자주 실수하는 단어가 어떤 단어인지 인지하여 개인화된 진단 피드백을 레포팅부(160)를 통해 제공한다.In addition, the
아울러, 온톨로지 상의 어느 부분에서 학습자 개인의 학습 내용이 부족한지가 파악되면, 시맨틱부(150)는 상기 학습 부족 부분의 발음 교정에 효과적인 학습 콘텐츠를 추천한다.In addition, when it is determined in which part of the ontology the learning content of the learner is insufficient, the
예를 들어, 통계부(140)는 학습자가 L 발음(206)을 탁하게 발음해야 하는 "Dark L"(2062)의 음운 현상 부분에서 잦은 실수를 보일 경우에 그에 맞는 통계치를 생성한다. 그러면, 레포팅부(160)는 상기 생성된 통계치를 학습자에게 제공한다. 그리고 레포팅부(160)는 학습자에게 L 발음(206)에 대한 진단 내용 및 교정 가이드를 제공하여 학습자가 부족한 부분에 대한 인지를 할 수 있도록 한다.For example, the
또한, 시맨틱부(150)는 L 발음(206)을 위주로 구성된 학습 콘텐츠를 검색하여 레포팅부(160)를 통해 학습자에게 추천한다. 이는 학습자가 같은 음운 현상을 계속하여 연습할 수 있도록 도울 수 있다.In addition, the
다른 예로, 통계부(140)에서 R 발음(Coloring)(207)의 음운 현상에 문제가 있다고 진단된 경우, 시맨틱부(150)는 해당 음운 현상으로 구성된 학습 콘텐츠를 학습자에게 레포팅부(160)를 통해 추천한다. 이때, 보다 포괄적인 R 발음(207)을 비교하면서 학습할 수 있도록, 시맨틱부(150)는 R 발음 전반에 관련된 학습 콘텐츠를 추천한다.As another example, when the
더 나아가, 시맨틱부(150)는 학습자 정보를 고려하여 학습 콘텐츠를 추천할 수 있다. 즉, 학습자의 연령이 어리다면, 포괄적인 R 발음(207)이 익숙해지기 전에 W 발음(2071)을 먼저 잘 발음할 수 있어야 하는 교육적 선후 관계에 따라, 시맨틱부(150)는 W 발음(2071)과 관련된 학습 콘텐츠를 추천한다.In addition, the
여기서, 시맨틱부(150)의 추천 기능이 가능하도록 하기 위하여, 각 학습 콘텐츠별로 주석(Annotation)이 미리 되어 있어야 한다. 예를 들어, 학습 콘텐츠는 어떤 음운 현상에 관계된 것인지에 대한 태그(Tag)가 제작 시에 미리 포함되어 있어야 한다. 그에 따라, 시맨틱부(150)는 온톨로지를 이용하여 콘텐츠를 추천할 때 상기 태그 즉, 메타 정보를 이용하여 콘텐츠를 추천한다.In this case, in order to enable the recommendation function of the
아울러, 각 음운 현상별로 규칙화할 수 있는 철자 및 어구 또는 문장 구조가 존재하거나 대표적인 사례들이 존재한다면, 시맨틱부(150)가 이를 체계화하여 해당하는 각 콘텐츠를 스캔하고 자동으로 태깅하는 방법 또한 추가될 수 있다. 이를 통하여, 시맨틱부(150)는 콘텐츠 제공자가 미처 주석을 달지 못한 콘텐츠도 추천할 수 있다.In addition, if there is a spelling, a phrase, or a sentence structure that can be regularized for each phonological phenomenon or representative examples, a method of synthesizing the
이때, 태깅이 이루어지는 콘텐츠 단위로는 템플릿(Template) 또는 세션(Session)이 존재한다. 이러한 템플릿(Template) 또는 세션(Session)은 시맨틱부(150)가 학습 콘텐츠를 추천할 때, 또는 학습자가 학습할 콘텐츠를 선택할 때 가장 기본이 되는 단위이고, 소셜 러닝을 가능하게 하는 요소이다.At this time, a template or session is present as a content unit for tagging. Such a template or session is the most basic unit when the
한편, 통계부(140)와 시맨틱부(150)의 처리 결과를 바탕으로 레포팅부(160)는 학습자의 점수 및 개인화된 진단 결과, 학습자들 간의 상대 평가 내용 등과 같은 다양한 보고 내용을 동적으로 표시한다.On the other hand, based on the processing results of the
우선, 레포팅부(160)는 통계부(140)와 연계하여 경쟁적 성적 보고를 표시할 수 있다. 즉, 다른 학습자들의 평균 점수 및 지역별 점수 분포, 학년별 점수 분포 등을 통하여 학습자의 발음 수준이 특정 그룹 내에서 어느 정도인지 표시한다. 이는 경쟁을 통한 학습 의욕 고취 및 참고 자료로 이용되도록 하기 위함이다.First, the
또한, 레포팅부(160)는 세션별 상대 점수 보고가 가능하여 각 세션별로 다른 학습자들이 어느 정도의 성과를 올렸는지를 확인하여 세션별 난이도를 적절히 판별할 수 있다. 또한, 레포팅부(160)는 부족한 세션을 재학습할 수 있는 근거를 학습 자에게 표시할 수 있다. 또한, 레포팅부(160)는 상기와 같은 통계 자료들을 바탕으로 학습자가 자신의 성적 향상 추이를 쉽게 파악할 수 있는 히스토그램을 동적으로 표시할 수 있다. 또한, 레포팅부(160)는 학습자가 자신의 학습 현황을 확인할 수 있는 정보를 제공한다.In addition, the
아울러, 레포팅부(160)는 시맨틱부(15)와 연계하여 학습자가 어느 발음에 특별히 취약한지를 표시할 수 있다. 또한, 레포팅부(160)는 이러한 학습자의 발음 취약 내용을 바탕으로 어떤 세션을 학습하는 것이 효과적일지를 추천하는 추천 내용을 시맨틱부(150)로부터 전달받아 표시할 수 있다. 또한, 레포팅부(160)는 개개인 학습자에 특화된 발음 진단 및 교정 가이드를 각 학습자에게 제공하여 개인화된 피드백을 받아보는 것이 가능하도록 한다.In addition, the
이러한 레포팅부(160)의 결과물은 학습자가 연계된 웹사이트에 로그인하여 확인할 수 있다. 또는, 레포팅부(160)는 학습에 이용되고 있는 단말기 상에서 바로 읽을 수 있게 상기 사용자 인터페이스부(110)를 통하여 표시하거나, 이메일 등으로 점수 및 진단 결과를 통보할 수 있다.The result of the
도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고, 도 4는 본 발명에 따른 세션의 일실시예 구조도이다.3 is an embodiment structural diagram of a template according to the present invention, and FIG. 4 is an embodiment structural diagram of a session according to the present invention.
전술한 바와 같이, 소셜 러닝에 대한 템플릿(TEMPLATE)이 학습 콘텐츠에 이용된다. 여기서, 템플릿은 학습 콘텐츠를 담을 수 있는 일종의 컨테이너로서, 학습자 또는 교사 및 학부모가 원하는 학습 콘텐츠를 자유롭게 포함시킬 수 있는 틀을 말한다.As described above, a template for social learning is used for learning content. Here, the template is a kind of container that can hold the learning content, and refers to a frame that can freely include the learning content desired by the learner, teacher, or parent.
도 3에 도시된 바와 같이, 템플릿(310)은 가장 위 상단에 템플릿의 제목을 입력할 수 있는 템플릿 제목(311), 좌측으로 문장 또는 어구 등의 발음 콘텐츠가 입력될 공란인 문장/어구(312), 우측으로 해당 문장/어구가 어떤 발음 현상에 관한 내용인지를 수동 또는 자동으로 설명(Annotate)할 수 있는 태깅(Tagging) 입력 공간인 태그(313)를 포함한다.As shown in FIG. 3, the
이러한 템플릿(310)을 만들고자 하는 학습자가 데이터 저장부(170)의 학습 콘텐츠 데이터베이스(DB)에서 필요한 문장/어구(321), 태그(322), 및 설명(323) 등을 드래그 앤 드롭 또는 직접 입력 등을 이용하여 요청하면, 사용자 인터페이스부(110)는 학습 콘텐츠 데이터베이스로부터 필요한 콘텐츠들로 가져다가 템플릿에 채워 넣어 해당 템플릿을 생성한다. 따라서 사용자 인터페이스부(110)는 학습자가 부족하거나 집중 학습이 필요한 내용을 간편하게 추가 또는 삭제할 수 있다. 이렇게 생성된 복수 개의 템플릿이 모여서 학습의 최소 단위인 세션(400, 도 4 참조)을 형성한다. 그리고 발음 교정 서비스 장치(100)는 이러한 세션(400)을 이용하여 학습을 진행한다.The learner who wants to create the
도 4에 도시된 바와 같이, 세션(400)은 세션 제목(401)과 복수 개의 템플릿(310)을 포함한다. 여기서, 템플릿(310)은 콘텐츠가 전혀 포함되어 있지 않아 학습자 또는 교사, 및 학부모가 콘텐츠를 일일이 모두 채워야만 학습이 가능한 템플릿(310)도 있고, 다른 학습자 또는 콘텐츠 제공 업체가 콘텐츠의 일부 또는 전체를 이미 채워 넣어 템플릿(310)을 생성하여 별다른 콘텐츠 추가/삭제가 필요하지 않은 템플릿도 있다.As shown in FIG. 4, the
특히, 템플릿(310) 및 세션(400)은 학습자들 간의 공유가 가능하도록, 즉 한 학습자가 생산 및 편집한 템플릿(310) 및 세션(400)을 다른 학습자가 가져와 사용할 수 있도록, 템플릿(310) 및 세션(400)은 데이터 저장부(170)에 저장된다. 그러면, 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 템플릿(310) 및 세션(400)을 이용하여 학습자가 새로운 템플릿(310) 및 세션(400)을 생성 및 편집할 수 있게 지원한다.In particular, the
이를 통해, 학습자들 간의 활발한 콘텐츠 생산 및 공유가 일어날 수 있는 소셜 러닝이 구현될 수 있다. 더 나아가, 발음 교육적으로 의미가 있도록 구성되고 수동 또는 자동으로 설명된 템플릿(310)들이 저장되어 있는 경우, 본 발명에 따른 발음 교정 서비스 장치(100)는 학습자 발음에 대한 시맨틱부(150)의 추론 결과에 따라 해당 템플릿(310)을 추천하여 학습을 진행하는 기능을 제공한다.Through this, social learning may be implemented in which active content production and sharing among learners may occur. Furthermore, when
한편, 사용자 인터페이스부(110)는 템플릿(310), 및 세션(400)의 구조 등 다양한 학습자 편의 기능을 제공하기 위하여 다양한 툴 또는 사용자 인터페이스를 웹을 통해 제공할 수 있다. 그리고 사용자 인터페이스부(110)는 데이터 저장부(170)에 저장된 학습 콘텐츠 데이터베이스(DB)에서 템플릿의 구성요소(예를 들면, 문장/어구, 태그, 설명 등)를 드래그 앤 드롭 형식으로 쉽게 끌어다 템플릿(310)을 생성할 수 있도록 지원한다. 그리고 사용자 인터페이스부(110)는 생성된 복수의 템플릿(310)들로 이루어진 세션(400)들이 순서에 맞게 학습될 수 있도록 학습 스케줄을 조정할 수 있는 기능, 학습자가 특정 문장이나 어구들을 따로 저장하여 복습할 수 있는 복습 노트 기능 등을 구현하여 소셜 러닝을 지원하는 동시에 학습 편의를 돕 도록 지원한다.Meanwhile, the
한편, 발음 교정 서비스 장치(100)는 효율적인 콘텐츠 생산 및 소비 활동을 돕도록 학습자 또는 교사, 학부모가 활동할 수 있는 온라인 커뮤니티를 지원할 수 있다. 또한, 발음 교정 서비스 장치(100)는 정기 세미나를 유치하여 발음 이론 및 콘텐츠 제작 방법을 교육하는 오프라인 활동을 지원하며, 영어 마을 할인 제공 등 각종 프로모션 진행을 포함하는 마케팅 노력 또한 지원할 수 있다.Meanwhile, the pronunciation
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
도 1은 본 발명에 따른 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치의 일실시예 구성도,1 is a configuration diagram of an apparatus for pronunciation correction service applying social learning and semantic technology according to the present invention;
도 2는 본 발명에 적용되는 이음 현상에 대한 온톨로지의 일실시예 개념도,2 is a conceptual diagram of one embodiment of an ontology for a joint phenomenon applied to the present invention;
도 3은 본 발명에 따른 템플릿의 일실시예 구조도이고,3 is a structural diagram of an embodiment of a template according to the present invention;
도 4는 본 발명에 따른 세션의 일실시예 구조도이다.4 is a structural diagram of an embodiment of a session according to the present invention.
* 도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings
100 : 발음 교정 서비스 장치 110 : 사용자 인터페이스부100: pronunciation correction service device 110: user interface unit
120 : 음성 인식부 130 : 발음 교정부120: speech recognition unit 130: pronunciation correction unit
140 : 통계부 150 : 시맨틱부140: statistical unit 150: semantic unit
160 : 레포팅부 170 : 데이터 저장부160: reporting unit 170: data storage unit
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080136624A KR101048214B1 (en) | 2008-12-30 | 2008-12-30 | Pronunciation Correction Service Device Using Social Learning and Semantic Technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080136624A KR101048214B1 (en) | 2008-12-30 | 2008-12-30 | Pronunciation Correction Service Device Using Social Learning and Semantic Technology |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100078374A true KR20100078374A (en) | 2010-07-08 |
KR101048214B1 KR101048214B1 (en) | 2011-07-08 |
Family
ID=42639599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080136624A KR101048214B1 (en) | 2008-12-30 | 2008-12-30 | Pronunciation Correction Service Device Using Social Learning and Semantic Technology |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101048214B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111508523A (en) * | 2019-01-30 | 2020-08-07 | 沪江教育科技(上海)股份有限公司 | Voice training prompting method and system |
KR20220038852A (en) * | 2020-09-21 | 2022-03-29 | 주식회사 케이엠에듀 | English teaching method and apparatus using teaching media |
KR20220039679A (en) * | 2019-12-31 | 2022-03-29 | (주)헤이스타즈 | Method for providing personalized problems for pronunciation evaluation |
KR20220054964A (en) * | 2020-10-26 | 2022-05-03 | 주식회사 에듀템 | Foreign language pronunciation training and evaluation system |
CN114566256A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for consonant d dysarthria |
CN114566257A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for dysarthria of initial consonant b |
CN114566259A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for m dysarthria of initial consonant |
WO2022139559A1 (en) * | 2020-12-24 | 2022-06-30 | 주식회사 셀바스에이아이 | Device and method for providing user interface for pronunciation evaluation |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100362292B1 (en) * | 2001-02-19 | 2002-11-23 | 보이스미디어텍(주) | Method and system for english pronunciation study based on speech recognition technology |
KR100499854B1 (en) * | 2002-04-11 | 2005-07-08 | 주식회사 언어과학 | System and Method for detecting error type by phoneme, and System and method using the same |
-
2008
- 2008-12-30 KR KR1020080136624A patent/KR101048214B1/en active IP Right Grant
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111508523A (en) * | 2019-01-30 | 2020-08-07 | 沪江教育科技(上海)股份有限公司 | Voice training prompting method and system |
KR20220039679A (en) * | 2019-12-31 | 2022-03-29 | (주)헤이스타즈 | Method for providing personalized problems for pronunciation evaluation |
KR20220038852A (en) * | 2020-09-21 | 2022-03-29 | 주식회사 케이엠에듀 | English teaching method and apparatus using teaching media |
KR20220054964A (en) * | 2020-10-26 | 2022-05-03 | 주식회사 에듀템 | Foreign language pronunciation training and evaluation system |
WO2022139559A1 (en) * | 2020-12-24 | 2022-06-30 | 주식회사 셀바스에이아이 | Device and method for providing user interface for pronunciation evaluation |
CN114566256A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for consonant d dysarthria |
CN114566257A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for dysarthria of initial consonant b |
CN114566259A (en) * | 2022-01-18 | 2022-05-31 | 华东师范大学 | Correction scheme generation system for m dysarthria of initial consonant |
Also Published As
Publication number | Publication date |
---|---|
KR101048214B1 (en) | 2011-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hoover et al. | The cognitive foundations of reading and its acquisition | |
Engwall et al. | Pronunciation feedback from real and virtual language teachers | |
Field | Cognitive validity | |
Chen | Developing and evaluating an oral skills training website supported by automatic speech recognition technology | |
Tsai | Beyond self-directed computer-assisted pronunciation learning: A qualitative investigation of a collaborative approach | |
Ashwell et al. | How Accurately Can the Google Web Speech API Recognize and Transcribe Japanese L2 English Learners' Oral Production?. | |
Nurani et al. | Improving english pronunciation of adult esl learners through reading aloud assessments | |
KR101048214B1 (en) | Pronunciation Correction Service Device Using Social Learning and Semantic Technology | |
Kennedy et al. | Pronunciation acquisition | |
Sánchez-Narváez et al. | EFL oral skills behaviour when implementing blended learning in a content-subject teachers’ professional development course | |
Baur | The potential of interactive speech-enabled CALL in the Swiss education system: A large-scale experiment on the basis of English CALL-SLT | |
Wik | The Virtual Language Teacher: Models and applications for language learning using embodied conversational agents | |
Beals et al. | Speech and language technology for language disorders | |
Łodzikowski | Association between allophonic transcription tool use and phonological awareness level | |
JP2016224283A (en) | Conversation training system for foreign language | |
Engwall | Feedback strategies of human and virtual tutors in pronunciation training | |
Clifford et al. | Applications of technology to language acquisition processes: What can work and why | |
Stephen | The importance of teaching listening | |
Wik | The virtual language teacher | |
Walesiak | Mobile apps for pronunciation training | |
Xu | Language technologies in speech-enabled second language learning games: From reading to dialogue | |
Kastner et al. | Exploring a Text-to-Speech Feature by Describing Learning Experience, Enjoyment, Learning Styles, and Values--A Basis for Future Studies | |
Mangersnes | Spoken word production in Norwegian-English bilinguals Investigating effects of bilingual profile and articulatory divergence | |
Brinton | Effective pronunciation teaching | |
Neri | The pedagogical effectiveness of ASR-based computer assisted pronunciation training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140701 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150626 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160901 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180702 Year of fee payment: 8 |