KR102405547B1 - 딥러닝 기반의 발음 평가 시스템 - Google Patents

딥러닝 기반의 발음 평가 시스템 Download PDF

Info

Publication number
KR102405547B1
KR102405547B1 KR1020200118571A KR20200118571A KR102405547B1 KR 102405547 B1 KR102405547 B1 KR 102405547B1 KR 1020200118571 A KR1020200118571 A KR 1020200118571A KR 20200118571 A KR20200118571 A KR 20200118571A KR 102405547 B1 KR102405547 B1 KR 102405547B1
Authority
KR
South Korea
Prior art keywords
word
words
sentence
unit
utterance
Prior art date
Application number
KR1020200118571A
Other languages
English (en)
Other versions
KR20220036239A (ko
Inventor
장현석
Original Assignee
주식회사 퀄슨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 퀄슨 filed Critical 주식회사 퀄슨
Priority to KR1020200118571A priority Critical patent/KR102405547B1/ko
Publication of KR20220036239A publication Critical patent/KR20220036239A/ko
Application granted granted Critical
Publication of KR102405547B1 publication Critical patent/KR102405547B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 발음 평가 시스템에 대한 것이다.
본 발명에 따른 발음 평가 시스템은 학습에 필요한 문장을 제공하는 문자 제공부, 제공된 문장에 대응하여 학습자에 의해 발화된 음성을 수집하는 발화 음성 수집부, 상기 발화된 음성을 텍스트 형태로 변환하고, 변환된 텍스트를 발화문으로 획득하는 텍스트 변환부, 상기 획득한 발화문과 제공된 문장을 비교 분석하여 문장에 대한 매칭률을 산출하는 평가부, 평가된 결과를 이용하여 학습자가 지속적으로 틀리게 발음하는 단어 및 인식에 오류가 발생되는 단어들에 대한 정보를 수집하고, 수집된 단어를 테이블형태로 저장하는 오인식 단어 수집부, 그리고 발화문과 제공된 문장이 일치할 경우에는 평가된 결과를 수치화하고, 발음 정확도 및 강세 일치에 따라 색상으로 구분화하여 제공하고, 발화문과 제공된 문장이 불일치 할 경우에는 제공된 문장에 대하여 재 발화 요청 신호를 송신하는 제어부를 포함한다.

Description

딥러닝 기반의 발음 평가 시스템{Pronunciation evaluation system based on deep learning}
본 발명은 발음 평가 시스템에 관한 것으로, 보다 상세하게는 딥러닝 및 NLP(자연어 처리)기술을 활용하여 사용자가 발화함에 따라 획득한 음성정보와 제공되는 문장을 매칭하여 사용자의 발음을 평가하는 발음 평가 시스템에 관한 것이다.
최근 컴퓨터를 이용하여 영어와 같은 외국어 학습을 하는 사용자가 증가되고 있다. 특히 영어 발음의 학습을 위한 프로그램이 증가하고 있는데 사용자가 마이크를 통해 특정 단어 또는 문장을 발화하면 그 발화를 분석하여 사용자의 발음에 대한 평가를 수행하여 제공한다. 이때, 사용자의 발화 내용을 알아내기 위해 음성 인식 기술이 응용되며, 평가 결과로 점수 또는 평가 수준에 맞는 피드백을 사용자에게 제공한다.
사용자에게 제공되는 발음 학습 결과의 내용으로는 문장 발음 학습의 경우 발화 내용 전체에 대한 전반적인 발음의 정확도(overall score)만을 표시하고 있는 경우가 많으며, 단어 발음 학습의 경우 해당 단어의 발음이 제대로 발음되었는지 아닌 지만을 표시하고 있는 경우가 많다. 이때, 문장과 같이 여러 단어를 발화하는 경우에는 일부 문제 있는 발음의 단어에 대한 지적이 없어 정확한 발음 학습 결과를 제공받지 못하는 문제점이 있다.
한편, 음성 인식 결과를 더욱 활용하여 사용자가 잘못 발음한 부분을 지적하여 알려주는 경우도 있으나, 이 경우 한국인의 영어 발음에 있어서 틀리기 쉬운 부분을 미리 지식화하여 구축하고 음성 인식을 통해 잘못된 발음이 인식되면 이를 사용자에게 알려주는 것으로 추가로 정확한 발음에 대한 정보를 구축하여야 발음의 교정이 가능한 문제점이 있다.
발음 자체의 정확도 이외에도, 특히 문장 발화에 있어 발화의 자연스러움을 측정하기 위해 초분절적인(suprasegmental) 평가요소를 포함하여 제공하는 경우도 있으나, 초분절적인 요소도 문장단위로 평가되고 있어 문장내의 잘못된 부분을 지적하고 어떻게 잘못된 것인지에 대한 세부적인 내용을 제공하기에는 어려움이 따른다. 여기서, 초분절적인 평가요소로는 문장의 억양, 강세, 말의 빠르기 등과 같이 분절되지 않는 항목이며, 분절적인 요소는 문장, 구절, 음절, 단어 및 음소와 같이 분리 가능한 항목이다.
따라서, 문장에 대한 발음학습 결과를 소정의 마디 단위 별로 초분절적인 요소까지 평가하여 제공할 수 있는 외국어 발음 평가 기술이 요구된다.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2019-0068841호(2019.06.19. 공개)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 딥러닝 및 NLP(자연어 처리)기술을 활용하여 사용자가 발화함에 따라 획득한 음성정보와 제공되는 문장을 매칭하여 사용자의 발음을 평가하는 발음 평가 시스템을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따른 발음 평가 시스템에 있어서, 학습에 필요한 문장을 제공하는 문자 제공부, 제공된 문장에 대응하여 학습자에 의해 발화된 음성을 수집하는 발화 음성 수집부, 상기 발화된 음성을 텍스트 형태로 변환하고, 변환된 텍스트를 발화문으로 획득하는 텍스트 변환부, 상기 획득한 발화문과 제공된 문장을 비교 분석하여 문장에 대한 매칭률을 산출하는 평가부, 평가된 결과를 이용하여 학습자가 지속적으로 틀리게 발음하는 단어 및 인식에 오류가 발생되는 단어들에 대한 정보를 수집하고, 수집된 단어를 테이블형태로 저장하는 오인식 단어 수집부, 그리고 발화문과 제공된 문장이 일치할 경우에는 평가된 결과를 수치화하고, 발음 정확도 및 강세 일치에 따라 색상으로 구분화하여 제공하고, 발화문과 제공된 문장이 불일치 할 경우에는 제공된 문장에 대하여 재 발화 요청 신호를 송신하는 제어부를 포함한다.
상기 텍스트 변환부는, 상기 발화된 음성을 단어별로 분류하고, 분류된 단어를 이용하여 획득한 발화문과, 상기 발화문과 유사한 복수의 후보 문장을 생성하며, 상기 분류된 단어마다 그에 대응하는 시간 정보를 제공할 수 있다.
상기 평가부는, 제공된 문장과 발화문을 한 단어씩 비교하고, 매칭되는 단어의 개수에 따라 매칭률을 산출할 수 있다.
상기 평가부는, 제공된 문장과 발화문을 단어 단위로 분류하고, 분류된 단어 마다 비교하여 제공된 문장 또는 발화문에 가중치를 부여하여 매칭률을 산출할 수 있다.
상기 평가부는, 단어를 제대로 발음하거나 단어를 한번 더 발음하였을 경우에는 발화문에 가중치를 부여하고, 단어를 잘못 발음하였거나 단어를 빼먹었을 경우에는 제공된 문장에 가중치를 부여할 수 있다.
상기 평가부는, 제공된 문장과 발화문을 단어 단위로 분류하고, 분류된 단어를 복수의 경우의 수로 설정한 다음, 설정된 경우의 수를 이용하여 매칭률을 산출할 수 있다.
상기 오인식 단어 수집부는, 숫자, 자주 쓰이지 않은 단어 및 학습자가 반복적으로 틀리게 발음하는 단어를 추출하여 오인식 단어로 분류하고, 분류된 오인식 단어들을 테이블 형태로 저장할 수 있다.
상기 제어부는, 학습자의 발화된 음성을 이용하여 파형을 획득하고, 상기 획득한 파형과 발화문에 포함된 단어의 시간정보를 매칭하여 단어의 강세를 획득하며, 획득한 강세와 원 단어의 강세를 비교하여 정답 여부를 색상으로 표현하여 출력할 수 있다.
이와 같이 본 발명에 따르면, 딥러닝 및 자연어 처리(NLP)기술을 기반으로 문장에 대한 사용자의 발화 정도를 평가하고, 평가된 결과를 지표화하여 제공하므로 사용자로 하여금 성취감을 느낄 수 있도록 하며, 스스로 영어의 발음을 입력하면 부정확한 발음에 대한 위치를 음소 혹은 음절 단위로 지적하여 사용자에게 알려줌과 동시에 발음의 정확도, 강세, 억양, 속도 등에 대한 자세한 분석이 가능하여 학습 능률을 높일 수 있다.
또한 본 발명에 따르면, 사용자가 반복적으로 틀리게 하는 발음하는 단어들을 모니터링하여 지속적으로 변환테이블을 업데이트 함으로서 사용자의 발음에 대한 인식률을 높일 수 있고, 강세가 포함된 단어와 강세가 포함되지 않은 단어로 분류하여 발화된 문장과 제공된 문장의 매칭률을 높일 수 있다.
도 1은 본 발명의 실시예에 따른 발음 평가 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 발음 평가 시스템을 이용하여 발음을 평가하는 방법을 나타내는 순서도이다.
도 3은 도 2에 도시된 S210단계를 나타내는 도면이다.
도 4는 도 2에 도시된 S220단계를 설명하기 위한 도면이다.
도 5는 도 2에 도시된 S240단계에서 발화문으로 변환하여 출력한 상태를 나타내는 예시도이다.
도 6은 도 2에 도시된 S250단계에서 3번째 방법에 의해 매칭률을 산출하는 방법을 설명하기 위한 도면이다.
도 7은 도 2에 도시된 S270단계에서 도출된 결과를 출력한 상태를 나타내는 예시도이다.
도 8은 도 2에 도시된 S270단계에서 단어의 강세를 판단하는 방법을 설명하기 위한 도면이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하에서는 본 발명의 실시예에 따른 발음 평가 시스템에 대해 더욱 구체적으로 설명한다.
도 1은 본 발명의 실시예에 따른 딥러닝 기반의 발음 평가 시스템을 설명하기 위한 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 발음 평가 시스템(100)은 문자 제공부(110), 발화 음성 수집부(120), 텍스트 변환부(130), 평가부(140), 오인식 단어 수집부(150) 및 제어부(160)를 포함한다.
먼저, 문자 제공부(110)는 학습에 필요한 문장을 제공한다. 이때 제공되는 문장은 영화나 드라마에 나오는 대사일수도 있고 일상 생활에 필요한 대화 또는 음악 가사일 수도 있다.
발화 음성 수집부(120)는 제공된 문장에 대응하여 학습자에 의해 발화된 음성을 수집한다. 학습자는 단말기에 포함된 마이크 기능을 턴온한다. 그리고, 마이크에 대고 제공되는 문자를 따라 읽음으로써, 학습자 단말기는 학습자로부터 발화된 음성을 수집한다.
텍스트 변환부(130)는 수집된 발화된 음성을 텍스트 형태로 변환하여 획득한다.
평가부(140)는 발화문과 학습에 제공된 문장을 비교하여 매칭률을 획득한다. 평가부(140)는 딥러닝 모델을 구축하고, 구축된 딥러닝 모델에 발화문과 학습에 제공된 문장을 입력한다. 그러면, 딥러닝 모델은 발화문과 학습에 제공된 문장을 단어 단위로 분류한 다음, 분류된 단어를 상호 매칭하여 매칭률을 획득한다.
오인식 단어 수집부(150)는 평가된 결과를 이용하여 학습자가 지속적으로 틀리게 발음하는 단어 및 인식에 오류가 발생되는 단어들에 대한 정보를 수집하고, 수집된 단어를 테이블형태로 저장한다.
마지막으로 제어부(160)는 발화문과 제공된 문장이 일치할 경우에는 평가된 결과를 수치화하고, 발음 정확도 및 강세 일치에 따라 색상으로 구분화하여 제공하고, 발화문과 제공된 문장이 불일치 할 경우에는 제공된 문장에 대하여 재 발화 요청 신호를 송신한다.
이하에서는 도 2 내지 도 8을 이용하여 본 발명의 실시예에 따른 발음 평가 시스템을 이용하여 발음을 평가하는 방법에 대해 더욱 상세하게 설명한다.
도 2는 본 발명의 실시예에 따른 발음 평가 시스템을 이용하여 발음을 평가하는 방법을 나타내는 순서도이고, 도 3은 도 2에 도시된 S210단계를 나타내는 도면이고, 도 4는 도 2에 도시된 S220단계를 설명하기 위한 도면이고, 도 5는 도 2에 도시된 S240단계에서 발화문으로 변환하여 출력한 상태를 나타내는 예시도이고 도 6은 도 2에 도시된 S250단계에서 3번째 방법에 의해 매칭률을 산출하는 방법을 설명하기 위한 도면이고, 도 7은 도 2에 도시된 S270단계에서 도출된 결과를 출력한 상태를 나타내는 예시도이고, 도 8은 도 2에 도시된 S270단계에서 단어의 강세를 판단하는 방법을 설명하기 위한 도면이다.
먼저, 학습자는 발음을 평가할 수 있는 어플리케이션을 다운로드 하고, 이를 활성화한다. 그러면, 도 3에 도시된 바와 같이, 문자 제공부(110)는 학습 가능한 문장을 제공한다(S210).
학습자는 제공된 문장 중에서 어느 하나의 문장을 선택할 수 도 있고, 첫 문장부터 순차적으로 선택할 수 도 있다.
문장 선택이 완료되면, 제어부(160)는 학습자에 의해 선택된 학습자의 성별과 평가받고자 하는 특정 국가에 대한 억양에 대한 정보를 수신한다(S220).
도 4에 도시된 바와 같이, 본 발명은 학습자의 선택된 언어 방식 즉, 영국식 또는 미국식 중에서 선택된 방법에 따라 그에 대응하여 평가가 이루어질 수 있도록 한다.
그 다음, 학습자가 제공받은 문장에 대해 녹음을 수행하면, 발화 음성 수집부(120)는 녹음을 수행함에 발생된 학습자의 발화 음성을 수신한다(S230).
텍스트 변환부(130)는 수신된 발화 음성을 텍스트 형태로 변환한다(S240).
그리고, 도 5에 도시된 바와 같이, 변환된 발화문은 즉각적으로 어플리케이션을 통해 출력된다
부연하자면, 텍스트 변환부(130)는 발화된 음성을 단어별로 분류하고, 분류된 단어를 이용하여 발화문을 획득한다. 이때, 텍스트 변환부(130)는 발화문 이외에 추가적으로 복수의 후보 문장을 생성한다.
예를 들면, 제공된 문장이 "I am hungry"일 경우, 텍스트 변환부(130)는 제공된 문자에 대응하여 발화된 음성을 "I am hungry"로 변환하고, 그 외에 "I was hungry", "I am angry"와 같이 후보 문장을 생성한다.
S250 단계가 완료되면, 평가부(140)는 발화문과 제공된 문장을 상호 비교하여 매칭율을 산출한다(S250).
평가부(140)는 3가지 방법 중에서 어느 하나의 방법에 의해 매칭율을 산출한다.
먼저 첫번째 방법에 대해 설명하면, 평가부(140)는 제공된 문장과 발화문을 한 단어씩 비교하고, 매칭되는 단어의 개수에 따라 매칭률을 산출한다.
예를 들면, 제공된 문장이 "I want to go home"이고, 발화문이 "I want to go home"라고 가정하면, 평가부(140)는 해당되는 발화문에 대해 매칭률을 100%로 산출한다.
반면에, 발화문이 "I go home"일 경우, 평가부(140)는 해당하는 발화문에 대해 매칭률을 20%로 산출한다.
그 다음, 두번째 발명에 대해 설명하면, 평가부(140)는 제공된 문장과 발화문을 단어 단위로 분류하고, 분류된 단어 마다 비교하여 제공된 문장 또는 발화문에 가중치를 부여하여 매칭률을 산출한다.
예를 들면, 제공된 문장이 "I want to go home"으로서 "I", "want", "to", "go", "home"으로 단어 단위로 분류되었고, 제공된 문장에 대응하는, 발화문은 "I go home "으로서 "I", "go", "home"으로 단어 단위로 분류되었다고 가정한다.
그러면, 평가부(140)는 한 단어씩 비교하여 단어를 제대로 발음하거나 단어를 한번 더 발음하였을 경우에는 발화문에 가중치를 부여하고, 단어를 잘못 발음하였거나 단어를 빼먹었을 경우에는 제공된 문장에 가중치를 부여하여 매칭률을 산출한다.
마지막으로 3번째 방법에 대해 설명하면, 평가부(140)는 제공된 문장과 발화문을 단어 단위로 분류한다. 그리고 도 6에 도시된 바와 같이, 평가부(140)는 분류된 단어를 복수의 경우의 수로 설정한 다음, 설정된 경우의 수를 이용하여 매칭률을 산출한다.
그 다음, 오인식 단어 수집부(150)는 평가가 완료된 발화문으로부터 인식되지 않은 단어 또는 학습자가 발음에 실패하는 단어들을 추출하고, 추출된 단어들을 테이블 형태로 저장한다(S260).
오인식 단어 수집부(150)는 인식하는데 어려움을 느끼는 숫자, 또는 자주 활용되지 않은 단어 또는 인간의 감정을 표현하는 단어 등에 대해 제대로 인식되지 않고 잘못 변환될 확률이 높으므로, 오인식 단어 수집부(150)는 오인식된 단어들을 추출하고, 추출된 단어를 테이블 형태로 저장한다.
테이블 형태로 오인식 단어들은 저장하는 이유는 발화문과 비교하여 오답 또는 정답으로 분석하는데 정확한 인식률을 도모할 수 있도록 하기 위함이다.
마지막으로 제어부(160)는 매칭률이 높은 발화문에 대한 분석된 결과를 출력한다(S270).
도 7에 도시된 바와 같이, 제어부(160)는 발음 정확도, 강세, 국가에 따른 억양과 비슷한 정도를 분석하여 출력한다.
이때 도 8에 도시된 바와 같이, 제어부(160)는 학습자의 발화된 음성을 이용하여 파형을 획득하고, 획득한 파형과 발화문에 포함된 단어의 시간정보를 매칭하여 단어의 강세를 획득한다.
한편, 제어부(160)는 학습자 목소리의 세기에 따라 단어의 강세를 판단할 수도 있다.
이와 같이 본 발명에 따르면, 딥러닝 및 자연어 처리(NLP)기술을 기반으로 문장에 대한 사용자의 발화 정도를 평가하고, 평가된 결과를 지표화하여 제공하므로 사용자로 하여금 성취감을 느낄 수 있도록 하며, 스스로 영어의 발음을 입력하면 부정확한 발음에 대한 위치를 음소 혹은 음절 단위로 지적하여 사용자에게 알려줌과 동시에 발음의 정확도, 강세, 억양, 속도 등에 대한 자세한 분석이 가능하여 학습 능률을 높일 수 있다.
또한 본 발명에 따르면, 사용자가 반복적으로 틀리게 하는 발음하는 단어들을 모니터링하여 지속적으로 변환테이블을 업데이트 함으로서 사용자의 발음에 대한 인식률을 높일 수 있고, 강세가 포함된 단어와 강세가 포함되지 않은 단어로 분류하여 발화된 문장과 제공된 문장의 매칭률을 높일 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100 : 발음 평가 시스템
110 : 문자 제공부
120 : 발화 음성 수집부
130 : 텍스트 변환부
140 : 평가부
150 : 오인식 단어 수집부
160 : 제어부

Claims (8)

  1. 딥러닝 및 NLP(자연어 처리)기술을 기반으로 하는 발음 평가 시스템에 있어서,
    학습에 필요한 문장을 제공하는 문자 제공부,
    제공된 문장에 대응하여 학습자에 의해 발화된 음성을 수집하는 발화 음성 수집부,
    상기 발화된 음성을 텍스트 형태로 변환하고, 변환된 텍스트를 발화문으로 획득하는 텍스트 변환부,
    기 구축된 딥러닝 모델을 이용하여 상기 획득한 발화문과 제공된 문장을 비교 분석하여 문장에 대한 매칭률을 산출하는 평가부,
    평가된 결과를 이용하여 학습자가 지속적으로 틀리게 발음하는 단어 및 인식에 오류가 발생되는 단어들에 대한 정보를 수집하고, 수집된 단어를 테이블형태로 저장하는 오인식 단어 수집부, 그리고
    발화문과 제공된 문장이 일치할 경우에는 평가된 결과를 수치화하고, 발음 정확도 및 강세 일치에 따라 색상으로 구분화하여 제공하고, 발화문과 제공된 문장이 불일치 할 경우에는 제공된 문장에 대하여 재 발화 요청 신호를 송신하는 제어부를 포함하며,
    상기 평가부는,
    제공된 문장과 발화문을 단어 단위로 분류하고, 분류된 단어 마다 비교하여 제공된 문장 또는 발화문에 가중치를 부여하여 매칭률을 산출하는 발음 평가 시스템.
  2. 제1항에 있어서,
    상기 텍스트 변환부는,
    상기 발화된 음성을 단어별로 분류하고, 분류된 단어를 이용하여 획득한 발화문과, 상기 발화문과 유사한 복수의 후보 문장을 생성하며, 상기 분류된 단어마다 그에 대응하는 시간 정보를 제공하는 발음 평가 시스템.
  3. 제1항에 있어서,
    상기 평가부는,
    제공된 문장과 발화문을 한 단어씩 비교하고, 매칭되는 단어의 개수에 따라 매칭률을 산출하는 발음 평가 시스템.
  4. 삭제
  5. 제1항에 있어서,
    상기 평가부는,
    단어를 제대로 발음하거나 단어를 한번 더 발음하였을 경우에는 발화문에 가중치를 부여하고,
    단어를 잘못 발음하였거나 단어를 빼먹었을 경우에는 제공된 문장에 가중치를 부여하는 발음 평가 시스템.
  6. 제1항에 있어서,
    상기 평가부는,
    제공된 문장과 발화문을 단어 단위로 분류하고, 분류된 단어를 복수의 경우의 수로 설정한 다음, 설정된 경우의 수를 이용하여 매칭률을 산출하는 발음 평가 시스템.
  7. 제1항에 있어서,
    상기 오인식 단어 수집부는,
    숫자, 자주 쓰이지 않은 단어 및 학습자가 반복적으로 틀리게 발음하는 단어를 추출하여 오인식 단어로 분류하고, 분류된 오인식 단어들을 테이블 형태로 저장하는 발음 평가 시스템.
  8. 제1항에 있어서,
    상기 제어부는,
    학습자의 발화된 음성을 이용하여 파형을 획득하고,
    상기 획득한 파형과 발화문에 포함된 단어의 시간정보를 매칭하여 단어의 강세를 획득하며, 획득한 강세와 원 단어의 강세를 비교하여 정답 여부를 색상으로 표현하여 출력하는 발음 평가 시스템.
KR1020200118571A 2020-09-15 2020-09-15 딥러닝 기반의 발음 평가 시스템 KR102405547B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200118571A KR102405547B1 (ko) 2020-09-15 2020-09-15 딥러닝 기반의 발음 평가 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200118571A KR102405547B1 (ko) 2020-09-15 2020-09-15 딥러닝 기반의 발음 평가 시스템

Publications (2)

Publication Number Publication Date
KR20220036239A KR20220036239A (ko) 2022-03-22
KR102405547B1 true KR102405547B1 (ko) 2022-06-07

Family

ID=80988571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200118571A KR102405547B1 (ko) 2020-09-15 2020-09-15 딥러닝 기반의 발음 평가 시스템

Country Status (1)

Country Link
KR (1) KR102405547B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001004875A1 (en) 1999-07-08 2001-01-18 Koninklijke Philips Electronics N.V. Speech recognition device with transfer means
KR101538317B1 (ko) * 2014-02-20 2015-07-29 ㈜빅스바이트 영어 리터러시 자동측정 시스템
US20180277017A1 (en) 2017-03-25 2018-09-27 SpeechAce LLC Teaching and assessment of spoken language skills through fine-grained evaluation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160122542A (ko) * 2015-04-14 2016-10-24 주식회사 셀바스에이아이 발음 유사도 측정 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001004875A1 (en) 1999-07-08 2001-01-18 Koninklijke Philips Electronics N.V. Speech recognition device with transfer means
KR101538317B1 (ko) * 2014-02-20 2015-07-29 ㈜빅스바이트 영어 리터러시 자동측정 시스템
US20180277017A1 (en) 2017-03-25 2018-09-27 SpeechAce LLC Teaching and assessment of spoken language skills through fine-grained evaluation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박혜빈 외, '비원어민 교수자 음성모델을 이용한 자동발음평가 시스템', JIIBC, 2016.04.

Also Published As

Publication number Publication date
KR20220036239A (ko) 2022-03-22

Similar Documents

Publication Publication Date Title
US7529678B2 (en) Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US20180137109A1 (en) Methodology for automatic multilingual speech recognition
US5787230A (en) System and method of intelligent Mandarin speech input for Chinese computers
JP4301102B2 (ja) 音声処理装置および音声処理方法、プログラム、並びに記録媒体
US7937262B2 (en) Method, apparatus, and computer program product for machine translation
US8818813B2 (en) Methods and system for grammar fitness evaluation as speech recognition error predictor
US7412387B2 (en) Automatic improvement of spoken language
JP4680714B2 (ja) 音声認識装置および音声認識方法
US20170032780A1 (en) System and Method for Learning Alternate Pronunciations for Speech Recognition
CN101551947A (zh) 辅助口语语言学习的计算机***
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
KR102062524B1 (ko) 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버
US20220180864A1 (en) Dialogue system, dialogue processing method, translating apparatus, and method of translation
JP2010197644A (ja) 音声認識システム
Kruse et al. Alinha-pb: A phonetic aligner for brazilian portuguese
Azim et al. Large vocabulary Arabic continuous speech recognition using tied states acoustic models
KR102405547B1 (ko) 딥러닝 기반의 발음 평가 시스템
Shukla Keywords Extraction and Sentiment Analysis using Automatic Speech Recognition
Biczysko Automatic Annotation of Speech: Exploring Boundaries within Forced Alignment for Swedish and Norwegian
JP2001188556A (ja) 音声認識方法及び装置
KR20220036237A (ko) 딥러닝을 기반으로 하는 가이드 음성 제공 시스템
KR102333029B1 (ko) 발음 평가 방법 및 이를 이용한 디바이스
Catanghal et al. Computer Discriminative Acoustic Tool for Reading Enhancement and Diagnostic: Development and Pilot Test
KR20240065747A (ko) 분절음 및 초분절음 요소 통합형 발음 평가 시스템

Legal Events

Date Code Title Description
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant