KR20210071713A - 스피치 스킬 피드백 시스템 - Google Patents

스피치 스킬 피드백 시스템 Download PDF

Info

Publication number
KR20210071713A
KR20210071713A KR1020190162180A KR20190162180A KR20210071713A KR 20210071713 A KR20210071713 A KR 20210071713A KR 1020190162180 A KR1020190162180 A KR 1020190162180A KR 20190162180 A KR20190162180 A KR 20190162180A KR 20210071713 A KR20210071713 A KR 20210071713A
Authority
KR
South Korea
Prior art keywords
speech
voice
words
speaker
analysis unit
Prior art date
Application number
KR1020190162180A
Other languages
English (en)
Inventor
김수진
안지윤
Original Assignee
사단법인 스마트미디어인재개발원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사단법인 스마트미디어인재개발원 filed Critical 사단법인 스마트미디어인재개발원
Priority to KR1020190162180A priority Critical patent/KR20210071713A/ko
Publication of KR20210071713A publication Critical patent/KR20210071713A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 화자의 말을 분석하여 스피치 능력을 보여주는 스피치 스킬 피드백 시스템에 관한 것으로, 더욱, 상세하게는 화자의 말 속도, 음 높이, 발음 정확도, 언어 습관 등을 분석하여 분석 결과를 피드백을 받음으로써 스피치 능력을 향상 시킬 수 있도록 지원하는 스피치 스킬 피드백 시스템에 관한 것이다.

Description

스피치 스킬 피드백 시스템 {Speech Skill Feedback System}
본 발명은 화자의 말을 분석하여 스피치 능력을 보여주는 스피치 스킬 피드백 시스템에 관한 것으로, 더욱, 상세하게는 화자의 말 속도, 음 높이, 발음 정확도, 언어 습관 등을 분석하여 분석 결과를 피드백을 받음으로써 스피치 능력을 향상 시킬 수 있도록 지원하는 스피치 스킬 피드백 시스템에 관한 것이다.
자신의 생각으로 남을 설득시키고 자신이 아는 것을 다른 사람들에게 효과적으로 전달할 수 있는 능력은 현대사회에서 선택이 아닌 필수로 자리잡혔다. 아무리 많이 알고 있고 자신의 생각이 확실하더라도 다른 사람을납득시키고 설득시키지 못 한다면 아무런 소용이 없다.
이러한 스피치 능력은 사람의 자본으로 하나의 경쟁력이 될 수 있으며, 짧은 순간으로 첫 인상과 이미지가 결정된다. 평범하고 친숙한 스피치는 사람들에게 기억되지 못하므로 무엇을 어필할지, 어떤 말을 할지, 제대로 말하고 있는지 등에 대한 스피치 스킬은 현대를 살아가는데 있어서 중요한 능력 중의 하나이다.
최근에는 전화 공포증(phone phobia), 스피치 공포등(glossophobia) 등 이전에는 없던 신조어가 생겨나는 등 현대인들에게 말하는 것이 더 이상 익숙하고 쉬운 것이 아님을 보여준다.
미국 캘리포니아 대학의 심리학자 메러비안이 주장한 메라비언의 법칙에 의하면, 의사소통에 있어서 목소리는 38%, 표정은 30%, 태도는 20%, 몸짓은 5%, 말의 내용이나 어휘는 7%의 중요성을 가진다고 한다. 이 이론에 따라 개발 어플리케이션의 서비스 영역을 사용자의 목소리인 음성적 요소로 구체화할 수 있다.
본 발명은 이상과 같은 배경의 필요에 따라 이루어진 것으로 그 목적은 화자의 말을 세부적으로 분석하여 말 속도, 음 높이, 발음 정확도, 언어 습관에 대한 특징을 추출하고 기존의 우수한 스피치 데이터을 학습시킨 딥러닝 모델을 이용하여 화자의 스피치 스킬 능력을 파악하여 결과를 피드백하는 스피치 스킬 피드백 시스템에 관한 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명의 실시예에 따른 스피치 스킬 피드백 시스템은 화자의 말을 실시간으로 입력받거나 녹음된 음성을 불러오는 음성 입력부; 입력받는 음성 데이터를 문자로 변화하여 발음의 정확도를 분석하는 발음발음정확도분석부; 화자의 말 속도를 분석하는 속도분석부; 화자의 음의 높낮이를 분석하는 음높낮이 분석부; 음높이의 변화 분석을 통해 억양을 분석하는 억양분석부; 화자의 말속에 포함되어 있는 단어를 분석하는 단어분석부; 분석 결과를 저장하는 저장부; 분석 결과를 평가하는 평가부; 평가 결과에 따라 화자에게 피드백하거나 보여주는 추천부를 포함하는 것을 특징으로 한다.
상기와 같은 구성을 이루는 본 발명의 실시예에 따른 스피치 스킬 피드백 시스템에 의하면 다음과 같은 효과가 있다.
첫째, 스피치에 자신 없던 사람들도 본 발명에 의한 시스템을 활용함으로써 발표, 면접, 연설 등 중요한 스피치를 앞두고 발표 연습을 수행할 수 있다.
둘째, 본 발명에 의한 시스템을 활용함으로써 자신이 원하는 스타일의 발표, 대화 방법, 발음 방법 등을 익힐 수 있어 언어 공부, 연기 공부, 음악 공부 등에 활용할 수 있다.
셋째, 대화 상대방의 말을 분석함으로써 상대방이 느끼는 감정상태, 대화능력, 서로 간의 매칭도 등을 분석하므로써 비지니스, 만남 등의 서비스에 활용할 수 있다.
도 1은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 구성을 도시한 것이다.
도 2는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템으로 구현된 어플리케이션의 예시이다.
도 3은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 화자의 말과 대본의 유사도 분석 방법을 도시한 것이다.
도 4는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 사용 단어 분석 방법을 도시한 것이다.
도 5는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 음의 크기, 말의 속도, 억양 분석 방법을 도시한 것이다.
도 6은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 유사도, 사용 단어, 크기, 속도, 억양 데이터를 기반으로 평가 및 피드백 방법을 도시한 것이다.
도 7은
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 '포함하는'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 스피치 스킬 피드백 시스템을 상세히 설명한다. 아래의 특정 실시예를 기술하는데 있어서 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 혼돈을 막기 위해 기술하지 않음을 미리 언급해 둔다.
도 1은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 구성을 도시한 것으로 화자(100)의 말을 실시간으로 입력받거나(111), 이전에 저장된 음성파일을 불러오는(112) 음성입력부(110); 음성입력에 필요한 대본을 저장하고 있는 대본 파일(113); 불러온 음성 파일을 텍스트로 변환하여 정확한 문장으로 변환되는지를 대본의 내용과 비교하여 정확한 발음으로 표현되었는지 분석하는 발음정확도분석부(120); 정확도분석부로부터 추출된 단어들을 워드클라우딩 기법을 활용하여 단어분석을 수행하는 단어분석부(130); 음성 파일에 포함된 음성의 시간별 크기변화를 분석하는 음 높낮이 분석부(140); 음성 파일에 포함된 주파수 성분을 분석하고 음 높낮이 분석부의 데이터와 연계하여 화자의 억양을 분석하는 억양분석부(150); 음성 파일에 포함된 음성을 분석하여 음절의 개수를 도출하고 시간에 따른 음절의 개수를 계산하여 말의 속도를 분석하는 속도분석부(140); 분석부들에서 분석된 데이터를 저장하고(171) 우수한 스피치 데이터를 분석하여 모델링한 학습 모델(172)이 저장된 저장부(170); 저장된 분석 데이터들로 부터 화자의 스피치 수준을 평가하는 평가부(180); 평가결과를 화자에게 스피치 스킬을 올릴 수 있도록 추천 피드백을 수행하는 추천부(190)를 포함한다.
도 2는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템으로 구현된 어플리케이션의 예시로 어플리케이션을 시작하면 먼저 대본을 직접 입력하거나 대본 파일을 읽어오는 단계(200); 입력된 대본에 따라 화자가 대본을 읽어서 음성을 생성하는 단계(210); 음성을 텍스트로 변환하고 대본과 비교하여 발음의 정확도를 분석하는 단계(220); 음성의 크기, 속도, 사용단어, 억양 등을 분석하는 단계(240); 분석결과를 화면에 표시하여 화자에게 결과를 피드백하는 단계(250)를 포함한다.
도 3은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 화자의 말과 대본의 유사도 분석 방법을 도시한 것으로 화자의 음성이나 저장된 음성 파일(100)로부터 음성 데이터를 읽어서 텍스트로 변환하는 STT 단계(310); BERT 알고리즘을 적용하여 단어들을 분석하는 단계(320); 대본과 분석한 단어의 유사도를 계산하는 단계(340); 계산된 유사도를 저장하는 단계(350)를 포함한다.
도 4는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 사용 단어 분석 방법을 도시한 것으로 STT 단계(310)에서 추출된 문장에서 단어만을 추출하는 단계(400); 추출된 단어들에서 사용하지 않는 단어를 제거하는 전처리 단계(410); 추출된 단어들의 수를 계수하는 단계(420); 계수된 단어를 워드크라우드로 시각화하는 단계(430); 계수 데이터를 저장하는 단계(440); 추출된 단어들의 연계성을 분석하기 위해 빈도수에 따른 단어들의 관계를 벡터로 변환하는 단계(450); 변환된 벡터값들을 이용하여 학습 모델을 생성하는 단계(460)를 포함한다.
도 5는 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 음의 크기, 말의 속도, 억양 분석 방법을 도시한 것으로 화자의 음성이나 저장된 음성 파일(100)로부터 음성 데이터를 읽어서 음의 진폭을 측정하는 단계(500); 측정된 음의 진폭을 데시벨 값을 변화하는 단계(510); 변환된 음의 크기를 저장하는 단계(520); 소리 크기에 따라 크기가 크게 변하는 구간을 검색하여 단어의 수를 계산하는 단계(530); 기준 시간당 단어의 수를 저장하는 단계(540); 음성데이터를 주파수 영역으로 변환하는 단계(550); 주파수 별로 음성 데이터를 계수하는 단계(560); 음의 크기, 단어 수, 주파수별 분포 데이터를 사용하여 음의 특성을 분석하여 억양을 판단하는 단계(570); 분석된 억양을 기반을 화자를 분류하는 단계(580)를 포함한다.
도 6은 본 발명의 일실시예에 따른 스피치 스킬 피드백 시스템의 유사도, 사용 단어, 크기, 속도, 억양 데이터를 기반으로 평가 및 피드백 방법을 도시한 것ㅇ으로 이전 단계에서 분석된 유사도(350), 사용 단어(450), 크기(520), 속도(540), 억양(580)을 입력하는 단계(600); 입력데이터를 학습 모델(610)에 적용하여 화자의 스피치 정도를 평가하고 출력하는 단계(620); 평가 결과를 분석하여 화자에게 피드백하는 단계(630)을 포함한다.

Claims (5)

  1. 스피치 스킬 피드백 시스템의 구성에 있어서.
    화자의 말을 실시간으로 입력받거나, 이전에 저장된 음성파일을 불러오는 음성입력부와;
    음성입력에 필요한 대본을 저장하고 있는 대본 파일과;
    불러온 음성 파일을 텍스트로 변환하여 정확한 문장으로 변환되는지를 대본의 내용과 비교하여 정확한 발음으로 표현되었는지 분석하는 발음정확도분석부와;
    정확도분석부로부터 추출된 단어들을 워드클라우딩 기법을 활용하여 단어분석을 수행하는 단어분석부와;
    음성 파일에 포함된 음성의 시간별 크기변화를 분석하는 음 높낮이 분석부와;
    음성 파일에 포함된 주파수 성분을 분석하고 음 높낮이 분석부의 데이터와 연계하여 화자의 억양을 분석하는 억양분석부와;
    음성 파일에 포함된 음성을 분석하여 음절의 개수를 도출하고 시간에 따른 음절의 개수를 계산하여 말의 속도를 분석하는 속도분석부와;
    분석부들에서 분석된 데이터를 저장하고 우수한 스피치 데이터를 분석하여 모델링한 학습 모델이 저장된 저장부와;
    저장된 분석 데이터들로 부터 화자의 스피치 수준을 평가하는 평가부와;
    평가결과를 화자에게 스피치 스킬을 올릴 수 있도록 추천 피드백을 수행하는 추천부를 포함하는 것을 특징으로 하는 스피치 스킬 피드백 시스템의 구성.
  2. 상기 1항의 발음정확도분석부의 동작 방법에 있어서,
    화자의 음성이나 저장된 음성 파일로부터 음성 데이터를 읽어서 텍스트로 변환하는 STT 단계와;
    BERT 알고리즘을 적용하여 단어들을 분석하는 단계와;
    대본과 분석한 단어의 유사도를 계산하는 단계와;
    계산된 유사도를 저장하는 단계를 포함하는 것을 특징으로 하는 발음정확도분석부의 동작 방법.
  3. 상기 1항의 단어분석부의 동작방법에 있어서,
    STT 단계에서 추출된 문장에서 단어만을 추출하는 단계와;
    추출된 단어들에서 사용하지 않는 단어를 제거하는 전처리 단계와;
    추출된 단어들의 수를 계수하는 단계와;
    계수된 단어를 워드크라우드로 시각화하는 단계와;
    계수 데이터를 저장하는 단계와;
    추출된 단어들의 연계성을 분석하기 위해 빈도수에 따른 단어들의 관계를 벡터로 변환하는 단계와;
    변환된 벡터값들을 이용하여 학습 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 단어분석부의 동작방법.
  4. 상기 1항의 음 높낮이 분석부, 억양분석부, 속도분석부의 동작방법에 있어서,
    음의 크기, 말의 속도, 억양 분석 방법을 도시한 것으로 화자의 음성이나 저장된 음성 파일로부터 음성 데이터를 읽어서 음의 진폭을 측정하는 단계와;
    측정된 음의 진폭을 데시벨 값을 변화하는 단계와;
    변환된 음의 크기를 저장하는 단계와;
    소리 크기에 따라 크기가 크게 변하는 구간을 검색하여 단어의 수를 계산하는 단계와;
    기준 시간당 단어의 수를 저장하는 단계와;
    음성데이터를 주파수 영역으로 변환하는 단계와;
    주파수 별로 음성 데이터를 계수하는 단계와;
    음의 크기, 단어 수, 주파수별 분포 데이터를 사용하여 음의 특성을 분석하여 억양을 판단하는 단계와;
    분석된 억양을 기반을 화자를 분류하는 단계를 포함하는 것을 특징으로 하는 음 높낮이 분석부, 억양분석부, 속도분석부의 동작방법.
  5. 상기 1항의 평가부와 추천부의 동작방법에 있어서,
    유사도, 사용 단어, 크기, 속도, 억양 데이터를 기반으로 평가 및 피드백 방법을 도시한 것으로 이전 단계에서 분석된 유사도, 사용 단어, 크기, 속도, 억양을 입력하는 단계와;
    입력데이터를 학습 모델에 적용하여 화자의 스피치 정도를 평가하고 출력하는 단계와;
    평가 결과를 분석하여 화자에게 피드백하는 단계을 포함하는 것을 특징으로 하는 평가부와 추천부의 동작방법.
KR1020190162180A 2019-12-07 2019-12-07 스피치 스킬 피드백 시스템 KR20210071713A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190162180A KR20210071713A (ko) 2019-12-07 2019-12-07 스피치 스킬 피드백 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190162180A KR20210071713A (ko) 2019-12-07 2019-12-07 스피치 스킬 피드백 시스템

Publications (1)

Publication Number Publication Date
KR20210071713A true KR20210071713A (ko) 2021-06-16

Family

ID=76603111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190162180A KR20210071713A (ko) 2019-12-07 2019-12-07 스피치 스킬 피드백 시스템

Country Status (1)

Country Link
KR (1) KR20210071713A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407055B1 (ko) * 2021-12-30 2022-06-08 오정섭 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법
US11657803B1 (en) 2022-11-02 2023-05-23 Actionpower Corp. Method for speech recognition by using feedback information
KR102584078B1 (ko) * 2022-12-15 2023-10-04 에이블제이 주식회사 면접 피드백 제공 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407055B1 (ko) * 2021-12-30 2022-06-08 오정섭 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법
US11657803B1 (en) 2022-11-02 2023-05-23 Actionpower Corp. Method for speech recognition by using feedback information
KR102584078B1 (ko) * 2022-12-15 2023-10-04 에이블제이 주식회사 면접 피드백 제공 장치 및 방법

Similar Documents

Publication Publication Date Title
US10176811B2 (en) Neural network-based voiceprint information extraction method and apparatus
US11037553B2 (en) Learning-type interactive device
CN101346758B (zh) 感情识别装置
Darabkh et al. An efficient speech recognition system for arm‐disabled students based on isolated words
US9489864B2 (en) Systems and methods for an automated pronunciation assessment system for similar vowel pairs
US9449522B2 (en) Systems and methods for evaluating difficulty of spoken text
US11145222B2 (en) Language learning system, language learning support server, and computer program product
US10755595B1 (en) Systems and methods for natural language processing for speech content scoring
Eriksson Aural/acoustic vs. automatic methods in forensic phonetic case work
CN109686383A (zh) 一种语音分析方法、装置及存储介质
KR20210071713A (ko) 스피치 스킬 피드백 시스템
Ahsiah et al. Tajweed checking system to support recitation
Yin et al. Automatic cognitive load detection from speech features
KR101534413B1 (ko) 상담 정보를 이용하여 상담 대화를 제공하는 방법 및 장치
JP2008158055A (ja) 言語発音練習支援システム
Kopparapu Non-linguistic analysis of call center conversations
Park et al. Towards understanding speaker discrimination abilities in humans and machines for text-independent short utterances of different speech styles
CN115796653A (zh) 一种面试发言评价方法及***
Shahriar et al. A communication platform between bangla and sign language
CN114927126A (zh) 基于语义分析的方案输出方法、装置、设备以及存储介质
Koudounas et al. Italic: An italian intent classification dataset
Johar Paralinguistic profiling using speech recognition
US20220208180A1 (en) Speech analyser and related method
Sahoo et al. Analyzing the vocal tract characteristics for out-of-breath speech
Yarra et al. Automatic intonation classification using temporal patterns in utterance-level pitch contour and perceptually motivated pitch transformation

Legal Events

Date Code Title Description
E601 Decision to refuse application