KR102213177B1 - 로봇에서의 음성인식 장치 및 방법 - Google Patents

로봇에서의 음성인식 장치 및 방법 Download PDF

Info

Publication number
KR102213177B1
KR102213177B1 KR1020180067997A KR20180067997A KR102213177B1 KR 102213177 B1 KR102213177 B1 KR 102213177B1 KR 1020180067997 A KR1020180067997 A KR 1020180067997A KR 20180067997 A KR20180067997 A KR 20180067997A KR 102213177 B1 KR102213177 B1 KR 102213177B1
Authority
KR
South Korea
Prior art keywords
robot
feature vector
motion information
feature
input
Prior art date
Application number
KR1020180067997A
Other languages
English (en)
Other versions
KR20190141350A (ko
Inventor
장준혁
이모아
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020180067997A priority Critical patent/KR102213177B1/ko
Publication of KR20190141350A publication Critical patent/KR20190141350A/ko
Application granted granted Critical
Publication of KR102213177B1 publication Critical patent/KR102213177B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Manipulator (AREA)

Abstract

로봇에서의 음성인식 장치 및 방법이 제시된다. 일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하는 단계; 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계를 포함하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다.

Description

로봇에서의 음성인식 장치 및 방법{APPARATUS AND METHOD FOR RECOGNIZING SPEECH IN ROBOT}
아래의 실시예들은 로봇에서의 음성인식 장치 및 방법에 관한 것으로, 더욱 상세하게는, 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 음성인식 장치 및 방법에 관한 것이다.
최근 로봇산업의 성장과 함께 음성인식 기술은 로봇과 사람과의 의사소통을 가능하게 해주는 가장 빠르고 강력한 수단으로 사용되고 있다. 음성인식 기술은 미리 수집된 음성 데이터로부터 각 음소별 확률을 미리 학습하고, 이후 입력된 음성 데이터가 어느 음소에 가장 가까운지를 판단하여 이로부터 음소열을 추정하는 방식을 사용한다.
이 때, 사용하는 각 음소별 확률 모델을 음향 모델이라고 부르며, 음향 모델은 음성인식 기술의 성능을 좌우하는 중요한 요소 중에 하나이다. 음성인식 시스템에서 성능을 좌우하는 중요한 요소인 음향 모델의 잡음(노이즈) 강인성은 중요한 이슈로, 이는 음성인식 시스템의 성능이 훈련 환경과 실제 환경 사이의 차이에 기인하여 심각하게 저하되기 때문이다.
종래에는 빅데이터의 수집이 용이해짐에 따라 딥러닝(Deep learning)을 사용하여 강인한 음성인식을 위한 전처리로써 사용하고 있다. 잡음이 혼합된 입력으로부터 깨끗한 음성신호를 추정하여 구하기 위한 심화 신경망(Deep Neural Network, DNN) 모델을 훈련하여 왜곡된 신호로부터 깨끗한 신호로 매핑한다.
그러나, 상기 심화 신경망(DNN) 기반의 특징 향상 모델들은 마이크로폰 입력으로부터 얻을 수 있는 정보인 음성 정보만을 활용하여 모델을 훈련시키며 외부 환경에 강인한 음성인식만을 위해 개발되어 왔다. 그러나 실제 로봇이 음성인식을 하는 환경에서는 사용자의 명령에 따라 로봇이 몸체를 움직이면서 발생하는 소음이나 모터 및 팬이 동작하는 소음이 함께 존재하여 음성인식의 성능을 저하시키는 원인이 된다.
한국공개번호 10-2016-0032536호는 이러한 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습 방법에 관한 것으로, 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습방법에 관한 기술을 기재하고 있다.
한국공개번호 10-2016-0032536호
실시예들은 로봇에서의 음성인식 장치 및 방법에 관하여 기술하며, 보다 구체적으로 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 음성인식 기술을 제공한다.
실시예들은 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공하는데 있다.
일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하는 단계; 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계를 포함하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다.
상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 입력 특징 벡터를 추출하는 단계는, 상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 단계; 및 상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 단계를 포함할 수 있다.
상기 추출된 각각의 상기 입력 특징 벡터를 결합하는 단계는, 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는, 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 단계; 및 상기 특징 매핑 모델을 통해 학습된 결과와 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 단계를 포함할 수 있다.
상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는, 추출된 상기 향상된 입력 특징 벡터를 음소열을 추정하는 심화 신경망인 상기 음향 모델을 통해 학습시키는 단계를 더 포함할 수 있다.
상기 특징 매핑 모델과 상기 음향 모델을 통해 추정된 음소열로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식하는 단계를 더 포함할 수 있다.
여기서, 상기 로봇의 동작 정보는, 상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다.
다른 실시예에 따른 로봇에서의 음성인식 장치는, 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다.
상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 특징 추출부; 및 상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 원핫 인코딩부를 포함할 수 있다.
상기 특징 추출부에서 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하는 제1 특징 벡터 결합부를 더 포함할 수 있다.
상기 제1 특징 벡터 결합부에서 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 특징 매핑부; 및 상기 특징 매핑 모델을 통해 학습된 결과와 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 제2 특징 벡터 결합부를 더 포함할 수 있다.
상기 향상된 입력 특징 벡터로부터 단어열을 추정하여 음성을 인식하는 음성인식부를 더 포함할 수 있다.
상기 음성인식부는, 상기 향상된 입력 특징 벡터를 심화 신경망인 상기 음향 모델을 통해 학습시켜 음소열을 추정하는 음향 모델부를 포함할 수 있다.
상기 음향 모델부로부터 추정된 상기 음소열로부터 상기 단어열을 추정하는 언어 모델부를 더 포함할 수 있다.
여기서, 상기 로봇의 동작 정보는, 상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다.
실시예들에 따르면 로봇 내부의 모터 동작 상태를 보조 정보로 활용함으로써 잡음 환경에서도 강인한 음성인식이 가능한 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다.
실시예들에 따르면 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다.
도 1은 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 도면이다.
도 2는 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내는 도면이다.
도 3은 일 실시예에 따른 로봇에서의 음성인식 장치의 블록도를 나타내는 도면이다.
도 4는 일 실시예에 따른 음성 데이터의 특징 벡터 및 로봇의 동작 정보의 결합을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 향상된 음성 데이터의 특징 벡터 및 로봇의 동작 정보의 결합을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 단어열의 생성을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
도 1은 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 도면이다.
본 실시예에서는 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 음성인식장치 및 방법을 제공하는 것을 그 목적으로 한다.
도 1을 참조하면, 일 실시예에 따른 로봇이 사용자의 명령에 따라 동작하며 소음을 발생시키는 예를 나타내는 것으로, 사람의 명령에 따라 상호작용하는 로봇의 경우 모터 및 팬소음과 함께 로봇이 움직이면서 발생하는 소음과 같은 내부 소음이 존재한다. 잡음 종류를 추정하기 어려운 외부 배경 잡음과는 달리, 이러한 로봇의 내부 소음 종류는 로봇의 동작 정보를 통해 충분히 얻을 수 있는 정보이기 때문에 심화 신경망(Deep Neural Network, DNN)의 훈련 및 테스트시에 활용이 가능하다.
도 2는 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내는 도면이다.
도 2를 참조하면, 일 실시예에 따른 로봇에서의 음성인식 방법의 구성을 개략적으로 나타내며, 이를 참조하여 로봇에서의 음성인식 방법을 설명한다.
일 실시예에 따른 로봇에서의 음성인식 방법은, 로봇의 동작 정보(202)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 각각 입력 특징 벡터를 추출하는 단계, 추출된 각각의 입력 특징 벡터를 결합(concatenate)하는 단계, 및 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시키는 단계를 포함하고, 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다. 여기서, 특징 매핑 모델(231)과 음향 모델(232)은 심화 신경망(DNN) 학습(부)(230)이 될 수 있다.
여기서, 로봇의 동작 정보(202)는 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다.
실시예들에 따르면 로봇에서 자체적으로 얻을 수 있는 동작 상태 정보를 음성인식 모델의 학습시에 보조 정보로 활용하여 훈련 환경과 실제 환경간의 불일치를 최소화하는 로봇에서의 음성인식 장치 및 방법을 제공할 수 있다.
아래에서는 일 실시예에 따른 로봇에서의 음성인식 방법을 하나의 예를 들어 보다 구체적으로 설명한다.
먼저, 일 실시예에 따른 로봇에서의 음성인식 방법은 후술할 일 실시예에 따른 로봇에서의 음성인식 장치를 이용하여 구체적으로 설명할 수 있다. 여기서, 일 실시예에 따른 로봇에서의 음성인식 장치는 특징 추출부, 원핫 인코딩부, 제1 특징 벡터 결합부, 특징 매핑부, 제2 특징 벡터 결합부 및 음성인식부를 포함하여 이루어질 수 있다. 여기서, 음성인식부는 음향 모델(232)부 및 언어 모델부를 포함할 수 있다.
먼저, 로봇의 동작 정보(202)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 각각 입력 특징 벡터를 추출할 수 있다.
보다 구체적으로, 특징 벡터 추출부는 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(201)로부터 특징 벡터를 추출할 수 있다. 그리고 원핫 인코딩부는 로봇의 동작 정보(202)를 전달 받아 원핫 인코딩할 수 있다.
다음으로, 추출된 각각의 입력 특징 벡터를 결합할 수 있다.
보다 구체적으로, 제1 특징 벡터 결합부는 잡음이 포함된 음성 데이터(201)로부터 추출된 음성 특징 벡터열 및 로봇의 동작 정보(202)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.
그 다음, 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시킬 수 있다. 여기서, 특징 매핑 모델(231)과 음향 모델(232)은 심화 신경망으로 이루어질 수 있으며, 예컨대 적층된(stacked) 심화 신경망으로 이루어져 깨끗한 음성 특징을 추정할 수 있다. 이와 같이 결합된 입력 특징 벡터를 특징 매핑 모델(231)과 음향 모델(232)을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있으며, 단일 심화 신경망을 이용하는 것보다 적층된 심화 신경망을 이용함으로써 음성인식 성능을 높일 수 있다.
보다 구체적으로, 특징 매핑부는 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망인 특징 매핑 모델(231)을 통해 학습시킬 수 있다. 그리고 제2 특징 벡터 결합부는 특징 매핑 모델(231)을 통해 향상된 입력 특징 벡터를 추출할 수 있다. 이 때, 제2 특징 벡터 결합부는 특징 매핑 모델(231)을 통해 학습된 결과와 로봇의 동작 정보(202)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.
그리고, 음성인식부의 음향 모델(232)부는 추출된 향상된 입력 특징 벡터를 음소열(203)을 추정하는 심화 신경망인 음향 모델(232)을 통해 학습시킬 수 있다. 또한, 음성인식부의 언어 모델부는 특징 매핑 모델(231)과 음향 모델(232)을 통해 추정된 음소열(203)로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식할 수 있다.
도 3은 일 실시예에 따른 로봇에서의 음성인식 장치의 블록도를 나타내는 도면이다.
도 3을 참조하면, 일 실시예에 따른 로봇에서의 음성인식 장치는 로봇의 동작 정보(302)와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(301)로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 입력 특징 벡터를 결합(concatenate)하고, 결합된 입력 특징 벡터(303)를 특징 매핑 모델과 음향 모델을 통해 학습시켜 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행할 수 있다.
여기서, 로봇의 동작 정보(302)는 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상일 수 있다. 또한, 로봇의 동작 정보(302)는 동작 속도에 따라 모터 등에 의해 잡음이 달라질 수 있으므로, 동작 속도를 포함할 수 있다.
이러한 일 실시예에 따른 로봇에서의 음성인식 장치는 특징 추출부(310), 원핫 인코딩부(320), 제1 특징 벡터 결합부(330), 특징 매핑부(340), 제2 특징 벡터 결합부(350) 및 음성인식부(360)를 포함하여 이루어질 수 있다. 여기서, 음성인식부(360)는 음향 모델부(361) 및 언어 모델부(362)를 포함할 수 있다.
특징 추출부(310)는 잡음이 포함된 음성으로부터 특징을 추출하는 것으로, 마이크로폰으로 입력된 잡음이 포함된 음성 데이터(301)로부터 특징 벡터를 추출할 수 있다.
원핫 인코딩부(320)는 로봇의 동작 정보(302)를 원핫(one-hot) 인코딩(encoding)하는 것으로, 로봇의 동작 정보(302)를 전달 받아 원핫 인코딩할 수 있다.
제1 특징 벡터 결합부(330)는 음성 정보를 담고 있는 특징 벡터와 로봇 정보를 담고 있는 벡터의 결합시킬 수 있다. 이러한 제1 특징 벡터 결합부(330)는 특징 추출부(310)에서 잡음이 포함된 음성 데이터(301)로부터 추출된 음성 특징 벡터열 및 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.
특징 매핑부(340) 제1 특징 벡터 결합부(330)에서 결합된 입력 특징 벡터(303)를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망인 특징 매핑 모델을 통해 학습시킬 수 있다.
또한, 제2 특징 벡터 결합부(350)는 특징 매핑 모델을 통해 학습된 결과와 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터(304)를 추출할 수 있다.
그리고 음성인식부(360)는 잡음 데이터로부터 깨끗한 음성을 추정하기 위한 것으로, 향상된 입력 특징 벡터(304)로부터 단어열(305)을 추정하여 음성을 인식할 수 있다.
여기서, 음성인식부(360)는 음향 모델부(361) 및 언어 모델부(362)를 포함할 수 있다.
음향 모델부(361)는 향상된 입력 특징 벡터(304)를 심화 신경망인 음향 모델을 통해 학습시켜 음소열을 추정할 수 있다.
언어 모델부(362)는 음향 모델부(361)로부터 추정된 음소열로부터 단어열(305)을 추정할 수 있다.
도 4는 일 실시예에 따른 음성 데이터의 특징 벡터 및 로봇의 동작 정보(302)의 결합을 설명하기 위한 도면이다.
도 4를 참조하면, 추출된 음성 특징 벡터와 로봇 동작 정보를 담고 있는 원핫(one-hot) 벡터를 결합할 수 있다.
특징 추출부(310)는 입력되는 음성 데이터를 다른 형태의 신호로 변환시키는 과정을 수행하는 부분이다. 입력되는 음성 파형을 음성 파형의 특징을 가지는 축약된 다른 형식의 신호로 변환할 수 있는데, 필요한 특징 신호만을 추출하고 필요하지 않은 정보는 배제시켜 신호를 축약시킬 수 있다. 이렇게 축약된 신호를 특징 벡터라고 한다. 즉, 특징 추출부(310)는 마이크로폰의 입력인 음성 데이터로부터 특징 벡터를 추출한다.
그리고, 원핫 인코딩부(320)는 로봇의 동작 정보(302)를 전달 받아 원핫 인코딩할 수 있고, 제1 특징 벡터 결합부(330)를 통해 음성 정보를 담고 있는 특징 벡터와 로봇 정보를 담고 있는 벡터의 결합시킴으로써, 잡음이 포함된 음성 데이터(301)로부터 추출된 음성 특징 벡터열 및 원핫 인코딩부(320)에서 로봇의 동작 정보(302)로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합할 수 있다.
도 5는 일 실시예에 따른 향상된 음성 데이터의 특징 벡터 및 로봇의 동작 정보(302)의 결합을 설명하기 위한 도면이다.
도 5를 참조하면, 도 4에서 결합된 특징 벡터를 입력으로 특징 매핑부(340)로부터 향상된 특징 벡터를 구하고, 제2 특징 벡터 결합부(350)에서 향상된 특징 벡터와 로봇의 동작 정보(302)를 결합할 수 있다.
특징 매핑부(340)는 심화 신경망을 사용하여 학습한다. 특징 매핑부(340)에서는 로봇 내부 소음이 섞인 음성 데이터로부터 추출된 특징 벡터와 로봇의 동작 정보(302)가 포함된 벡터를 연결하여 입력으로 한다. 연결된 입력 특징 벡터로부터 깨끗한 음성의 특징을 추정하도록 설계된다.
하기의 수학식 1과 같이, 특징 매핑 심화 신경망의 출력과 원하는 타겟인 깨끗한 음성 간의 평균 제곱 오차를 최소화함으로써 심화 신경망이 학습된다.
[수학식 1]
Figure 112018058025261-pat00001
여기서,
Figure 112018058025261-pat00002
f 번째 프레임에 대해 심화 신경망으로 추정한 잡음이 제거된 특징이고,
Figure 112018058025261-pat00003
는 기준이 되는 깨끗한 특징이다.
Figure 112018058025261-pat00004
Figure 112018058025261-pat00005
는 모두
Figure 112018058025261-pat00006
차원의 크기를 갖는 특징 벡터다. 그리고 W는 가중치 값 k는 균일화 가중치 계수, F는 mini-batch 프레임 크기를 나타낸다
도 6은 일 실시예에 따른 단어열(305)의 생성을 설명하기 위한 도면이다.
도 6을 참조하면, 도 5의 결합된 특징 벡터를 입력으로 음성인식 모델을 통해 단어열(305)을 생성할 수 있다.
음성인식부(360)는 음향 모델부(361)와 언어 모델부(362)로 구성되며, 특징 벡터 데이터에 대하여 그 유사도에 대한 분석을 통해, 음성 데이터에 대한 단어열(305)을 식별할 수 있다.
음향 모델부(361)는 심화 신경망을 사용하여 학습할 수 있다. 음향 모델부(361)는 음성인식부(360)에서 단어를 인식하기 위해서 필요한 음향 모델을 생성하는 부분으로서 사용자가 발음하는 단어를 음소 단위로 인식하여 모델링하는 부분이다.
이 때, 음향 모델부(361)에서는 특징 매핑부(340)의 출력인 향상된 특징 벡터와 로봇의 동작 정보(302)가 포함된 벡터를 하나로 연결하여 입력으로 하며, 연결된 특징 벡터로부터 음소열을 추정할 수 있다.
언어 모델부(362)는 주어진 문장 내에서 각 단어들 사이의 관계를 찾아내고 이를 음성인식에 반영하는 역할을 담당하는 부분이다. 특히, 여러 단어가 순서대로 주어진 경우 그 다음에 나타나는 단어는 앞 단어와 연관성이 크다는 것에 착안한다. 이러한 언어 모델은 일반적인 통계모델을 사용할 수 있다.
실시예들에 따르면 특징 매핑 네트워크와 음향 모델 네트워크 학습 및 테스트시에 마이크로폰으로부터 얻을 수 있는 음성 데이터 정보 외에 로봇의 동작 정보(302)를 보조 정보를 활용함으로써 내부 동작 소음에서도 강인한 음성인식을 가능하게 한다.
도 7은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위한 도면이다.
도 7을 참조하면, 일 실시예에 따른 로봇에서의 음성인식 장치의 성능을 설명하기 위해 스펙트럼 그래프를 비교한다. 여기서, (a)는 원본인 잡음이 없는 깨끗한 음성 신호를 나타내고, (b)는 마이크로폰의 입력 음성 신호(5dB에서의 잡음 상태)를 나타내며, (c)는 단일 심화 신경망(DNN) 기반 알고리즘으로 강화한 결과이고, (d) 적층된 심화 신경망(DNN) 기반 알고리즘으로 강화한 결과이다.
여기서, 적층된 심화 신경망(DNN) 기반 알고리즘은 앞에서 설명한 심화 신경망(DNN)으로 이루어진 특징 매핑 모델과 음향 모델을 통해 깨끗한 음성 특징을 추정한 결과이다. 적층된 심화 신경망(DNN) 기반 알고리즘을 이용하는 경우, 단일 심화 신경망(DNN) 기반 알고리즘을 이용하는 경우보다 음성인식 성능을 높일 수 있다.
표 1은 일 실시예에 따른 로봇에서의 음성인식 장치의 성능의 예를 나타낸다.
[표 1]
Figure 112018058025261-pat00007
표 1을 참조하면, TIMIT 데이터셋의 음소(phone) 오류율(PER) 성능을 나타내는 것으로, 모델을 보조 정보(로봇의 동작 정보)의 특징이 없는 경우와 보조 정보의 특징이 있는 경우로, 나누어 각각 3 가지 모델, 즉 (1) 특징 매핑이 없는 모델(X), (2) 단일 심화 신경망(DNN) 기반 특징 매핑이 있는 모델, (3) 적층된 모델 심화 신경망(DNN) 기반 특징 매핑이 있는 모델로 구분하여 성능을 비교하였다.
결과적으로, 보조 정보(로봇의 동작 정보)를 사용하는 모델의 성능은 기존 모델의 모든 모델보다 우수하다. 그리고 보조 정보를 사용하는 경우, 적층된 심화 신경망(DNN)을 사용하는 형상 매핑 모델이 최고의 성능을 보였다. 따라서 모터 등의 로봇 동작 정보가 관련 특징이 될 수 있다.
이상과 같이 실시예들에 따른 음성인식 방식을 이용하여 로봇의 동작 상태를 음성인식 모델 학습시에 활용할 수 있으며, 배경 잡음뿐만 아니라 로봇 내부에서 발생하는 소음이 존재하는 상황에서도 강인한 음성인식을 가능하게 할 수 있다.
이러한 로봇에서의 음성인식 장치 및 방법은 소셜 로봇에서의 음성인식 기술, 인공지능 스피커에서의 음성인식 기술 등에 적용이 가능하다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하는 단계;
    추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하는 단계; 및
    상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계
    를 포함하고,
    상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 입력 특징 벡터를 추출하는 단계는,
    상기 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 단계; 및
    상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 단계
    를 포함하며,
    상기 추출된 각각의 상기 입력 특징 벡터를 결합하는 단계는,
    상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하고,
    상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는,
    상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 단계; 및
    상기 특징 매핑 모델을 통해 학습된 결과와 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 단계
    를 포함하고,
    상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행하는, 로봇에서의 음성인식 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시키는 단계는,
    추출된 상기 향상된 입력 특징 벡터를 음소열을 추정하는 심화 신경망인 상기 음향 모델을 통해 학습시키는 단계
    를 더 포함하는, 로봇에서의 음성인식 방법.
  6. 제1항 또는 제5항에 있어서,
    상기 특징 매핑 모델과 상기 음향 모델을 통해 추정된 음소열로부터 언어 모델을 통해 단어열을 추정하여 음성을 인식하는 단계
    를 더 포함하는, 로봇에서의 음성인식 방법.
  7. 제1항에 있어서,
    상기 로봇의 동작 정보는,
    상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상인 것
    을 특징으로 하는, 로봇에서의 음성인식 방법.
  8. 로봇에 구성된 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 특징 벡터를 추출하는 특징 추출부; 및
    상기 로봇의 동작 정보를 전달 받아 원핫(one-hot) 인코딩(encoding)하는 원핫 인코딩부
    를 포함하고,
    상기 특징 추출부에서 상기 잡음이 포함된 음성 데이터로부터 추출된 음성 특징 벡터열 및 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 하나의 입력 벡터열로 결합하는 제1 특징 벡터 결합부
    상기 제1 특징 벡터 결합부에서 상기 결합된 입력 특징 벡터를 잡음이 포함되지 않은 음성의 특징 벡터를 추정하는 심화 신경망(Deep Neural Network, DNN)인 상기 특징 매핑 모델을 통해 학습시키는 특징 매핑부; 및
    상기 특징 매핑 모델을 통해 학습된 결과와 상기 원핫 인코딩부에서 상기 로봇의 동작 정보로부터 원핫 인코딩된 동작 정보 벡터열을 결합시켜 향상된 입력 특징 벡터를 추출하는 제2 특징 벡터 결합부
    를 더 포함하고,
    상기 로봇의 동작 정보와 마이크로폰으로 입력된 잡음이 포함된 음성 데이터로부터 각각 입력 특징 벡터를 추출하여, 추출된 각각의 상기 입력 특징 벡터를 결합(concatenate)하고, 상기 결합된 입력 특징 벡터를 특징 매핑 모델과 음향 모델을 통해 학습시켜 상기 로봇의 동작 시 발생되는 소음 환경에서 음성인식을 수행하는, 로봇 내에 구현된 음성인식 장치.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제8항에 있어서,
    상기 향상된 입력 특징 벡터로부터 단어열을 추정하여 음성을 인식하는 음성인식부
    를 더 포함하는, 로봇 내에 구현된 음성인식 장치.
  13. 제12항에 있어서,
    상기 음성인식부는,
    상기 향상된 입력 특징 벡터를 심화 신경망인 상기 음향 모델을 통해 학습시켜 음소열을 추정하는 음향 모델부
    를 포함하는, 로봇 내에 구현된 음성인식 장치.
  14. 제13항에 있어서,
    상기 음향 모델부로부터 추정된 상기 음소열로부터 상기 단어열을 추정하는 언어 모델부
    를 더 포함하는, 로봇 내에 구현된 음성인식 장치.
  15. 제8항에 있어서,
    상기 로봇의 동작 정보는,
    상기 로봇의 내부 모터의 온(on)/오프(off) 상태, 내부 팬의 온(on)/오프(off) 상태 및 로봇 몸체의 움직임 정보 중 적어도 어느 하나 이상인 것
    을 특징으로 하는, 로봇 내에 구현된 음성인식 장치.
KR1020180067997A 2018-06-14 2018-06-14 로봇에서의 음성인식 장치 및 방법 KR102213177B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180067997A KR102213177B1 (ko) 2018-06-14 2018-06-14 로봇에서의 음성인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180067997A KR102213177B1 (ko) 2018-06-14 2018-06-14 로봇에서의 음성인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190141350A KR20190141350A (ko) 2019-12-24
KR102213177B1 true KR102213177B1 (ko) 2021-02-05

Family

ID=69022204

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180067997A KR102213177B1 (ko) 2018-06-14 2018-06-14 로봇에서의 음성인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102213177B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102227624B1 (ko) * 2020-03-09 2021-03-15 주식회사 퍼즐에이아이 워터마크를 삽입한 음성 인증 시스템 및 이에 대한 방법
CN113707133B (zh) * 2021-10-28 2022-02-18 南京南大电子智慧型服务机器人研究院有限公司 一种基于声环境感知的服务机器人语音输出增益获取方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100576803B1 (ko) * 2003-12-11 2006-05-10 한국전자통신연구원 신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법
KR101844932B1 (ko) 2014-09-16 2018-04-03 한국전자통신연구원 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습방법
KR20180049787A (ko) * 2016-11-03 2018-05-11 삼성전자주식회사 전자 장치, 그의 제어 방법

Also Published As

Publication number Publication date
KR20190141350A (ko) 2019-12-24

Similar Documents

Publication Publication Date Title
JP6993353B2 (ja) ニューラルネットワークベースの声紋情報抽出方法及び装置
KR102209689B1 (ko) 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법
Bahl et al. Maximum mutual information estimation of hidden Markov model parameters for speech recognition
WO2019191554A1 (en) Adaptive permutation invariant training with auxiliary information for monaural multi-talker speech recognition
US10726326B2 (en) Learning of neural network
KR102294638B1 (ko) 잡음 환경에 강인한 화자 인식을 위한 심화 신경망 기반의 특징 강화 및 변형된 손실 함수를 이용한 결합 학습 방법 및 장치
KR101665882B1 (ko) 음색변환과 음성dna를 이용한 음성합성 기술 및 장치
Yoo et al. A highly adaptive acoustic model for accurate multi-dialect speech recognition
KR102213177B1 (ko) 로봇에서의 음성인식 장치 및 방법
JP2018194828A (ja) マルチビューベクトルの処理方法及び装置
KR102410850B1 (ko) 잔향 제거 오토 인코더를 이용한 잔향 환경 임베딩 추출 방법 및 장치
CN113674733A (zh) 用于说话时间估计的方法和设备
KR102305672B1 (ko) 강인한 음성인식을 위한 음향 및 언어모델링 정보를 이용한 음성 끝점 검출 방법 및 장치
KR100574769B1 (ko) 최우법을 포함한 고유음성에 기초한 화자 및 환경 적응 방법
CN113646834A (zh) 自动语音识别置信度分类器
WO2016181468A1 (ja) パターン認識装置、パターン認識方法およびプログラム
KR102192342B1 (ko) 멀티모달 다중 화자 대화 속 인물 식별 방법 및 장치
JP7291099B2 (ja) 音声認識方法及び装置
JP2016162437A (ja) パターン分類装置、パターン分類方法およびパターン分類プログラム
JP2014153763A (ja) パターン認識装置、パターン認識方法、及びパターン認識プログラム
JP6282711B2 (ja) パターン認識装置、パターン認識方法、及びパターン認識プログラム
KR102203991B1 (ko) 음향특징벡터 임베딩과 음성인식 컨텍스트를 결합 학습한 심화신경망 기반의 음성 끝점 검출 방법 및 장치
KR102520240B1 (ko) 비음수 행렬 인수분해를 이용하는 데이터 증강 방법 및 장치
JP6324647B1 (ja) 話者適応化装置、音声認識装置および音声認識方法
JP5647159B2 (ja) 事前分布計算装置、音声認識装置、事前分布計算方法、音声認識方法、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant