JP7173758B2 - 個人化された音声認識方法及びこれを行うユーザ端末及びサーバ - Google Patents
個人化された音声認識方法及びこれを行うユーザ端末及びサーバ Download PDFInfo
- Publication number
- JP7173758B2 JP7173758B2 JP2018101565A JP2018101565A JP7173758B2 JP 7173758 B2 JP7173758 B2 JP 7173758B2 JP 2018101565 A JP2018101565 A JP 2018101565A JP 2018101565 A JP2018101565 A JP 2018101565A JP 7173758 B2 JP7173758 B2 JP 7173758B2
- Authority
- JP
- Japan
- Prior art keywords
- user terminal
- user
- speech signal
- target
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 230000005236 sound signal Effects 0.000 claims description 70
- 239000013598 vector Substances 0.000 claims description 45
- 238000010606 normalization Methods 0.000 claims description 15
- 230000007613 environmental effect Effects 0.000 claims description 14
- 230000001755 vocal effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
- G10L19/038—Vector quantisation, e.g. TwinVQ audio
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Description
Claims (24)
- ユーザ端末で実行される認識方法において、
ユーザから入力された基準音声信号に基づいて前記ユーザの音声に個人化された特性パラメータを決定するステップと、
前記ユーザから認識の対象となるターゲット音声信号が入力されるステップと、
前記ターゲット音声信号の認識結果を出力するステップと、
を含み、
前記ターゲット音声信号の認識結果は、前記特性パラメータ及び前記の認識のためのモデルに基づいて決定され、
前記特性パラメータを決定するステップは、前記基準音声信号が前記ユーザ端末に入力されるときの環境情報に基づいて、前記特性パラメータをタイプごとに決定する、
認識方法。 - 前記特性パラメータは、前記モデルに入力される前記ターゲット音声信号の特徴ベクトルに適用され、前記モデルから分類するためのクラス情報を含む、請求項1に記載の認識方法。
- 前記特性パラメータは、前記ターゲット音声信号の特徴ベクトルを正規化するための正規化情報を含み、
前記ターゲット音声信号の認識結果は、前記モデルに入力される前記ターゲット音声信号の特徴ベクトルを、前記正規化情報に基づいて正規化することによって決定される、請求項1に記載の認識方法。 - 前記特性パラメータは、前記ユーザの音声的な特徴を示す識別情報を含み、
前記ターゲット音声信号の認識結果は、前記モデルに前記ターゲット音声信号の特徴ベクトルと共に識別情報を入力することにより決定される、請求項1に記載の認識方法。 - 前記特性パラメータは、前記モデルから分類するためのクラス情報を含み、
前記ターゲット音声信号の認識結果は、前記モデルにおいて前記ターゲット音声信号の特徴ベクトルから推定される値を前記クラス情報と比較することによって決定される、請求項1に記載の認識方法。 - 前記環境情報は、前記基準音声信号に含まれるノイズ情報と、前記ユーザ端末から前記基準音声信号を発話したユーザまでの距離情報とのうち少なくとも一方を含む、請求項1に記載の認識方法。
- 前記ターゲット音声信号の認識結果は、前記基準音声信号が入力されるときの環境情報に基づいて、タイプごとに予め決定された特性パラメータのうち前記ターゲット音声信号が入力されるときの環境情報に基づいて選択された特性パラメータを用いて決定される、請求項1に記載の認識方法。
- 前記特性パラメータを決定するステップは、複数のユーザを基準として決定された基本パラメータに前記基準音声信号から取得した個人パラメータを反映することにより前記特性パラメータを決定する、請求項1に記載の認識方法。
- 前記基準音声信号は、前記ターゲット音声信号が前記ユーザ端末に入力される以前に前記ユーザが前記ユーザ端末を用いることで前記ユーザ端末に入力された音声信号である、請求項1に記載の認識方法。
- 前記ターゲット音声信号と前記特性パラメータをサーバに送信するステップと、
前記サーバから前記ターゲット音声信号の認識結果を受信するステップと、
を更に含み、
前記ターゲット音声信号の認識結果は前記サーバで生成される、請求項1に記載の認識方法。 - 前記ターゲット音声信号の認識結果は前記ユーザ端末で生成される、請求項1に記載の認識方法。
- ユーザ端末に入力されたターゲット音声信号を認識するサーバの認識方法において、
ユーザから入力された基準音声信号に基づいて決定された前記ユーザの音声に個人化された特性パラメータを、前記ユーザ端末から受信するステップと、
認識の対象となる前記ユーザのターゲット音声信号を前記ユーザ端末から受信するステップと、
前記特性パラメータ及び前記の認識のためのモデルに基づいて、前記ターゲット音声信号を認識するステップと、
前記ターゲット音声信号の認識結果を前記ユーザ端末に送信するステップと、
を含み、
前記特性パラメータは、前記基準音声信号が前記ユーザ端末に入力されるときの環境情報に基づいて、タイプごとに予め決定される、
認識方法。 - 前記特性パラメータは、前記ターゲット音声信号を正規化するための正規化情報、前記ユーザの音声的な特徴を示す識別情報、及び前記モデルから分類するためのクラス情報のうち少なくとも1つを含む、請求項12に記載の認識方法。
- 前記特性パラメータは、前記ターゲット音声信号を正規化するための正規化情報を含み、
前記ターゲット音声信号を認識するステップは、前記ターゲット音声信号の特徴ベクトルを前記正規化情報に基づいて正規化し、前記モデルを用いて前記正規化された特徴ベクトルから前記認識結果を取得する、請求項12に記載の認識方法。 - 前記特性パラメータは、前記ユーザの音声的な特徴を示す識別情報を含み、
前記ターゲット音声信号を認識するステップは、前記ターゲット音声信号の特徴ベクトルと共に前記識別情報を前記モデルに入力し、前記モデルから前記認識結果を取得する、請求項12に記載の認識方法。 - 前記特性パラメータは、前記モデルから分類するためのクラス情報を含み、
前記ターゲット音声信号を認識するステップは、前記モデルにおいて前記ターゲット音声信号の特徴ベクトルから推定される値を前記クラス情報と比較することによって前記ターゲット音声信号を認識する、請求項12に記載の認識方法。 - 前記特性パラメータは、前記タイプごとに予め決定された特性パラメータのうち、前記ターゲット音声信号が前記ユーザ端末に入力されるときの環境情報に基づいて選択された特性パラメータである、請求項12に記載の認識方法。
- 請求項1乃至請求項17のいずれか一項に記載の方法を実行させるためのプログラムが記録されたコンピュータ読取可能な記録媒体。
- プロセッサと、
前記プロセッサによって実行可能な少なくとも1つの命令語を含むメモリと、
を含む、ユーザ端末であって、
前記少なくとも1つの命令語が前記プロセッサで実行されると、前記プロセッサは、ユーザから入力された基準音声信号に基づいて前記ユーザの音声に個人化された特性パラメータを決定し、前記ユーザから認識の対象となるターゲット音声信号が入力され、前記ターゲット音声信号の認識結果を出力し、
前記ターゲット音声信号の認識結果は、前記特性パラメータ及び前記の認識のためのモデルに基づいて決定され、
前記特性パラメータを決定することは、前記基準音声信号が前記ユーザ端末に入力されるときの環境情報に基づいて、前記特性パラメータをタイプごとに決定する、
ユーザ端末。 - 個別ユーザの基準音声信号に基づいて前記個別ユーザの音声に個人化された特性パラメータを決定するステップと、
複数のユーザに対して決定された基本音声認識モデルに前記特性パラメータを適用して前記個別ユーザに個人化された音声認識モデルを取得するステップと、
前記個人化された音声認識モデルに前記個別ユーザのターゲット音声信号を適用して前記ターゲット音声信号の認識結果を取得するステップと、
を含み、
前記特性パラメータを決定するステップは、前記個別ユーザによって基準音声信号が入力されるごとに前記特性パラメータを累積して決定する、
音声認識方法。 - 前記基準音声信号から前記個別ユーザに対して決定された個人パラメータを取得するステップと、
前記個人パラメータに第1加重値を適用して加重された個人パラメータを取得するステップと、
複数のユーザに対して決定された基本パラメータに第2加重値を適用して加重された基本パラメータを取得するステップと、
前記加重された個人パラメータを前記加重された基本パラメータに追加して前記特性パラメータを取得するステップと、
を更に含む、請求項20に記載の音声認識方法。 - 前記基準音声信号及び前記ターゲット音声信号は、前記個別ユーザによってユーザ端末に入力される、請求項21に記載の音声認識方法。
- ユーザ端末において、個別ユーザによって前記ユーザ端末に入力された基準音声信号に基づいたパラメータを決定するステップと、
前記基準音声信号に基づいたパラメータ及び認識の対象となる前記個別ユーザのターゲット音声信号を前記ユーザ端末からサーバに送信するステップと、
前記ユーザ端末において、前記ターゲット音声信号の認識結果を前記サーバから受信するステップと、
を含み、
前記ターゲット音声信号の認識結果は、前記基準音声信号に基づいた前記パラメータ及び複数のユーザに対して決定された基本音声認識モデルに基づいて前記サーバで決定される、音声認識方法。 - 前記基準音声信号に基づいたパラメータを決定するステップは、前記基準音声信号から前記個別ユーザに対して決定された個人パラメータを取得し、
前記送信するステップは、前記個人パラメータ及び前記ターゲット音声信号を前記ユーザ端末から前記サーバに送信し、
前記基準音声信号に基づいたパラメータは、前記サーバで前記個人パラメータに第1加重値を適用して加重された個人パラメータを取得し、基本パラメータに第2加重値を適用して加重された基本パラメータを取得し、前記加重された個人パラメータを前記加重された基本パラメータに追加して前記基準音声信号に基づいた前記パラメータを取得することにより取得される、請求項23に記載の音声認識方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0103052 | 2017-08-14 | ||
KR1020170103052A KR102413282B1 (ko) | 2017-08-14 | 2017-08-14 | 개인화된 음성 인식 방법 및 이를 수행하는 사용자 단말 및 서버 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019035941A JP2019035941A (ja) | 2019-03-07 |
JP7173758B2 true JP7173758B2 (ja) | 2022-11-16 |
Family
ID=62186265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018101565A Active JP7173758B2 (ja) | 2017-08-14 | 2018-05-28 | 個人化された音声認識方法及びこれを行うユーザ端末及びサーバ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190051288A1 (ja) |
EP (1) | EP3444809B1 (ja) |
JP (1) | JP7173758B2 (ja) |
KR (1) | KR102413282B1 (ja) |
CN (1) | CN109410916B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832672B2 (en) | 2018-07-13 | 2020-11-10 | International Business Machines Corporation | Smart speaker system with cognitive sound analysis and response |
US10832673B2 (en) * | 2018-07-13 | 2020-11-10 | International Business Machines Corporation | Smart speaker device with cognitive sound analysis and response |
KR102225984B1 (ko) * | 2018-09-03 | 2021-03-10 | 엘지전자 주식회사 | 음성 인식 서비스를 제공하는 서버 |
US11605379B2 (en) * | 2019-07-11 | 2023-03-14 | Lg Electronics Inc. | Artificial intelligence server |
CN112242142B (zh) * | 2019-07-17 | 2024-01-30 | 北京搜狗科技发展有限公司 | 一种语音识别输入的方法及相关装置 |
KR20190107622A (ko) | 2019-09-02 | 2019-09-20 | 엘지전자 주식회사 | 이동형 에이젼트를 이용한 실시간 음성 인식 모델 업데이트 방법 및 장치 |
KR20210031265A (ko) * | 2019-09-11 | 2021-03-19 | 삼성전자주식회사 | 전자 장치 및 그 동작방법 |
KR102327441B1 (ko) * | 2019-09-20 | 2021-11-17 | 엘지전자 주식회사 | 인공지능 장치 |
CN110827819A (zh) * | 2019-11-26 | 2020-02-21 | 珠海格力电器股份有限公司 | 家居设备控制方法及控制*** |
US11120805B1 (en) * | 2020-06-19 | 2021-09-14 | Micron Technology, Inc. | Intelligent microphone having deep learning accelerator and random access memory |
CN111554300B (zh) * | 2020-06-30 | 2021-04-13 | 腾讯科技(深圳)有限公司 | 音频数据处理方法、装置、存储介质及设备 |
CN112839107B (zh) * | 2021-02-25 | 2023-04-18 | 北京梧桐车联科技有限责任公司 | 推送内容的确定方法、装置、设备及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003122388A (ja) | 2001-10-10 | 2003-04-25 | Canon Inc | 音響モデル作成装置および方法、音声認識装置 |
JP2006215315A (ja) | 2005-02-04 | 2006-08-17 | Kddi Corp | 音声認識装置、音声認識端末装置、音声認識システム及びコンピュータプログラム |
JP2011203434A (ja) | 2010-03-25 | 2011-10-13 | Fujitsu Ltd | 音声認識装置及び音声認識方法 |
WO2013169232A1 (en) | 2012-05-08 | 2013-11-14 | Nuance Communications, Inc. | Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition |
US20150269931A1 (en) | 2014-03-24 | 2015-09-24 | Google Inc. | Cluster specific speech model |
JP2016102820A (ja) | 2014-11-27 | 2016-06-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音響モデルを改善する方法、並びに、音響モデルを改善する為のコンピュータ及びそのコンピュータ・プログラム |
US20170069314A1 (en) | 2015-09-09 | 2017-03-09 | Samsung Electronics Co., Ltd. | Speech recognition apparatus and method |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852181A (en) * | 1985-09-26 | 1989-07-25 | Oki Electric Industry Co., Ltd. | Speech recognition for recognizing the catagory of an input speech pattern |
JP3001037B2 (ja) * | 1995-12-13 | 2000-01-17 | 日本電気株式会社 | 音声認識装置 |
US6768979B1 (en) * | 1998-10-22 | 2004-07-27 | Sony Corporation | Apparatus and method for noise attenuation in a speech recognition system |
US6823312B2 (en) * | 2001-01-18 | 2004-11-23 | International Business Machines Corporation | Personalized system for providing improved understandability of received speech |
FR2835087B1 (fr) * | 2002-01-23 | 2004-06-04 | France Telecom | Personnalisation de la presentation sonore de messages synthetises dans un terminal |
US20030233233A1 (en) * | 2002-06-13 | 2003-12-18 | Industrial Technology Research Institute | Speech recognition involving a neural network |
DE102004017486A1 (de) * | 2004-04-08 | 2005-10-27 | Siemens Ag | Verfahren zur Geräuschreduktion bei einem Sprach-Eingangssignal |
KR100717401B1 (ko) * | 2006-03-02 | 2007-05-11 | 삼성전자주식회사 | 역방향 누적 히스토그램을 이용한 음성 특징 벡터의 정규화방법 및 그 장치 |
US8195460B2 (en) * | 2008-06-17 | 2012-06-05 | Voicesense Ltd. | Speaker characterization through speech analysis |
US8600741B2 (en) * | 2008-08-20 | 2013-12-03 | General Motors Llc | Method of using microphone characteristics to optimize speech recognition performance |
US9679561B2 (en) * | 2011-03-28 | 2017-06-13 | Nuance Communications, Inc. | System and method for rapid customization of speech recognition models |
US20150149167A1 (en) * | 2011-03-31 | 2015-05-28 | Google Inc. | Dynamic selection among acoustic transforms |
US8837687B2 (en) * | 2011-07-14 | 2014-09-16 | Intellisist, Inc. | Computer-implemented system and method for matching agents with callers in an automated call center environment based on user traits |
EP2834812A4 (en) * | 2012-04-02 | 2016-04-27 | Dixilang Ltd | CLIENT SERVER ARCHITECTURE FOR AUTOMATIC LANGUAGE RECOGNITION APPLICATIONS |
KR101961139B1 (ko) * | 2012-06-28 | 2019-03-25 | 엘지전자 주식회사 | 이동 단말기 및 그것의 음성 인식 방법 |
US8935167B2 (en) * | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
US9190057B2 (en) * | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
US10049658B2 (en) * | 2013-03-07 | 2018-08-14 | Nuance Communications, Inc. | Method for training an automatic speech recognition system |
US9378729B1 (en) * | 2013-03-12 | 2016-06-28 | Amazon Technologies, Inc. | Maximum likelihood channel normalization |
US9190055B1 (en) * | 2013-03-14 | 2015-11-17 | Amazon Technologies, Inc. | Named entity recognition with personalized models |
US9747899B2 (en) * | 2013-06-27 | 2017-08-29 | Amazon Technologies, Inc. | Detecting self-generated wake expressions |
WO2015005679A1 (ko) * | 2013-07-09 | 2015-01-15 | 주식회사 윌러스표준기술연구소 | 음성 인식 방법, 장치 및 시스템 |
US10049656B1 (en) * | 2013-09-20 | 2018-08-14 | Amazon Technologies, Inc. | Generation of predictive natural language processing models |
CN103578474B (zh) * | 2013-10-25 | 2017-09-12 | 小米科技有限责任公司 | 一种语音控制方法、装置和设备 |
US10199035B2 (en) * | 2013-11-22 | 2019-02-05 | Nuance Communications, Inc. | Multi-channel speech recognition |
US20150162004A1 (en) * | 2013-12-09 | 2015-06-11 | Erwin Goesnar | Media content consumption with acoustic user identification |
KR102146462B1 (ko) * | 2014-03-31 | 2020-08-20 | 삼성전자주식회사 | 음성 인식 시스템 및 방법 |
WO2016015687A1 (zh) * | 2014-07-31 | 2016-02-04 | 腾讯科技(深圳)有限公司 | 声纹验证方法及装置 |
US9530408B2 (en) * | 2014-10-31 | 2016-12-27 | At&T Intellectual Property I, L.P. | Acoustic environment recognizer for optimal speech processing |
KR102585228B1 (ko) * | 2015-03-13 | 2023-10-05 | 삼성전자주식회사 | 음성 인식 시스템 및 방법 |
EP3067884B1 (en) * | 2015-03-13 | 2019-05-08 | Samsung Electronics Co., Ltd. | Speech recognition system and speech recognition method thereof |
WO2016200381A1 (en) * | 2015-06-10 | 2016-12-15 | Nuance Communications, Inc. | Motion adaptive speech recognition for enhanced voice destination entry |
KR20170034227A (ko) * | 2015-09-18 | 2017-03-28 | 삼성전자주식회사 | 음성 인식 장치 및 방법과, 음성 인식을 위한 변환 파라미터 학습 장치 및 방법 |
US20170098192A1 (en) * | 2015-10-02 | 2017-04-06 | Adobe Systems Incorporated | Content aware contract importation |
WO2017112813A1 (en) * | 2015-12-22 | 2017-06-29 | Sri International | Multi-lingual virtual personal assistant |
US10373612B2 (en) * | 2016-03-21 | 2019-08-06 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
US10187394B2 (en) * | 2016-03-31 | 2019-01-22 | Microsoft Technology Licensing, Llc | Personalized inferred authentication for virtual assistance |
US11455985B2 (en) * | 2016-04-26 | 2022-09-27 | Sony Interactive Entertainment Inc. | Information processing apparatus |
CN107492382B (zh) * | 2016-06-13 | 2020-12-18 | 阿里巴巴集团控股有限公司 | 基于神经网络的声纹信息提取方法及装置 |
CN107564513B (zh) * | 2016-06-30 | 2020-09-08 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
US10325601B2 (en) * | 2016-09-19 | 2019-06-18 | Pindrop Security, Inc. | Speaker recognition in the call center |
-
2017
- 2017-08-14 KR KR1020170103052A patent/KR102413282B1/ko active IP Right Grant
-
2018
- 2018-02-07 US US15/891,260 patent/US20190051288A1/en not_active Abandoned
- 2018-05-09 CN CN201810436268.8A patent/CN109410916B/zh active Active
- 2018-05-15 EP EP18172427.9A patent/EP3444809B1/en active Active
- 2018-05-28 JP JP2018101565A patent/JP7173758B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003122388A (ja) | 2001-10-10 | 2003-04-25 | Canon Inc | 音響モデル作成装置および方法、音声認識装置 |
JP2006215315A (ja) | 2005-02-04 | 2006-08-17 | Kddi Corp | 音声認識装置、音声認識端末装置、音声認識システム及びコンピュータプログラム |
JP2011203434A (ja) | 2010-03-25 | 2011-10-13 | Fujitsu Ltd | 音声認識装置及び音声認識方法 |
WO2013169232A1 (en) | 2012-05-08 | 2013-11-14 | Nuance Communications, Inc. | Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition |
US20150269931A1 (en) | 2014-03-24 | 2015-09-24 | Google Inc. | Cluster specific speech model |
JP2016102820A (ja) | 2014-11-27 | 2016-06-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 音響モデルを改善する方法、並びに、音響モデルを改善する為のコンピュータ及びそのコンピュータ・プログラム |
US20170069314A1 (en) | 2015-09-09 | 2017-03-09 | Samsung Electronics Co., Ltd. | Speech recognition apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
EP3444809B1 (en) | 2020-09-23 |
JP2019035941A (ja) | 2019-03-07 |
CN109410916A (zh) | 2019-03-01 |
CN109410916B (zh) | 2023-12-19 |
KR20190018282A (ko) | 2019-02-22 |
KR102413282B1 (ko) | 2022-06-27 |
EP3444809A1 (en) | 2019-02-20 |
US20190051288A1 (en) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7173758B2 (ja) | 個人化された音声認識方法及びこれを行うユーザ端末及びサーバ | |
US11475881B2 (en) | Deep multi-channel acoustic modeling | |
US11978440B2 (en) | Wakeword detection | |
US10607597B2 (en) | Speech signal recognition system and method | |
US9412361B1 (en) | Configuring system operation using image data | |
US11132509B1 (en) | Utilization of natural language understanding (NLU) models | |
US11189277B2 (en) | Dynamic gazetteers for personalized entity recognition | |
JP7171532B2 (ja) | 音声を認識する装置及び方法、音声認識モデルをトレーニングする装置及び方法 | |
US10854191B1 (en) | Machine learning models for data driven dialog management | |
US11574628B1 (en) | Deep multi-channel acoustic modeling using multiple microphone array geometries | |
US20190081949A1 (en) | Proactively limiting functionality | |
US11574637B1 (en) | Spoken language understanding models | |
KR20160010961A (ko) | 컨텍스트 정보를 이용하는 음성 인식 방법 및 장치 | |
US11393473B1 (en) | Device arbitration using audio characteristics | |
US20240013784A1 (en) | Speaker recognition adaptation | |
KR20190093962A (ko) | 화자 인식을 수행하기 위한 음성 신호 처리 방법 및 그에 따른 전자 장치 | |
US20220375469A1 (en) | Intelligent voice recognition method and apparatus | |
CN112639965A (zh) | 在包括多个设备的环境中的语音识别方法和设备 | |
JP2024510798A (ja) | ハイブリッド多言語テキスト依存およびテキスト非依存の話者検証 | |
US20240071408A1 (en) | Acoustic event detection | |
US10950231B1 (en) | Skill enablement | |
CN112037772A (zh) | 基于多模态的响应义务检测方法、***及装置 | |
KR20200017160A (ko) | 음성을 인식하는 장치, 방법 및 컴퓨터 판독 가능 매체 | |
KR20200066149A (ko) | 사용자 인증 방법 및 장치 | |
US11790898B1 (en) | Resource selection for processing user inputs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7173758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |