JP2020086437A - 音声認識方法及び音声認識装置 - Google Patents

音声認識方法及び音声認識装置 Download PDF

Info

Publication number
JP2020086437A
JP2020086437A JP2019183896A JP2019183896A JP2020086437A JP 2020086437 A JP2020086437 A JP 2020086437A JP 2019183896 A JP2019183896 A JP 2019183896A JP 2019183896 A JP2019183896 A JP 2019183896A JP 2020086437 A JP2020086437 A JP 2020086437A
Authority
JP
Japan
Prior art keywords
score
weight value
voice
language model
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019183896A
Other languages
English (en)
Other versions
JP7452968B2 (ja
Inventor
知▲ひょん▼ 李
Jihyun Lee
知▲ひょん▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020086437A publication Critical patent/JP2020086437A/ja
Application granted granted Critical
Publication of JP7452968B2 publication Critical patent/JP7452968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 音声認識方法及び音声認識装置において音声認識結果の正確度を改善すること。【解決手段】 音声認識方法は、音声入力に基づいて候補テキストに対する第1スコアを決定するステップと、音声入力に基づいて言語モデルの出力に適用される加重値を決定するステップと、加重値が適用された第2スコアを取得するために、言語モデルから出力された前記候補テキストに対する第2スコアに加重値を適用するステップと、第1スコアと加重値が適用された第2スコアとに基づいて前記候補テキストのうちターゲット候補テキストを選択するステップと、選択されたターゲット候補テキストを音声入力の少なくとも一部に対応するターゲットテキストとして決定するステップとを含む。【選択図】 図2

Description

本発明の実施形態は、音声認識技術に関する。
音声認識技術は、人がコミュニケーションするために話す音声をコンピュータが解釈して文字データに変換する技術であり、便利さを所望するユーザの要求に応じて急速に発展している。最近、ニューラルネットワーク(neural network)を用いて音声認識を行う技術が盛んに研究されている。ニューラルネットワークは、人の生物学的な神経細胞の特性を数学的な表現によってモデリングしたモデルであり、人が有している学習という能力を模倣したアルゴリズムを用いる。ニューラルネットワークは、学習された結果に基づいて学習に利用されていない入力パターンに対して比較的に正しい出力を生成することのできる一般化能力を有し、このような一般化能力の長所により音声認識技術の分野でニューラルネットワークが幅広く利用されている。
本発明の目的は、音声認識技術を提供することにある。
一実施形態に係る音声認識方法は、音声入力に基づいて候補テキストに対する第1スコアを決定するステップと、前記音声入力に基づいて言語モデルの出力に適用される加重値を決定するステップと、加重値が適用された第2スコアを取得するために、前記言語モデルから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用するステップと、前記第1スコアと前記加重値が適用された第2スコアとに基づいて、前記候補テキストのうちターゲット候補テキストを選択するステップと、前記選択されたターゲット候補テキストを前記音声入力の少なくとも一部に対応するターゲットテキストとして決定するステップとを含む。
前記加重値を決定するステップは、前記音声入力と以前時点で決定されたターゲットテキストに基づいて、現在時点で前記言語モデルの出力に適用される加重値を決定するステップを含み得る。
前記以前時点で決定されたターゲットテキストは、音声認識の開始時点から前記現在時点のすぐ以前時点まで決定された1つ以上のターゲットテキストのうちの1つ又はいずれかの組合せを含み得る。
前記加重値を決定するステップは、前記音声入力及びコンテキスト情報に基づいて前記加重値を決定するステップを含み得る。
前記加重値を決定するステップは、前記音声入力、以前時点で決定されたターゲットテキスト及びコンテキスト情報に基づいて、現在時点で前記言語モデルの出力に適用される加重値を決定するステップを含み得る。
前記加重値を決定するステップは、前記音声入力から特徴値を抽出するステップと、前記加重値を決定するためにニューラルネットワーク基盤の加重値決定器に前記特徴値を提供するステップとを含み得る。
前記ターゲット候補テキストを選択するステップは、前記候補テキストのうち前記第1スコアと前記加重値が適用された第2スコアの合計が最も大きい候補テキストを前記ターゲット候補テキストとして選択するステップを含み得る。
前記第1スコアを決定するステップは、ニューラルネットワーク基盤のエンコーダを用いて前記音声入力から特徴値を抽出するステップと、ニューラルネットワーク基盤のデコーダを用いて前記抽出された特徴値から前記候補テキストそれぞれに対する第1スコアを決定するステップとを含み得る。
前記言語モデルは、複数の言語モデルを含み、前記加重値を決定するステップは、前記複数の言語モデルそれぞれの出力に適用される加重値を決定し得る。
前記複数の言語モデルは、第1言語モデル及び第2言語モデルを含み、前記第1言語モデルは、前記候補テキストに対する第2スコアを出力し、前記第2言語モデルは、前記候補テキストに対する第3スコアを出力し、前記加重値を決定するステップは、前記第2スコアに適用される第1加重値と前記第3スコアに適用される第2加重値とを決定し、前記ターゲット候補テキストを選択するステップは、前記第1スコア、前記第1加重値が適用された第2スコア及び前記第2加重値が適用された第3スコアに基づいて、前記候補テキストのうち前記ターゲット候補テキストを選択するステップを含み得る。
前記言語モデルは、複数の言語モデルを含み、前記加重値を決定するステップは、前記複数の言語モデルのうち前記加重値が適用される1つ以上の言語モデルを選択するステップと、前記選択された1つ以上の言語モデルの出力に適用される加重値を決定するステップとを含み得る。
前記言語モデルは、以前時点で決定されたターゲットテキストに基づいて前記以前時点で決定されたターゲットテキストに続く次のターゲットテキストを決定するための各候補テキストに対応する第2スコアを出力し得る。
前記第1スコアを決定するステップは、以前の時間区間におけるニューラルネットワーク基盤のデコーダの出力及び前記音声入力に基づいて前記第1スコアを決定するステップを含み得る。
前記言語モデルは、複数の言語モデルを含み、前記言語モデルそれぞれの加重値は、前記音声入力のタイプに基づいて動的に調整され得る。
前記音声入力のタイプは、前記音声入力のコンテキスト、前記音声認識が実行される環境、前記音声入力に含まれた単語のタイプ、前記音声認識が実行される装置のタイプ、及び前記音声入力が実行される音声のタイプのいずれか1つ又はいずれかの組合せあり得る。
一実施形態に係る音声認識装置は、ユーザから音声入力を受信する音声インタフェースと、前記音声入力に基づいて音声認識を行うプロセッサと、を含み、前記プロセッサは、前記音声入力に基づいて候補テキストに対する第1スコアを決定し、前記音声入力に基づいて言語モデルの出力に適用される加重値を決定し、加重値が適用された第2スコアを取得するために、前記言語モデルから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用し、前記第1スコアと前記加重値が適用された第2スコアとに基づいて、前記候補テキストのうちターゲット候補テキストを選択し、前記選択されたターゲット候補テキストを前記音声入力の少なくとも一部に対応するターゲットテキストとして決定する。
他の実施形態に係る音声認識装置は、音声を受信するセンサと、言語モデル及び命令を格納するメモリと、前記命令を実行するプロセッサと、を含み、前記プロセッサは、前記命令を行うことによって、前記音声を符号化することをエンコーダに実行させ、前記符号化された音声に基づいて候補テキストの第1スコアを決定することをデコーダに実行させ、前記エンコーダの出力に基づいて前記言語モデルそれぞれに対応する加重値を決定することを加重値決定器に実行させ、前記言語モデルそれぞれに基づいて前記候補テキストに対応する第2スコアを決定し、加重値が適用された第2スコアを取得するために、前記言語モデルそれぞれから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用し、前記候補テキストのうち、前記第1スコアの合計及び前記ターゲット候補テキストに対応する加重値が適用された第2スコアに基づいて前記音声の一部に対応するターゲット候補テキストを認識する。
前記エンコーダは前記音声から特徴値を抽出し、前記デコーダは、前記特徴値に基づいて前記第1スコアと前記候補テキストを出力し得る。
前記加重値決定器は、前記音声のうちユーザ名が検出されたことに応答して、前記音声認識装置を実行する装置に格納された連絡先情報に対応する言語モデルの加重値を増加させ得る。
前記加重値決定器は、以前に決定されたターゲットテキスト及び前記エンコーダの出力に基づいて前記加重値を決定し得る。
前記加重値決定器は、前記エンコーダの出力及びコンテキスト情報に基づいて前記加重値を決定し、前記コンテキスト情報は、前記音声を入力するユーザに対するユーザ情報、時間情報、位置情報、言語情報、音声認識ヒストリー情報、及び現在動作中であるアプリケーション情報のいずれか1つ又はいずれかの組合せを含み得る。
前記エンコーダ、前記デコーダ、及び前記加重値決定器のそれぞれは、ニューラルネットワークに基づいて実行される。
一実施形態によれば、音声認識が実行される状況やドメインにより1つ以上の言語モデルの出力に適用される加重値を動的に決定することによって音声認識結果の正確度を改善させることができる。
一実施形態によれば、状況により変わるユーザの発話タイプに応じて適切な言語モデルを選択したり、各言語モデルの影響を適切に調整することによって、音声認識結果の正確度を改善させることができる。
一実施形態に係る音声認識システムの概要(overview)を提供する図である。 一実施形態に係る音声認識方法の動作を説明するためのフローチャートである。 一実施形態に係る音声認識の過程を説明するための図である。 一実施形態に係る音声認識の過程を説明するための図である。 一実施形態に係る音声認識の過程を説明するための図である。 他の実施形態に係る音声認識の過程を説明するための図である。 他の実施形態に係る音声認識の過程を説明するための図である。 更なる実施形態に係る音声認識の過程を説明するための図である。 更なる実施形態に係る音声認識の過程を説明するための図である。 更なる実施形態に係る音声認識の過程を説明するための図である。 一実施形態に係る音声認識装置の構成を示す図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
本明細書で用いられる用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付の図面を参照して詳説する。添付図面を参照して説明することにおいて、図面符号に関わらず同じ構成要素は同じ参照符号を付与し、これに関する重複説明は省略することにする。
図1は、一実施形態に係る音声認識システムの概要を提供する図である。
図1を参照すると、音声認識システム100は、サーバを含む1つ以上のコンピュータ又はユーザ端末で実行される。一実施形態に係るユーザは、音声入力120を介して特定のコマンドを音声認識システム100に指示し、音声認識システム100は、ユーザの音声入力120を分析して音声入力120に対応するテキスト140、例えば「Call to Jane」を推定する。音声認識システム100は、推定されたテキスト140からテキスト140に含まれているユーザのコマンドを抽出し、抽出されたコマンドを実行して実行結果をユーザに提供する。音声入力120は、単語シーケンスを含んでもよく、それぞれの単語シーケンスは単語(word)、句(phrase)、又は、文章(sentence)を含む。音声認識システム100は、上記のようにユーザの音声入力120に含まれたコマンドを認識する他に、機械翻訳及び人−機械間の対話などの様々な応用で活用されることができる。
音声認識システム100は、ユーザから音声入力120を受信し、音声入力120をテキスト140に変換するようにプログラムされた音声認識装置110を含む。音声認識装置110は音声入力を認識し、音声入力に対応するテキストデータを生成する。音声認識装置110は、音声入力に含まれた単語をテキストに変換するように構成されたソフトウェアモジュール、ハードウェアモジュール、又はその組合で実現される。一実施形態によれば、音声認識装置110は、モバイルフォン、セルラーフォン、スマートフォン、パーソナルコンピュータ、ラップトップ、ノート型パソコン、ネットブック、又はタブレット、携帯情報端末(personal digital assistant;PDA)、デジタルカメラ、ゲームコンソール、MP3プレーヤー、パーソナルマルチメディアプレーヤー(personal multimedia player;PMP)、電子ブック(E−Book)、ナビゲーション、ディスクプレーヤー、セットトップボックス、家庭用電子機器(home appliance)、通信装置、ディスプレイ装置、又は、その他の電子機器に内蔵されたり、又はそれと相互動作する。また、音声認識装置110は、スマート家電機器、知能型車両、自律走行装置、スマートホーム環境、スマートビルディング環境、スマートオフィス環境、スマート電子セキュリティーシステムなどに内蔵されたり、又はそれと相互動作する。また、音声認識装置110は、ユーザの体に着用されるウェアラブル機器(wearable device)に含まれて動作したり、これと相互作用する。ウェアラブル機器は、例えば、指輪、時計、メガネ、腕輪、ベルト、バンド、ネックレス、イヤリング、ヘルメット、又は服の形態を有する。
音声認識装置110は、音声認識結果の正確度を改善させるために言語モデルデータベース130に格納された言語モデルを用いる。言語モデルは、自然語処理エンジンを構成するコンポーネントとして、音声入力の認識結果が自然な自然語表現になるよう重要な役割を行う。言語モデルは、それぞれの部分単語(subword)、単語(word)、句(phrase)及び/又は文章に関する確率値を提供し、音声認識装置110は、このような言語モデルが提供するテキスト表現と該当テキスト表現の確率値に基づいて音声認識結果を決定することができる。音声認識のために1つ又は数個の言語モデルが用いられる。音声認識に用いられる言語モデルとして、例えば、音声入力のドメインに独立的な一般言語モデル、各ドメインごとに主に用いられるスピーチ表現が含まれたコーパス(corpus)で学習された言語モデル、及びユーザ情報やスマートフォンのようなユーザ端末に格納された情報(例、連絡先)に基づいた個人化された言語モデル(personalized language model;PLM)があり得る。
音声認識が実行される状況やドメインに応じてユーザの発話(speech)タイプと音声入力に含まれる単語やスピーチパターンが異なることがある。例えば、TVで用いられる音声認識の場合、音声入力は、主に「番組検索」、「チャネル選択」又は「ボリューム調整」のようなTVの機能に関する発話が多いのであろう。スマートフォンで用いられる音声認識の場合、音声入力は、主にスマートフォンの機能に関する発話が多いのであろう。また、ユーザが音声認識を介してスマートフォンでSMS(short message service)を利用したり、地図で特定の食堂の位置を検索したり、又は、友人に電話しようとしたりに応じて、音声入力に含まれる単語やスピーチパターンが変わり得る。したがって、音声認識では、音声認識が実行されるドメインで状況に応じて言語モデルを適切に使用する場合に音声認識の性能を保障することができる。
スマートフォン又は様々な家電機器を統合的に管理するスマートホームのように、ユーザの発話に対する様々なドメインを考慮して音声認識を行わなければならない場合、発話タイプに応じて、言語モデルの影響を調整することが求められる。例えば、ユーザが音声認識を介してスマートフォン上で特定の友人に電話しようとする場合、ユーザの音声入力により該当友人の名前をスムーズに区別するため、個人化された言語モデルの影響を高く設定することが好ましい。異なる例として、ユーザが音声認識によりスマートフォンで特定のアプリケーションを実行しようとする場合、音声認識結果を決定することにおいて、スマートフォンに関する言語モデルの影響を高く設定することが好ましい。
本明細書で説明される実施形態は、音声認識が実行される状況やドメインにより1つ以上の言語モデルの出力に適用される加重値を動的に決定することによって、より正確な音声認識結果が導き出されるようにする技術的手段を提供することができる。例えば、音声認識装置110は、音声入力に基づいて音声入力のドメインを分類し、分類されたドメインにより言語モデルの出力に適用される結合加重値を調整することで、音声入力のドメインでも状況に応じて音声認識結果に及ぼす言語モデルの影響を効率よく調整することができる。
図2は、一実施形態に係る音声認識方法の動作を説明するためのフローチャートである。音声認識方法は、本明細書で説明される音声認識装置によって実行される。
図2を参照すると、ステップS210において、音声認識装置は、音声入力を受信する。ユーザは、音声命令のためにマイクロホンのような音声インタフェースを介して音声を入力し、入力された音声の音声信号は音声認識装置に伝えられる。
ステップS220において、音声認識装置は、音声入力に基づいて候補テキストに対する第1スコアを決定する。例えば、音声認識装置は、現在の分析対象になる音声入力の部分が候補テキスト「call」に該当する第1スコア、及び候補テキスト「send」に該当する第1スコアを決定する。音声認識装置は、「call」及び「send」の他の候補テキストそれぞれに対応する第1スコアを決定する。候補テキストは、様々な部分単語、単語、句、及び/又は文章を含み、第1スコアは、各候補テキストに対応する確率値又は期待値を示す。例えば、候補テキスト「call」に対する第1スコアが0.75であると仮定すれば、これは現在の認識対象となる音声入力の部分がテキスト「call」に該当する確率が0.75(相対的な値)になることを意味する。
一実施形態に係る音声認識装置は、ニューラルネットワーク基盤のエンコーダ−デコーダ言語認識モデルを用いて候補テキストに対する第1スコアを決定することができる。音声認識装置は、以前の時間区間におけるニューラルネットワーク基盤のデコーダの出力及び音声入力に基づいて第1スコアを決定する。音声認識装置は、エンコーダを用いて音声入力から特徴値(例、特徴ベクトル)を抽出し、デコーダを用いて該当抽出された特徴値から候補テキストそれぞれに対する第1スコアを決定する。エンコーダは、音声入力を抽象化された特徴ベクトルに変換し、デコーダは、該当特徴ベクトルに基づいて候補テキストに対する確率値又は期待値を決定する。
以下では、説明の便宜のためにエンコーダ−デコーダ基盤の音声認識モデルを中心に実施形態について説明するが、実施形態の範囲がエンコーダ−デコーダ基盤の音声認識モデルを用いる実施形態に限定されることはない。例えば、音声認識装置は、音響モデルと基本言語モデルを含む言語認識モデルを用いて候補テキストに対する第1スコアを決定してもよい。音響モデルは、音声入力から抽出された特徴に基づいて音声入力を音素(phoneme)単位で認識した結果を出力し、基本言語モデルは、音素単位の認識結果に基づいて単語間の連結関係に基づいた確率情報を第1スコアとして提供する。
ステップS230において、音声認識装置は、音声入力に基づいて言語モデルの出力に適用される加重値を決定する。音声認識装置は、音声入力から特徴値を抽出し、抽出された特徴値に基づいて加重値を決定する。加重値によって言語モデルの出力が言語認識結果に及ぼす程度が調整される。例えば、言語モデルLの出力に適用される加重値が大きいほど、言語モデルLの比重又は依存度が大きくなる。
実施形態により、音声認識に複数の言語モデルが用いられ、この場合に音声認識装置は、言語モデルそれぞれの出力に適用される加重値を決定する。言語モデルそれぞれの加重値は、音声入力のタイプに基づいて動的に調整される。ここで、音声入力のタイプは、例えば、音声入力のコンテキスト、音声認識が実行される環境、音声入力に含まれた単語のタイプ、音声認識が実行される装置のタイプ、及び音声入力が実行される音声のタイプのいずれか1つ又はいずれかの組合せであってもよい。
一実施形態では、言語モデルが候補テキストに対する第2スコアを出力する第1言語モデル、及び候補テキストに対する第3スコアを出力する第2言語モデルを含む場合、音声認識装置は、第2スコアに適用される第1加重値と第3スコアに適用される第2加重値を決定する。他の実施形態において、音声認識装置は、複数の言語モデルのうち加重値が適用される1つ以上の言語モデルを選択し、選択された1つ以上の言語モデルの出力に適用される加重値を決定してもよい。そのため、複数の音声モデルのうち音声認識に必要な言語モデルのみを選択的に利用することで効率性が改善される。
一実施形態に係る音声認識装置は、ニューラルネットワーク基盤のエンコーダ−デコーダ言語認識モデルでエンコーダから出力された特徴値を入力にし、該当の特徴値に対応する加重値を出力するニューラルネットワーク基盤の加重値決定器を用いて加重値を決定することができる。加重値決定器は、エンコーダの出力、以前時点におけるデコーダの出力(すなわち、以前時点における認識結果)及びコンテキスト情報のうちの1つ以上が入力され、1つ以上の言語モデルそれぞれの出力に適用される加重値を提供する。一例として、加重値決定器は、各言語モデルに適用される確率を示すベクトル値を加重値として出力し、出力されたベクトル値は、各言語モデルの反映比率を決定するための結合加重値として用いられる。
一実施形態に係る音声認識装置は、音声入力と以前時点で決定されたターゲットテキストに基づいて、現在時点で言語モデルの出力に適用される加重値を決定する。この場合、加重値決定器には、エンコーダの出力と以前時点で決定されたターゲットテキストに関する情報が入力される。以前時点で決定されたターゲットテキストは、音声認識の開始時点から現在時点のすぐ以前時点まで決定された1つ以上のターゲットテキストのうちの1つ又はいずれかの組合せを含む。ターゲットテキストは、音声入力の少なくとも一部に対応するものとして、最終決定されたテキストを意味する。
他の実施形態において、音声認識装置は、音声入力及びコンテキスト情報に基づいて言語モデルの出力に適用される加重値を決定してもよい。この場合、加重値決定器には、エンコーダの出力と別途のコンテキスト情報が入力される。コンテキスト情報は、ユーザの音声入力に関する全ての情報が該当する。例えば、コンテキスト情報は、音声入力を入力するユーザに対するユーザ情報(例、性別、年齢、国籍、アドレス、職場、職業など)、時間情報、位置情報、言語情報、音声認識ヒストリー情報、及び現在動作中であるアプリケーション情報のいずれか1つ又はいずれかの組合せを含む。
更なる実施形態として、音声認識装置は、音声入力、以前時点で決定されたターゲットテキスト及びコンテキスト情報に基づいて、現在時点で言語モデルの出力に適用される加重値を決定してもよい。この場合、加重値決定器には、エンコーダの出力、以前時点で決定されたターゲットテキストに関する情報と別途のコンテキスト情報が入力される。
上記のような加重値決定器は、ユーザの音声入力に対応するレーベル(label)を出力値として有する学習データを用いて予め学習することができる。学習過程で、加重値決定器は、エンコーダの出力、又は、エンコーダの出力及びデコーダの出力の全てが入力され、入力に対応するレーベルを予測するように学習される。これとは相違して、予測するレーベルがない場合、音声認識モデルの性能点数(例、WER(word error rate)、BLEU(bilingual evaluation understudy)など)が向上するように加重値決定器が学習され得る。
ステップS240において、音声認識装置は、言語モデルから出力された候補テキストに対する第2スコアに、ステップS230で決定された加重値を適用する。これによって、加重値が適用された第2スコアが取得される。候補テキストは、部分単語、単語、句、及び文章のいずれか1つであってもよく、第2スコアは、第1スコアと同様に、各候補テキストに対応する確率値又は期待値を示す。言語モデルが複数である場合、各言語モデルが提供する候補テキストは、相互間で同一であってもよい。実施形態により、言語モデルが提供する候補テキストの間には、一部に相違が存在することがある。各言語モデルは、以前時点で決定されたターゲットテキストに基づいて、以前時点で決定されたターゲットテキストに続く次のターゲットテキストを決定するための各候補テキストに対応するスコア(第2スコア、第3スコア、…)を出力する。その後、音声認識装置は、各言語モデルから出力された候補テキストに対するスコアに各言語モデルに対応する加重値を適用する。例えば、ステップS230で決定された加重値が言語モデルから出力された各候補テキストのスコアに乗算される。
ステップS250において、音声認識装置は、ステップS220で決定された第1スコアとステップS240で加重値が適用された第2スコアに基づいて、候補テキストのうちターゲット候補テキストを選択する。例えば、音声認識装置は、候補テキストのうち第1スコアと加重値が適用された第2スコア間の合計が最も大きい候補テキストをターゲット候補テキストとして選択する。このように、音声認識装置は、各スコアを統合した結果に基づいて1つのターゲット候補テキストを選択することができる。
一実施形態では、言語モデルが候補テキストに対する第2スコアを出力する第1言語モデル、及び該当候補テキストに対する第3スコアを出力する第2言語モデルを含む。第1言語モデル及び第2言語モデルは、同一の候補テキストセットに対して個別的にスコアを決定する。第2スコア及び第3スコアそれぞれに対応する第1加重値及び第2加重値が決定された場合、音声認識装置は、ステップS220で決定された第1スコア、第1加重値が適用された第2スコア、及び第2加重値が適用された第3スコアに基づいて、候補テキストのうちターゲット候補テキストを選択する。
ステップS260において、音声認識装置は、ステップS250で選択されたターゲット候補テキストを音声入力の少なくとも一部に対応するターゲットテキストとして決定する。一実施形態に係る音声認識装置は、ステップS220ないしステップS260の過程を繰り返し行って、音声入力の少なくとも一部に対応するターゲットテキストを順次決定し、決定されたターゲットテキストを互いに結合させることで音声入力全体に対応するテキストを決定することができる。
上記のように、音声認識装置は、音声入力に基づいて言語モデルの出力に適用される加重値を動的に調整することにより、状況により変わるユーザの発話タイプに応じて適切な言語モデルを選択したり、各言語モデルの影響を適切に調整し、音声認識結果の正確度を改善させることができる。そのため、音声認識装置は、スマートフォン及びスマートホームのように様々な応用が実行され得るドメインで自然語処理(natural language processing)を行わなければならない場合に効率よく活用されることができる。
図3は、エンコーダの出力に基づいて加重値を決定する実施形態を説明するための図である。図3を参照すると、言語認識モデルとしてニューラルネットワーク基盤のエンコーダ−デコーダ言語認識モデルが用いられる。エンコーダ−デコーダ言語認識モデルは、様々な復号化ステップにかけて音声入力310に対応する全体テキストを構成する単語を順次推定する。まず、エンコーダ320に音声入力310が入力される。エンコーダ320から抽象化された音声入力310の特徴値(例、特徴ベクトル)が出力され、該当特徴値は、デコーダ330とニューラルネットワーク基盤の加重値決定器340に入力される。音声認識装置は、加重値を決定するためにニューラルネットワーク基盤の加重値決定器340に特徴値を提供する。
デコーダ330は、エンコーダ320から受信した特徴値と以前時点で決定された以前ターゲットテキスト350に基づいて、候補テキストに対する第1スコアを決定する。もし、音声認識の開始ステップであるため、以前ターゲットテキスト350が存在しなれば、デコーダ330は、以前ターゲットテキスト350なしにエンコーダ320から受信した特徴値のみを用いて候補テキストに対する第1スコアを決定することができる。
エンコーダ320とデコーダ330は、オーディオ信号とオーディオ信号に対応するテキストから構成された学習データに基づいて予め学習している。この場合、学習過程で扱うことができない発話表現が存在することがあり、このような足りない発話表現を補完するために、音声認識の過程で1つ以上の言語モデル362,364,366を用いてもよい。音声認識装置は、様々なドメインにおけるユーザ発話を適切に認識するために複数の言語モデル362,364,366を用いることができる。言語モデル362,364,366は、例えば、ニューラルネットワーク、N−グラム(gram)、又は単語/文字列リストなどに基づき、音声入力310として提示され得る様々な発話表現を提供することができる。
エンコーダ−デコーダ言語認識モデルでデコーダ330が言語モデルの役割を行うが、音声認識の性能をさらに向上させるためには、外部言語モデルとして1つ以上の言語モデル362,364,366が用いられる。一実施形態では、言語モデル362,364,366は、特定のドメインに特化した言語モデルを含む。例えば、言語認識モデルがTVでの音声認識のために利用されれば、言語モデル362,364,366は、TVの機能実行に関する候補テキストを提供する言語モデルを含む。
言語モデル362,364,366が第1言語モデル362、第2言語モデル364及び第3言語モデル366を含むと仮定すれば、第1言語モデル362、第2言語モデル364及び第3言語モデル366は、それぞれ以前ターゲットテキスト350に基づいて、以前ターゲットテキスト350に続く次のターゲットテキストを決定するための候補テキストと該当候補テキストに対応する第2、第3及び第4スコアを提供することができる。例えば、以前ターゲットテキスト350として「everybody」が決定された場合、第1言語モデル362は、「everybody」の次に連結される可能性のある「need to」、「meta」及び「neat」などを候補テキストとして提供し、「everybody」の次に「need to」、「meta」及び「neat」のそれぞれが連結される確率を第2スコアとして提供する。この場合、第2言語モデル364も「everybody」の次に連結される可能性のある「need to」、「meta」及び「neat」などの候補テキストに対して、各候補テキストが「everybody」の次に連結される確率を第3スコアとして提供する。第3言語モデル366の機能も第1言語モデル362及び第2言語モデル364の機能と同様である。一実施形態によれば、on−the−fly rescoring方式により、デコーダ330の復号化の各ステップごとに言語モデル362,364,366が提供している第2、第3及び第4スコアが反映される。
加重値決定器340は、エンコーダ320の出力(例、特徴ベクトル)に基づいて言語モデル362,364,366の出力に適用される加重値を決定する。加重値決定器340は、入力されたデータに基づいて各言語モデル362,364,366の出力に適用される加重値を出力するよう学習されたニューラルネットワークであってもよい。加重値決定器340は、例えば、第1言語モデル362から出力された第2スコアに適用される第1加重値、第2言語モデル364から出力された第3スコアに適用される第2加重値、及び第3言語モデル366から出力された第4スコアに適用される第3加重値を決定する。このような第1、第2及び第3加重値は、言語モデル362,364,366の出力に対する結合加重値の役割を果たす。一実施形態に係る第1、第2及び第3加重値は、加重値決定器340によって値が決定された後、各復号化ステップごとに同じ値に保持される。
他の実施形態において、加重値決定器340は、エンコーダ320の出力に基づいて言語モデル362,364,366のうち、加重値が適用される1つ以上の言語モデルを選択し、選択された1つ以上の言語モデルの出力に適用される加重値を決定してもよい。入力音声310のタイプに応じて、音声認識に適切な言語モデルが選択されて音声認識結果の正確度が改善される。実施形態により、加重値決定器340は、選択された言語モデルについてのみ加重値を決定するか、又は選択されていない言語モデルに適用される加重値を「0」に設定する。
エンコーダ320の出力に基づき、加重値決定器340が加重値を決定することにおいて、音声入力310から導き出された情報が考慮され、より正確な音声認識が可能になる。音声認識結果に影響を及ぼす言語モデル362,364,366間の寄与度は加重値決定器340によって決定された加重値に応じて相異なるため、音声入力310の各タイプに最適化された音声認識が可能となる。音声入力310のタイプに関する言語モデルの出力が音声認識結果にさらに多く反映されるよう言語モデル362,364,366に適用される加重値が調整される。音声入力310のタイプは多様に定義され得る。例えば、音声認識が駆動される環境(例、TV、冷蔵庫、スマートフォンなど)になり、スマートフォンにおける音声認識で主な発話の種類(例、電話通話、文字送信、アプリケーション実行、検索など)になり、音声入力310に含まれた単語の種類(例、人の名前、食堂/ホテルなどのような特定カテゴリーの単語など)になる。
音声認識装置は、加重値決定器340によって決定された加重値を言語モデル362,364,366の出力に適用する(345)。例えば、音声認識装置は、第1言語モデル362から出力された第2スコアに第1加重値を乗算し、第2言語モデル364から出力された第3スコアに第2加重値を乗算し、第3言語モデル366から出力された第4スコアに第3加重値を乗算することができる。
音声認識装置は、候補テキストのうち1つのターゲット候補テキストを選択する。例えば、音声認識装置は、第1スコア、第1加重値が乗算された第2スコア、第2加重値が乗算された第3スコア、及び第3加重値が乗算された第4スコアを合計(sum)355し、全体候補テキストのうちその合計が最も大きい候補テキストをターゲット候補テキストとして選択する。例えば、音声認識装置は、次の数式(1)により各候補テキストに対する最終スコアを決定することができる。
[数式(1)]
p(s)=De(s)+w×LM(s)+w×LM(s)+w×LM(s)
数式(1)において、p(s)は特定の候補テキストsに対する最終スコアであり、De(s)はデコーダ330から出力された候補テキストsに対する第1スコアを示す。LM(s)、LM(s)及びLM(s)は、それぞれ候補テキストsに対する第1言語モデル362、第2言語モデル364、及び第3言語モデル366の第2、第3及び第4スコアを示す。w、w及びwは、加重値決定器340によって決定された第1、第2、及び第3加重値を示す。音声入力310のタイプ、音声入力310が行われる環境及び/又は音声認識が実行される機器の種類などにより、w、w及びwの値が調整される。例えば、音声入力310のタイプと関連度の高い言語モデルに適用される加重値が、関連度の低い異なる言語モデルに適用される加重値よりも大きく設定される。音声認識装置は、各候補テキストに対するp(s)のうち、最も大きいp(s)を示す候補テキストをターゲット候補テキストとして選択する。
音声認識装置は、上記のような過程により選択されたターゲット候補テキストを現在の復号化ステップにおける最終的な現在ターゲットテキスト370として決定する。各復号化ステップごとに、現在ターゲットテキスト370は1つの単語又は部分単語ずつ決定されることができる。
図4は、エンコーダの出力に基づいて加重値を決定する一実施形態を説明するためのフローチャートである。本実施形態については図2及び図3を参照して説明した内容が適用され、重なる内容に対する説明は省略する。
図4を参照すると、ステップS410において、音声認識装置は音声入力を受信する。ステップS420において、音声認識装置は、エンコーダ320を用いて音声入力を符号化する。符号化を介して音声入力の抽象化された特徴値が抽出される。ステップS440において、音声認識装置は、デコーダ330を用いて符号化された音声入力に対して復号化を行い、候補テキストに対する第1スコアを算出する。
ステップS430において、音声認識装置は、エンコーダ320の出力を入力にする加重値決定器340を用いて言語モデルの出力に適用される加重値を決定する。ここで、言語モデルは1つ以上の言語モデルを含んでもよく、加重値決定器340は各言語モデルの出力に適用される加重値を決定してもよい。ステップS450において、音声認識装置は、言語モデルから各候補テキストに対する第2スコアを取得する。言語モデルは、以前時点で決定された以前ターゲットテキストに基づいて、以前ターゲットテキストの次に続く現在ターゲットテキストを決定するための候補テキストそれぞれに対応する第2スコアを提供することができる。
ステップS460において、音声認識装置は、候補テキストの第2スコアにステップS430で決定された加重値を適用する。ステップS470において、音声認識装置は、ステップS440で決定された第1スコアと、ステップS460で加重値が適用された第2スコアに基づいて、候補テキストのうちターゲット候補テキストを選択し、選択されたターゲット候補テキストを現在時点におけるターゲットテキストとして決定する。音声認識装置は、例えば、同一の候補テキストそれぞれに対して、第1スコアと加重値が適用された第2スコアを合算し、合算された結果、スコア値の最も大きい候補テキストをターゲット候補テキストとして決定する。ステップS480において、音声認識装置は、ステップS470で決定されたターゲットテキストを出力する。ステップS470で決定されたターゲットテキストは、次の復号化ステップで言語モデルとデコーダ330の入力となり、次のターゲットテキストを決定するために、ステップS440,S450,S460,S470,S480の過程が繰り返し行われる。
図5は、音声認識装置がn−ベストリスコアリング(n−best rescoring)方式を用いて音声認識を行う実施形態を示す。エンコーダ520は、音声入力510から抽象化された特徴値を抽出する。デコーダ530は、エンコーダ520から出力された特徴値に基づいて復号化を行い、音声入力510に対応する候補単語シーケンス550を出力する。例えば、デコーダ530は、復号化が完了すると、第1スコア(例、確率)が高い順に、n個の候補単語シーケンス550を出力する。
言語モデル560は、デコーダ530の出力に基づいて候補単語シーケンス550と候補単語シーケンス550それぞれに対応する第2スコアを提供する。言語モデル560は、1つ又は複数の言語モデルを含んでもよく、言語モデル560の複数の言語モデルを含む場合、各言語モデルは、各言語モデルごとに候補単語シーケンス550それぞれに対応するスコアを提供することができる。
ニューラルネットワーク基盤の加重値決定器540は、エンコーダ520の出力に基づいて言語モデル560の出力に適用される加重値を決定する。言語モデル560が複数である場合、加重値決定器540は、各言語モデルの出力に適用される加重値を決定する。音声認識装置は、加重値決定器540によって決定された加重値を言語モデル560から出力された第2スコアに適用545する。例えば、候補単語シーケンス550それぞれに対応する第2スコアに加重値が乗算される。
ターゲットテキスト決定器570は、デコーダ530から出力された候補単語シーケンス550の第1スコアと、候補単語シーケンス550の加重値が適用された第2スコアに基づいて、候補単語シーケンス550のうちターゲット単語シーケンスを選択する。例えば、ターゲットテキスト決定器570は、候補単語シーケンス550のうち、最終スコアの最も大きい候補単語シーケンスをターゲット単語シーケンスとして選択する。その後、ターゲットテキスト決定器570は、選択されたターゲット単語シーケンスをターゲットテキスト580として出力する。
図6は、エンコーダの出力及び以前ターゲットテキストに基づいて加重値を決定する実施形態を説明するための図である。本実施形態について、図3を参照して説明した内容が適用され、重なる内容に対する説明は省略する。
1つの音声入力610を認識する過程においても、各言語モデルに対する加重値が音声入力610を構成しているテキストによって別々に適用されなければならない場合がある。例えば、音声認識のための音声入力610として「Call to Chaewon」に対応する音声信号がスマートフォンに入力されたと仮定する。ここで、音声入力610の前の部分「Call to」は、スマートフォンの音声認識において主に入力される発話表現であって、スマートフォンのドメインに関する言語モデルや一般言語モデルを用いて容易に認識することができる。ただし、後部分の「Chaewon」はメッセージ送信者の名前であり、類似の発音の名前(例、Jaewon、Chawon、Chaeonなど)との区別のためにスマートフォンに格納された連絡先のドメインに関する言語モデルの比重を高めることが正確な音声認識のために必要である。
図6を参照すると、デコーダ630は、エンコーダ620から出力された特徴値と以前時点で決定された以前ターゲットテキストに基づいて候補テキストに対する第1スコアを決定する。加重値決定器640は、各復号化ステップごとにユーザの発話である音声入力610と共に、以前の復号化ステップにおける音声認識結果を考慮して言語モデル650の出力に適用される加重値を決定することができる。例えば、加重値決定器640は、以前ターゲットテキストとエンコーダ620の出力に基づいて、言語モデル650から出力される第2スコアに適用される第1加重値を決定することができる。加重値決定器640には、現在時点まで決定された1つ以上のターゲットテキストのうち少なくとも1つが入力される。
一実施形態に係る加重値決定器640は、各復号化ステップごとに言語モデル650の出力に適用される加重値を決定する。加重値決定器640は、各復号化するごとにエンコーダ620の出力と以前に出力された以前ターゲットテキストが入力され、現在時点における加重値を決定する。この場合、上記の数式(1)において、w、w及びwは、各復号化ステップごとに変わり得る。例えば、以前時点で決定されたwと現在時点で決定されたwはそれぞれ異なってもよい。上記で仮定した音声信号において、「Call to」が出力される時点までは、加重値決定器640がスマートフォンのドメインに関する言語モデルの出力に適用される加重値を高く設定するのであろう。その次の時点で、加重値決定器610は、以前ターゲットテキスト(例、「Call to」)に基づいて加重値を決定するため、「Call to」の後にスマートフォンの連絡先上の「人の名前」が登場する確率が高いと判断し、連絡先のドメインに関する言語モデルの出力に適用される加重値を高く設定する。
音声認識装置は、各復号化ステップごとに決定された加重値を言語モデル650の出力に適用645し、適用結果に基づいて候補テキストのうち現在ターゲットテキスト660を選択する。復号化ステップごとに第2スコアに適用される加重値は変わり得る。音声認識装置は、例えば、それぞれの候補テキストに対応する第2スコアに加重値決定器640によって決定された加重値を乗算することができる。音声認識装置は、第1スコアと加重値が適用された第2スコアを同一の候補テキストそれぞれに対して合算655し、合算結果に基づいて候補テキストのうち、現在時点におけるターゲットテキスト660の「Chaewon」を決定し得る。例えば、音声認識装置は、候補テキストのうち合算結果の最も大きい候補テキストをターゲットテキスト660として決定することができる。
図7は、エンコーダの出力及び以前ターゲットテキストに基づいて加重値を決定する実施形態を説明するためのフローチャートである。本実施形態については、図2及び図6を参照して説明した内容が適用され、重なる内容に対する説明は省略する。
図7を参照すると、ステップS710において、音声認識装置は、エンコーダ320の出力と以前に決定されたターゲットテキストに基づいて言語モデルの出力に適用される加重値を決定する。音声認識装置は、各復号化ステップごとに以前時点で決定されたターゲットテキストのうち少なくとも1つに基づいて加重値を決定する。ステップS460において、音声認識装置は、ステップS710で決定された加重値を言語モデルから取得した第2スコアに適用する。ステップS470において、音声認識装置は、ステップS440で決定された第1スコアとステップS460で加重値が適用された第2スコアに基づいて、候補テキストのうちターゲット候補テキストを選択し、選択されたターゲット候補テキストを現在時点におけるターゲットテキストとして決定する。このように決定されたターゲットテキストは、ステップS710により次の時点における加重値を決定するために用いられる。ステップS480において、音声認識装置が現在時点で決定されたターゲットテキストを出力し、ステップS440,S450,S460,S470,S480及びステップS710の過程を繰り返して再度行う。
図8は、エンコーダの出力及びコンテキスト情報に基づいて加重値を決定する実施形態を説明するための図である。本実施形態については図3を参照して説明した内容が適用され、重なる内容に対する説明は省略する。
図8を参照すると、加重値決定器820は、ユーザの発話である音声入力310と共にコンテキスト情報810を考慮して言語モデル362,364,366の出力に適用される加重値を決定する。例えば、加重値決定器820は、エンコーダ320の出力とコンテキスト情報810に基づいて各言語モデル362,364,366から出力される第2スコア、第3スコア、及び第4スコアにそれぞれ適用される第1加重値、第2加重値及び第3加重値を決定する。コンテキスト情報810は、音声入力310の入力状況やユーザに関連する情報を含む。例えば、コンテキスト情報810は、性別、年齢、国籍、及び職業プロファイルなどのようなユーザ情報、現在位置、現在時間、現在動作中のプログラム、音声認識ヒストリー、及び対話ヒストリーなどを含む。このように、加重値を決定するにおいて、コンテキスト情報810を考慮することで、音声入力310の入力状況やユーザ個々人の特性にさらに適する方向に音声認識が行われる。音声認識装置は、各復号化ステップごとに決定された加重値を言語モデル362,364,366の出力に適用し(345)、適用結果に基づいて、候補テキストのうち現在ターゲットテキスト370を選択する。
図9は、エンコーダの出力及びコンテキスト情報に基づいて加重値を決定する実施形態を説明するためのフローチャートである。本実施形態については、図2及び図8を参照して説明した内容が適用され、重なる内容に対する説明は省略する。
図9を参照すると、ステップS910において、音声認識装置は、コンテキスト情報を読み出す。ステップS920において、音声認識装置は、エンコーダ320の出力とコンテキスト情報に基づいて言語モデルの出力に適用される加重値を決定する。ステップS460において、音声認識装置は、ステップS920で決定された加重値を言語モデルから取得した第2スコアに適用する。ステップS470において、音声認識装置は、ステップS440で決定された第1スコアとステップS460で加重値が適用された第2スコアに基づいて、候補テキストのうちターゲット候補テキストを選択し、選択されたターゲット候補テキストを現在時点におけるターゲットテキストとして決定する。ステップS480において、音声認識装置は、現在時点で決定されたターゲットテキストを出力し、ステップS440,S450,S460,S470,S480、及びステップS710の過程が繰り返し再度行う。
図10は、エンコーダの出力、以前ターゲットテキスト及びコンテキスト情報のうち1つ以上に基づいて加重値を決定する実施形態を説明するための図である。
図10を参照すると、エンコーダ1020は、音声入力1010から特徴値を抽出する。デコーダ1030は、エンコーダ1020から出力された特徴値と以前時点で決定された以前ターゲットテキストに基づいて、候補テキストに対する第1スコアを決定する。言語モデル1050は、以前ターゲットテキストに基づいて以前ターゲットテキストに続く候補テキストと、各候補テキストに対応する第2スコアを出力する。加重値決定器1040は、エンコーダ1020の出力、以前ターゲットテキスト、及びコンテキスト情報1060のうちの1つ以上に基づいて、言語モデル1050の出力に適用される加重値を決定する。音声認識装置は、加重値決定器1040によって決定された加重値を言語モデル1050から出力された第2スコアに適用1045する。例えば、音声認識装置は、それぞれの候補テキストに対応する第2スコアに加重値決定器1040によって決定された加重値を乗算してもよい。音声認識装置は、第1スコアと加重値が適用された第2スコアを同一の候補テキストそれぞれに対して合算1055し、候補テキストのうち合算結果が最も大きい候補テキストをターゲットテキスト1070として決定することができる。
図11は、一実施形態に係る音声認識装置の構成を示す図である。
図11を参照すると、音声認識装置1100は、プロセッサ1110、メモリ1120、及び入出力インタフェース1130を含む。実施形態により、音声認識装置1100は、1つ以上の言語モデルを格納している言語モデルデータベース1140をさらに含む。
入出力インタフェース1130は、音声入力を受信するための音声インタフェース(例、マイクロホン)を含む。また、入出力インタフェース1130は、キーボード、タッチスクリーン、又はタッチパッドなどの入力インタフェースと、音声認識結果を出力するためのディスプレイなどの出力インタフェースを含んでもよい。
メモリ1120は、プロセッサ1110に接続され、プロセッサ1110によって実行可能な命令、プロセッサ1110が演算するデータ又はプロセッサ1110によって処理されたデータを格納する。メモリ1120は、例えば、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は不揮発性コンピュータで読み出し可能な格納媒体(例えば、1つ以上のディスク格納装置、フラッシュメモリ装置、又は、その他の不揮発性固体メモリ装置)を含む。
プロセッサ1110は、音声認識装置1100の全体的な動作を制御し、音声認識装置1100内で実行するための機能及び/又は命令を実行する。プロセッサ1110は、音声入力に基づいて音声認識を行い、図1〜図10に関連して前述した1つ以上の動作を行う。
例えば、プロセッサ1110は、音声入力に基づいて候補テキストに対する第1スコアを決定する。プロセッサ1110は、エンコーダ−デコーダ基盤の言語認識モデルや音響モデル−言語モデル基盤の言語認識モデルを用いて第1スコアを決定する。プロセッサ1110は、音声入力に音声入力から特徴値を抽出し、抽出された特徴値に対応する加重値を出力するニューラルネットワーク基盤の加重値決定器を用いて言語モデルの出力に適用される加重値を決定する。プロセッサ1110は、前述したような様々な実施形態により加重値を決定することができる。言語モデルは、複数の言語モデルを含んでもよく、この場合にプロセッサ1110は、言語モデルそれぞれの出力に適用される加重値を決定したり、又は言語モデルのうち加重値が適用される1つ以上の言語モデルを選択し、選択された1つ以上の言語モデルの出力に適用される加重値を決定する。言語モデルは、言語モデルデータベース1140に格納される。
プロセッサ1110は、言語モデルから出力された候補テキストに対する第2スコアに加重値を適用する。プロセッサ1110は、第1スコアと加重値が適用された第2スコアに基づいて、候補テキストのうちターゲット候補テキストを選択し、選択されたターゲット候補テキストを音声入力の少なくとも一部に対応するターゲットテキストとして決定する。プロセッサ1110は、上記のような過程に基づいて各復号化ステップごとにターゲットテキストを順次決定し、全体の音声入力に対応するテキストを決定することができる。
他の実施形態によれば、音声認識装置1100は、音声(又は、音声入力)を受信するセンサ(図示せず)、言語モデル1140及び命令を格納するメモリ1120、及び該当命令を実行するプロセッサ1110を含む。プロセッサ1110は、メモリ1120に格納された命令を行うことで、センサにより受信された音声を符号化するエンコーダを実行し、符号化された音声に基づいて候補テキストの第1スコアを決定するデコーダを実行する。また、プロセッサ1110は、エンコーダの出力に基づいて言語モデルそれぞれに対応する加重値を決定する加重値決定器を実行し、言語モデルそれぞれに基づいて候補テキストに対応する第2スコアを決定する。プロセッサ1110は、加重値が適用された第2スコアを取得するために、言語モデルそれぞれから出力された候補テキストに対する第2スコアに決定された加重値を適用し、候補テキストのうち、第1スコアの合計及びターゲット候補テキストに対応する加重値が適用された第2スコアに基づいて、音声の一部に対応するターゲット候補テキストを認識する。ここで、エンコーダは音声から特徴値を抽出し、デコーダはエンコーダによって抽出された特徴値に基づいて第1スコアと候補テキストを出力する。
加重値決定器は、以前に決定されたターゲットテキスト及びエンコーダの出力に基づいて加重値を決定する。加重値決定器は、エンコーダの出力及びコンテキスト情報に基づいて加重値を決定する。ここで、コンテキスト情報は、例えば、音声を入力するユーザに対するユーザ情報、時間情報、位置情報、言語情報、音声認識ヒストリー情報、及び現在動作中であるアプリケーション情報のいずれか1つ又はいずれかの組合せを含む。一実施形態に係る加重値決定器は、音声のうちユーザ名が検出されたことに応答して、音声認識装置1100を実行する装置に格納された連絡先情報に対応する言語モデルの加重値を増加させ得る。
前述のエンコーダ、デコーダ、及び加重値決定器のそれぞれは、ニューラルネットワークに基づいて実行される。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
100:音声認識システム
110、1100:音声認識装置
130、1140:言語モデルデータベース
320、520、620、1020:エンコーダ
330、530、640、1030:デコーダ
340、540、640、820、1040:加重値決定器
362:第1言語モデル
364:第2言語モデル
366:第3言語モデル
560、650、1050:言語モデル
570:ターゲットテキスト決定器
1110:プロセッサ
1120:メモリ
1130:入出力インタフェース

Claims (30)

  1. 音声入力に基づいて候補テキストに対する第1スコアを決定するステップと、
    前記音声入力に基づいて言語モデルの出力に適用される加重値を決定するステップと、
    加重値が適用された第2スコアを取得するために、前記言語モデルから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用するステップと、
    前記第1スコアと前記加重値が適用された第2スコアとに基づいて、前記候補テキストのうちターゲット候補テキストを選択するステップと、
    前記選択されたターゲット候補テキストを前記音声入力の少なくとも一部に対応するターゲットテキストとして決定するステップと、
    を含む音声認識方法。
  2. 前記加重値を決定するステップは、前記音声入力と以前時点で決定されたターゲットテキストに基づいて、現在時点で前記言語モデルの出力に適用される加重値を決定するステップを含む、請求項1に記載の音声認識方法。
  3. 前記以前時点で決定されたターゲットテキストは、音声認識の開始時点から前記現在時点のすぐ以前時点まで決定された1つ以上のターゲットテキストのうちの1つ又はいずれかの組合せを含む、請求項2に記載の音声認識方法。
  4. 前記加重値を決定するステップは、前記音声入力及びコンテキスト情報に基づいて前記加重値を決定するステップを含む、請求項1に記載の音声認識方法。
  5. 前記コンテキスト情報は、前記音声入力を入力するユーザに対するユーザ情報、時間情報、位置情報、言語情報、音声認識ヒストリー情報、及び現在動作中であるアプリケーション情報のうち1つ又はいずれかの組合せを含む、請求項4に記載の音声認識方法。
  6. 前記加重値を決定するステップは、前記音声入力、以前時点で決定されたターゲットテキスト及びコンテキスト情報に基づいて、現在時点で前記言語モデルの出力に適用される加重値を決定するステップを含む、請求項1に記載の音声認識方法。
  7. 前記ターゲット候補テキストを選択するステップは、前記候補テキストのうち前記第1スコアと前記加重値が適用された第2スコアの合計が最も大きい候補テキストを前記ターゲット候補テキストとして選択するステップを含む、請求項1−6のうちの何れか1項に記載の音声認識方法。
  8. 前記加重値を決定するステップは、
    前記音声入力から特徴値を抽出するステップと、
    前記加重値を決定するためにニューラルネットワーク基盤の加重値決定器に前記特徴値を提供するステップと、
    を含む、請求項1に記載の音声認識方法。
  9. 前記第1スコアを決定するステップは、
    ニューラルネットワーク基盤のエンコーダを用いて前記音声入力から特徴値を抽出するステップと、
    ニューラルネットワーク基盤のデコーダを用いて前記抽出された特徴値から前記候補テキストそれぞれに対する第1スコアを決定するステップと、
    を含む、請求項1−8のうちの何れか1項に記載の音声認識方法。
  10. 前記言語モデルは、複数の言語モデルを含み、
    前記加重値を決定するステップは、前記複数の言語モデルそれぞれの出力に適用される加重値を決定する、請求項1−8のうちの何れか1項に記載の音声認識方法。
  11. 前記複数の言語モデルは、第1言語モデル及び第2言語モデルを含み、
    前記第1言語モデルは、前記候補テキストに対する第2スコアを出力し、
    前記第2言語モデルは、前記候補テキストに対する第3スコアを出力し、
    前記加重値を決定するステップは、前記第2スコアに適用される第1加重値と前記第3スコアに適用される第2加重値とを決定し、
    前記ターゲット候補テキストを選択するステップは、前記第1スコア、前記第1加重値が適用された第2スコア及び前記第2加重値が適用された第3スコアに基づいて、前記候補テキストのうち前記ターゲット候補テキストを選択するステップを含む、請求項10に記載の音声認識方法。
  12. 前記言語モデルは、複数の言語モデルを含み、
    前記加重値を決定するステップは、
    前記複数の言語モデルのうち前記加重値が適用される1つ以上の言語モデルを選択するステップと、
    前記選択された1つ以上の言語モデルの出力に適用される加重値を決定するステップと、
    を含む、請求項1−9のうちの何れか1項に記載の音声認識方法。
  13. 前記言語モデルは、以前時点で決定されたターゲットテキストに基づいて前記以前時点で決定されたターゲットテキストに続く次のターゲットテキストを決定するための各候補テキストに対応する第2スコアを出力する、請求項1−9のうちの何れか1項に記載の音声認識方法。
  14. 前記候補テキストそれぞれは、単語、部分単語、句、及び文章のいずれか1つである、請求項1−13のうちの何れか1項に記載の音声認識方法。
  15. 前記第1スコアを決定するステップは、以前の時間区間におけるニューラルネットワーク基盤のデコーダの出力及び前記音声入力に基づいて前記第1スコアを決定するステップを含む、請求項1−8のうちの何れか1項に記載の音声認識方法。
  16. 前記言語モデルは、複数の言語モデルを含み、
    前記言語モデルそれぞれの加重値は、前記音声入力のタイプに基づいて動的に調整される、請求項1−9のうちの何れか1項に記載の音声認識方法。
  17. 前記音声入力のタイプは、前記音声入力のコンテキスト、音声認識が実行される環境、前記音声入力に含まれた単語のタイプ、前記音声認識が実行される装置のタイプ、及び前記音声入力が実行される音声のタイプのいずれか1つ又はいずれかの組合せある、請求項16に記載の音声認識方法。
  18. 請求項1−17のうちの何れか1項に記載の音声認識方法を音声認識装置のコンピュータに実行させるコンピュータプログラム。
  19. ユーザから音声入力を受信する音声インタフェースと、
    前記音声入力に基づいて音声認識を行うプロセッサと、を含み、
    前記プロセッサは、
    前記音声入力に基づいて候補テキストに対する第1スコアを決定し、
    前記音声入力に基づいて言語モデルの出力に適用される加重値を決定し、
    加重値が適用された第2スコアを取得するために、前記言語モデルから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用し、
    前記第1スコアと前記加重値が適用された第2スコアとに基づいて、前記候補テキストのうちターゲット候補テキストを選択し、
    前記選択されたターゲット候補テキストを前記音声入力の少なくとも一部に対応するターゲットテキストとして決定する、
    音声認識装置。
  20. 前記プロセッサは、前記音声入力と以前時点で決定されたターゲットテキストに基づいて、現在時点で前記言語モデルの出力に適用される加重値を決定する、請求項19に記載の音声認識装置。
  21. 前記プロセッサは、前記音声入力及びコンテキスト情報に基づいて前記加重値を決定する、請求項19に記載の音声認識装置。
  22. 前記プロセッサは、
    前記音声入力から特徴値を抽出し、
    前記抽出された特徴値に対応する加重値を出力するニューラルネットワーク基盤の加重値決定器を用いて前記加重値を決定する、請求項19に記載の音声認識装置。
  23. 前記言語モデルは、前記候補テキストに対する第2スコアを出力する第1言語モデル及び前記候補テキストに対する第3スコアを出力する第2言語モデルを含み、
    前記プロセッサは、
    前記第2スコアに適用される第1加重値と前記第3スコアに適用される第2加重値とを決定し、
    前記第1スコア、前記第1加重値が適用された第2スコア、及び前記第2加重値が適用された第3スコアに基づいて、前記候補テキストのうち前記ターゲット候補テキストを選択する、請求項19に記載の音声認識装置。
  24. 前記言語モデルは、複数の言語モデルを含み、
    前記プロセッサは、
    前記複数の言語モデルのうち前記加重値が適用される1つ以上の言語モデルを選択し、
    前記選択された1つ以上の言語モデルの出力に適用される加重値を決定する、請求項19に記載の音声認識装置。
  25. 音声を受信するセンサと、
    言語モデル及び命令を格納するメモリと、
    前記命令を実行するプロセッサと、を含み、
    前記プロセッサは、前記命令を行うことによって、
    前記音声を符号化することをエンコーダに実行させ、
    前記符号化された音声に基づいて候補テキストの第1スコアを決定することをデコーダに実行させ、
    前記エンコーダの出力に基づいて前記言語モデルそれぞれに対応する加重値を決定することを加重値決定器に実行させ、
    前記言語モデルそれぞれに基づいて前記候補テキストに対応する第2スコアを決定し、
    加重値が適用された第2スコアを取得するために、前記言語モデルそれぞれから出力された前記候補テキストに対する第2スコアに前記決定された加重値を適用し、
    前記候補テキストのうち、前記第1スコアの合計及び前記候補テキストに対応する加重値が適用された第2スコアに基づいて前記音声の一部に対応するターゲット候補テキストを認識する、音声認識装置。
  26. 前記エンコーダは前記音声から特徴値を抽出し、
    前記デコーダは、前記特徴値に基づいて前記第1スコアと前記候補テキストを出力する、請求項25に記載の音声認識装置。
  27. 前記加重値決定器は、前記音声のうちユーザ名が検出されたことに応答して、前記音声認識装置を実行する装置に格納された連絡先情報に対応する言語モデルの加重値を増加させる、請求項25又は26に記載の音声認識装置。
  28. 前記加重値決定器は、以前に決定されたターゲットテキスト及び前記エンコーダの出力に基づいて前記加重値を決定する、請求項25又は26に記載の音声認識装置。
  29. 前記加重値決定器は、前記エンコーダの出力及びコンテキスト情報に基づいて前記加重値を決定し、
    前記コンテキスト情報は、前記音声を入力するユーザに対するユーザ情報、時間情報、位置情報、言語情報、音声認識ヒストリー情報、及び現在動作中であるアプリケーション情報のいずれか1つ又はいずれかの組合せを含む、請求項25又は26に記載の音声認識装置。
  30. 前記エンコーダ、前記デコーダ、及び前記加重値決定器のそれぞれは、ニューラルネットワークに基づいて実行される、請求項25−29のうち何れか1項に記載の音声認識装置。
JP2019183896A 2018-11-21 2019-10-04 音声認識方法及び音声認識装置 Active JP7452968B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180144753A KR20200059703A (ko) 2018-11-21 2018-11-21 음성 인식 방법 및 음성 인식 장치
KR10-2018-0144753 2018-11-21

Publications (2)

Publication Number Publication Date
JP2020086437A true JP2020086437A (ja) 2020-06-04
JP7452968B2 JP7452968B2 (ja) 2024-03-19

Family

ID=66826927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183896A Active JP7452968B2 (ja) 2018-11-21 2019-10-04 音声認識方法及び音声認識装置

Country Status (5)

Country Link
US (2) US11100916B2 (ja)
EP (1) EP3657501B1 (ja)
JP (1) JP7452968B2 (ja)
KR (1) KR20200059703A (ja)
CN (1) CN111292728B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6820632B1 (ja) * 2020-10-05 2021-01-27 株式会社グルーパー 情報処理装置、及びプログラム
JPWO2022038692A1 (ja) * 2020-08-19 2022-02-24
WO2022269760A1 (ja) * 2021-06-22 2022-12-29 ファナック株式会社 音声認識装置
JP2023077365A (ja) * 2021-11-24 2023-06-05 インハ インダストリー パートナーシップ インスティテュート メタバースプラットフォームを利用した複合現実における複雑な機械類の訓練、教育、および広告システム

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11043214B1 (en) * 2018-11-29 2021-06-22 Amazon Technologies, Inc. Speech recognition using dialog history
US11599773B2 (en) * 2018-12-27 2023-03-07 Micron Technology, Inc. Neural networks and systems for decoding encoded data
US11158307B1 (en) * 2019-03-25 2021-10-26 Amazon Technologies, Inc. Alternate utterance generation
US11475884B2 (en) * 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11107475B2 (en) * 2019-05-09 2021-08-31 Rovi Guides, Inc. Word correction using automatic speech recognition (ASR) incremental response
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
KR20210014949A (ko) * 2019-07-31 2021-02-10 삼성전자주식회사 음성 인식을 위한 인공신경망에서의 디코딩 방법 및 장치
US11295732B2 (en) * 2019-08-01 2022-04-05 Soundhound, Inc. Dynamic interpolation for hybrid language models
KR20210016767A (ko) * 2019-08-05 2021-02-17 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
KR102281602B1 (ko) * 2019-08-21 2021-07-29 엘지전자 주식회사 사용자의 발화 음성을 인식하는 인공 지능 장치 및 그 방법
KR20190118539A (ko) * 2019-09-30 2019-10-18 엘지전자 주식회사 발화 스타일을 고려하여 음성을 인식하는 인공 지능 장치 및 그 방법
KR20210042707A (ko) * 2019-10-10 2021-04-20 삼성전자주식회사 음성 처리 방법 및 장치
US11424764B2 (en) 2019-11-13 2022-08-23 Micron Technology, Inc. Recurrent neural networks and systems for decoding encoded data
US11482214B1 (en) * 2019-12-12 2022-10-25 Amazon Technologies, Inc. Hypothesis generation and selection for inverse text normalization for search
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN113763943A (zh) * 2020-06-04 2021-12-07 微软技术许可有限责任公司 在语音识别结果中实时地提供提示
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
KR20220020723A (ko) 2020-08-12 2022-02-21 삼성전자주식회사 사용자의 음성 입력을 인식하는 디바이스 및 그 동작 방법
CN111951807A (zh) * 2020-08-21 2020-11-17 上海依图网络科技有限公司 语音内容检测方法及其装置、介质和***
CN112349289B (zh) * 2020-09-28 2023-12-29 北京捷通华声科技股份有限公司 一种语音识别方法、装置、设备以及存储介质
CN112185363B (zh) * 2020-10-21 2024-02-13 北京猿力未来科技有限公司 音频处理方法及装置
CN112102815B (zh) * 2020-11-13 2021-07-13 深圳追一科技有限公司 语音识别方法、装置、计算机设备和存储介质
CN113421551B (zh) * 2020-11-16 2023-12-19 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机可读介质及电子设备
CN112102812B (zh) * 2020-11-19 2021-02-05 成都启英泰伦科技有限公司 一种基于多声学模型的防误唤醒方法
KR20220125611A (ko) * 2021-03-05 2022-09-14 삼성전자주식회사 전자 장치 및 그 제어 방법
US12020710B2 (en) 2021-03-05 2024-06-25 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN117378005A (zh) * 2021-03-26 2024-01-09 谷歌有限责任公司 用于自动语音识别的多语言重新评分模型
CN113051400A (zh) * 2021-03-31 2021-06-29 北京字节跳动网络技术有限公司 标注数据确定方法、装置、可读介质及电子设备
US11563449B2 (en) * 2021-04-27 2023-01-24 Micron Technology, Inc. Systems for error reduction of encoded data using neural networks
US11973513B2 (en) 2021-04-27 2024-04-30 Micron Technology, Inc. Decoders and systems for decoding encoded data using neural networks
CN113160820B (zh) * 2021-04-28 2024-02-27 百度在线网络技术(北京)有限公司 语音识别的方法、语音识别模型的训练方法、装置及设备
US20220383877A1 (en) * 2021-05-25 2022-12-01 Samsung Electronics Co., Ltd. Electronic device and operation method thereof
US20220398474A1 (en) * 2021-06-04 2022-12-15 Nuance Communications, Inc. System and Method for Contextual Density Ratio-based Biasing of Sequence-to-Sequence Processing Systems
US11755408B2 (en) 2021-10-07 2023-09-12 Micron Technology, Inc. Systems for estimating bit error rate (BER) of encoded data using neural networks
CN115116437B (zh) * 2022-04-07 2024-02-09 腾讯科技(深圳)有限公司 语音识别方法、装置、计算机设备、存储介质及产品
KR20240069296A (ko) * 2022-11-11 2024-05-20 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN117912456B (zh) * 2023-11-28 2024-07-19 广州视声智能科技有限公司 基于数据预测的语音识别方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070805A (ja) * 2006-09-15 2008-03-27 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム
JP2013125144A (ja) * 2011-12-14 2013-06-24 Nippon Hoso Kyokai <Nhk> 音声認識装置およびそのプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7395205B2 (en) * 2001-02-13 2008-07-01 International Business Machines Corporation Dynamic language model mixtures with history-based buckets
US6879954B2 (en) 2002-04-22 2005-04-12 Matsushita Electric Industrial Co., Ltd. Pattern matching for large vocabulary speech recognition systems
JP2004198831A (ja) 2002-12-19 2004-07-15 Sony Corp 音声認識装置および方法、プログラム、並びに記録媒体
JP4836076B2 (ja) 2006-02-23 2011-12-14 株式会社国際電気通信基礎技術研究所 音声認識システム及びコンピュータプログラム
US8069032B2 (en) 2006-07-27 2011-11-29 Microsoft Corporation Lightweight windowing method for screening harvested data for novelty
US8447608B1 (en) 2008-12-10 2013-05-21 Adobe Systems Incorporated Custom language models for audio content
KR101597289B1 (ko) 2009-07-31 2016-03-08 삼성전자주식회사 동적 화면에 따라 음성을 인식하는 장치 및 방법
CN102280106A (zh) * 2010-06-12 2011-12-14 三星电子株式会社 用于移动通信终端的语音网络搜索方法及其装置
KR101739531B1 (ko) * 2010-10-13 2017-05-25 삼성전자주식회사 음성 인식 장치 및 방법
KR20120066530A (ko) 2010-12-14 2012-06-22 한국전자통신연구원 언어 모델 가중치 추정 방법 및 이를 위한 장치
US8352245B1 (en) 2010-12-30 2013-01-08 Google Inc. Adjusting language models
US8296142B2 (en) * 2011-01-21 2012-10-23 Google Inc. Speech recognition using dock context
US9324323B1 (en) * 2012-01-13 2016-04-26 Google Inc. Speech recognition using topic-specific language models
US9043205B2 (en) 2012-06-21 2015-05-26 Google Inc. Dynamic language model
US9697821B2 (en) 2013-01-29 2017-07-04 Tencent Technology (Shenzhen) Company Limited Method and system for building a topic specific language model for use in automatic speech recognition
US9208779B2 (en) 2013-09-06 2015-12-08 Google Inc. Mixture of n-gram language models
US20160336007A1 (en) * 2014-02-06 2016-11-17 Mitsubishi Electric Corporation Speech search device and speech search method
CN103915092B (zh) * 2014-04-01 2019-01-25 百度在线网络技术(北京)有限公司 语音识别方法和装置
US20150370787A1 (en) * 2014-06-18 2015-12-24 Microsoft Corporation Session Context Modeling For Conversational Understanding Systems
KR102292546B1 (ko) * 2014-07-21 2021-08-23 삼성전자주식회사 컨텍스트 정보를 이용하는 음성 인식 방법 및 장치
JP6052814B2 (ja) * 2014-09-24 2016-12-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識モデルの構築方法、音声認識方法、コンピュータ・システム、音声認識装置、プログラムおよび記録媒体
US9502032B2 (en) * 2014-10-08 2016-11-22 Google Inc. Dynamically biasing language models
KR102380833B1 (ko) 2014-12-02 2022-03-31 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
JP6518142B2 (ja) * 2015-06-18 2019-05-22 日本放送協会 言語モデル生成装置およびそのプログラム
KR102386854B1 (ko) * 2015-08-20 2022-04-13 삼성전자주식회사 통합 모델 기반의 음성 인식 장치 및 방법
KR102386863B1 (ko) * 2015-09-09 2022-04-13 삼성전자주식회사 사용자 기반 언어 모델 생성 장치, 방법 및 음성 인식 장치
KR102450853B1 (ko) 2015-11-30 2022-10-04 삼성전자주식회사 음성 인식 장치 및 방법
US20170229124A1 (en) 2016-02-05 2017-08-10 Google Inc. Re-recognizing speech with external data sources
CN106297797B (zh) * 2016-07-26 2019-05-31 百度在线网络技术(北京)有限公司 语音识别结果纠错方法和装置
US10832664B2 (en) 2016-08-19 2020-11-10 Google Llc Automated speech recognition using language models that selectively use domain-specific model components
CN106328147B (zh) * 2016-08-31 2022-02-01 中国科学技术大学 语音识别方法和装置
KR20180038707A (ko) 2016-10-07 2018-04-17 한국전자통신연구원 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법
KR20180074210A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 전자 장치 및 전자 장치의 음성 인식 방법
KR20180080446A (ko) * 2017-01-04 2018-07-12 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
KR20180087942A (ko) * 2017-01-26 2018-08-03 삼성전자주식회사 음성 인식 방법 및 장치
US10811000B2 (en) * 2018-04-13 2020-10-20 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for recognizing simultaneous speech by multiple speakers

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070805A (ja) * 2006-09-15 2008-03-27 Honda Motor Co Ltd 音声認識装置、音声認識方法、及び音声認識プログラム
JP2013125144A (ja) * 2011-12-14 2013-06-24 Nippon Hoso Kyokai <Nhk> 音声認識装置およびそのプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022038692A1 (ja) * 2020-08-19 2022-02-24
WO2022038692A1 (ja) * 2020-08-19 2022-02-24 日本電信電話株式会社 変換装置、変換方法、およびプログラム
JP6820632B1 (ja) * 2020-10-05 2021-01-27 株式会社グルーパー 情報処理装置、及びプログラム
JP2022060632A (ja) * 2020-10-05 2022-04-15 株式会社グルーパー 情報処理装置、及びプログラム
WO2022269760A1 (ja) * 2021-06-22 2022-12-29 ファナック株式会社 音声認識装置
JP2023077365A (ja) * 2021-11-24 2023-06-05 インハ インダストリー パートナーシップ インスティテュート メタバースプラットフォームを利用した複合現実における複雑な機械類の訓練、教育、および広告システム
JP7350376B2 (ja) 2021-11-24 2023-09-26 インハ インダストリー パートナーシップ インスティテュート メタバースプラットフォームを利用した複合現実における複雑な機械類の訓練、教育、および広告システム

Also Published As

Publication number Publication date
US11935516B2 (en) 2024-03-19
EP3657501A1 (en) 2020-05-27
US20200160838A1 (en) 2020-05-21
EP3657501B1 (en) 2022-02-09
CN111292728A (zh) 2020-06-16
JP7452968B2 (ja) 2024-03-19
CN111292728B (zh) 2024-05-28
US20210350792A1 (en) 2021-11-11
US11100916B2 (en) 2021-08-24
KR20200059703A (ko) 2020-05-29

Similar Documents

Publication Publication Date Title
JP7452968B2 (ja) 音声認識方法及び音声認識装置
US10719507B2 (en) System and method for natural language processing
JP6923332B2 (ja) 自動通訳方法及び装置
US10726830B1 (en) Deep multi-channel acoustic modeling
CN106816148B (zh) 语音识别设备和方法
US20210210100A1 (en) Voice command processing for locked devices
US11508378B2 (en) Electronic device and method for controlling the same
JP2018026127A (ja) 翻訳方法、翻訳装置及びコンピュータプログラム
US11574637B1 (en) Spoken language understanding models
US11579841B1 (en) Task resumption in a natural understanding system
US11532301B1 (en) Natural language processing
KR20210047709A (ko) 음성 인식 방법 및 음성 인식 장치
US11810556B2 (en) Interactive content output
US11605387B1 (en) Assistant determination in a skill
US11830502B2 (en) Electronic device and method for controlling the same
US11955112B1 (en) Cross-assistant command processing
US11646035B1 (en) Dialog management system
US11544504B1 (en) Dialog management system
KR20210042523A (ko) 전자 장치 및 이의 제어 방법
US20240185846A1 (en) Multi-session context
CN110874402B (zh) 基于个性化信息的回复生成方法、设备和计算机可读介质
US11626107B1 (en) Natural language processing
US20230317066A1 (en) Shared encoder for natural language understanding processing
US11328713B1 (en) On-device contextual understanding
US11481188B1 (en) Application launch delay and notification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7452968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150