JP2020042131A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2020042131A
JP2020042131A JP2018168724A JP2018168724A JP2020042131A JP 2020042131 A JP2020042131 A JP 2020042131A JP 2018168724 A JP2018168724 A JP 2018168724A JP 2018168724 A JP2018168724 A JP 2018168724A JP 2020042131 A JP2020042131 A JP 2020042131A
Authority
JP
Japan
Prior art keywords
text
unit
vector
input
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018168724A
Other languages
English (en)
Other versions
JP7058574B2 (ja
Inventor
賢昭 佐藤
Takaaki Sato
賢昭 佐藤
純平 三宅
Junpei Miyake
純平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018168724A priority Critical patent/JP7058574B2/ja
Publication of JP2020042131A publication Critical patent/JP2020042131A/ja
Application granted granted Critical
Publication of JP7058574B2 publication Critical patent/JP7058574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】より効率的に音声認識処理をすることができる情報処理装置、情報処理方法、およびプログラムを提供すること。【解決手段】音声データを取得する取得部と、前記音声データを解析してテキストに変換した、1以上の解析結果を出力する解析部と、前記解析結果に係る前記入力テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換するベクトル変換部と、前記ベクトル変換部により変換されたベクトル値と、前記入力意図が既知の入力テキストに対応し、予め求められている前記既知の入力テキストのベクトル値とに基づいて、前記1以上の解析結果から前記音声データに係る音声を発した利用者の入力テキストの入力意図が反映された可能性の高い前記解析結果を選択する選択部と、を備える、情報処理装置である。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
潜在語言語モデルを用いて音声認識を行う技術が知られている(特許文献1参照)。潜在語言語モデルとは、学習テキスト(コーパス)中の各単語に対する潜在語を考慮したモデルである。
特許第5975938号公報
しかしながら、従来の技術では、コーパスの各語に対して数万個ある潜在語候補の確率をそれぞれ求める必要があり、語彙が多い場合等では、処理負荷が高くなり、音声認識結果の出力に時間を要する可能性がある。
本発明は、このような事情を考慮してなされたものであり、より効率的に音声認識処理をすることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
本発明の一態様は、音声データを取得する取得部と、前記音声データを解析してテキストに変換した、1以上の解析結果を出力する解析部と、前記解析結果に係る前記入力テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換するベクトル変換部と、前記ベクトル変換部により変換されたベクトル値と、前記入力意図が既知の入力テキストに対応し、予め求められている前記既知の入力テキストのベクトル値とに基づいて、前記1以上の解析結果から前記音声データに係る音声を発した利用者の入力テキストの入力意図が反映された可能性の高い前記解析結果を選択する選択部と、を備える情報処理装置である。
本発明の一態様によれば、より効率的に音声認識処理をすることができる。
実施形態に係る情報処理装置100の使用環境の一例を示す図である。 情報処理装置100の処理を模式的に示す図である。 実施形態に係る情報処理装置100の構成図である。 W2V実行部106によるベクトル変換処理を説明するための図である。 文ベクトルを説明するための図である。 選別部110による好適候補選別を模式的に示す図である。 タスクテキストを説明するための図である。 信頼度導出部110aによる信頼度導出処理を説明するための図である。 タスクテキストベクトルリスト120gを模式的に示す図である。 代表ベクトルを説明するための図である。 類似評価方法について説明するための図である。 言語モデル演算部112による、クラスタ選択を模式的に示す図である。 情報処理装置100による言語モデル生成処理の流れの一例を示すフローチャートである。 情報処理装置100による音声認識処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。
[概要]
情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、利用者の発した音声を収録した音声データを受信し、受信した入力データの音声認識処理を行い、認識の結果に基づいて種々の処理を行う装置である。種々の処理としては、音声を発した利用者の意図に沿ったIoT(Internet of Things)機器の制御を行うこと、利用者の質問に対して応答することなどがある。以下、利用者の意図する情報処理装置の動作をタスクと称する場合がある。なお音声データは、圧縮や暗号化などの処理が施されたものであってもよい。
図1は、実施形態に係る情報処理装置100の使用環境の一例を示す図である。図示する環境では、端末装置20、制御対象デバイス30、およびサービスサーバ40は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、インターネット、プロバイダ装置、無線基地局、専用回線などのうちの一部または全部を含む。図1に示す例では、制御対象デバイス30の数は、N(Nは、1以上の整数)個である。なお、本明細書では、制御対象デバイス30−1〜30−Nにおいて、共通の事項を説明する場合など、個々の制御対象デバイス30−1〜30−Nを区別しない場合には、単に制御対象デバイス30と呼ぶ。
端末装置20は、利用者の音声入力を受け付ける装置である。端末装置20は、スマートフォンなどの携帯電話、タブレット端末、パーソナルコンピュータ、スマートスピーカ(AIスピーカ)等である。
制御対象デバイス30は、通信機能と、外部からの制御を受け付けるインターフェースとを備え、利用者により操作される端末装置20からのリクエストに応じて制御可能なIoT機器である。制御対象デバイス30は、例えば、テレビやラジオ、照明器具、冷蔵庫、電子レンジ、洗濯機、炊飯器、自走式掃除機、空調機器などである。
サービスサーバ40は、利用者により操作される端末装置20からのリクエストに対応するウェブページを提供するウェブサーバ装置、アプリケーションが起動された端末装置20と通信を行って各種情報の受け渡しを行ってコンテンツを提供するアプリケーションサーバ装置等である。
図2は、情報処理装置100の処理を模式的に示す図である。情報処理装置100は、利用者が端末装置20を介して入力された音声データを音響モデルに適用することで音素に変換し、音素に基づいて1以上の候補テキスト(音声データに含まれる音をテキスト化したもの)を生成し、さらに生成した候補テキストのうち既知のタスク特徴量との比較に基づいて選択した候補テキストを言語モデルに適用することで、好適候補を選択する。好適候補とは、候補テキストの中で利用者の意図が反映された可能性が高い好適な候補であると判定されたものである。
音響モデルとは、周波数成分や時間変化を統計的に分析し、入力された音声データがどのような音素で構成されるか(何と言っているか)を判別するためのモデルである。音素とは、アルファベットや仮名などの言語の最小単位を特定するためのラベルであり、例えば、母音や子音等を含む。情報処理装置100は、音素を言語ルールに従って適宜、結合することで候補テキストを得る。
図2に示すように、音素変換の結果、生成した候補テキストが“kyonotenki”である場合、例えば、”k”や”t”は生成した候補テキストに含まれる音素を示すものである。音声認識処理が日本語を前提として行われる場合、候補テキストは、アルファベット表記で表されてもよいし、ひらがな表記またはカタカナ表記で表されてもよい。図2に示す例において、情報処理装置100は、受け付けた音声データに基づいて、“kyonotenki”、“kyonotenkii”、“kyonodenki”を含む候補テキストを生成する。
情報処理装置100は、図2に示す例において、“kyonotenki”、“kyonotenkii”、“kyonodenki”を含む変換候補のそれぞれに対して形態素解析を行う。形態素解析とは、候補テキストを構成する単語の区切りを決定し、区切られたそれぞれの単語の例えば品詞を導出する処理である。形態素解析は、例えば、MeCABなどの形態素解析エンジンを利用して行われる。情報処理装置100は、例えば、候補テキスト“kyonotenki”を解析した結果、「今日(kyo)」、「の(no)」、「天気(tenki)」の3つの単語を導出する。同様に、候補テキスト“kyonotenkii”を解析した結果、「今日(kyo)」、「の(no) 」、「テンキー(tenkii)」を、候補テキスト“kyonodenki”を解析した結果、「京(kyo)」、「の(no) 」、「電気(denki)」を生成する。
情報処理装置100は、1以上の候補テキストのそれぞれから生成した解析結果を評価する。そして、評価値に基づいて1つの候補テキストを選択し、より具体的に、情報処理装置100は、候補テキストの解析結果の、既知のタスク音声から得られた特徴量との適合率を評価し、利用者の意図に沿ったものと推定される好適候補を選択する。そして、情報処理装置100は、意図に対応する出力情報を生成するタスクに関する命令を出力する。適合率については後述する。
[構成]
図3は、情報処理装置100の構成図である。情報処理装置100は、例えば、取得部102と、解析部104と、W2V(Word2Vec)実行部106と、テキストベクトル生成部108と、選別部110と、言語モデル演算部112と、選択部114と、出力情報生成部116と、出力部118と、記憶部120とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め情報処理装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで情報処理装置100のHDDやフラッシュメモリにインストールされてもよい。
記憶部120は、例えば、RAM(Random Access Memory)、レジスタ、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)などにより実現される。記憶部120は、例えば、音響モデル120a、言語モデル120b、コーパスの解析結果120c、タスクテキストの解析結果120d、候補テキストの解析結果120e、単語ベクトルリスト120f、タスクテキストベクトルリスト120g、言語モデル演算用テキスト120hなどの情報を記憶する。
取得部102は、情報処理装置100が音声認識処理を行う上でコーパスとして利用する文字情報(例えば、ニュース等の記事データや、SNS(Social Networking Service)の投稿データ)を取得し、解析部104に出力する。なお、コーパスとして利用する文字情報は、口語形式のテキスト(例えば、SNSにおける投稿履歴や、自動応答装置における利用者と装置の会話履歴、現実の会話をテキストに直したもの、自装置の音声処理履歴など)が含まれることが望ましい。また、取得部102は、情報処理装置100の管理者が設定した定型タスクを示す文字情報のデータセット(以下、タスクテキスト)を取得し、解析部104に出力する。
また、取得部102は、端末装置20の利用者により入力された音声データを取得し、解析部104に出力する。取得部102が取得した音声データに利用者の位置情報が付与される場合、その位置情報は、候補テキストと併せて管理されるものとする。
解析部104は、取得部102により出力されたコーパスとして利用する文字情報を所定の解析方法で解析する。所定の解析方法とは、例えば、形態素解析である。形態素解析とは、文字情報を名詞、動詞、助詞等の品詞の単位で分解することである。解析部104は、解析結果をコーパスの解析結果120cとして記憶部120に記憶させる。また、解析部104は、取得部102により出力されたタスクテキストを解析し、解析結果をタスクテキストの解析結果120dとして記憶部120に記憶させる。
また、解析部104は、取得部102により出力された音声データを音響モデル120aに適用して1以上の候補テキストを生成した後に、それぞれの候補テキストに対して形態素解析等の解析処理を行う。また、解析部104は、解析結果を候補テキストの解析結果120eとして記憶部120に記憶させる。
図4は、W2V実行部106によるベクトル変換処理を説明するための図である。W2V実行部106は、例えば、コーパスの解析結果120cに含まれる各単語の意味をベクトル表現化(分散表現化)して単語ベクトルを生成する。図4の例では、W2V実行部106は、「ボリューム」の単語ベクトルを生成している。W2V実行部106は、「音」と「ボリューム」、「ミュージック」と「音楽」のように意味の近い単語同士で単語ベクトル間の距離(コサイン類似度)が近くなるように、単語ベクトルを生成する。W2V実行部106は、生成したベクトル値を記憶部に単語ベクトルリスト120fとして記憶部120に記憶させる。W2V実行部106は、「ベクトル変換部」の一例である。
また、W2V実行部106は、単語ベクトルリスト120fに記憶されていない単語がタスクテキストまたは候補テキストに含まれる場合、タスクテキストの解析結果120d、または候補テキストの解析結果120eを、例えばコーパスに追加することで同様に解析し、それらのベクトル値を生成してもよい。このベクトル値は、単語ベクトルリスト120fに記憶されてもよいし、記憶されなくてもよい。
図3に戻り、テキストベクトル生成部108は、タスクテキストの解析結果120d、候補テキストの解析結果120e、および単語ベクトルリスト120fのベクトル値を用いて、候補テキストの文単位のベクトル値(以下、文ベクトル)を生成する。テキストベクトル生成部108は、生成した文ベクトルを選別部110に出力する。
図5は、文ベクトルについて説明するための図である。テキストベクトル生成部108は、例えば、「ボリュームを下げて」の文ベクトルを生成する場合、「ボリューム」、「を」、および「下げて」の単語ベクトルに所定の演算を行うことで(例えば、それぞれの単語ベクトルを加算することで)、文ベクトルを生成する。この結果、文を構成する単語の単語ベクトルを合計した文ベクトルについても同様に、「音楽の音を小さくして」と「ボリュームを下げて」のように意味が近い文の文ベクトル同士の距離は近くなる。
また、テキストベクトル生成部108は、タスクテキストの解析結果120dおよびW2V実行部106により出力された単語ベクトルを用いて、タスクテキストの文ベクトルを生成し、タスクテキストベクトルリスト120gとして記憶部120に記憶させる。タスクテキストは、利用者の意図を含んでいることが既知のテキストであり、例えば、情報処理装置100の管理者によってあらかじめ設定される。
図3に戻り、選別部110は、候補テキストの文ベクトル、タスクテキストの文ベクトル、および言語モデル演算用テキスト120hの文ベクトルに基づいて、言語モデル120bの元となる文ベクトルを選別する。選別部110は、選別結果を言語モデル演算部112に出力する。言語モデル演算用テキスト120hとは、例えば、情報処理装置100の管理者が想定するタスクテキストの文ベクトルや、過去の情報処理装置100の音声認識処理履歴として保持する文ベクトルである。
選別部110は、例えば、信頼度導出部110aを備える。信頼度導出部110aによる優先度導出処理については後述する。
言語モデル演算部112は、例えば、言語モデル生成部112aを備える。言語モデル生成部112aは、選別部110により出力された選別結果を適用した言語モデルを生成し、コーパス毎の言語モデル120bとして記憶部120に記憶させる。言語モデル生成部112aは、例えば、情報処理装置100の管理者があらかじめ設定した言語モデル演算用テキスト120h、および選別部110により選択された変換候補に基づいて言語モデル120bを生成する。
また、言語モデル演算部112は、選別部110により出力された候補テキストを言語モデル120bに適用し、適用結果を選択部114に出力する。
選択部114は、言語モデル演算部112により出力された候補テキストを評価値に基づいて評価することで、利用者の入力意図が反映された可能性の高い好適候補を選択する。選択部114は、選択結果である好適候補を出力情報生成部116に出力する。
なお、選択部114は、候補テキストに位置情報が付与される場合、その位置情報から利用者の入力環境を推定し、候補テキスト利用者のタスクの実行意図を含むものであるか否かを評価し、評価結果に基づいて候補テキストを選択してもよい。例えば、選択部114は、候補テキストの位置情報から利用者が自宅にいることが推定される場合には、自宅で利用する制御対象デバイス30に関するタスクの適合率を高く設定し、同時に職場で利用する制御対象デバイス30に関するタスクの適合率を低く設定することで対応するタスクが選択される確度を変更してよい。
図6は、選択部114による好適候補選別を模式的に示す図である。言語モデルとは、候補テキストから、好適候補を生成するためのモデルである。選別部110は、例えば、候補ベクトルの文ベクトルとタスクテキストの文ベクトルの類似度から、タスクテキストに近いものほど高い評価値を与え、更に、言語モデルを用いて、単語の並びに関するスコアが高いものほど高い評価値を与える、これらの評価値を総合評価することで、好適候補を選択する。なお、言語モデルは、利用者の周辺環境を加味して評価を行うものでもよい。
図3に戻り、出力情報生成部116は、選択部114により出力された好適候補に基づいて、利用者の意図する出力情報を生成し、出力部118に出力する。出力情報には、出力先の装置を特定する情報、出力先の装置に対する処理リクエストなどが含まれる。
出力情報生成部116は、例えば、好適候補が「今日の天気を教えて」である場合、サービスサーバ40の提供する天気予報のウェブサイトに対してリクエストを送信し、端末装置20に送信するためのリクエストの応答の一部または全部を含む情報を出力情報とする。また、出力情報生成部116は、例えば、好適候補が「音楽の音量を下げて」である場合、音楽再生中の制御対象デバイス30を特定し、音量を下げる命令を出力する。なお、出力情報生成部116は、出力先が制御対象デバイス30の出力情報を生成する場合、端末装置20に制御対象デバイス30に対して出力情報を出力したことを通知する出力情報を併せて生成してもよい。
出力部118は、出力情報生成部116により出力された出力情報を、端末装置20または制御対象デバイス30に出力する。
[タスクテキスト]
以下、タスクテキストについて説明する。情報処理装置100の管理者は、例えば、端末装置20の過去の音声入力履歴や、情報処理装置100の処理履歴に基づいて、選択部114が評価基準とするタスクテキストを抽出する。
図7は、タスクテキストを説明するための図である。図7の左図は、端末装置20の過去の音声入力履歴の音声認識結果R1〜R7を示す。音声認識結果には、端末装置20の利用者の入力意図が反映されたものと、利用者には入力意図はないが音声認識されたものとが含まれる。情報処理装置100の管理者は、例えば、音声認識結果のR4をタスクに近いテキストであると判別した場合、図7の右上図に示すように優先度を高く設定する。タスクに近いとは、利用者の入力意図が反映された可能性が高いテキストが含まれることである。また、情報処理装置100の管理者は、音声認識結果のR6をタスクから遠いテキストであると判別した場合、図7の右下図に示すように優先度を低く設定する。
また、情報処理装置100の管理者は、R1、R2、R3、R5、およびR7についてもタスクから遠いテキストであると判別し、優先度を低く設定する。タスクテキストの優先度は、例えば、タスクテキストの文ベクトル値とともに、タスクテキストベクトルリスト120gに登録される。
[言語モデル生成処理フロー]
以下、情報処理装置100による言語モデル120bの生成処理について説明する。情報処理装置100は、例えば、コーパスの種別毎に言語モデル120bを生成する。また、情報処理装置100の管理者により、定期的に言語モデル演算用テキスト120hの変更・更新が行われてもよく、例えば、そのタイミングで言語モデルの再生成が行われる。
図8は、情報処理装置100による言語モデル120bの生成処理の流れの一例を示すフローチャートである。
まず、取得部102は、コーパスとして利用する文字情報を取得する(S100)。次に、解析部104は、コーパスとして利用する文字情報を解析し、解析結果をコーパスの解析結果120cとして記憶部120に記憶させる(S102)。次に、W2V実行部106は、コーパスの解析結果120cに含まれる単語のベクトル値を生成し、単語ベクトルリスト120fとして記憶部120に記憶させる(S104)。
次に、取得部102は、タスクテキストを取得する(S106)。次に、解析部104は、タスクテキストを解析し、解析結果をタスクテキストの解析結果120dとして記憶部120に記憶させる(S108)。
次に、取得部102は、候補テキストを取得する(S110)。次に、解析部104は、候補テキストを解析し、解析結果を候補テキストの解析結果120eとして記憶部120に記憶させる(S112)。
次に、テキストベクトル生成部108は、タスクテキストの解析結果120dと単語ベクトルリスト120fを参照して、タスクテキストの文ベクトルを生成し、タスクテキストベクトルリスト120gとして記憶部120に記憶させる(S114)。
次に、選別部110は、候補テキストを選別し、言語モデル生成部112aに出力する(S116)。
次に、言語モデル生成部112aは、選別部110により出力された候補テキストと、言語モデル演算用テキスト120hとに基づいて、言語モデル120bを生成する(S120)。以上、本フローチャートの処理の説明を終了する。
[信頼度]
以下、信頼度導出部110aの信頼度導出処理についてより具体的に説明する。信頼度とは、音声認識結果の信頼性を評価する度合を0から1.0の間の数値で示すものである。信頼度導出部110aは、例えば、テキストの信頼性が高い場合、すなわち、他の競合候補となるテキストが存在しない場合に信頼度を1.0に設定する。信頼度は、例えば、大語彙連続音声認識エンジンの検索結果として得られる単語の事後確率を用いて導出される。
図9は、信頼度導出部110aによる信頼度導出処理を説明するための図である。信頼度導出部110aは、例えば、候補テキストE1〜E4のそれぞれの信頼度を導出する。選別部110は、例えば、信頼度導出部110aが導出した信頼度が閾値(例えば、0.8程度)以上である候補テキストE1およびE4をタスクテキストとして選択する。なお、選別部110は、複数のタスクテキストが選択可能である場合、信頼度の高いタスクテキストを優先的に選択してもよい。
[ベクトルリストのクラスタリング]
図10は、タスクテキストベクトルリスト120gを模式的に示す図である。タスクテキストベクトルリスト120gは、例えば、10個程度のクラスタ構造をとる。類似するタスクテキストをクラスタとして取りまとめる。クラスタは、例えば、k平均法(k-means clustering)等により構成される。
また、タスクテキストベクトルリスト120gは、クラスタ毎に代表ベクトルを導出しておくことで、被検索効率を高めることができる。代表ベクトルとは、例えば、クラスタを構成するタスクテキストの文ベクトルの平均でもよいし、タスクテキストの優先度と文ベクトルによる加重平均であってもよい。
図11は、代表ベクトルを説明するための図である。選別部110は、タスクテキストを選択する際に、まず代表ベクトルと、候補テキストの文ベクトルとを比較してクラスタを選択し、次に選択したクラスタの中から、好適なタスクテキストを選択する。
[テキストの類似評価]
以下、テキストの類似評価方法について説明する。図12は、類似評価方法について説明するための図である。
言語モデル演算部112は、例えば、「ボリュームを下げて」の文ベクトルv1、および「音楽の音を小さくして」の文ベクトルv2を、式(1)に示すコサイン類似度を求める数式に適用することで、テキストの類似度を評価する。
Figure 2020042131
式(1)は、文ベクトルv1と文ベクトルv2の積を、文ベクトルv1の絶対値と文ベクトルv2の絶対値の積で除算することを表す式であり、演算結果が1に近ければ文ベクトルv1と文ベクトルv2が類似していることを示す。
言語モデル演算部112は、コサイン類似度が閾値以上であれば、文ベクトルv1と文ベクトルv2とが類似である、すなわち、元のテキストが同一または類似の入力意図を示すと判別する。
言語モデル演算部112は、例えば、クラスタの代表ベクトルと候補テキストの文ベクトルとの類似評価を行う。図13は、言語モデル演算部112による、クラスタ選択を模式的に示す図である。
言語モデル演算部112は、図13に示すように、例えば、候補テキスト「ボリュームを下げてほしいなあ」の文ベクトルと、クラスタC1およびC2の代表ベクトルとの類似度をそれぞれ導出し、類似度が高いクラスタC2を第1段階の選択対象として選択する。さらに、言語モデル演算部112は、選択したクラスタC2の中から第2段階の選択対象として1以上の好適なタスクテキストを選択する。
[音声認識処理]
図14は、情報処理装置100による音声認識処理の流れの一例を示すフローチャートである。
まず、取得部102は、音声データを取得する(S200)。次に、解析部104は、取得部102により出力された音声データを音響モデル120aに適用し、候補テキストを生成する(S202)。次に、言語モデル演算部112は、解析部104により出力された候補テキストを言語モデル120bに適用する(S204)。次に、選択部114は、言語モデル演算部112により出力された適用結果から、好適候補を選択する(S206)。次に、出力情報生成部116は、好適候補に基づいて出力情報を生成する(S208)。次に、出力部118は、出力情報を端末装置20等に出力する(S210)。以上、本フローチャートの処理の説明を終了する。
以上、説明した実施形態の情報処理装置100によれば、音声データを取得する取得部102と、音声データを解析して候補テキストに変換した、1以上の解析結果を出力する解析部104と、解析結果に係る候補テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換するW2V実行部106と、W2V実行部106により変換されたベクトル値と、音声データに係る音声を発した利用者の入力テキストの入力意図が既知の入力テキストに対応し、予め求められている単語ベクトルリスト120fとに基づいて、1以上の解析結果から入力意図が反映された可能性の高い解析結果を選択する選択部114と、を備えることにより、より効率的に音声認識処理を行うことができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
100…情報処理装置、20…端末装置、30…制御対象デバイス、40…サービスサーバ、100…情報処理装置、102…取得部、104…解析部、106…W2V実行部、108…テキストベクトル生成部、110…選別部、110a…信頼度導出部、112…言語モデル演算部、114…選択部、116…出力情報生成部、118…出力部

Claims (9)

  1. 音声データを取得する取得部と、
    前記音声データを解析してテキストに変換した、1以上の解析結果を出力する解析部と、
    前記解析結果に係る前記テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換するベクトル変換部と、
    前記ベクトル変換部により変換されたベクトル値と、前記音声データに係る音声を発した利用者の入力テキストの入力意図が既知の入力テキストに対応し、予め求められている前記既知の入力テキストのベクトル値とに基づいて、前記1以上の解析結果から前記入力意図が反映された可能性の高い前記解析結果を選択する選択部と、
    を備える情報処理装置。
  2. 前記解析結果の信頼度を導出する、信頼度導出部をさらに備え、
    前記選択部は、前記信頼度に基づいて選択する前記解析結果を変更する、
    請求項1に記載の情報処理装置。
  3. 前記選択部は、前記信頼度が閾値以上である前記解析結果を優先的に選択する、
    請求項2に記載の情報処理装置。
  4. 前記ベクトル変換部は、意味の類似度が所定の度合以上の前記既知の入力テキストの一群であるクラスタの代表ベクトルを導出し、
    前記選択部は、前記代表ベクトルを用いて前記解析結果の第1段階の選択を行い、その後、前記第1段階の選択により選択された前記クラスタから前記利用者の入力テキストの入力意図が反映された可能性の高い前記解析結果を選択する、
    請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記選択部は、前記音声データに付与された位置情報に基づいて、前記音声データが利用者のタスクの実行意図を含むものであるか否かを判別する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記選択部は、前記位置情報に基づいて推定される前記音声データの入力環境に応じて、前記対応するタスクの選択する確度を変更する、
    請求項5に記載の情報処理装置。
  7. 前記選択部による選択結果に基づいて、前記入力意図に対応する出力情報を生成するタスクに関する命令を出力する出力情報生成部を更に備える、
    請求項1から6のいずれか1項に記載の情報処理装置。
  8. コンピュータが、
    音声データを取得し、
    前記音声データを解析してテキストに変換した、1以上の解析結果を出力し、
    前記解析結果に係る前記テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換し、
    変換されたベクトル値と、前記音声データに係る音声を発した利用者の入力テキストの入力意図が既知の入力テキストに対応し、予め求められている前記既知の入力テキストのベクトル値とに基づいて、前記1以上の解析結果から前記入力意図が反映された可能性の高い前記解析結果を選択する、
    情報処理方法。
  9. コンピュータに、
    音声データを取得させ、
    前記音声データを解析させてテキストに変換させた、1以上の解析結果を出力させ、
    前記解析結果に係る前記テキストに含まれる複数の単語のそれぞれを示す分散表現によるベクトル値に変換させ、
    変換されたベクトル値と、前記音声データに係る音声を発した利用者の入力テキストの入力意図が既知の入力テキストに対応し、予め求められている前記既知の入力テキストのベクトル値とに基づいて、前記1以上の解析結果から前記入力意図が反映された可能性の高い前記解析結果を選択させる、
    プログラム。
JP2018168724A 2018-09-10 2018-09-10 情報処理装置、情報処理方法、およびプログラム Active JP7058574B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018168724A JP7058574B2 (ja) 2018-09-10 2018-09-10 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168724A JP7058574B2 (ja) 2018-09-10 2018-09-10 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020042131A true JP2020042131A (ja) 2020-03-19
JP7058574B2 JP7058574B2 (ja) 2022-04-22

Family

ID=69798120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168724A Active JP7058574B2 (ja) 2018-09-10 2018-09-10 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7058574B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093625A (zh) * 2021-04-12 2021-07-09 广州宏途教育网络科技有限公司 一种用于智慧教室的学生行为分析***
WO2021186501A1 (ja) * 2020-03-16 2021-09-23 日本電気株式会社 音声認識装置、制御方法、及びプログラム
CN113903340A (zh) * 2020-06-18 2022-01-07 北京声智科技有限公司 样本筛选方法及电子设备
WO2022044957A1 (en) * 2020-08-31 2022-03-03 Recruit Co., Ltd. Systems and methods for enhanced review comprehension using domain-specific knowledgebases

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049541A (ja) * 1996-08-01 1998-02-20 Takatsugu Kitagawa 意味情報処理装置
JP2007122383A (ja) * 2005-10-27 2007-05-17 Toshiba Corp 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP2010224194A (ja) * 2009-03-23 2010-10-07 Sony Corp 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム
JP2015001695A (ja) * 2013-06-18 2015-01-05 日本電信電話株式会社 音声認識装置、音声認識方法及びプログラム
JP2018045657A (ja) * 2016-09-16 2018-03-22 ヤフー株式会社 学習装置、プログラムパラメータおよび学習方法
JP2018045001A (ja) * 2016-09-12 2018-03-22 株式会社リコー 音声認識システム、情報処理装置、プログラム、音声認識方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049541A (ja) * 1996-08-01 1998-02-20 Takatsugu Kitagawa 意味情報処理装置
JP2007122383A (ja) * 2005-10-27 2007-05-17 Toshiba Corp 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP2010224194A (ja) * 2009-03-23 2010-10-07 Sony Corp 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム
JP2015001695A (ja) * 2013-06-18 2015-01-05 日本電信電話株式会社 音声認識装置、音声認識方法及びプログラム
JP2018045001A (ja) * 2016-09-12 2018-03-22 株式会社リコー 音声認識システム、情報処理装置、プログラム、音声認識方法
JP2018045657A (ja) * 2016-09-16 2018-03-22 ヤフー株式会社 学習装置、プログラムパラメータおよび学習方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186501A1 (ja) * 2020-03-16 2021-09-23 日本電気株式会社 音声認識装置、制御方法、及びプログラム
CN113903340A (zh) * 2020-06-18 2022-01-07 北京声智科技有限公司 样本筛选方法及电子设备
WO2022044957A1 (en) * 2020-08-31 2022-03-03 Recruit Co., Ltd. Systems and methods for enhanced review comprehension using domain-specific knowledgebases
US11620448B2 (en) 2020-08-31 2023-04-04 Recruit Co., Ltd. Systems and methods for enhanced review comprehension using domain-specific knowledgebases
US11934783B2 (en) 2020-08-31 2024-03-19 Recruit Co., Ltd. Systems and methods for enhanced review comprehension using domain-specific knowledgebases
CN113093625A (zh) * 2021-04-12 2021-07-09 广州宏途教育网络科技有限公司 一种用于智慧教室的学生行为分析***

Also Published As

Publication number Publication date
JP7058574B2 (ja) 2022-04-22

Similar Documents

Publication Publication Date Title
US10991366B2 (en) Method of processing dialogue query priority based on dialog act information dependent on number of empty slots of the query
JP6317111B2 (ja) ハイブリッド型クライアントサーバ音声認識
US11282524B2 (en) Text-to-speech modeling
JP7058574B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111428010B (zh) 人机智能问答的方法和装置
US20200082808A1 (en) Speech recognition error correction method and apparatus
CN111837116B (zh) 自动构建或更新对话式ai***的对话流管理模型的方法
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
US11574637B1 (en) Spoken language understanding models
JP6019604B2 (ja) 音声認識装置、音声認識方法、及びプログラム
JP2010537321A (ja) 統計的分類のための最適な選択方略の方法及びシステム
JP6370962B1 (ja) 生成装置、生成方法および生成プログラム
KR101891498B1 (ko) 대화형 ai 에이전트 시스템에서 멀티 도메인 인텐트의 혼재성을 해소하는 멀티 도메인 서비스를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR20200084260A (ko) 전자 장치 및 이의 제어 방법
US10600419B1 (en) System command processing
US11043215B2 (en) Method and system for generating textual representation of user spoken utterance
JP6408080B1 (ja) 生成装置、生成方法及び生成プログラム
WO2022237376A1 (en) Contextualized speech to text conversion
JP7096199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110164416B (zh) 一种语音识别方法及其装置、设备和存储介质
TW200415573A (en) Adaptive context sensitive analysis
US11200885B1 (en) Goal-oriented dialog system
KR20210020656A (ko) 인공 지능을 이용한 음성 인식 방법 및 그 장치
KR102120751B1 (ko) 대화 이해 ai 시스템에 의하여, 머신러닝을 대화 관리 기술에 적용한 하이브리드 계층적 대화 흐름 모델을 기초로 답변을 제공하는 방법 및 컴퓨터 판독가능 기록 매체
CN112395396A (zh) 问答匹配和搜索方法、设备、***及存储介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220412

R150 Certificate of patent or registration of utility model

Ref document number: 7058574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350