JP5111607B2 - 音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法および装置 - Google Patents

音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法および装置 Download PDF

Info

Publication number
JP5111607B2
JP5111607B2 JP2010521152A JP2010521152A JP5111607B2 JP 5111607 B2 JP5111607 B2 JP 5111607B2 JP 2010521152 A JP2010521152 A JP 2010521152A JP 2010521152 A JP2010521152 A JP 2010521152A JP 5111607 B2 JP5111607 B2 JP 5111607B2
Authority
JP
Japan
Prior art keywords
items
voice
phrase
interacting
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010521152A
Other languages
English (en)
Other versions
JP2011505026A (ja
Inventor
ウェインバーグ、ガレット
ラマクリシュナン、ビクシャ
シュミット−ニールセン、ベント
ハーシャム、ブレット・エイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2011505026A publication Critical patent/JP2011505026A/ja
Application granted granted Critical
Publication of JP5111607B2 publication Critical patent/JP5111607B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、包括的には自動音声認識システムに関し、より詳細には、そのようなシステムのためのユーザ対話インタフェースに関する。
自動音声認識(ASR:Automatic Speech Recognition)を利用するアプリケーションは、ユーザと対話するために、音声ベースのユーザインタフェースを必要とする。一般的に、ユーザは、発話ユーザ入力を使用する2タイプのタスクを実行することができる。第1のタイプは、クエリを用いた情報検索(IR:Information Retrieval)に関連する。このタスクにおいて、ユーザは、アイテム、例えば、文書、画像、記録を、データベースに格納された多くのアイテムの集合、例えば、インターネットのウェブから検索することを望む。もう一方のタスクのタイプは、音声対応のコマンド及び制御である。ここでは、ユーザは、何らかの操作を実行することを望む。両タスクは、ユーザが言ったかもしれないことの可能性の「絞込み」を含む。
IRの場合、これは多くの場合で、図1に示すようなやりとりを通じて遂行される。図1において、縦軸は時間を示す。図1において、ユーザ101のステップは、左側に示されており、システム102のステップは、右側にある。システムは、或るルート状態R120を有している。ユーザ101は、例えばアイテムを検索するために、発話入力110を提供する。発話入力110は、いくつかの他の状態セットY及びZ123に関連するのではなく、状態セットX124に関連するものとして解釈される(122)。これに応じて、システムは、次の状態X125に入り、おそらくユーザを促す。
ユーザは、追加入力110を提供する。例えば、声ベースの目的地エントリーシステムにおいて、ユーザは、最初に国を選択することを要求される場合ある。その後、分岐したステップにおいて、目的地の通り名を言うことを許可される前に、都市を選択することを要求される場合がある。対話が完了し、関連するアイテム127が検索されるまで、プロセス124は反復し、状態128−129を変更する(126)システムを継続する。
通常、すべてのシステム状態は、限られた状態固有の文法、語彙、及び/又は言語モデルを有し、128及び129のような状態は、有限状態機械(FSM:finite−state machine)における2つ以上のアプリケーション状態の横断を含むマルチステッププロセスを介してのみ到達可能である。
図2に示すように、コマンド型アプローチは、多くの場合に「キャリア」フレーズを含み、そこでは、いくつかの修飾語及び/又は変数として同一フレーズ130の中にコマンド言語が存在する。システムは、フレーズ130の中にある修飾語句及び変数として付与されたキャリアフレーズの意味を解釈し(122)、状態セットX124に入る。キャリアフレーズが或る状態例Xと関連がある場合、本システムは、すぐに該状態に入るか、又は該状態に入る前にユーザからの確認を要求する(132)。ユーザパート133上の確認又は取り消し137は、言語的な対話様式又は物理的な対話様式を使用して実現することができる(139)。プロセス124は、前述同様に反復することができる。
他方のアプローチも一般的である。例えば、コマンドなしで変数を発話することができるか、又は、コマンドは変数のみを利用可能なダイアログ状態を開始し得る。検索タスクは、例えば、「アーティストVanilla Iceを見つけろ」というフレーズの中のキャリアワードを使用して達成される。しかし、それぞれの場合に、状態毎の語彙、フレーズの文法、及び/又は言語モデルが確定される。
一般的に、2つの異なるインタフェースは、互いに互換性がない。すなわち、IRインタフェースはコマンドを処理できず、制御インタフェースはクエリを処理できない。
音声インタフェースは、1つ又は複数の単語から成るフレーズの形式において発話入力を取得する。該フレーズがクエリであるか、又はコマンドであるかが判断される。該フレーズがクエリである場合、該フレーズによって特定される関連性のあるアイテムをデータベースから検索し、そうではなく、該フレーズがコマンドの場合、動作を実行する。
従来技術の情報検索ための音声ベースのインタフェースのブロック図である。 従来技術のコマンド及び制御のための音声ベースのインタフェースのブロック図である。 本発明の実施の形態1による発話によるユーザインタフェースのブロック図である。 本発明の実施の形態1によるドメインの概略図である。 図4のドメインを構築するためのプロセスの概略図である。 本発明の実施の形態1によるドメイン構造例の概略図である。
実施の形態1.
本発明の実施の形態1は、音声ベースのインタフェースを介してユーザと対話するための方法を提供する。任意の発話入力は、情報検索に、又はコマンド及び制御に関連し得る。ここで、後者は、メニュー間又は機能階層間の選択を含み得る。
限られた語彙及び文法を有する従来の発話によるユーザインタフェースと対照的に、本発明のインタフェースは、基本的に無制限な語彙及び文法を有する。これは、任意の順番で任意の単語を発話することができることを意味する。これは、発話によるインタフェースの操作の柔軟性と効率性とを非常に高める。
インタフェース構造及び操作
図3は、本発明の実施の形態1による音声ベースのユーザインタフェースを示す。縦軸は、時間を表している。ユーザ101の動作は、左側に示されており、システム102の動作は、右側に示されている。
ユーザは、1つ又は複数の単語から成るフレーズの形式において、非構造的又は半構造的な発話入力133を提供することによって対話を開始する。従来のインタフェースとは異なり、該入力は、クエリ又はコマンドであり得る。
変数及び修飾語句が、コマンド言語に加えてコマンドフレーズの中に含まれている場合がある。すなわち、本インタフェースによって、ユーザは、何でも言うことができる。
従来のインタフェースにおけるように、有限状態機械(FSM)124に入るのではなく、本システムは、参照によりその全体が本明細書に援用される、米国特許第6,877,001号明細書に説明されているような、音声ベースのIRシステムを使用する発話入力に対するマルチドメイン検索及び関連度解析のシーケンス135を実行する。
発話入力は、同時係属中の関連する米国特許出願第12/036,681号明細書に説明及び示されているように、任意の下層のインデックス及びデータベースと同様に、パーティクルを使用することができる。検索及び関連度評価は、様々なドメインの中で起き、ドメインによっては、従来のコマンド及び制御インタフェースと同様にコマンドに関係するものもあり、文書の集合若しくは音楽の集合、又はナビゲーションシステムの関心地点(POI:points of interest)のような、検索可能なコンテンツに関係するものもある。
アプリケーションの異なる機能領域の中の状態、例えば、オーディオ/ビジュアル及びナビゲーションに、別個にインデックス付けし、1つ又は複数の異なるコマンドドメインを形成することができる。
コマンド及びクエリドメイン
コマンドドメインの場合、IRエンジンによって検索される「アイテム」は、所与のFSM状態に対するポインタであり、該アイテムは、この状態及び該アイテムの状態から到達可能な他の状態によって予期される任意の入力に関する情報を含む場合がある。コマンドアイテムのIRインデックスの中に含まれていない入力が要求される場合、従来の有限状態文法(FSG:finite state grammar)に反する、変数及び/又は修飾語句の代用語を含む音声入力を再認識することにより、又は、追加的な明確化用入力をユーザに促すことにより、入力を抽出することができる。
コンテンツドメインの場合、検索される「アイテム」は、アーティスト、アルバム、又は音楽集合の中の楽曲、又は近くのレストランPOIのような、検索可能なコンテンツの個別のノードに対するポインタである。
本システムは、発話入力がクエリであるか又はコマンドであるか判断する(136)。最も一致するドメインがコンテンツドメインである場合、結果リスト137がユーザに提示され、ユーザは、有効にするコンテンツを選択する(140)。入力フレーズがコマンドの場合、最も一致するコマンド若しくは複数のコマンドが確認のためにユーザに提示され得るか、又は、明らかに最も一致するコマンドがある場合には、すぐに実行され得る(138)。必要であれば、コマンド又はクエリを精密化するか又は完全にするために、追加的なフレーズを入力することができる。
結果の提示
関連性のあるコマンド又は関連性のあるアイテムは、多数の異なる方法でユーザに提示され得る。異なるドメインからの関連性のある一致は、ドメイン毎に分離することができ、ドメインは、毎回同じ順序で表示されるか、又は所与のクエリに対する関連度の降順で表示される。代替的には、全ドメインからの一致が、結合された結果リストの中に混合されてもよい。
関連性のあるドメインの判断
いかなる音声入力フレーズも、ドメインのそれぞれの中で一致する可能性が高い。入力フレーズに対する最も関連性のあるドメインを判断するために、無作為の取り出しによって最も取得される可能性の低い一致はどれかを判断する。その尤度は、従来のように計算され得る。
図4は、全ドメイン内のアイテムIのセット406を示す。該セット内のアイテムIの数はTである。サブセットI、I等は、ドメイン1、2等からのアイテムを表し、T、T等は、これらサブセットのそれぞれの中にあるアイテムの数を表す。これらサブセットは交わることができる。サブセット407及び408を参照されたい。
ユーザの入力フレーズUは、N個のアイテムを検索する。N個のアイテムの中でN個のアイテムは、サブセットIからのもの、N個は、サブセットIからのものであり、以下同様である。これらの検索の関連度を判断するために、確率P rand(N,N)を求める。ここで、セットIからN個のアイテムを無作為に取り出す場合、アイテムのうちのN個がサブセットDからのものである。
同様に、確率P rand(N,N)を求める。ここで、セットIからN個の文書を無作為に取り出す場合、N個がサブセットIに属する。概して、確率P rand(N,N)は、i番目のドメインから取得されるアイテムの数が、セットIからのN個の文書の無作為な取り出しによっても同様に取得された可能性がある確率である。そのとき、入力フレーズUに対するドメインは、最小確率P rand(N,N)を有する。すなわち、次式が成立する。
Domain(U)=argmin rand(N,N)
上記方法は、無作為に取得された可能性が最も低いのは、いずれのドメインであるかを判断し、対応するドメインが入力フレーズに対して最も関連性のあるドメインであるとして選択される。さらに、確率に関する追加の閾値が、入力フレーズを完全に拒否するために適用され得る。
無作為にN個の文書を取り出すことの実際の確率を考慮に入れるか、又は、定型句の範囲内でのP rand(N,N)に対する上限又は下限を使用する、上記方法の他の実施の形態も可能である。
文書ベースのドメインの構造
関連の米国出願で説明されているように、ドメイン内のアイテムは、各アイテムにインデックス付けすることによって構築される。例えば、アイテムは、オペレータのマニュアル510のようなテキスト文書である(図5)。該文書は、明示的又は黙示的に設定されていることがあり、機械可読形式もしくは人間可読形式で提供されている場合がある。インデックス付けする過程は、文書を分割してより小さなセクションとし(520)、所与のセクションをユーザが検索することにより、発話される可能性が高い用語又はフレーズを識別する。
チャプタのタイトル及びサブチャプタのような、文書の構造を使用して用語を識別することができるいくつかの手段がある。単語及びフレーズの発生に関する統計値を全体として及びセクション毎に集計することができる。セクション毎に、文書全体のそれぞれに関する用語に対し、重みを割り当てることができる。これは、IRの目的のためのより関連性のある用語の識別を可能にする。
例えば「the」のような非常に短い又は一般的な単語、重要でない用語から成る、手動生成又はマシン生成の「ストップリスト」を組み込むことができる。しかし、ストップリスト上の用語が、特定のセクションにおいて高頻度で発生し、他のセクションではそうではないことが判明した場合、その用語は、ストップリストから関連性のある用語リストに移される。
チャプタのタイトル又はサブチャプタのタイトルに現れる、関連性のある用語又は特徴的な用語は、類義語辞書で調べらことができ、見つかった場合、そのような類義語も、所与のセクションの関連性のある用語リスト又は特徴的な用語リストに追加される。
図6は、ユーザ入力133、サーチドメイン610のセット及びコマンドドメイン602のセット、並びにアイテムの様々なサブセットを備え、それらのうちのいくつかが交わることができる階層的構造におけるドメイン構造を示す。
本発明を好ましい実施の形態の例として説明してきたが、本発明の精神及び範囲内で様々な他の適応及び変更を行うことができることは理解されたい。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲内に入るすべての変形及び変更を包含することである。

Claims (12)

  1. 音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法であって、
    1つ又は複数の単語から成るフレーズの構造におけるユーザからの発話入力を取得するステップと、
    前記フレーズがクエリであるか又はコマンドであるかを、複数の異なるドメインを使用して判断するステップと、
    前記フレーズがクエリである場合、複数のデータベースから関連性のあるアイテムを検索し、提示するステップと、
    前記フレーズがコマンドである場合、動作を実行するステップと、
    を備え
    すべての可能性のあるアイテムがアイテムのセットを形成し、
    前記方法は、
    前記セット内のアイテムをアイテムのサブセットにグループ分けするステップであって、アイテムの各前記サブセットは、前記複数のドメインのうちの1つを形成する、グループ分けするステップと、
    前記クエリに応答して、前記複数のドメインうちの1つ又は複数から前記アイテムを検索するステップと、
    検索されたアイテムが、アイテムのセット全体からの無作為の取り出しによって取得される可能性が最も低い場合、前記クエリに最も関連性があるものとして特定のドメインを選択するステップと、
    をさらに備えた音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  2. 前記フレーズが前記コマンドである場合、該フレーズは、変数と修飾語句とを含む、請求項1に記載の音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  3. 前記フレーズは、パーティクルの形式であり、アイテムに対するインデックスは、パーティクルの形式である、請求項1に記載の音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  4. 関連性のあるアイテムは、ドメイン毎に分離される、請求項1に記載の音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  5. 関連性のあるアイテムは、関連度順に提示される、請求項1に記載の音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  6. 関連性のあるアイテムは、結合された結果リスト内で混合される、請求項1に記載の音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法。
  7. 音声ベースのユーザインタフェースを介してユーザと対話するための装置であって、
    1つ又は複数の単語から成るフレーズの構造におけるユーザからの発話入力を取得する手段と、
    前記フレーズがクエリであるか又はコマンドであるかを、複数の異なるドメインを使用して判断する手段と、
    前記フレーズがクエリである場合、複数のデータベースから関連性のあるアイテムを検索し、提示する手段と、
    前記フレーズがコマンドである場合、動作を実行する手段と、
    を備え、
    すべての可能性のあるアイテムがアイテムのセットを形成し、
    前記装置は、
    前記セット内のアイテムをアイテムのサブセットにグループ分けする手段であって、アイテムの各前記サブセットは、前記複数のドメインのうちの1つを形成する、グループ分けする手段と、
    前記クエリに応答して、前記複数のドメインうちの1つ又は複数から前記アイテムを検索する手段と、
    検索されたアイテムが、アイテムのセット全体からの無作為の取り出しによって取得される可能性が最も低い場合、前記クエリに最も関連性があるものとして特定のドメインを選択する手段と、
    をさらに備えた音声ベースのユーザインタフェースを介してユーザと対話するための装置。
  8. 前記フレーズが前記コマンドである場合、該フレーズは、変数と修飾語句とを含む、請求項7に記載の音声ベースのユーザインタフェースを介してユーザと対話するための装置。
  9. 前記フレーズは、パーティクルの形式であり、アイテムに対するインデックスは、パーティクルの形式である、請求項7に記載の音声ベースのユーザインタフェースを介してユーザと対話するための装置。
  10. 関連性のあるアイテムは、ドメイン毎に分離される、請求項7に記載の音声ベースのユーザインタフェースを介してユーザと対話するための装置。
  11. 関連性のあるアイテムは、関連度順に提示される、請求項7に記載の音声ベースのユーザインタフェースを介してユーザと対話するための装置。
  12. 関連性のあるアイテムは、結合された結果リスト内で混合される、請求項7に記載の音声ベースのユーザインタフェースを介してユーザと対話するための装置。
JP2010521152A 2008-02-25 2009-02-25 音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法および装置 Active JP5111607B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/036,713 US7917368B2 (en) 2008-02-25 2008-02-25 Method for interacting with users of speech recognition systems
US12/036,713 2008-02-25
PCT/JP2009/053998 WO2009107848A1 (en) 2008-02-25 2009-02-25 Computer implemented method for interacting with user via speech-based user interface

Publications (2)

Publication Number Publication Date
JP2011505026A JP2011505026A (ja) 2011-02-17
JP5111607B2 true JP5111607B2 (ja) 2013-01-09

Family

ID=40651523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010521152A Active JP5111607B2 (ja) 2008-02-25 2009-02-25 音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法および装置

Country Status (5)

Country Link
US (1) US7917368B2 (ja)
EP (1) EP2245617B1 (ja)
JP (1) JP5111607B2 (ja)
CN (1) CN101952883B (ja)
WO (1) WO2009107848A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8377672B2 (en) 2010-02-18 2013-02-19 3M Innovative Properties Company Ligand functionalized polymers
US8435776B2 (en) 2010-03-03 2013-05-07 3M Innovative Properties Company Ligand functionalized polymers
US8586338B2 (en) 2008-05-30 2013-11-19 3M Innovative Properties Company Ligand functionalized substrates
US8652582B2 (en) 2008-05-30 2014-02-18 3M Innovative Properties Company Method of making ligand functionalized substrates
US9259689B2 (en) 2009-06-23 2016-02-16 3M Innovative Properties Company Functionalized nonwoven article

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
JP2010160316A (ja) * 2009-01-08 2010-07-22 Alpine Electronics Inc 情報処理装置及びテキスト読み上げ方法
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US8738377B2 (en) * 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
US8731939B1 (en) 2010-08-06 2014-05-20 Google Inc. Routing queries based on carrier phrase registration
US8924219B1 (en) * 2011-09-30 2014-12-30 Google Inc. Multi hotword robust continuous voice command detection in mobile devices
US9317605B1 (en) 2012-03-21 2016-04-19 Google Inc. Presenting forked auto-completions
US9536528B2 (en) 2012-07-03 2017-01-03 Google Inc. Determining hotword suitability
CN103116649B (zh) * 2013-02-28 2016-09-14 用友网络科技股份有限公司 数据分析***和数据分析方法
US9646606B2 (en) 2013-07-03 2017-05-09 Google Inc. Speech recognition using domain knowledge
US9472196B1 (en) 2015-04-22 2016-10-18 Google Inc. Developer voice actions system
US9740751B1 (en) 2016-02-18 2017-08-22 Google Inc. Application keywords
US9922648B2 (en) 2016-03-01 2018-03-20 Google Llc Developer voice actions system
US9691384B1 (en) 2016-08-19 2017-06-27 Google Inc. Voice action biasing system
CN106653019B (zh) * 2016-12-07 2019-11-15 华南理工大学 一种基于用户注册信息的人机对话控制方法及***
WO2020171545A1 (en) * 2019-02-19 2020-08-27 Samsung Electronics Co., Ltd. Electronic device and system for processing user input and method thereof
CN111081225B (zh) * 2019-12-31 2022-04-01 思必驰科技股份有限公司 技能语音唤醒方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0895396A3 (en) * 1997-07-03 2004-01-14 Texas Instruments Incorporated Spoken dialogue system for information access
US7089188B2 (en) * 2002-03-27 2006-08-08 Hewlett-Packard Development Company, L.P. Method to expand inputs for word or document searching
US6877001B2 (en) 2002-04-25 2005-04-05 Mitsubishi Electric Research Laboratories, Inc. Method and system for retrieving documents with spoken queries
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
CN1267838C (zh) * 2002-12-31 2006-08-02 程松林 一种语音检索方法及采用该方法的音像信息检索***
ATE410768T1 (de) 2003-08-29 2008-10-15 Johnson Controls Tech Co System und verfahren zum betrieb eines spracherkennungssystems in einem fahrzeug
CN1629934B (zh) * 2004-02-06 2011-05-11 刘新斌 一种语音虚拟键盘用户指令词库的构建方法
JP2006338508A (ja) * 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 関連コンテンツ探索装置及び方法
US8438024B2 (en) * 2007-10-05 2013-05-07 International Business Machines Corporation Indexing method for quick search of voice recognition results

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9650470B2 (en) 2008-05-30 2017-05-16 3M Innovative Properties Company Method of making ligand functionalized substrates
US10017461B2 (en) 2008-05-30 2018-07-10 3M Innovative Properties Company Method of making ligand functionalized substrates
US8586338B2 (en) 2008-05-30 2013-11-19 3M Innovative Properties Company Ligand functionalized substrates
US8652582B2 (en) 2008-05-30 2014-02-18 3M Innovative Properties Company Method of making ligand functionalized substrates
US8846203B2 (en) 2008-05-30 2014-09-30 3M Innovative Properties Company Method of making ligand functionalized substrates
US9259689B2 (en) 2009-06-23 2016-02-16 3M Innovative Properties Company Functionalized nonwoven article
US8377672B2 (en) 2010-02-18 2013-02-19 3M Innovative Properties Company Ligand functionalized polymers
US9296847B2 (en) 2010-02-18 2016-03-29 3M Innovative Properties Company Ligand functionalized polymers
US8945896B2 (en) 2010-02-18 2015-02-03 3M Innovative Properties Company Ligand functionalized polymers
US9758547B2 (en) 2010-03-03 2017-09-12 3M Innovative Properties Company Ligand functionalized polymers
US10005814B2 (en) 2010-03-03 2018-06-26 3M Innovative Properties Company Ligand functionalized polymers
US8435776B2 (en) 2010-03-03 2013-05-07 3M Innovative Properties Company Ligand functionalized polymers
US10526366B2 (en) 2010-03-03 2020-01-07 3M Innovative Properties Company Ligand functionalized polymers

Also Published As

Publication number Publication date
US20090216538A1 (en) 2009-08-27
EP2245617A1 (en) 2010-11-03
CN101952883A (zh) 2011-01-19
JP2011505026A (ja) 2011-02-17
CN101952883B (zh) 2012-03-21
EP2245617B1 (en) 2013-12-18
US7917368B2 (en) 2011-03-29
WO2009107848A1 (en) 2009-09-03

Similar Documents

Publication Publication Date Title
JP5111607B2 (ja) 音声ベースのユーザインタフェースを介してユーザと対話するための、コンピュータによって実現される方法および装置
EP2058800B1 (en) Method and system for recognizing speech for searching a database
US8311828B2 (en) Keyword spotting using a phoneme-sequence index
US10431214B2 (en) System and method of determining a domain and/or an action related to a natural language input
US10019514B2 (en) System and method for phonetic search over speech recordings
JP3488174B2 (ja) 内容情報と話者情報を使用して音声情報を検索するための方法および装置
CN102549652B (zh) 信息检索装置
US7949524B2 (en) Speech recognition correction with standby-word dictionary
US7860707B2 (en) Compound word splitting for directory assistance services
US20110071827A1 (en) Generation and selection of speech recognition grammars for conducting searches
US20070198511A1 (en) Method, medium, and system retrieving a media file based on extracted partial keyword
EP1837864A1 (en) Multi-context voice recognition system for long item list searches
JP2008532099A (ja) データベースに格納されている文書の索引付け及び検索のためにコンピュータにより実施される方法並びに文書の索引付け及び検索のためのシステム
WO2003010754A1 (fr) Systeme de recherche a entree vocale
JP2004318889A (ja) 音声を含んだ音声およびマルチメディアファイルから情報を取り出す双方向機構
US20100153366A1 (en) Assigning an indexing weight to a search term
US20180182378A1 (en) System and method for detecting phonetically similar imposter phrases
KR20060070605A (ko) 영역별 언어모델과 대화모델을 이용한 지능형 로봇 음성인식 서비스 장치 및 방법
WO2020080375A1 (ja) 報告書作成装置、方法、および記録媒体
JP2002278579A (ja) 音声データ検索装置
Song et al. Voice search of structured media data
Komatani et al. Contextual constraints based on dialogue models in database search task for spoken dialogue systems.
WO2009147745A1 (ja) 検索装置
Cerisara Automatic discovery of topics and acoustic morphemes from speech
TWI629606B (zh) 對話系統之對話方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5111607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250