JP2014513828A - 自動会話支援 - Google Patents

自動会話支援 Download PDF

Info

Publication number
JP2014513828A
JP2014513828A JP2013557947A JP2013557947A JP2014513828A JP 2014513828 A JP2014513828 A JP 2014513828A JP 2013557947 A JP2013557947 A JP 2013557947A JP 2013557947 A JP2013557947 A JP 2013557947A JP 2014513828 A JP2014513828 A JP 2014513828A
Authority
JP
Japan
Prior art keywords
user
words
profile information
search query
captured speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013557947A
Other languages
English (en)
Inventor
サミール・エス・ソリマン
ソーハム・ヴイ・シス
ヴィジャヤラクシュミ・アール・ラヴィーンドラン
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2014513828A publication Critical patent/JP2014513828A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2207/00Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place
    • H04M2207/40Type of exchange or network, i.e. telephonic medium, in which the telephonic communication takes place terminals with audio html browser

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

自動会話支援を提供する方法、装置、システム、およびコンピュータ読取可能媒体を提示する。1つまたは複数の態様によれば、コンピューティング・デバイスがコンピューティング・デバイスのユーザに関連するユーザ・プロフィール情報を取得することができる。当該ユーザ・プロフィール情報は、ユーザに関連する過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む。続いて、当該コンピューティング・デバイスは、ユーザ・プロフィール情報に基づいて、検索クエリに含めるための1つまたは複数の単語をキャプチャされたスピーチから選択することができる。次に、当該コンピューティング・デバイスが、選択された1つまたは複数の単語に基づいて検索クエリを生成することができる。

Description

関連出願の記載
本出願は、発明の名称を「音声処理中の自動情報アシスタントとして動作するモバイル・デバイス」とした、2011年3月16日出願の米国仮特許出願第61/453,532号と、発明の名称を「自動会話支援」とした2011年12月9日出願の米国仮特許出願第61/569,068号の利益を主張し、これら全体を全ての目的で引用により本明細書に組み込む。
本発明の諸態様はコンピューティング技術に関する。特に、本発明の諸態様は、自動会話支援を提供するシステム、方法、装置、およびコンピュータ読取可能媒体のようなモバイル・コンピューティング・デバイス技術に関する。
現行のシステムには、音声テキスト機能を提供し、かつ/または、キャプチャした音声に基づいてユーザが検索(例えば、インターネット検索)を行えるようにすることができるものもある。しかし、例えば、検索語句を受理できる範囲、ならびに、検索語句および/または検索すべき他の情報をユーザが手動で選択および/または編集できる程度において、これらの現行のシステムはしばしば制限されている。本発明の諸態様は、高度な音声テキスト機能をインテリジェントなコンテンツ検索と組み合わせて実装して自動会話支援を提供することにより、より便利な機能をモバイル・コンピューティング・デバイスのようなコンピューティング・デバイスのユーザに提供する。
自動会話支援を提供するためのシステム、方法、装置、およびコンピュータ読取可能媒体を提示する。上述のように、現行のシステムには、音声テキスト機能を提供し、かつ/または、キャプチャした音声に基づいてユーザが検索(例えば、インターネット検索)を行えるようにすることができるものもあるが、これらの現行の技術は、かかる検索がキャプチャされる1つの単語または短い句に限定されるという意味で制限されている。実際、長時間のスピーチに関連する音声がこれらの現行のシステムのうち1つによってキャプチャされた場合、ユーザはどの単語および/または句を検索すべきかを手動で指定する必要があるかもしれない。
しかし、本発明の諸態様を実装することにより、デバイスは長時間のスピーチ(例えば、通話、生のプレゼンテーション、対面式の個人的な議論、ラジオ番組、テレビ番組の音声部分、等)をキャプチャできるだけでなく、検索されるスピーチからインテリジェントに単語を選択し、当該スピーチで議論されている1つまたは複数のトピックに関する関連情報をユーザに提供することもできる。有利なことに、本明細書で説明するこれらの特徴および/または他の特徴により、増加した機能および改善された便利さをモバイル・デバイスおよび/または他のコンピューティング・デバイスのユーザに提供することができる。さらにまたはあるいは、本明細書で説明するこれらの特徴および/または他の特徴により、キャプチャされたスピーチからユーザが取得する情報の量および/または品質を増大および/または強化することができる。
本発明の1つまたは複数の諸態様によれば、コンピューティング・デバイスは、コンピューティング・デバイスのユーザに関連するユーザ・プロフィール情報を取得することができる。ユーザ・プロフィール情報は、ユーザに関連する1つまたは複数の過去にキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストを含んでもよい。続いて、コンピューティング・デバイスは、当該ユーザ・プロフィール情報に基づいて、キャプチャされたスピーチから1つまたは複数の単語を検索クエリに含めることができる。次いで、コンピューティング・デバイスは、選択された1つまたは複数の単語に基づいて検索クエリを生成することができる。
1つまたは複数の配置構成では、1つまたは複数の単語を選択する前に、コンピューティング・デバイスはキャプチャされたスピーチに対応する音声データを受信してもよい。当該音声データは、通話、生のプレゼンテーション、対面式の議論、ラジオ番組、およびテレビ番組のうち1つに関連してもよい。他の配置構成では、当該ユーザ・プロフィール情報はさらに、ユーザが過去に検索した1つまたは複数の単語のリストを含んでもよい。
少なくとも1つの配置構成では、コンピューティング・デバイスは、キャプチャされたスピーチから少なくとも1つの単語を、1つまたは複数の過去のキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストに追加してもよい。このように、過去に遭遇し、検出し、および/または検索した単語のデータベースを、例えば長期間にわたって構築してもよい。有利なことに、これにより、コンピューティング・デバイスは検索すべき単語をよりインテリジェントに選択することができ、過去に遭遇し、検出し、および/または検索した(したがって、ユーザが精通しているであろう)情報が再度検索されず、新規のならびに/または過去に遭遇し、検出し、および/もしくは検索していない(したがって、ユーザが精通してないであろう)情報を、検索し、かつ/または、他の情報に対して(例えば、かかる他の情報よりも目立たせて表示することによって)優先することができる。
1つまたは複数の追加のおよび/または代替的な配置構成では、ユーザ・プロフィール情報は、ユーザの職業、教育、または関心に関する情報を含んでもよい。幾つかの配置構成では、コンピューティング・デバイスが、ユーザ・プロフィール情報と類似するプロフィール情報を有する1人または複数人の他のユーザが過去に検索した1つまたは複数の単語にさらに基づいて1つまたは複数の単語を選択してもよい。例えば、後述するように、類似のプロフィール情報を有するユーザが関心をもつ1つまたは複数の単語をキーワード・リストにより定義してもよく、当該キーワード・リストを使用して検索クエリの生成および検索クエリの実行判定を行ってもよい。さらにまたはあるいは、やはり後述するように、排他リストにより、特定のユーザ(例えば、類似のプロフィール情報を有する特定のユーザ)が関心をもたない1つまたは複数の単語を定義してもよく、当該排他リストを用いて検索クエリの生成および/または検索クエリの実行判定を行ってもよい。
少なくとも1つの追加のおよび/または代替的な配置構成では、検索クエリの生成に応答して、コンピューティング・デバイスが当該検索クエリを実行してもよい。続いて、コンピューティング・デバイスが当該検索クエリの結果をユーザに表示してもよい。当該結果は、キャプチャされたスピーチに含まれる少なくとも1つのトピックに関する情報を含んでもよい。さらにまたはあるいは、キャプチャされたスピーチの終了を検出したことに応答して、当該結果をユーザに表示してもよい。他の配置構成では、当該結果をリアルタイムで(例えば、会話がキャプチャされた際に)ユーザに表示してもよい。後述のように、キャプチャされた単語、句、文、および/または段落の数のような要素により、リアルタイムな結果を表示するか否かおよび/またはどのようにリアルタイムな結果を表示するかに影響を及ぼしてもよい。
本発明の諸態様は例として示される。添付図面では同じ参照番号は同様な要素を示す。
本発明の1つまたは複数の諸態様を実装する例示的なシステムの図である。 本発明の1つまたは複数の諸態様を実装する別の例示的なシステムの図である。 本発明の1つまたは複数の例示的な諸態様に従う自動会話支援を提供する例示的な方法を示す図である。 本発明の1つまたは複数の例示的な諸態様に従う、検索クエリに含めるための1つまたは複数の単語を選択する例示的な方法を示す図である。 本発明の1つまたは複数の例示的な諸態様に従うコンテンツ・データ・セットの種々の例を示す図である。 本発明の1つまたは複数の例示的な諸態様に従うコンテンツ・データ・セットの種々の例を示す図である。 本発明の1つまたは複数の例示的な諸態様に従うコンテンツ・データ・セットの種々の例を示す図である。 本発明の1つまたは複数の例示的な諸態様に従うコンテンツ・データ・セットの種々の例を示す図である。 本発明の1つまたは複数の例示的な諸態様に従うユーザ・プロフィールの1例を示す図である。 本発明の1つまたは複数の諸態様を実装できる例示的なコンピューティング・システムを示す図である。
次に、添付図面を参照して幾つかの例示的な実施形態を説明する。添付図面は、発明を実施するための形態の一部を形成する。以下では本発明の1つまたは複数の諸態様を実施できる特定の実施形態を説明するが、本発明の範囲または添付の特許請求の範囲の趣旨から逸脱しない、他の実施形態を使用し様々な修正を行ってもよい。
本発明の様々な諸態様を実装する例示的なシステムが図1Aに示されている。図1Aから分かるように、ユーザ・デバイス110は、モバイル・コンピューティング・デバイスであってもよく、サーバ100と通信してもよい。サーバ100が無線処理スタック115を備えてもよい。無線処理スタック115は、無線通信サービスを(例えば、サーバ100によって、ユーザ・デバイス110を含む複数のモバイル・デバイスに対して)提供するのを容易にすることができる。さらに、サーバ100は、音声変換器120および音声テキスト・エンジン125を備えてもよい。これらは協働して、音声データ(例えば、ユーザ・デバイスがキャプチャしたスピーチに対応する音声データ)を受信しテキストおよび/または文字データに変換してもよい。サーバ100はさらに、(例えば、様々なユーザに関連する情報を格納できる)ユーザ・プロフィール・データベース130と、(例えば、それを介して1つまたは複数のインターネット検索クエリを実行でき、それを介して1つまたは複数のデータベース・クエリを実行できる、等の)検索インタフェース135とを備えてもよい。
本発明の1つまたは複数の諸態様を実装するシステムの代替的な例を図1Bに示す。図1Bから分かるように、1つまたは複数の追加のおよび/または代替的な配置構成では、モバイル・デバイス150は、1つまたは複数のコンポーネントおよび/またはモジュールを備えてもよい。当該1つまたは複数のコンポーネントおよび/またはモジュールは単体でまたは共同して動作してもよく、その結果、モバイル・デバイス150が、スピーチの処理および認識ならびに/または検索クエリの生成および実行のためにサーバ(例えば、サーバ100、サーバ175、等)を利用せずに、(例えば、後でさらに詳細に説明するように)スピーチを処理および認識し検索クエリを生成および実行することができる。例えば、モバイル・デバイス150は、音声変換器155および音声テキスト・エンジン160を備えてもよい。音声変換器155および音声テキスト・エンジン160は協働して、音声データ(例えば、モバイル・デバイス150がキャプチャしたスピーチに対応する音声データ)を受信しテキストおよび/または文字データに変換することができる。モバイル・デバイス150はさらに、(例えば、モバイル・デバイス150の1人または複数人のユーザに関する情報を格納できる)ユーザ・プロフィール情報モジュール165と、(例えば、それを介して1つまたは複数のインターネット検索クエリを実行でき、それを介して1つまたは複数のデータベース・クエリを実行できる、等の)検索インタフェース170とを備えてもよい。さらにまたはあるいは、これらの配置構成の一部では、サーバが(例えば、モバイル・デバイス150に含まれる類似のコンポーネントおよび/またはモジュールに対して冗長性を提供するために)サーバ100に含まれるコンポーネントおよび/またはモジュールの一部および/または全部を備えてもよく、他のこれらの配置構成では、サーバ175が、(例えば、複数のデバイスへの無線通信サービスの提供を促進するための)無線処理スタック180、(例えば、モバイル・デバイス150および/または他の類似のデバイスの1人または複数人のユーザに関する情報を格納できる)ユーザ・プロフィール情報データベース185、および/または(例えば、1つまたは複数のインターネット検索クエリ、1つまたは複数のデータベース・クエリ、等の実行の際に1つまたは複数のモバイル・デバイスを実行および/または支援できる)検索インタフェース190のみを備えてもよい。上述のように、これらの配置構成では、モバイル・デバイス150のようなユーザ・デバイス自体が、サーバ175の代わりにスピーチを認識し検索クエリを生成してもよい。
本発明の1つまたは複数の諸態様によれば、図1Aおよび/または図1Bの例示的なシステムの1つまたは複数の要素が、自動会話支援の提供において図2Aで示した例示的な方法のステップの一部および/または全部を実施してもよい。例えば、ステップ200で、ユーザ・デバイス110(例えば、スマート・フォン、タブレット・コンピュータ、携帯情報端末、等のようなモバイル・デバイス)が、(例えば、マイクロフォンを介してスピーチを表す音声データを録音することによって)スピーチをキャプチャしてもよい。
続いて、ステップ205で、キャプチャされたスピーチに対応する音声データを、ユーザ・デバイス110が送信し、サーバ100が受信してもよい。
以下のステップの一部では、図1Aのサーバ100が様々なステップを実施するとして説明しているが、1つまたは複数の追加のおよび/または代替的な実施形態(例えば、サーバ100ではなくモバイル・デバイス150が、認識されたスピーチを処理し、検索クエリを生成および実行する実施形態)では、同一および/または類似のステップを図1Bのモバイル・デバイス150によって実施してもよい。
サーバ100が音声データを受信すると、ステップ210で、サーバ100はユーザ・プロフィール情報(例えば、スピーチをキャプチャしたユーザ・デバイス110のユーザに関連するユーザ・プロフィール情報)をロードしてもよい。1つまたは複数の配置構成では、当該ユーザ・プロフィール情報が、過去に検索された単語(例えば、当該方法の過去の反復においてユーザが検索した単語)のリストを含んでもよい。さらにまたはあるいは、当該ユーザ・プロフィール情報が、ユーザの職業、教育、または関心に関する情報を含んでもよい。
上述のように、ステップ210でロードされたユーザ・プロフィール情報が、ユーザに関する情報(例えば、ユーザ・デバイス110のユーザに関する情報)を含んでもよい。当該情報は、ユーザが過去に遭遇したならびに/またはユーザ・デバイス110(および/またはユーザが関与したスピーチを分析する際にサーバ100)が特定および/もしくはキャプチャした単語のような、ユーザに関連する過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む。例えば、「This is an engineer at (公序良俗違反につき、不掲載)」という文をユーザが過去に聞いた場合(および、ユーザ・デバイス110が当該文に対応する音声を過去にキャプチャした場合)には、当該句に含まれる単語の各々および/または当該句全体を、キャプチャされたスピーチにおいて過去に検出された単語のリストに格納してもよい。続いて、ユーザが再び当該句に遭遇し(デバイスが当該句を再度検出する)場合には、デバイスは、ユーザに関するユーザ・プロフィール情報に基づいて、当該句およびそれに含まれる単語の全てにユーザが過去に遭遇したと判定し、当該句(または当該句に含まれる単語の一部)を後の検索クエリの形成において含めなくともよい。後述のように、キャプチャした単語の一部がユーザ・プロフィールに関連するキーワード・リストおよび/またはユーザ・プロフィールに関連する排他リストに含まれるか否かのような追加の要素を考慮してもよい。
次に、ステップ215で、サーバ100が音声データ(および特に、当該音声データに含まれるスピーチ)をテキストおよび/または文字データ(例えば、1つまたは複数の文字列)に変換してもよい。続いて、ステップ220で、サーバ100は、検索クエリに含めるべき1つまたは複数の単語を(例えば、変換された音声データから)選択してもよい。特に、例えば検索クエリが特定のユーザの経歴および知識に適合するように、サーバ100がユーザ・プロフィール情報に基づいて単語を選択してもよい。例えば、1つの配置構成では、サーバ100は検索クエリに含めるための単語を、当該ユーザと類似するプロフィール情報を有する他のユーザ(例えば、当該ユーザと同じ職業、教育、または関心をもつ他のユーザ)により検索された単語に基づいて選択してもよい。1つまたは複数の配置構成では、ステップ220で、サーバ100が、検索クエリに含めるための1つまたは複数の単語を、図2Bに示す例示的な方法の1つまたは複数のステップを実施することにより選択してもよい。当該方法については後にさらに詳細に説明する。
図2Aを再び参照すると、検索クエリに含めるための1つまたは複数の単語を選択した後、ステップ225で、サーバ100は(例えば、選択された単語を1つまたは複数の接続詞および/または他の検索修飾語を用いて繋げることにより)当該検索クエリを生成してもよい。次に、ステップ230で、サーバ100は、(例えば、インターネット検索エンジン、ニュースおよび/またはジャーナルの検索インタフェース、等に当該検索クエリを渡すことによって)当該検索クエリを実行してもよい。サーバ100が検索クエリの実行結果を受け取ると、ステップ235で、サーバ100は当該検索結果をユーザ・デバイス110に送信し、ユーザ・デバイス110がステップ240で当該検索結果をユーザに表示してもよい。1つまたは複数の態様によれば、当該検索結果が、ユーザが精通していないかもしれない単語または句の定義、ユーザが以前に触れたことのないかもしれない、スピーチで取り上げられた技術的概念を説明するジャーナル記事、等のような、キャプチャされたスピーチに含まれる少なくとも1つのトピックに関するより詳細な情報を含んでもよい。
1つまたは複数の配置構成では、検索クエリの生成と実行をリアルタイムに(例えば、キャプチャされたスピーチが行われたとき、および/または、スピーチがユーザ・デバイス110によってキャプチャされたとき)行ってもよく、サーバ100が検索結果を受け取ったときにかかる検索結果を同様にユーザ・デバイス110に送信してもよい。しかし、少なくとも1つの配置構成では、(例えば、特定の閾値を超える沈黙期間に基づいて、および/または、対面式の議論もしくは通話のケースにおける「さようなら」もしくは「お元気で」といった別れの単語の検出または生のプレゼンテーションのケースにおける拍手の検出のような他の標識に基づいて)キャプチャされているスピーチが終了したことをユーザ・デバイス110が検出するまで、任意のかかる検索結果の表示を待機するようにユーザ・デバイス110を構成してもよい。
検索クエリの生成と実行を(例えば、サーバ100またはモバイル・デバイス150により)リアルタイムに行う配置構成では、いつ(例えば、キャプチャされたスピーチにおけるどの特定の時点に)検索クエリを生成し実行すべきかの判定を、キャプチャされたスピーチの長さおよび/または性質に応じて行ってもよい。例えば、検索クエリをリアルタイムに生成し実行する幾つかの配置構成では、サーバ100またはモバイル・デバイス150を、閾値の数の単語、句、文、段落がキャプチャされた後に(例えば、図2Bを参照して後述するように、1つまたは複数の選択された単語を用いて)検索クエリを自動的に生成し実行するように構成してもよい。例えば、サーバ100またはモバイル・デバイス150を、完全な文がキャプチャされたとき常に、2つの完全な文がキャプチャされたとき常に、完全な段落がキャプチャされたとき常に、等で、キャプチャした単語のうち選択された単語を用いて検索クエリを自動的に生成し実行するように構成してもよい。検索クエリがリアルタイムに生成され実行される他の配置構成では、サーバ100またはモバイル・デバイス150を、キャプチャされたスピーチに新たな概念(例えば、新たな種類の技術)が含まれたとき常に検索クエリを自動的に生成し実行するように構成してもよい。なぜならば、これはキャプチャされている会話またはスピーチにおける転換を表し、したがって、ユーザが検索結果を参照したい場面である可能性があるからである。
検索クエリがリアルタイムに生成され実行されるさらに他の配置構成では、サーバ100またはモバイル・デバイス150を、検出された単語または句に関連するユーザ定義のおよび/または所定の優先度レベルに応じて検索クエリを自動的に生成し実行するように構成してもよい。例えば、幾つかの単語を「高」優先度を有すると見なして、かかる単語が検出されたときに当該単語に基づく検索が即座に生成され実行されるようにし、他の単語を「通常」優先度を有すると見なして、かかる単語が検出されたときに、当該単語に基づく検索が所定の時間内(例えば、30秒以内、1分以内、等)に生成され実行され、かつ/または、閾値の数の単語および/または句の後(例えば、2つの追加の文がキャプチャされた後、2つの段落がキャプチャされた後、等)に生成され実行されるようにしてもよい。さらにまたはあるいは、様々なユーザの様々なユーザ・プロフィール情報に基づいて、様々な単語を様々な種類のユーザに対して「高」優先度および「通常」優先度と見なしてもよい。様々な種類のユーザに対する様々な単語に関連する様々な種類の優先度レベルの例を、次の表に示す。
表A
Figure 2014513828
図2Bは、本発明の1つまたは複数の例示的な諸態様に従って検索クエリに含める1つまたは複数の単語を選択する例示的な方法を示す。本発明の1つまたは複数の諸態様によれば、本明細書で説明する方法および/または方法のステップの一部および/または全部を、コンピューティング・デバイスおよび/またはコンピュータ・システム500のようなコンピュータ・システムにより実施してもよい。これについては後述する。さらにまたはあるいは、本明細書で説明する方法および/または方法のステップの一部および/または全部を、命令を実行するための1つまたは複数のプロセッサを備えうる装置のメモリに格納したコンピュータ読取可能命令のようなコンピュータ読取可能命令および/もしくはコンピュータ実行可能命令、ならびに/または1つまたは複数のコンピュータ読取可能媒体に格納したコンピュータ読取可能命令で具体化してもよい。
上述のように、図2Bに示す例示的な方法の1つまたは複数のステップを、検索クエリに含めるための1つまたは複数の単語を選択する際にサーバ100により実施してもよい。したがって、1つまたは複数の配置構成では、図2Bに示す例示的な方法のステップの一部および/または全部を、スピーチおよび/もしくは音声データをテキストおよび/もしくは文字データに変換した後、ならびに/または、検索クエリを生成および/もしくは実行する前に実施してもよい。1つまたは複数の追加のおよび/または代替的な配置構成では、図2Bに示す例示的な方法の1つまたは複数のステップを、検索クエリに含めるための1つまたは複数の単語を選択する際にモバイル・デバイス150により実施してもよい。このように、これらの配置構成では、図2Bに示す例示的な方法のステップの一部および/または全部を、スピーチおよび/もしくは音声データをテキストおよび/もしくは文字データに変換した後、ならびに/または、検索クエリを生成および/もしくは実行する前に実施してもよい。
ステップ250で、特定の単語または句に過去に遭遇したかどうかを判定してもよい。例えば、ステップ250で、サーバ100は、(キャプチャした音声データを表すことができる)テキストおよび/または文字データに含まれる特定の単語または句にユーザ・デバイス110のユーザが過去に遭遇したかどうかを判定してもよい。代替的な例では、ステップ250で、モバイル・デバイス150は、(例えば、キャプチャした音声データを表すことができる)テキストおよび/または文字データに含まれる特定の単語または句にモバイル・デバイス150のユーザが過去に遭遇したかどうかを判定してもよい。1つまたは複数の配置構成では、サーバ100またはモバイル・デバイス150はこの判定を、サーバ100またはモバイル・デバイス150によって保持するかおよび/またはサーバ100またはモバイル・デバイス150に格納されたコンテンツ・データ・セットに特定の単語または句が含まれるかどうかに基づいて行ってもよい。1つまたは複数の配置構成では、かかるコンテンツ・データ・セットが、例えば、ユーザが過去に遭遇した単語および/または句のリストを含んでもよく、どれだけ多くユーザが当該単語および/もしくは句の各々に遭遇したか、もしあればどれだけ多くユーザが当該単語および/もしくは句の各々に関する情報をさらに検索したか、ならびに/または他の情報のような追加の情報を含んでもよい。さらにまたはあるいは、かかるコンテンツ・データ・セットが、ユーザ・デバイス110またはモバイル・デバイス150の特定のユーザに関連するユーザ・プロフィール情報の全部または一部を形成してもよい。さらに、幾つかの配置構成では、複数のコンテンツ・データ・セットを1人のユーザに対して維持してもよく、かつ/または、当該複数のコンテンツ・データ・セットが1人のユーザに対応してもよい。
少なくとも1つの配置構成では、スピーチまたは会話が行われておりかつ/またはデバイス110もしくはモバイル・デバイス150によりキャプチャされているときにサーバ100またはモバイル・デバイス150が単語をリアルタイムに受け取ることができるので、サーバ100またはモバイル・デバイス150がステップ250の判定において使用する特定の単語または句は、スピーチまたは会話における直近にキャプチャおよび/または変換された単語または句を表すことができる。さらにまたはあるいは、キャプチャされたスピーチおよび/もしくは会話が終了するまでならびに/またはキャプチャされたスピーチおよび/もしくは会話に含まれる単語および/もしくは句の全部がサーバ100またはモバイル・デバイス150によって処理されるまで、サーバ100またはモバイル・デバイス150が図2Bの方法を連続的に(例えば、ループで)実行してもよい。
サーバ100またはモバイル・デバイス150が評価している単語および/または句が過去に遭遇されたとステップ250で(例えば、サーバ100またはモバイル・デバイス150により)判定された場合には、ステップ255で、サーバ100またはモバイル・デバイス150はカウント値を増加させてもよい。当該カウント値は、ユーザ・デバイス110またはモバイル・デバイス150のユーザが特定の単語および/または句に遭遇した回数を表してもよい。1つまたは複数の配置構成では、例えば、当該カウント値をコンテンツ・データ・セットに格納してもよい。
他方、サーバ100またはモバイル・デバイス150が評価している単語および/または句が過去に遭遇されていないとステップ250で(例えば、サーバ100またはモバイル・デバイス150により)判定された場合には、ステップ260で、単語および/または句に関するさらなる情報が提示されることにユーザが関心をもっているとユーザに関するユーザ・プロフィール情報(例えば、ステップ210でサーバ100またはモバイル・デバイス150によりロードされたユーザ・プロフィール情報)が示唆するかどうかを判定してもよい。1つまたは複数の配置構成では、サーバ100またはモバイル・デバイス150はこの判定を、当該ユーザと類似するユーザ・プロフィール情報を有する他のユーザ(例えば、当該ユーザと類似する職業、教育、または関心を有するユーザ)が単語および/または句に関連するさらなる情報に過去に遭遇し、かつ/または、当該情報を過去に検索したかどうかに基づいて行ってもよい。ユーザ・プロフィール・データベース130またはユーザ・プロフィール・データベース185のような、他のユーザに関連するユーザ・プロフィール情報および/またはコンテンツ・データ・セットを格納できるデータベースにアクセスすることによって、かかる情報をサーバ100またはモバイル・デバイス150に対して利用可能としてもよい。
新たな単語に遭遇すると、例えば当該新たな単語の一部を(例えば、サーバ100またはモバイル・デバイス150によって)「重要」と見なし、したがって、ユーザが(検索クエリに含めるのに)関心のある単語であると判定してもよい。一方、他の単語を「重要」とは見なさず、したがって、ユーザが関心のある単語とは判定しなくともよい。少なくとも1つの配置構成では、単語が「重要」か否かが、ユーザのプロフィールに関連するキーワード・リストに当該単語が含まれるか否かに依存してもよい。かかるリストがユーザ定義であってもよく(例えば、ユーザが単語を当該リストに追加し、かつ/または、当該リストから削除してもよい)、かつ/または、ユーザの職業、教育、および/または関心(ならびに他のユーザ・プロフィール情報)に基づく1つまたは複数の所定の単語を含んでもよい。さらにまたはあるいは、かかるリストを、ユーザ・プロフィール情報が(例えば、ステップ210で上述したように)ロードされたときに当該リストを(例えば、サーバ100またはモバイル・デバイス150によって)ロードできるように、ユーザのプロフィールとともに格納し、かつ/または、ユーザのプロフィールと関連付けてもよい。特定のプロフィールのユーザと関連付けることができるキーワードの例を次の表に示す。
表B
Figure 2014513828
幾つかの配置構成では、ユーザのプロフィールに関連するキーワードに単語が十分に関連する場合には、当該単語を「重要」と見なしてもよい。例えば、特定のユーザが「無線エンジニア」のプロフィールに関連し当該ユーザのデバイスが「ケネリ・ヘビサイド層」という句をキャプチャした場合、当該デバイスは、当該句が「信号伝播」キーワードに十分に関連すると判定し、したがって、ケネリ・ヘビサイド層に関する追加の情報を検索および/または表示してもよい。ケネリ・ヘビサイド層は、無線信号の伝播に影響を及ぼす地球の電離層の層である。上で示したものと類似のデータ・テーブルを使用して、当該キーワードに関連する単語を格納してもよい。
1つまたは複数の追加のおよび/または代替的な配置構成では、さらに、ユーザのプロフィールと関連付けてキーワード・リストを格納するために、排他単語のリストを当該ユーザのプロフィールと関連付けて格納してもよい。かかる排他リストが、例えば、ユーザが「重要」と考えずそれに関するさらなる情報の受信に関心がない1つまたは複数の単語を定義してもよい。キーワード・リストに関して、排他リストがユーザ定義であってもよく、かつ/または、ユーザの職業、教育、および/または関心(ならびに他のユーザ・プロフィール情報)に基づく1つまたは複数の所定の単語を含んでもよい。さらにまたはあるいは、当該排他リストを、ユーザ・プロフィール情報が(例えば、ステップ210で上述したように)ロードされたときに当該リストを(例えば、サーバ100またはモバイル・デバイス150によって)ロードできるように、ユーザのプロフィールとともに格納し、かつ/または、ユーザのプロフィールと関連付けてもよい。特定のプロフィールのユーザと関連付けることができるキーワードの例を次の表に示す。
表C
Figure 2014513828
ステップ260で、単語および/または句に関するさらなる情報が提示されることにユーザが関心をもっているかもしれないとユーザに関するユーザ・プロフィール情報が示唆しないと(例えば、サーバ100またはモバイル・デバイス150によって)判定された場合には、ステップ265で、サーバ100またはモバイル・デバイス150は、当該単語および/または句を当該ユーザに関連する既存のコンテンツ・データ・セットに追加してもよい。1つまたは複数の配置構成では、既存のコンテンツ・データ・セットが、ユーザが過去に遭遇した単語および/もしくは句ならびに/または検索したことにユーザが関心をもたない単語および/もしくは句を包含および/または表現してもよい。さらにまたはあるいは、既存のコンテンツ・データ・セットは、ユーザに関してサーバ100またはモバイル・デバイス150によって格納および/または保持される1つまたは複数のコンテンツ・データ・セットであってもよく、当該ユーザに関連するユーザ・プロフィール情報に含まれ、かつ/または、当該ユーザに関連するユーザ・プロフィール情報を形成する。有利なことに、単語および/または句をこのように既存のコンテンツ・データ・セットに追加することによって、サーバ100またはモバイル・デバイス150がかかる単語および/または句を将来的に検索クエリに含めるために選択する可能性を(完全になくすわけではないにしても)低くすることができ、それにより、サーバ100またはモバイル・デバイス150により検索される将来の単語および/または句が、ユーザがそれについてのさらなる情報を知ることに真に関心をもつ単語および/または句である可能性が高まる。
他方、ステップ260で、単語および/または句に関するさらなる情報が提示されることにユーザが関心をもっているかもしれないとユーザに関連するユーザ・プロフィール情報が示唆すると(例えば、サーバ100またはモバイル・デバイス150によって)判定された場合には、ステップ270で、サーバ100またはモバイル・デバイス150は当該単語および/または句を検索クエリ(および/または、例えば、キャプチャされたスピーチまたは会話の終了後にサーバ100またはモバイル・デバイス150によって生成される検索クエリに含めるべき単語のリスト)に追加してもよい。有利なことに、単語および/または句を、ユーザが過去に遭遇し(例えば、他の類似のユーザも当該単語および/または句に関心をもっていたため)ユーザが関心をもつかもしれない検索クエリに追加することによって、サーバ100またはモバイル・デバイス150が関連するおよび/または望ましい検索結果をユーザに提供する可能性を高めることができる。
続いて、ステップ275で、サーバ100またはモバイル・デバイス150は当該単語および/または句をユーザに関連する既存のコンテンツ・データ・セットに追加してもよい。1つまたは複数の配置構成では、単語を検索クエリに追加した後に当該単語および/または句を既存のコンテンツ・データ・セットに追加するのが望ましいかもしれない。なぜならば、これにより、単語および/または句が将来、冗長に検索されることおよび/またはユーザに再び提示される可能性が(完全になくならないにしても)低下しうるからである。
その後、図2Bの方法を終了させることができる。しかし、上述のように、1つまたは複数の配置構成では、フローが図2Aの方法に戻り、サーバ100またはモバイル・デバイス150が図2Bの方法を用いて選択した単語に基づいて(例えば、それぞれステップ225およびステップ230で)検索クエリの生成および実行に進んでもよい。
図3A、3B、3C、および3Dは、本発明の1つまたは複数の例示的な諸態様に従うコンテンツ・データ・セットの種々の例を示す。上述のように、コンテンツ・データ・セットがユーザのユーザ・プロフィール情報の一部であってもよく、当該コンテンツ・データ・セットを用いて、ユーザが過去に遭遇しかつ/または検索した単語および/または句を追跡してもよい。さらにまたはあるいは、(1)既存のコンテンツ・データ・セットと、(2)新たなコンテンツ・データ・セットの2種類のコンテンツ・データ・セットがあってもよい。既存のコンテンツ・データ・セットには、ユーザが過去に遭遇しかつ/または検索した単語および/または句を格納してもよく、新たなコンテンツ・データ・セットには、過去に遭遇しかつ/または検索しなかったキャプチャした単語および/または句を格納してもよい。1つまたは複数の配置構成では、単語および/または句が検索された際に、特定の単語および/または句を既存のコンテンツ・データ・セットに追加するのではなく新たなコンテンツ・データ・セットから除去できるように、新たなコンテンツ・データ・セットに格納した単語および/または句が一時的に新たなコンテンツ・データ・セットに留まってもよい。このように、所与の時点で、ユーザが、そのユーザ・プロフィール情報に関連する新たなコンテンツ・データ・セットおよび既存のコンテンツ・データ・セットの両方を有してもよい。
例えば、図3Aおよび3Bはそれぞれ、第1の時点における新たなコンテンツ・データ・セット300および既存のコンテンツ・データ・セット310を示す。この第1の時点で、既存のコンテンツ・データ・セット310は空であり、例えば、「This is an Engineer at (公序良俗違反につき、不掲載)」という句がユーザ・デバイス110によりキャプチャされサーバ100に送信された後に新たなコンテンツ・データ・セット300が(例えば、サーバ100によって)生成されている。
図3Cおよび3Dに示すように、後に第2の時点で、「This is an Engineer at (公序良俗違反につき、不掲載)」という句(および当該句を構成する単語)を新たなコンテンツ・データ・セットから削除し、既存のコンテンツ・データ・セットに置いてもよい。例えば、第2の時点で、「This is a WiFi Engineer at (公序良俗違反につき、不掲載)」という句をユーザ・デバイス110によりキャプチャしサーバ100に送信してもよく、したがって、図3Cに示すように、新たなコンテンツ・データ・セット320が単語「WiFi」のみを含んでもよく、図3Dに示すように既存のコンテンツ・データ・セット330が当該句の他の単語を含んでもよい。本例では、サーバが続いて(例えば、上述のようにユーザが当該検索の結果に関心をもつかもしれない)キャプチャした単語および/または句の検索を実施すると決定した場合、サーバは、検索クエリに「This is a WiFi Engineer at (公序良俗違反につき、不掲載)」という句を含めるのではなく、検索クエリに単語「WiFi」のみを含めてもよい。
上述の例では2つのコンテンツ・データ・セット(例えば、新たなコンテンツ・データ・セットおよび既存のコンテンツ・データ・セット)を説明したが、幾つかの配置構成では、1つのデータ・セット(または他のデータベースもしくはデータ・テーブル)を使用してもよく、新たな単語が最初にキャプチャされ認識された後に、所定の時間だけ、データ・セットにおいて当該新たな単語に単に「新」という標識を付してもよい。さらにまたはあるいは、かかるデータ・セット(および/または上述の新たなコンテンツ・データ・セットおよび既存のコンテンツ・データ・セット)が、どの特定の時刻(複数可)および/または日(複数可)に当該データ・セットに含まれる各単語がキャプチャされたかを示すタイムスタンプ情報を含んでもよい。このデータ・セットが例えば検出履歴を表してもよい。かかるデータ・セットの例を次の表に示す。
表D
Figure 2014513828
図4は、本発明の1つまたは複数の例示的な諸態様に従うユーザ・プロフィールの1例を示す。図4から分かるように、ユーザ・プロフィール400は上述した種類のユーザ・プロフィール情報に加えて様々な種類のユーザ・プロフィール情報を含んでもよい。この情報の一部および/または全部を、検索を実施するかどうかを決定するとき、検索クエリに含めるための単語および/もしくは句を選択するとき、検索クエリを実行するとき、ならびに/もしくは検索結果をユーザに表示するときに(例えば、サーバ100によって)考慮してもよい。1つまたは複数の配置構成では、ユーザ・プロフィール400が例えば、特定のユーザの関心を記述しかつ/または特定のユーザの関心に関連するキーワード、ならびに、ユーザにより当該ユーザのユーザ・デバイス(例えば、ユーザ・デバイス110)に格納できる他のキーワードを含んでもよい。さらにまたはあるいは、ユーザ・プロフィール400が、ユーザおよび/またはユーザ・デバイスの現在時刻、現在位置、(例えば、ユーザの電子カレンダ情報に基づいて判断される)ユーザが出席するかもしれないイベント、等のような、ユーザおよび/またはユーザ・デバイス(例えば、ユーザ・デバイス110)の現在の状況に関する情報を含んでもよい。
1つまたは複数の配置構成では、ユーザ・プロフィール400がさらにフィルタ構成情報を含んでもよい。当該フィルタ構成情報は、ユーザが過去の検索結果をフィルタおよび/またはソートするのに使用したかもしれないフィルタ基準のような、過去に使用されたフィルタ基準を含んでもよい。さらにまたはあるいは、ユーザ・プロフィール400が、特定のトピックおよび/もしくはユーザの関心領域に関する情報(例えば、技術、芸術、金融、等)、ならびに/または、ユーザ、ユーザ・デバイス(例えば、ユーザ・デバイス110)、および/もしくはユーザが求める情報の種類に関する文脈情報を含んでもよい。ユーザ・プロフィールのこれらの様々な要素を考慮することによって、サーバ100は高度な機能および便利さをユーザに提供することができる。
自動会話支援の複数の態様を説明したので、次に図5を参照して本発明の様々な諸態様を実装できるコンピューティング・システムの1例を説明する。1つまたは複数の態様によれば、図5に示すコンピュータ・システムをコンピューティング・デバイスの一部として取り込んでもよく、本明細書で説明する機能、方法、および/または方法のステップの一部および/または全部を実装し、実施し、かつ/または実行してもよい。例えば、コンピュータ・システム500が、ハンドヘルド・デバイスのコンポーネントの一部を表してもよい。ハンドヘルド・デバイスが、カメラおよび/または表示ユニットのような入力検出ユニットを有する任意のコンピューティング・デバイスであってもよい。ハンドヘルド・デバイスの例には、ビデオ・ゲーム・コンソール、タブレット、スマート・フォン、およびモバイル・デバイスが含まれるがこれらに限らない。1実施形態では、システム500は、上述のサーバ100および/またはユーザ・デバイス110を実装するように構成される。図5は、本明細書で説明するように、様々な他の実施形態で提供される方法を実装し、かつ/または、ホスト・コンピュータ・システム、リモート・キオスク/端末、POS端末デバイス、モバイル・デバイス、セットトップ・ボックス、および/またはコンピュータ・システムとして機能できる、コンピュータ・システム500の1実施形態を概略的に説明する。図5は、様々なコンポーネント、必要に応じて利用できるものの一部および/または全部を一般的に説明することを意味するにすぎない。したがって、図5は、どのように個々のシステム要素を相対的に独立な方式または相対的にさらに統合された方式で実装できるかを広く例示するものである。
図示したコンピュータ・システム500は、バス505を介して電気的に接続できる(または、必要に応じて通信できる)ハードウェア要素を備えるとして示されている。当該ハードウェア要素は、1つまたは複数のプロセッサ510を含んでもよい。当該1つまたは複数のプロセッサ510には、限定ではなく、(デジタル信号処理チップ、グラフィックス・アクセラレーション・プロセッサ、等のような)1つもしくは複数の汎用目的プロセッサおよび/または1つもしくは複数の特殊目的プロセッサ、1つもしくは複数の入力デバイス515、ならびに1つもしくは複数の出力デバイス520が含まれる。1つまたは複数の入力デバイス515は、限定ではなく、カメラ、マウス、キーボード、等を含むことができる。1つまたは複数の出力デバイス520は、限定ではなく、表示ユニット、プリンタ、等を含むことができる。
コンピュータ・システム500はさらに、1つまたは複数の非一時的な記憶装置525を備えてもよい(かつ/または、当該記憶装置と通信してもよい)。当該1つまたは複数の非一時的な記憶装置525は、限定ではなく、ローカル・アクセス可能なおよび/もしくはネットワーク・アクセス可能な記憶部を備えることができ、かつ/または、限定ではなく、ディスク・ドライブ、ドライブ・アレイ、光記憶装置、RAM(random access memory)および/もしくはROM(read−only memory)のような固体記憶装置を備えることができ、これらはプログラム可能、フラッシュ更新可能(flash−updateable)等であることができる。かかる記憶装置を、任意の適切なデータ記憶部を実装するように構成してもよい。当該データ記憶部には、限定ではなく、様々なファイル・システム、データベース構造、等が含まれる。
コンピュータ・システム500はまた、通信サブシステム530を備えてもよい。通信サブシステム530は、限定ではなく、モデム、(無線または有線の)ネットワーク・カード、赤外線通信デバイス、(Bluetooth(登録商標)デバイス、802.11デバイス、WiFiデバイス、WiMaxデバイス、セルラ通信設備、等のような)無線通信デバイスおよび/またはチップセット、等を含むことができる。通信サブシステム530により、(1例を挙げれば、後述のネットワークのような)ネットワーク、他のコンピュータ・システム、および/または本明細書で説明した他の任意のデバイスとデータを交換することができる。多数の実施形態では、コンピュータ・システム500はさらに、非一時的な作業用メモリ535を備え、上述のようにRAMまたはROMデバイスを備えることができる。
コンピュータ・システム500はまた、作業用メモリ535内に現在配置されているとして示したソフトウェア要素を備えることができる。当該ソフトウェア要素には、オペレーティング・システム540、デバイス・ドライバ、実行可能ライブラリ、および/または1つもしくは複数のアプリケーション・プログラム545のような他のコードが含まれる。これらは、様々な実施形態で提供したコンピュータ・プログラムを備えてもよく、かつ/または、本明細書で説明したように他の実施形態で提供した方法を実装しかつ/もしくはシステムを構成するように設計してもよい。単に例として、上述の、例えば図2Aおよび/または図2Bに関して説明した方法(複数可)に関して説明した1つまたは複数の手続きを、コンピュータ(および/またはコンピュータ内のプロセッサ)により実行可能なコードおよび/または命令として実装してもよく、1態様では、かかるコードおよび/または命令を使用して、説明した方法に従って1つまたは複数の動作を実施するように汎用目的コンピュータ(または他のデバイス)を構成しおよび/または適合させることができる。
1組のこれらの命令および/またはコードを、上述の記憶装置(複数可)525のようなコンピュータ読取可能記憶媒体に格納してもよい。幾つかのケースでは、当該記憶媒体をコンピュータ・システム500のようなコンピュータ・システム内部に組み込んでもよい。他の実施形態では、当該記憶媒体を使用して当該記憶媒体に格納した命令/コードで汎用目的コンピュータをプログラムし、構成し、かつ/または適合させることができるように、当該記憶媒体を、コンピュータ・システム(例えば、コンパクト・ディスクのような取外し可能媒体)から分離してもよく、かつ/または、イントール・パッケージ内で提供してもよい。これらの命令が実行可能コードの形態をとってもよい。当該実行可能コードは、コンピュータ・システム500により実行可能であり、かつ/または、ソース・コードおよび/もしくはインストール可能コードの形態をとってもよい。これらのコードは、(例えば、様々な一般に利用可能なコンパイラ、インストール・プログラム、圧縮/解凍ユーティリティ、等の何れかを用いて)コンパイルされかつ/またはコンピュータ・システム500にインストールされると、実行可能コードの形態になる。
具体的な要件に従って実体的な変形を行ってもよい。例えば、カスタマイズされたハードウェアを使用してもよく、かつ/または、特定の要素をハードウェア、ソフトウェア(アプレット等のポータブルソフトウェアを含む)、またはその両方で実装してもよい。さらに、ネットワーク入力/出力デバイスのような他のコンピューティング・デバイスへの接続を使用してもよい。
幾つかの実施形態では、(コンピュータ・システム500のような)コンピュータ・システムを使用して本発明に従う方法を実施してもよい。例えば、説明した方法の手続きの一部または全部を、プロセッサ510が作業用メモリ535に含まれる(オペレーティング・システム540および/またはアプリケーション・プログラム545のような他のコードに取込み可能な)1つまたは複数の命令からなる1つまたは複数のシーケンスを実行したことに応じてコンピュータ・システム500により実施してもよい。かかる命令を、1つまたは複数の記憶装置(複数可)525のような他のコンピュータ読取可能媒体から作業用メモリ535に読み出してもよい。例としてのみ、作業用メモリ535に含まれる命令シーケンスの実行により、プロセッサ(複数可)510に本明細書で説明した方法、例えば、図2Aおよび/または図2Bに関して説明した方法の1つまたは複数の手続きを実施させてもよい。
「機械読取可能媒体」および「コンピュータ読取可能媒体」という用語は、本明細書で使用する際、機械を特定の方式で動作させるデータの提供に関与する任意の媒体を指す。コンピュータ・システム500を用いて実装される実施形態では、命令/コードをプロセッサ(複数可)510に提供して実行することに様々なコンピュータ読取可能媒体を関与させてもよく、かつ/または、様々なコンピュータ読取可能媒体を使用してかかる命令/コードを格納および/または(例えば、信号として)伝送してもよい。多数の実装形態では、コンピュータ読取可能媒体は物理的なおよび/または有形の記憶媒体である。かかる媒体は、不揮発性媒体、揮発性媒体、および送信媒体を含む多数の形態をとってもよいが、これらに限らない。不揮発性媒体には、例えば、記憶装置(複数可)525のような、光ディスクおよび/または磁気ディスクが含まれる。揮発性媒体には、限定ではなく、作業用メモリ535のような動的メモリが含まれる。送信媒体には、限定ではなく、同軸ケーブル、銅線および光ファイバが含まれる。これらには、バス505を構成する導線、ならびに、通信サブシステム530(および/または、通信サブシステム530がそれにより通信を他のデバイスに提供する媒体)の様々なコンポーネントが含まれる。したがって、送信媒体は、(限定ではなく、電波および赤外線によるデータ通信の最中に生成されるもののような、電波、音波および/または光波を含む)波の形をとることもできる。
一般的な形態の物理的なおよび/または有形のコンピュータ読取可能媒体には、例えば、フロッピ・ディスク、フレキシブル・ディスク、ハードディスク、磁気テープ、もしくは他の任意の磁気媒体、CD−ROM、他の任意の光媒体、パンチ・カード、紙テープ、穴パターンを有する他の任意の物理的な媒体、RAM、PROM、EPROM、FLASH−EPROM、他の任意のメモリチップもしくはカートリッジ、以下で説明する搬送波、またはコンピュータが命令および/もしくはコードをそこから読み出せる他の任意の媒体が含まれる。
様々な形態のコンピュータ読取可能媒体が、1つまたは複数の命令からなる1つまたは複数のシーケンスをプロセッサ(複数可)510に伝送して実行することに関与してもよい。例としてのみ、当該命令を最初にリモート・コンピュータの磁気ディスクおよび/または光ディスクに保持してもよい。リモート・コンピュータは、当該命令をその動的メモリにロードして、当該命令をコンピュータ・システム500により受信および/または実行されるように信号として送信媒体上で送信してもよい。これらの信号は、電磁気信号、音響信号、光信号の形であってもよく、本発明の様々な実施形態に従って命令を符号化できる搬送波の全ての例である。
通信サブシステム530(および/またはそのコンポーネント)は一般に信号を受信し、バス505は当該信号(および/または当該信号が伝送するデータ、命令、等)を作業用メモリ535に伝送し、プロセッサ(複数可)510が作業用メモリ535から命令を取り出して実行する。作業用メモリ535により受信した命令を、場合によっては、プロセッサ(複数可)510の実行の前後何れかに非一時的な記憶装置525に格納してもよい。
上述の方法、システム、およびデバイスは例である。様々な実施形態では、必要に応じて様々な手続きまたはコンポーネントを省略し、置換し、または追加してもよい。例えば、代替的な構成では、説明した方法を説明したのとは異なる順序で実施してもよく、かつ/または、様々な段階を追加し、省略し、かつ/または組み合わせてもよい。さらに、特定の実施形態に関して説明した機能を他の様々な実施形態において組み合わせてもよい。当該実施形態の様々な態様および要素を同様に組み合わせてもよい。また、技術は進歩するので、当該要素の多くは例であって、当該例は本発明の範囲をこれらの具体的な例に限定しない。
実施形態の徹底的な理解を与えるために具体的な詳細を以上の説明で与えた。しかし、諸実施形態をこれらの具体的な詳細なしに実施してもよい。例えば、周知な回路、プロセス、アルゴリズム、構造、および技術は、当該諸実施形態を不明瞭にすることを避けるために、不必要な詳細なしに説明した。当該説明は例示的な実施形態を提供するにすぎず、本発明の範囲、適用可能性、または構成を限定しようとするものではない。むしろ、諸実施形態の以上の説明は、本発明の諸実施形態を実装するための実施可能要件を当業者に提供するものである。本発明の趣旨および範囲から逸脱しない様々な変更を、要素の機能および配置構成において行ってもよい。
また、幾つかの実施形態を流れ図またはブロック図として図示したプロセスとして説明した。夫々の実施形態では動作を逐次的なプロセスとして説明してもよいが、当該動作の多くを並列または並行に実施することができる。さらに、当該動作の順序を再構成してもよい。プロセスが、図面に含まれない追加のステップを有してもよい。さらに、本方法の諸実施形態を、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組合せにより実装してもよい。ソフトウェア、ファームウェア、ミドルウェア、マイクロコードで実装するときは、関連するタスクを実施するためのプログラム・コードまたはコード・セグメントを記憶媒体のようなコンピュータ読取可能媒体に格納してもよい。プロセッサが、当該関連するタスクを実施してもよい。
幾つかの実施形態を説明したが、本発明の趣旨から逸脱しない様々な修正、代替構成、および均等物を使用してもよい。例えば、上述の要素は大規模なシステムのコンポーネントにすぎず、他の規則が本発明の適用に優先してもよく、または、当該他の規則により本発明の適用を修正してもよい。また、上述の要素を考慮する前、最中、または後に幾つかのステップに着手してもよい。したがって、以上の説明は、本発明の範囲を制限しない。
100 サーバ
110 モバイル・デバイス
115 無線処理スタック
120 音声変換器
125 音声テキスト・エンジン
130 ユーザ・プロフィール・データベース
135 検索インタフェース
150 モバイル・デバイス
155 音声変換器
160 音声テキスト・エンジン
165 ユーザ・プロフィール情報
170 検索インタフェース
175 サーバ
180 無線処理スタック
185 ユーザ・プロフィール・データベース
190 検索インタフェース

Claims (34)

  1. ユーザに関連するユーザ・プロフィール情報を取得するステップであって、前記ユーザ・プロフィール情報は、前記ユーザに関連する1つまたは複数の過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む、ステップと、
    前記ユーザ・プロフィール情報に基づいて、検索クエリに含めるための1つまたは複数の単語をキャプチャされたスピーチから選択するステップと、
    選択された前記1つまたは複数の単語に基づいて前記検索クエリを生成するステップと、
    を含む、方法。
  2. 1つまたは複数の単語を選択する前に、キャプチャされた前記スピーチに対応する音声データを受信するステップをさらに含み、
    前記音声データは、通話、生のプレゼンテーション、対面式の議論、ラジオ番組、およびテレビ番組のうち1つに関連付けられる、請求項1に記載の方法。
  3. 前記ユーザ・プロフィール情報はさらに、前記ユーザが過去に検索した1つまたは複数の単語のリストを含む、請求項1に記載の方法。
  4. キャプチャされた前記スピーチから少なくとも1つの単語を、1つまたは複数の過去のキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストに追加するステップをさらに含む、請求項1に記載の方法。
  5. 前記ユーザ・プロフィール情報は、ユーザの職業、教育、または関心に関する情報を含む、請求項1に記載の方法。
  6. 1つまたは複数の単語を選択するステップは、前記ユーザ・プロフィール情報に類似するプロフィール情報を有する1人または複数人の他のユーザによって過去に検索された1つまたは複数の単語にも基づく、請求項5に記載の方法。
  7. 前記検索クエリを生成したことに応答して、前記検索クエリを実行するステップと、
    前記検索クエリの結果を前記ユーザに表示させるステップと、
    をさらに含み、
    前記結果が、キャプチャされた前記スピーチに含まれる少なくとも1つのトピックに関する情報を含む、
    請求項1に記載の方法。
  8. キャプチャされた前記スピーチの終了を検出したことに応答して、前記結果が前記ユーザに表示される、請求項7に記載の方法。
  9. 実行されたときに少なくとも1つのコンピューティング・デバイスに、
    ユーザに関連する1つまたは複数の過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む、前記ユーザに関連するユーザ・プロフィール情報を取得させ、
    前記ユーザ・プロフィール情報に基づいて、検索クエリに含めるための1つまたは複数の単語をキャプチャされたスピーチから選択させ、
    選択された前記1つまたは複数の単語に基づいて前記検索クエリを生成させる、
    コンピュータ読取可能命令を格納した、少なくとも1つのコンピュータ読取可能媒体。
  10. 実行されたときに、前記少なくとも1つのコンピューティング・デバイスにさらに、
    1つまたは複数の単語を選択する前に、キャプチャされた前記スピーチに対応する音声データを受信させる追加のコンピュータ読取可能命令を格納し、
    前記音声データは、通話、生のプレゼンテーション、対面式の議論、ラジオ番組、およびテレビ番組のうち1つに関連付けられる、
    請求項9に記載の少なくとも1つのコンピュータ読取可能媒体。
  11. 前記ユーザ・プロフィール情報はさらに、前記ユーザが過去に検索した1つまたは複数の単語のリストを含む、請求項9に記載の少なくとも1つのコンピュータ読取可能媒体。
  12. 実行されたときに、前記少なくとも1つのコンピューティング・デバイスにさらに、
    キャプチャされた前記スピーチから少なくとも1つの単語を、1つまたは複数の過去のキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストに追加させる追加のコンピュータ読取可能命令を格納した、請求項9に記載の少なくとも1つのコンピュータ読取可能媒体。
  13. 前記ユーザ・プロフィール情報は、ユーザの職業、教育、または関心に関する情報を含む、請求項9に記載の少なくとも1つのコンピュータ読取可能媒体。
  14. 1つまたは複数の単語を選択することは、前記ユーザ・プロフィール情報に類似するプロフィール情報を有する1人または複数人の他のユーザによって過去に検索された1つまたは複数の単語に少なくとも部分的に基づく、請求項13に記載の少なくとも1つのコンピュータ読取可能媒体。
  15. 実行されたときに、前記少なくとも1つのコンピューティング・デバイスにさらに、
    前記検索クエリを生成したことに応答して、前記検索クエリを実行させ、
    前記検索クエリの結果を前記ユーザに表示させる、
    追加のコンピュータ読取可能命令を格納し、
    前記結果が、キャプチャされた前記スピーチに含まれる少なくとも1つのトピックに関する情報を含む、請求項9に記載の少なくとも1つのコンピュータ読取可能媒体。
  16. キャプチャされた前記スピーチの終了を検出したことに応答して、前記結果が前記ユーザに表示される、請求項15に記載の少なくとも1つのコンピュータ読取可能媒体。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサにより実行されたときに前記装置に、
    ユーザに関連する1つまたは複数の過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む、前記ユーザに関連するユーザ・プロフィール情報を取得させ、
    前記ユーザ・プロフィール情報に基づいて、検索クエリに含めるための1つまたは複数の単語をキャプチャされたスピーチから選択させ、
    選択された前記1つまたは複数の単語に基づいて前記検索クエリを生成させる、
    コンピュータ読取可能命令を格納したメモリと、
    を備える、装置。
  18. 前記少なくとも1つのプロセッサにより実行されたときに前記装置にさらに、
    1つまたは複数の単語を選択する前に、キャプチャされた前記スピーチに対応する音声データを受信させる追加のコンピュータ読取可能命令を前記メモリは格納し、
    前記音声データは、通話、生のプレゼンテーション、対面式の議論、ラジオ番組、およびテレビ番組のうち1つに関連付けられる、
    請求項17に記載の装置。
  19. 前記ユーザ・プロフィール情報はさらに、前記ユーザが過去に検索した1つまたは複数の単語のリストを含む、請求項17に記載の装置。
  20. 前記少なくとも1つのプロセッサにより実行されたときに前記装置にさらに、
    キャプチャされた前記スピーチから少なくとも1つの単語を、1つまたは複数の過去のキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストに追加させる追加のコンピュータ読取可能命令を前記メモリは格納する、請求項17に記載の装置。
  21. 前記ユーザ・プロフィール情報は、ユーザの職業、教育、または関心に関する情報を含む、請求項17に記載の装置。
  22. 1つまたは複数の単語を選択することは、前記ユーザ・プロフィール情報に類似するプロフィール情報を有する1人または複数人の他のユーザによって過去に検索された1つまたは複数の単語にも基づく、請求項21に記載の装置。
  23. 前記少なくとも1つのプロセッサにより実行されたときに前記装置にさらに、
    前記検索クエリを生成したことに応答して、前記検索クエリを実行させ、
    前記検索クエリの結果を前記ユーザに表示させる、
    追加のコンピュータ読取可能命令を前記メモリは格納し、
    前記結果が、キャプチャされた前記スピーチに含まれる少なくとも1つのトピックに関する情報を含む、請求項17に記載の装置。
  24. キャプチャされた前記スピーチの終了を検出したことに応答して、前記結果が前記ユーザに表示される、請求項23に記載の装置。
  25. ユーザに関連するユーザ・プロフィール情報を取得する手段であって、前記ユーザ・プロフィール情報は、前記ユーザに関連する1つまたは複数の過去にキャプチャされたスピーチにおいて過去に検索された1つまたは複数の単語のリストを含む、手段と、
    前記ユーザ・プロフィール情報に基づいて、検索クエリに含めるための1つまたは複数の単語をキャプチャされたスピーチから選択する手段と、
    選択された前記1つまたは複数の単語に基づいて前記検索クエリを生成する手段と、
    を備える、システム。
  26. 1つまたは複数の単語を選択する前に、キャプチャされた前記スピーチに対応する音声データを受信する手段をさらに備え、
    前記音声データは、通話、生のプレゼンテーション、対面式の議論、ラジオ番組、およびテレビ番組のうち1つに関連付けられる、請求項25に記載のシステム。
  27. 前記ユーザ・プロフィール情報はさらに、前記ユーザが過去に検索した1つまたは複数の単語のリストを含む、請求項25に記載のシステム。
  28. キャプチャされた前記スピーチから少なくとも1つの単語を、1つまたは複数の過去のキャプチャされたスピーチにおいて過去に検出された1つまたは複数の単語のリストに追加する手段をさらに備える、請求項25に記載のシステム。
  29. 前記ユーザ・プロフィール情報は、ユーザの職業、教育、または関心に関する情報を含む、請求項25に記載のシステム。
  30. 1つまたは複数の単語を選択することは、前記ユーザ・プロフィール情報に類似するプロフィール情報を有する1人または複数人の他のユーザによって過去に検索された1つまたは複数の単語に少なくとも部分的に基づいて定義されたキーワード・リストと排他リストとに基づく、請求項29に記載のシステム。
  31. 前記検索クエリを生成したことに応答して、前記検索クエリを実行する手段と、
    前記検索クエリの結果を前記ユーザに表示させる手段と、
    をさらに含み、
    前記結果が、キャプチャされた前記スピーチに含まれる少なくとも1つのトピックに関する情報を含む、請求項25に記載のシステム。
  32. キャプチャされた前記スピーチの終了を検出したことに応答して、前記結果が前記ユーザに表示される、請求項31に記載のシステム。
  33. ユーザに関連するキャプチャされたスピーチに対応する音声データを受信するステップと、
    前記音声データに基づいて、前記ユーザに関連する過去にキャプチャされたスピーチにおいて過去に検出されなかった少なくとも1つの単語を前記キャプチャされたスピーチが含むと判定するステップと、
    前記キャプチャされたスピーチが前記少なくとも1つの単語を含むと判定したことに応答して、前記少なくとも1つの単語を含む検索クエリを生成するステップと、
    を含む、方法。
  34. 前記検索クエリの結果を前記ユーザに表示させるステップをさらに含む、請求項33に記載の方法。
JP2013557947A 2011-03-16 2012-03-14 自動会話支援 Pending JP2014513828A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161453532P 2011-03-16 2011-03-16
US61/453,532 2011-03-16
US201161569068P 2011-12-09 2011-12-09
US61/569,068 2011-12-09
US13/419,056 US20130066634A1 (en) 2011-03-16 2012-03-13 Automated Conversation Assistance
US13/419,056 2012-03-13
PCT/US2012/029114 WO2012125755A1 (en) 2011-03-16 2012-03-14 Automated conversation assistance

Publications (1)

Publication Number Publication Date
JP2014513828A true JP2014513828A (ja) 2014-06-05

Family

ID=45932502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557947A Pending JP2014513828A (ja) 2011-03-16 2012-03-14 自動会話支援

Country Status (6)

Country Link
US (1) US20130066634A1 (ja)
EP (1) EP2710587A1 (ja)
JP (1) JP2014513828A (ja)
KR (1) KR20130133872A (ja)
CN (1) CN103443853A (ja)
WO (1) WO2012125755A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607025B2 (en) 2012-09-24 2017-03-28 Andrew L. DiRienzo Multi-component profiling systems and methods
US20150161249A1 (en) * 2013-12-05 2015-06-11 Lenovo (Singapore) Ptd. Ltd. Finding personal meaning in unstructured user data
US10504509B2 (en) * 2015-05-27 2019-12-10 Google Llc Providing suggested voice-based action queries
US9635167B2 (en) 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
US10223613B2 (en) * 2016-05-31 2019-03-05 Microsoft Technology Licensing, Llc Machine intelligent predictive communication and control system
US10531227B2 (en) * 2016-10-19 2020-01-07 Google Llc Time-delimited action suggestion system
US10521723B2 (en) 2016-12-14 2019-12-31 Samsung Electronics Co., Ltd. Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
US10636418B2 (en) 2017-03-22 2020-04-28 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs
US9865260B1 (en) 2017-05-03 2018-01-09 Google Llc Proactive incorporation of unsolicited content into human-to-computer dialogs
JP7015711B2 (ja) * 2018-03-08 2022-02-03 パナソニック株式会社 装置、ロボット、方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245078A (ja) * 2001-02-14 2002-08-30 Nippon Telegr & Teleph Corp <Ntt> 音声利用型情報検索装置および音声利用型情報検索プログラムと該プログラムを記録した記録媒体
JP2007025925A (ja) * 2005-07-14 2007-02-01 Fuji Xerox Co Ltd 関連記述提示システム
JP2010277207A (ja) * 2009-05-27 2010-12-09 Nec Corp 携帯端末、検索エンジンシステム及びそれらに用いる情報提供サービス方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6823312B2 (en) * 2001-01-18 2004-11-23 International Business Machines Corporation Personalized system for providing improved understandability of received speech
KR20030012877A (ko) * 2001-04-13 2003-02-12 코닌클리케 필립스 일렉트로닉스 엔.브이. 음성 대화 시스템의 화자 확인
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
TWI276357B (en) * 2002-09-17 2007-03-11 Ginganet Corp Image input apparatus for sign language talk, image input/output apparatus for sign language talk, and system for sign language translation
JP4680691B2 (ja) * 2005-06-15 2011-05-11 富士通株式会社 対話システム
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
ES2330758T3 (es) * 2005-11-25 2009-12-15 Swisscom Ag Procedimiento para personalizar un servicio.
US8090082B2 (en) * 2006-01-23 2012-01-03 Icall, Inc. System, method and computer program product for extracting user profiles and habits based on speech recognition and calling history for telephone system advertising
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
EP1914639A1 (en) * 2006-10-16 2008-04-23 Tietoenator Oyj System and method allowing a user of a messaging client to interact with an information system
US8078468B2 (en) * 2007-05-21 2011-12-13 Sony Ericsson Mobile Communications Ab Speech recognition for identifying advertisements and/or web pages
US9646025B2 (en) * 2008-05-27 2017-05-09 Qualcomm Incorporated Method and apparatus for aggregating and presenting data associated with geographic locations
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002245078A (ja) * 2001-02-14 2002-08-30 Nippon Telegr & Teleph Corp <Ntt> 音声利用型情報検索装置および音声利用型情報検索プログラムと該プログラムを記録した記録媒体
JP2007025925A (ja) * 2005-07-14 2007-02-01 Fuji Xerox Co Ltd 関連記述提示システム
JP2010277207A (ja) * 2009-05-27 2010-12-09 Nec Corp 携帯端末、検索エンジンシステム及びそれらに用いる情報提供サービス方法

Also Published As

Publication number Publication date
KR20130133872A (ko) 2013-12-09
US20130066634A1 (en) 2013-03-14
CN103443853A (zh) 2013-12-11
EP2710587A1 (en) 2014-03-26
WO2012125755A1 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
US11720200B2 (en) Systems and methods for identifying a set of characters in a media file
US11314370B2 (en) Method for extracting salient dialog usage from live data
JP2014513828A (ja) 自動会話支援
US11349991B2 (en) Systems and methods to present voice message information to a user of a computing device
KR101770358B1 (ko) 내장형 및 네트워크 음성 인식기들의 통합
US9502025B2 (en) System and method for providing a natural language content dedication service
KR101649771B1 (ko) 발성 처리를 위한 인식기들의 마크업 언어 기반 선택 및 이용
US9148741B2 (en) Action generation based on voice data
US20170249934A1 (en) Electronic device and method for operating the same
CN110085222B (zh) 用于支持语音对话服务的交互装置和方法
US9449002B2 (en) System and method to retrieve relevant multimedia content for a trending topic
CN113268498A (zh) 业务推荐方法和具有智能助手的装置
US20140372467A1 (en) Contextual smart tags for content retrieval
KR20150077580A (ko) 음성 인식 기반 서비스 제공 방법 및 그 장치
KR20150106479A (ko) 컨텐츠 공유 서비스 시스템, 그의 컨텐츠 공유를 위한 장치 및 컨텐츠 공유 서비스 제공 방법
KR20140060217A (ko) 오디오 신호에 의해 메시지를 포스팅하는 시스템 및 방법
US20140372455A1 (en) Smart tags for content retrieval
EP2680256A1 (en) System and method to analyze voice communications
WO2017028635A1 (zh) 一种信息处理***、方法、电子设备和计算机存储介质
CN111259181A (zh) 用于展示信息、提供信息的方法和设备
CN104268195A (zh) 终端中的本地资源的处理方法和装置
US20210264910A1 (en) User-driven content generation for virtual assistant
KR100923942B1 (ko) 웹 페이지로부터 텍스트를 추출하고 이를 음성 데이터파일로 변환하여 제공하기 위한 방법, 시스템 및 컴퓨터판독 가능한 기록 매체
CN116932782A (zh) 基于语音识别的内容搜索方法、装置、计算机设备及介质
CN110716768A (zh) 终端上的应用程序跳转方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150316