JP6110264B2 - ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法 - Google Patents

ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法 Download PDF

Info

Publication number
JP6110264B2
JP6110264B2 JP2013193360A JP2013193360A JP6110264B2 JP 6110264 B2 JP6110264 B2 JP 6110264B2 JP 2013193360 A JP2013193360 A JP 2013193360A JP 2013193360 A JP2013193360 A JP 2013193360A JP 6110264 B2 JP6110264 B2 JP 6110264B2
Authority
JP
Japan
Prior art keywords
data
function
relevance
terminal device
functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013193360A
Other languages
English (en)
Other versions
JP2015060390A (ja
Inventor
俊治 栗栖
俊治 栗栖
結旗 柘植
結旗 柘植
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013193360A priority Critical patent/JP6110264B2/ja
Publication of JP2015060390A publication Critical patent/JP2015060390A/ja
Application granted granted Critical
Publication of JP6110264B2 publication Critical patent/JP6110264B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ユーザが端末装置に対し行うデータ入力に応じて、当該ユーザに情報を提供する仕組みに関する。
端末装置のユーザが、キーワードを端末装置に入力することにより、知りたい情報を端末装置に表示させる技術がある。ユーザは、端末装置に現在表示されている情報に関連する新たな情報を知りたい、と思う場合がある。この場合、ユーザがキーワードを端末装置に入力する手間を軽減する技術が提案されている。
例えば、特許文献1には、現在表示されているデータが有するキーワードに基づきデータベースの検索を行い、検索されたデータのうち見出しに当該キーワードを含むものを優先的に表示する仕組みが提案されている。
また、特許文献2には、第1のコンテンツの処理を行っている状態で、その第1のコンテンツに関連したキーワードを抽出して表示し、当該キーワードに基づいて第2のコンテンツの検索を行い、当該第2のコンテンツを表示する仕組みが提案されている。
ユーザがキーワードを端末装置に入力する手間を軽減する別の仕組みとして、音声認識技術を利用した情報提供の仕組みがある。この仕組みによれば、ユーザが端末装置に対し発話を行うと、端末装置が当該発話の内容に応じた処理を実行する。
例えば、非特許文献1には、ユーザがスマートフォンに話しかけると、スマートフォンがユーザの意図に沿った情報を提供する、という仕組みが紹介されている。この仕組みによれば、例えばユーザがスマートフォンに「この辺のタクシーを探して!」と話しかけると、スマートフォンはユーザの現在位置でタクシーを呼べるタクシー会社の情報を表示する。
非特許文献1に紹介されている仕組みによれば、ユーザは発話により、例えば「タクシー会社の検索」といった希望する一連の処理を端末装置に実行させることができる。本願において、「タクシー会社の検索」に例示されるような、端末装置において実行される一連の処理の種別を「機能」という。
特開平05−035798号公報 特開2005−115790号公報
株式会社エヌ・ティ・ティ・ドコモ、"しゃべってコンシェルでできること"、[online]、[平成25年9月13日検索]、インターネット〈URL:http://www.nttdocomo.co.jp/service/information/shabette_concier/feature/index.html〉
非特許文献1に紹介されているような音声認識技術を利用した情報提供の仕組みを利用するユーザは、発話により入力したデータに応じて端末装置から提供される情報を見て、さらに新たな情報を得たい、と思う場合がある。例えば、ユーザの「イタリアンのお店はある?」という発話に応じて端末装置に表示されたレストラン情報を見て、ユーザが○○レストランに行くための交通手段を知りたい、と思うような場合である。
従来技術によれば、上記のような場合、ユーザは端末装置に対し「イタリアンのお店はある?」と発話して「レストランの検索」という第1の機能を端末装置に実行させた後、続いて「○○レストランに行きたい」と発話することにより、例えば「乗換案内」という第2の機能を端末装置に実行させることで、イタリアン料理を食べたい、という目的の達成のために必要な情報を得ることができる。
上記のように、必要な情報を得るために複数の機能を端末装置に実行させる必要がある場合、従来技術によれば、ユーザは端末装置に対し複数回のデータ入力を行う必要がある。
本発明は上記の事情に鑑み、ユーザが端末装置に対し行うデータ入力に応じて、当該データに応じた機能を実行することにより当該ユーザに情報を提供する仕組みにおいて、ユーザが必要な情報を得るために要するデータ入力の手間を軽減する仕組みを提供することを目的とする。
上述した課題を解決するため、本発明は、複数のキーワードの各々と、端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する第1の関連性データ取得手段と、前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する第2の関連性データ取得手段と、前記端末装置から、ユーザにより入力された入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを受信する受信手段と、前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する第1の機能特定手段と、前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する第2の機能特定手段と、前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する送信手段とを備えるサーバ装置を提供する。
上記のサーバ装置において、前記受信手段は前記ユーザの音声を表わす前記入力データを受信し、前記入力データが表わす音声が示す文章を表わす文章データを生成する文章データ生成手段と、前記文章データ生成手段により生成された文章データが表わす文章に含まれるキーワードを表わすキーワードデータを、前記第1の機能特定手段により使用される前記キーワードデータとして生成するキーワードデータ生成手段とを備える、という構成が採用されてもよい。
また、上記のサーバ装置において、前記端末装置の現在位置を示す位置データを取得する位置データ取得手段を備え、前記第2の関連性データ取得手段は、前記位置データが示す位置に応じて異なる前記第2の関連性データを取得する、という構成が採用されてもよい。
また、上記のサーバ装置において、前記端末装置が前記第1の機能の実行において使用するデータを取得する使用データ取得手段を備え、前記第2の関連性データ取得手段は、前記使用データ取得手段により取得されたデータに位置を示すデータが含まれる場合、当該位置を示すデータが示す位置と前記位置データ取得手段により取得された位置データが示す前記端末装置の現在位置との距離に応じて異なる前記第2の関連性データを取得する、という構成が採用されてもよい。
また、上記のサーバ装置において、現在時刻を示す時刻データを取得する時刻データ取得手段を備え、前記第2の関連性データ取得手段は、前記時刻データが示す現在時刻に応じて異なる前記第2の関連性データを取得する、という構成が採用されてもよい。
また、上記のサーバ装置において、前記端末装置に対し前記ユーザにより行われた機能の実行指示の履歴を示す履歴データを取得する履歴データ取得手段を備え、前記第2の関連性データ取得手段は、前記履歴データが示す履歴に応じて異なる前記第2の関連性データを取得する、という構成が採用されてもよい。
また、本発明は、端末装置との間でデータ通信を行う通信手段を備えるコンピュータに、複数のキーワードの各々と、前記端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する処理と、前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する処理と、前記端末装置から、ユーザにより入力された入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを受信する処理と、前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する処理と、前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する処理と、前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する処理とを実行させるプログラムを提供する。
また、本発明は、サーバ装置と端末装置を備え、前記サーバ装置は、複数のキーワードの各々と、前記端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する第1の関連性データ取得手段と、前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する第2の関連性データ取得手段とを備え、前記端末装置は、ユーザにより入力された入力データを取得する入力データ取得手段と、前記入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを前記サーバ装置に送信する送信手段とを備え、前記サーバ装置は、前記端末装置から前記入力データ、もしくは前記キーワードデータを受信する受信手段と、前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する第1の機能特定手段と、前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する第2の機能特定手段と、前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する送信手段とを備え、前記端末装置は、前記サーバ装置から前記第1の機能識別データと前記1以上の第2の機能識別データを受信する受信手段と、前記第1の機能識別データにより識別される前記第1の機能を実行する処理実行手段と、前記処理実行手段により前記第1の機能が実行されている間、前記1以上の第2の機能識別データにより識別される前記1以上の第2の機能の各々に関し、当該機能の実行指示をユーザに促す表示を表示装置に指示する表示指示手段とを備えるシステムを提供する。
また、本発明は、サーバ装置が、複数のキーワードの各々と、端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得するステップと、前記サーバ装置が、前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する処理と、前記端末装置が、ユーザにより入力された入力データを取得するステップと、前記端末装置が、前記入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを前記サーバ装置に送信するステップと、前記サーバ装置が、前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定するステップと、前記サーバ装置が、前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定するステップと、前記サーバ装置が、前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信するステップと、前記端末装置が、前記第1の機能識別データにより識別される前記第1の機能を実行する間、前記1以上の第2の機能識別データにより識別される前記1以上の第2の機能の各々に関し、当該機能の実行指示をユーザに促す表示を表示装置に指示するステップとを備える方法を提供する。
本発明によれば、ユーザはデータ入力に応じて端末装置により実行された第1の機能に関連する第2の機能の実行指示を容易に行うことができる。
一実施形態にかかる音声エージェントシステムの全体構成を示した図である。 一実施形態にかかる端末装置のハードウェア構成を示した図である。 一実施形態にかかる端末装置の機能構成を示した図である。 一実施形態にかかる音声認識サーバ装置および情報提供サーバ装置のハードウェア構成を示した図である。 一実施形態にかかる音声認識サーバ装置の機能構成を示した図である。 一実施形態にかかる第1の関連性データの構成例を示した図である。 一実施形態にかかる第2の関連性データの構成例を示した図である。 一実施形態にかかる端末装置に表示される画面を例示した図である。 一実施形態にかかる情報提供サーバ装置の機能構成を示した図である。 一実施形態にかかる音声エージェントシステムの動作を示したシーケンスチャートである。 第1変形例にかかる端末装置に表示される画面を例示した図である。 第2変形例にかかる端末装置に表示される画面を例示した図である。 第3変形例にかかる第2の関連性データの構成例を示した図である。 第3変形例にかかる端末装置に表示される画面を例示した図である。 第4変形例にかかる第2の関連性データの構成例を示した図である。 第4変形例にかかる端末装置に表示される画面を例示した図である。 第5変形例にかかる履歴データの構成例を示した図である。 第5変形例にかかるウェイトデータの構成例を示した図である。 第5変形例にかかる端末装置に表示される画面を例示した図である。
[実施形態]
以下に、本発明の一実施形態にかかる音声エージェントシステム1を説明する。図1は、音声エージェントシステム1の全体構成を示した図である。音声エージェントシステム1は、ユーザが携帯する端末装置である端末装置11と、音声認識サーバ装置12と、情報提供サーバ装置13を備えている。音声認識サーバ装置12は、ユーザが端末装置11に対し音声による指示を行った場合、その意図解釈を行い、端末装置11に対し実行すべき機能を指示する。情報提供サーバ装置13はWebサーバ装置等の各種サーバ装置であり、端末装置11に対し各種情報の提供を行う。端末装置11と音声認識サーバ装置12、端末装置11と情報提供サーバ装置13各々、通信ネットワーク19を介して互いにデータ通信を行うことができる。
なお、図1においては、端末装置11は1つのみ例示されているが、実際には端末装置11の数は音声エージェントシステム1を利用するユーザの数に応じて任意に変化する。また、図1においては、音声認識サーバ装置12は1つの装置として示されているが、例えば互いに連係動作する複数の装置により音声認識サーバ装置12が構成されてもよい。また、図1においては、情報提供サーバ装置13は1つのみ例示されているが、実際には情報提供サーバ装置13は多数である。
端末装置11のハードウェア構成は、タッチディスプレイを備えた一般的なスレートデバイス型のパーソナルコンピュータのハードウェア構成と同じである。図2は、端末装置11のハードウェア構成を示した図である。すなわち、端末装置11は、ハードウェア構成として、メモリ101と、プロセッサ102と、通信IF(Interface)103と、タッチディスプレイ104と、マイク105と、GPS(Global Positioning System)ユニット106と、クロック107を備えている。また、これらの構成部はバス109を介して互いに接続されている。
メモリ101は揮発性半導体メモリや不揮発性半導体メモリ等を有し、OS(Operation System)、アプリケーションプログラム、ユーザデータ等の各種データを記憶するとともに、プロセッサ102によるデータ処理における作業領域として利用される。プロセッサ102はCPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の処理装置である。通信IF103は無線通信により通信ネットワーク19を介して、音声認識サーバ装置12および情報提供サーバ装置13との間で各種データ通信を行うインタフェースである。
タッチディスプレイ104は、ディスプレイ1041とタッチパネル1042を有している。ディスプレイ1041は、例えば液晶ディスプレイであり、文字、図形、写真等を表示する。タッチパネル1042は、例えば静電容量方式のタッチパネルであり、指等のポインタが接触した場合、当該接触の位置を特定する。
ディスプレイ1041とタッチパネル1042は積層配置されており、ディスプレイ1041に表示されている画像に対しユーザがポインタを接触させる動作を行うと、実際にはタッチパネル1042にポインタが接触し、その位置が特定される。プロセッサ102は、タッチパネル1042により特定された位置に基づき、ディスプレイ1041により表示されている画像のどの部分に対しポインタの接触の動作が行われたかを特定することで、ユーザの意図した操作の内容を特定する。
マイク105は音を拾音し拾音した音を表わす音データを生成する装置である。音声エージェントシステム1においては、マイク105はユーザの音声を拾音し、音声データを生成する。GPSユニット106は、複数の衛星からの信号を受信し、受信した信号に基づき端末装置11の現在位置を特定し、特定した現在位置を示す位置データを生成する装置である。クロック107は基準時刻からの経過時間を継続的に計測し、現在時刻を示す時刻データを生成する装置である。
上記のハードウェア構成を備える端末装置11は、メモリ101に記憶されているプログラムに従う処理を行うことにより、図3に示す機能構成を備える装置として動作する。すなわち、端末装置11は、機能構成として、ユーザの音声をマイク105により録音して得られる音声データを、ユーザにより入力された入力データとして取得する入力データ取得手段111と、入力データ取得手段111が取得した音声データを音声認識サーバ装置12に送信する送信手段112を備える。
さらに、端末装置11は、端末装置11において実行可能な複数の機能のうち特定の機能を識別する機能識別データを音声認識サーバ装置12から受信する受信手段113と、受信手段113により受信された機能識別データのうち第1の機能識別データ(1つ)により識別される機能を実行する処理実行手段114と、受信手段113により受信された機能識別データのうち第2の機能識別データ(複数、以下、例としてその数を3つとする)により識別される機能の実行指示をユーザに促すボタンの表示をディスプレイ1041に指示する表示指示手段115を備える。
音声認識サーバ装置12および情報提供サーバ装置13のハードウェア構成は、外部の装置との間で通信ネットワーク19を介したデータ通信が可能な一般的なコンピュータのハードウェア構成と同じである。図4は、音声認識サーバ装置12および情報提供サーバ装置13のハードウェア構成を示した図である。すなわち、音声認識サーバ装置12および情報提供サーバ装置13は、ハードウェア構成として、メモリ201と、プロセッサ202と、通信IF203と、クロック204を備えている。また、これらの構成部はバス209を介して互いに接続されている。
メモリ201は揮発性半導体メモリや不揮発性半導体メモリ等を有し、OS、アプリケーションプログラム、ユーザデータ等の各種データを記憶するとともに、プロセッサ202によるデータ処理における作業領域として利用される。プロセッサ202はCPU、GPU等の処理装置である。通信IF203は通信ネットワーク19を介して他の装置との間で各種データ通信を行うインタフェースである。クロック204は基準時刻からの経過時間を継続的に計測し、現在時刻を示す時刻データを生成する装置である。
音声認識サーバ装置12は、自機のメモリ201に記憶されているプログラムに従う処理を行うことにより、図5に示す機能構成を備える装置として動作する。すなわち、音声認識サーバ装置12は、機能構成として、まず、自機のメモリ201(もしくは音声認識サーバ装置12に接続された外部の記憶装置や、通信ネットワーク19を介して音声認識サーバ装置12からアクセス可能な外部のサーバ装置等)に記憶されている第1の関連性データおよび第2の関連性データを各々取得する第1の関連性データ取得手段121および第2の関連性データ取得手段122を備える。
第1の関連性データは、複数のキーワードの各々に関し、当該キーワードと端末装置11が実行可能な複数の機能のうち当該キーワードに関連する機能の各々との関連性の高低を示すデータである。図6は、第1の関連性データの構成例を示した図である。第1の関連性データは、キーワードに応じたデータレコードを複数含むデータベースであり、各データレコードはデータフィールドとして「キーワード」、「機能ID」、「機能名」、「スコア」を有している。データフィールド「キーワード」にはキーワードを示すテキストデータが格納される。データフィールド「機能ID」には、機能を識別する機能識別データ(以下、「識別ID」という)が格納される。データフィールド「機能名」には機能の名称を示すテキストデータが格納される。データフィールド「スコア」には、キーワードと機能の関連性の高低を示す数値データ(以下、「スコア」という)が格納される。1つのデータレコードは、データフィールド「機能ID」〜「スコア」に複数セットのデータを格納することができる。
図6に例示のデータは、「カレー」というキーワードと、「レストラン検索」という機能の関連性を示すスコアが「5」であり、「カレー」というキーワードと、「レシピ検索」という機能の関連性を示すスコアが「5」であり、・・・ということを示している。
第2の関連性データは、端末装置11が実行可能な複数の機能の各々に関し、当該機能と端末装置11が実行可能な複数の機能のうち当該機能に関連する他の機能の各々との関連性の高低を示すデータである。図7は、第2の関連性データの構成例を示した図である。第2の関連性データは、端末装置11が実行可能な機能に応じたデータレコードを複数含むデータベースであり、各データレコードはデータフィールドとして「第1の機能」、「第2の機能」を有している。また、データフィールド「第1の機能」は、サブデータフィールドとして「機能ID」と「機能名」を有し、データフィールド「第2の機能」は、サブデータフィールドとして「機能ID」、「機能名」および「スコア」を有している。以下、サブデータフィールドを示す場合、「(データフィールド名)−(サブデータフィールド名)」のように示す。例えば、データフィールド「第1の機能」のサブデータフィールド「機能ID」は、データフィールド「第1の機能−機能ID」のように示す。
データフィールド「第1の機能」には、端末装置11で実際に実行される機能である第1の機能に関するデータが格納される。図8は、端末装置11のディスプレイ1041に表示される画面を例示した図である。図8(a)は、ユーザが音声による指示を行うのを待機している状態の端末装置11のディスプレイ1041に表示される画面である。図8(a)の画面が表示されている状態において、ユーザが例えば「カレーを食べたい」と発話した場合、端末装置11のディスプレイ1041には図8(b)に示すような画面が表示される。図8(b)の画面において、領域A01には、端末装置11がその時点において実行している機能に従った各種情報が表示される。この領域A01に各種情報を表示する機能が第1の機能である。
データフィールド「第2の機能」には、第1の機能に関連する機能である第2の機能に関するデータが格納される。図8(b)の画面において、領域A02には領域A01に各種情報を表示している第1の機能に関連する機能に応じたボタンが表示される。ユーザは、領域A02に表示されるボタンのいずれかをタッチ操作することにより、タッチ操作したボタンに応じた第2の機能の実行を端末装置11に指示することができる。なお、図8(c)はユーザが図8(b)の領域A02に表示された「乗換案内」ボタンをタッチ操作した場合にディスプレイ1041に表示される画面を例示したものである。
音声エージェントシステム1において、領域A02には、領域A01に第1の機能に従って各種情報が表示されている状態において、ユーザが次に実行指示を行う可能性が高いと推定される機能(第2の機能)のボタンが表示される。そのため、第2の関連性データにおいて、データフィールド「第2の機能−機能ID」が示す機能は、データフィールド「第1の機能−機能ID」が示す機能の次に実行される可能性が高いと推定される機能である。
第2の関連性データのデータフィールド「第1の機能−機能ID」には、第1の機能を識別する機能IDが格納される。データフィールド「第1の機能−機能名」には、第1の機能の名称を示すテキストデータが格納される。データフィールド「第2の機能−機能ID」には、第2の機能を識別する機能IDが格納される。データフィールド「第2の機能−機能名」には、第2の機能の名称を示すテキストデータが格納される。データフィールド「第2の機能−スコア」には、第1の機能に対する第2の機能の関連性の高低、すなわち第1の機能の実行の後に第2の機能が実行される確率の高低を示すスコアが格納される。1つのデータレコードは、データフィールド「第2の機能」に複数セットのデータを格納することができる。
図7に例示のデータは、例えば第1の機能「レストラン検索」が実行された後、第2の機能「乗換案内」が実行される確率の高低を示すスコアが「10」であり、第2の機能「ルート案内」が実行される確率の高低を示すスコアが「8」であり、・・・ということを示している。
図5に戻り、音声認識サーバ装置12の機能構成の説明を続ける。音声認識サーバ装置12は、端末装置11から音声データを受信する受信手段123と、受信手段123により受信された音声データが表わす音声が示す文章を認識し、認識した文章データを生成する文章データ生成手段124と、文章データ生成手段124により生成された文章データが表わす文章に含まれるキーワードを抽出し、抽出したキーワードを示すキーワードデータを生成するキーワードデータ生成手段125を備える。
なお、文章データ生成手段124が行う文章の認識の処理は、既知の音声認識処理であるため、その説明を省略する。また、キーワードデータ生成手段125は、文章データが表わす文章の中から、第1の関連性データ(図6)のデータフィールド「キーワード」に含まれるキーワードと一致する言葉をキーワードとして抽出する。
また、音声認識サーバ装置12は、キーワードデータ生成手段125により生成されたキーワードデータが示すキーワードの各々に関し、第1の関連性データ取得手段121により取得された第1の関連性データが示すスコアを第1の機能の候補毎に合算し、合算したスコアが最も高い候補を第1の機能として特定する第1の機能特定手段126を備える。
また、音声認識サーバ装置12は、第1の機能特定手段126により特定された第1の機能に関し、第2の関連性データ取得手段122により取得された第2の関連性データが示すスコアを第2の機能の候補毎に合算し、合算したスコアが高い上位3つの候補を第2の機能として特定する第2の機能特定手段127を備える。
さらに、音声認識サーバ装置12は、第1の機能特定手段126により特定された第1の機能の機能IDと、第2の機能特定手段127により特定された第2の機能の機能IDと、キーワードデータ生成手段125により生成されたキーワードデータを端末装置11に送信する送信手段128を備える。以上が音声認識サーバ装置12の機能構成である。
情報提供サーバ装置13は、自機のメモリ201に記憶されているプログラムに従う処理を行うことにより、図9に示す機能構成を備える装置として動作する。すなわち、情報提供サーバ装置13は、機能構成として、端末装置11からデータ処理の要求を示す要求データを受信する受信手段131と、受信手段131により受信された要求データに従いデータ処理を実行する処理実行手段132と、処理実行手段132により実行されたデータ処理の結果を示す結果データを端末装置11に送信する送信手段133を備える。
続いて、ユーザが音声により端末装置11に対し機能の実行指示を行う場合の音声エージェントシステム1の動作を説明する。図10は音声エージェントシステム1の動作を示したシーケンスチャートである。まず、ユーザが端末装置11を操作して図8(a)の画面をディスプレイ1041に表示させた状態で、例えば「カレーを食べたい」といった発話を行うと、端末装置11は当該発話の音声を録音、すなわち当該音声を表わす音声データの生成を行う(ステップS101)。
続いて、端末装置11はステップS101で生成した音声データを音声認識サーバ装置12に送信し(ステップS102)、音声認識サーバ装置12は当該音声データを受信する(ステップS103)。続いて、音声認識サーバ装置12はステップS103において受信した音声データが表わす音声を認識、すなわち当該音声が示す文章を特定し、特定した文章を表わす文章データを生成する(ステップS104)。
続いて、音声認識サーバ装置12はステップS104において生成した文章データが表わす文章からキーワードを抽出し、それらのキーワードを示すキーワードデータを生成する(ステップS105)。続いて、音声認識サーバ装置12は、第1の関連性データとステップS105において生成したキーワードデータに基づき第1の機能を特定する(ステップS106)。続いて、音声認識サーバ装置12は、第2の関連性データとステップS106において特定した第1の機能の機能ID(第1の機能ID)に基づき第2の機能を特定する(ステップS107)。
続いて、音声認識サーバ装置12は、ステップS105において生成したキーワードデータと、ステップS106において特定した第1の機能IDと、ステップS107において特定した第2の機能の機能ID(第2の機能ID)を端末装置11に送信し(ステップS108)、端末装置11はそれらのデータを受信する(ステップS109)。
端末装置11は、ステップS109において受信した第1の機能IDにより識別される機能を第1の機能として実行する(ステップS110)。ステップS110において、端末装置11は必要に応じて、ステップS109において受信したキーワードデータを用いる。また、ステップS110において、端末装置11は必要に応じて、情報提供サーバ装置13との間でデータ通信を行い、第1の機能の実行において必要な各種データを取得する。
端末装置11は第1の機能の実行(ステップS110)と同時に、ステップS109において受信した第2の機能IDにより識別される機能に応じたボタンを表示する(ステップS111)。図8(b)は、ステップS110およびステップS111の処理に伴いディスプレイ1041に表示される画面を例示している。具体的には、領域A01にはステップS110における第1の機能の実行に伴う情報が表示され、領域A02にはステップS111における第2の機能に応じたボタンの表示が行われる。
ユーザは、図8(b)の画面の領域A01において、例えば検索キーワードの入力等の各種操作を行い必要な情報を得た後、引き続き、領域A02にボタンが表示されている機能のいずれかを端末装置11に実行させたい場合、そのボタンをタッチ操作する。端末装置11はそのタッチ操作を受け付けると(ステップS112)、タッチ操作されたボタンに応じた第2の機能を、新たな第1の機能として実行する(ステップS113)。ステップS113において、端末装置11は必要に応じて、情報提供サーバ装置13との間でデータ通信を行い、新たな第1の機能の実行において必要な各種データを取得する。
端末装置11は新たな第1の機能の実行(ステップS113)と同時に、ステップS112においてユーザによるタッチ操作を受け付けた第2の機能(新たな第1の機能)の機能IDを音声認識サーバ装置12に送信し(ステップS114)、音声認識サーバ装置12はその機能IDを受信する(ステップS115)。
音声認識サーバ装置12は、第2の関連性データとステップS115において受信した機能ID(新たな第1の機能ID)に基づき、新たな第1の機能に応じた新たな第2の機能を特定する(ステップS116)。音声認識サーバ装置12はステップS116において特定した新たな第2の機能の機能ID(新たな第2の機能ID)を端末装置11に送信し(ステップS117)、端末装置11はそれらの新たな第2の機能IDを受信する(ステップS118)。端末装置11はステップS118において受信した新たな第2の機能IDにより識別される機能に応じたボタンを表示する(ステップS119)。図8(c)は、ステップS113およびステップS119の処理に伴いディスプレイ1041に表示される画面を例示している。具体的には、領域A01にはステップS113における新たな第1の機能の実行に伴う情報が表示され、領域A02にはステップS119における新たな第2の機能に応じたボタンの表示が行われる。
以上説明したように、音声エージェントシステム1によれば、ユーザが音声により端末装置11に対し機能の実行を指示した場合、ディスプレイ1041には、指示された機能の実行に伴う情報が表示されるとともに、実行中の機能の次にユーザが使用する可能性が高いと推定される機能のボタンが表示される。そのため、ユーザは多くの場合、現在実行されている機能の次に実行させたい機能を端末装置11に対し指示する際に、新たな発話を行ったり、複数回のタッチ操作を行ったりすることなく、ワンタッチでその機能の実行を端末装置11に指示することができる。また、領域A02にボタンが表示される機能には、ユーザが知らなかった機能が含まれることがある。その場合、ユーザは便利な機能を知ることができる。
[変形例]
上述した音声エージェントシステム1は本発明の一実施形態であって、本発明の技術的思想の範囲内において様々に変形することができる。以下にそれらの変形の例を示す。なお、上述した実施形態および下記の変形例は適宜組み合わされてもよい。
[第1変形例]
第1変形例においては、ユーザが第1の機能の実行を指示するために発話した音声に含まれるキーワードが、ユーザにより実行指示が行われた第2の機能、すなわち新たな第1の機能において用いられる。
図11は、第1変形例において端末装置11のディスプレイ1041に表示される画面を例示した図である。図11(b)は、ディスプレイ1041に図11(a)の画面が表示されている状態でユーザが「銀座に行きたい」と発話した場合にディスプレイ1041に表示される画面を例示している。図11(b)の画面においては、音声認識サーバ装置12において第1の機能として特定された「乗換案内」の情報が領域A01に表示され、第2の機能として特定された「ルート案内」、「ショップ検索」、「スケジュール」のボタンが領域A02に表示されている。
なお、図11(b)の領域A01において、出発駅「溜池山王」はGPSユニット106により生成される位置データが示す端末装置11の現在位置から最寄りの駅の名称が自動入力されたものである。また、目的駅「銀座」は、ユーザが発話した音声((図10のステップS103において受信した音声データ))から音声認識サーバ装置12において抽出された「銀座」というキーワードが示す場所の最寄り駅の名称が自動入力されたものである。
このように端末装置11が第1の機能の実行において、ユーザの音声に含まれるキーワードを適切なパラメータとして用いるために、音声認識サーバ装置12はキーワード抽出に加え、文章の意図解釈を行い、この場合、「銀座」が目的地であることを特定し、さらに銀座の最寄り駅が銀座駅であることを特定し、第1の機能に応じたパラメータを示すパラメータデータ「目的駅=銀座」を生成し、第1の機能IDおよび第2の機能IDの送信(図10のステップS108)において、それらの機能IDとともに生成したパラメータデータを端末装置11に送信する。端末装置11は音声認識サーバ装置12から受信したパラメータデータに従い第1の機能を実行することにより、図11(b)に示すような情報の表示を行うことができる。なお、音声認識サーバ装置12が行う文章の意図解釈の処理や、ある場所の最寄り駅を特定する処理等は既知の処理であるため、その説明を省略する。
図11(c)は、図11(b)の画面が表示されている状態でユーザが領域A02に表示されている「ショップ検索」ボタンをタッチ操作した場合にディスプレイ1041に表示される画面を例示したものである。図11(c)の領域A01には、新たな第1の機能である「ショップ検索」の情報が表示されている。図11(c)の領域A01において、エリア「銀座」は、先の第1の機能であった「乗換案内」において「銀座」が目的駅として用いられた場合と同様に、ユーザが発話した音声(図10のステップS103において受信した音声データ)から音声認識サーバ装置12において抽出された「銀座」というキーワードが示す場所を中心とするエリアの名称が自動入力されたものである。
このように端末装置11が第2の機能(新たな第1の機能)の実行において、ユーザの音声に含まれるキーワードを適切なパラメータとして用いるために、音声認識サーバ装置12は新たな第1の機能IDを端末装置11から受信すると(図10のステップS115)、ユーザの音声を意図解釈し、新たな第1の機能に応じたパラメータを示すパラメータデータ「エリア=銀座」を生成し、新たな第2の機能IDの送信(図10のステップS117)において、それらの機能IDとともに生成したパラメータデータを端末装置11に送信する。端末装置11は音声認識サーバ装置12から受信したパラメータデータに従い新たな第1の機能を実行することにより、図11(c)に示すような情報の表示を行うことができる。
以上のように、第1変形例にかかる音声エージェントシステム1によれば、第2の機能(新たな第1の機能)が実行される際、ユーザが先に第1の機能の実行を指示するために発話した音声に含まれるキーワードが第2の機能の実行において用いられるため、ユーザが第2の機能の実行時においてパラメータを入力する手間が軽減される。
[第2変形例]
第2変形例においては、ユーザが第2の機能の実行指示を端末装置11に対し行った場合、それまで端末装置11が実行していた第1の機能において取得されたデータが、第2の機能(新たな第1の機能)におけるパラメータデータとして利用される。
図12は、第2変形例において端末装置11のディスプレイ1041に表示される画面を例示した図である。図12(b)は、図8(b)と同様に、ディスプレイ1041に図12(a)の画面が表示されている状態でユーザが「カレーを食べたい」と発話した場合にディスプレイ1041に表示される画面を例示している。ただし、図12(b)の例では、領域A01においてキーワード「カレー」、エリア「銀座」が自動入力されている。キーワード「カレー」は、音声認識サーバ装置12においてユーザの音声の意図解釈により生成されたパラメータデータに従い自動入力されたものである。また、エリア「銀座」はGPSユニット106により生成された位置データに従い自動入力されたものである。
図12(c)は、図12(b)の画面においてユーザが領域A01に表示されるレストランの表示(地図上のマークまたはリスト内の店名等)のいずれかをタッチ操作して、レストランの詳細情報を表示させた場合の画面である。この例では、丸の内近辺のレストランの詳細情報が表示されている。
図12(d)は、図12(c)の画面において、領域A02に表示されている「乗換案内」ボタンをユーザがタッチ操作した場合にディスプレイ1041に表示される画面を例示している。図12(d)の例では、領域A01には、ユーザにより実行指示の行われた第2の機能(新たな第1の機能)である「乗換案内」に従い情報が表示されている。この領域A01の表示において、出発駅「銀座」、目的駅「丸の内」が自動入力されている。出発地「銀座」はGPSユニット106により生成された位置データに従い自動入力されたものである。また、目的駅「丸の内」は、図12(c)の領域A01に表示されていたデータ内に含まれる「丸の内」というキーワードに従い自動入力されたものである。
上記のように、第1の機能において取得されたデータ(この場合、「丸の内」というキーワード)を第2の機能(新たな第1の機能)の実行において利用するために、第2変形例においては、端末装置11が新たな第1の機能IDを音声認識サーバ装置12に送信する際(図10のステップS114)、その時点で第1の機能において用いていたデータ(この場合、例えば、ユーザの操作に従い領域A01に表示されていたレストランの詳細情報を示すテキストデータ、以下、「旧第1の機能のデータ」という)を併せて送信する。音声認識サーバ装置12は端末装置11から受信した旧第1の機能のデータが表わす文章を意図解釈し、新たな第1の機能に応じたパラメータデータ「目的駅=丸の内」を生成し、新たな第1の機能IDを送信する際(図10のステップS117)、生成したパラメータデータを併せて端末装置11に送信する。
端末装置11は、音声認識サーバ装置12から受信したパラメータデータに従い、新たな第1の機能の実行において、目的駅に「丸の内」を自動入力する。
以上のように、第2変形例にかかる音声エージェントシステム1によれば、第2の機能(新たな第1の機能)が実行される際、それまで実行されていた第1の機能において取得され用いられていたデータが用いられるため、ユーザが第2の機能の実行時においてパラメータを入力する手間が軽減される。
[第3変形例]
第3変形例においては、ユーザ(端末装置11)の現在位置に応じて、領域A02に表示されるボタンが変化する。
図13は、第3変形例において用いられる第2の関連性データの構成例を示した図である。第3変形例においては、端末装置11がユーザの自宅以外に位置する時に用いられる第2の関連性データ(以下、「一般用の第2の関連性データ」という)と、端末装置11がユーザの自宅に位置する時に用いられる第2の関連性データ(以下、「自宅用の第2の関連性データ」という)という、端末装置11の現在位置に応じた異なる第2の関連性データが準備されている。
図13の例では、例えば、第1の機能「ニュース検索」に応じた第2の機能として、「用語検索」、「テレビ番組検索」、・・・が登録されている。ここで、一般用の第2の関連性データにおいては、第2の機能「テレビ番組検索」のスコアは「3」である。一方、自宅用の第2の関連性データにおいては、第2の機能「テレビ番組検索」のスコアは「10」である。このように、第2の機能「テレビ番組検索」のスコアが、自宅用の第2の関連性データにおける場合よりも一般用の第2の関連性データにおける場合が低いのは、ユーザが自宅以外にいる時にはテレビがすぐ近くにないことが多いため、ユーザが自宅にいる時と比べて、引き続きテレビ番組の検索を行いたいと思う可能性が低いためである。
図14は、第3変形例にかかる端末装置11のディスプレイ1041に表示される画面を例示した図である。図14(b)は、自宅以外の場所において、図14(a)の画面が表示されている状態の端末装置11に対し、ユーザが「景気対策のニュースを知りたい」と発話した場合にディスプレイ1041に表示される画面を例示している。一方、図14(c)は、自宅において、図14(a)の画面が表示されている状態の端末装置11に対し、ユーザが「景気対策のニュースを知りたい」と発話した場合にディスプレイ1041に表示される画面を例示している。図14(b)および(c)の画面の領域A01に表示される情報は同じであるが、領域A02に表示される第2の機能のボタンが異なっている。すなわち、自宅においては第2の機能として表示される「テレビ番組検索」や「ビデオ配信サイト」のボタンが、自宅以外においては表示されず、代わりに「地図検索」や「人物検索」のボタンが表示されている。
上記のように、自宅と自宅以外で異なる第2の機能のボタンを表示するために、第3変形例にかかる端末装置11は機能構成として、図3に示した構成部に加え、GPSユニット106により生成される位置データを取得する位置データ取得手段を備え、送信手段112は位置データ取得手段により取得された位置データを音声認識サーバ装置12に送信する。また、音声認識サーバ装置12の受信手段123は、端末装置11から送信されてくる位置データを取得する位置データ取得手段として機能する。受信手段123は端末装置11から取得した位置データを第2の関連性データ取得手段122に引き渡す。
音声認識サーバ装置12は、例えばメモリ201にユーザ毎に自宅の位置を示す自宅位置データを記憶している。第2の関連性データ取得手段122は、端末装置11から受信した位置データが示す位置が、端末装置11のユーザの自宅位置データが示す位置から所定距離内であれば、端末装置11は現在、ユーザの自宅にあり、所定距離を超えれば、端末装置11は現在、ユーザの自宅以外の場所にある、と判定する。そして、第2の関連性データ取得手段122は、端末装置11が自宅にあると判定した場合、自宅用の第2の関連性データ(図13)をメモリ201から読み出し取得して第2の機能の特定に用いる。一方、第2の関連性データ取得手段122は、端末装置11が自宅以外の場所にあると判定した場合、一般用の第2の関連性データ(図13)をメモリ201から読み出し取得して第2の機能の特定に用いる。
第3変形例にかかる音声エージェントシステム1の動作が上述した実施形態にかかる音声エージェントシステム1の動作と異なる点は、まず、端末装置11が音声データを音声認識サーバ装置12に送信する際(図10のステップS102)、GPSユニット106により生成された位置データを併せて送信する点である。その後、音声認識サーバ装置12において第2の機能の特定が行われる際(図10のステップS107)、上述した第2の関連性データ取得手段122により位置データが示す位置に応じて異なる第2の関連性データが用いられる結果、図14(b)および(c)に例示したように、領域A02に表示される第2の機能のボタンがユーザの現在位置に応じて変化することになる。
以上のように、第3変形例にかかる音声エージェントシステム1によれば、ユーザの現在位置に応じた適切な第2の機能のボタンがユーザに対し提示される。
[第4変形例]
第4変形例においては、第3変形例における場合と同様に、ユーザ(端末装置11)の現在位置に応じて領域A02に表示されるボタンが変化する。ただし、第4変形例においては、端末装置11の現在位置と、第1の機能において用いられるデータに示される位置との距離の大小に応じて、領域A02に表示されるボタンが変化する。
図15は、第4変形例において用いられる第2の関連性データの構成例を示した図である。第4変形例においては、第1の機能の実行において使用されるデータ(以下、「使用データ」という)に位置を含むデータが含まれる場合、当該データが示す位置と端末装置11の現在位置との間の距離が300km未満の場合に用いられる第2の関連性データ(以下、「近距離用の第2の関連性データ」という)と、300km以上の場合に用いられる第2の関連性データ(以下、「遠距離用の第2の関連性データ」という)が準備されている。
図15の例では、例えば、第1の機能「レストラン検索」に応じた第2の機能として、近距離用の第2の関連性データにおいては「乗換案内」、「ルート案内」、・・・が登録されている。一方、遠距離用の第2の関連性データにおいては「乗換案内」、「ツアー検索」、・・・が登録されている。このように、近距離用の第2の関連性データには第2の機能として登録されていない「ツアー検索」が、遠距離用の第2の関連性データには登録されているのは、遠距離の移動においては、自家用車を用いた移動よりも航空機による移動を選択するユーザが多く、また、遠距離のレストランに行く場合には、グルメツアーや格安パッケージツアーを利用するユーザが多いため、「レストラン検索」の次に実行される可能性が高い機能として「ルート案内」より「ツアー検索」の方が適切であるためである。
図16は、第4変形例にかかる端末装置11のディスプレイ1041に表示される画面を例示した図である。図16(b)は、例えば函館において、図16(a)の画面が表示されている状態の端末装置11に対し、ユーザが「札幌のラーメン屋に行きたい」と発話した場合にディスプレイ1041に表示される画面を例示している。一方、図16(c)は、東京において、図16(a)の画面が表示されている状態の端末装置11に対し、ユーザが「札幌のラーメン屋に行きたい」と発話した場合にディスプレイ1041に表示される画面を例示している。第3変形例における場合と同様に、図16(b)および(c)の画面の領域A01に表示される情報は同じであるが、領域A02に表示される第2の機能のボタンが異なっている。すなわち、函館においては第2の機能として表示さる「ルート検索」のボタンが東京においては表示されず、代わりに「ツアー検索」のボタンが表示されている。
第4変形例において、端末装置11は音声データを音声認識サーバ装置12に送信する際(図10のステップS102)、GPSユニット106により生成された位置データを併せて音声認識サーバ装置12に送信する。音声認識サーバ装置12は、端末装置11から受信した音声データが表わす音声の意図解釈により、ユーザの目的地が札幌であることを特定する。また、音声認識サーバ装置12は、端末装置11から受信した位置データに基づき、ユーザの現在地を特定する。音声認識サーバ装置12は、第2の機能の特定(図10のステップS107)において、ユーザの目的地とユーザの現在地の間の距離に応じて、近距離用の第2の関連性データと遠距離用の第2の関連性データのいずれかを選択して用いる。その結果、図16(b)および(c)に例示したように、領域A02に表示される第2の機能のボタンが、ユーザの発話内容が示す位置とユーザの現在位置との間の距離に応じて変化することになる。
以上のように、第4変形例にかかる音声エージェントシステム1によれば、ユーザの現在位置に応じた適切な第2の機能のボタンがユーザに対し提示される。
なお、上記の第4変形例の説明においては、ユーザの目的地を示すデータが、ユーザが第1の機能の実行指示を行うために発話した音声が示す文章を表わす文章データから抽出されるものとした。これに代えて、端末装置11が第1の機能の実行中にユーザが端末装置11に入力したデータや、端末装置11が第1の機能の実行中に情報提供サーバ装置13から取得したデータ等から、ユーザの目的地を示すデータの抽出が行われる構成としてもよい。
[第5変形例]
第5変形例においては、ユーザが端末装置11に対し行った機能の実行指示の履歴に応じて、領域A02に表示されるボタンが変化する。第5変形例において、端末装置11はユーザの指示に従いいずれかの機能を実行した場合、実行した機能を識別する機能IDと、その時点でクロック107により生成された現在時刻を示す時刻データを、履歴データとして音声認識サーバ装置12に送信する。音声認識サーバ装置12の受信手段123は履歴データを取得する履歴データ取得手段として機能し、端末装置11から送信されてくる履歴データを受信する。音声認識サーバ装置12は、端末装置11毎に、履歴データをメモリ201に記録する。ただし、音声認識サーバ装置12は端末装置11毎に受信した履歴データが所定数(例えば、1000個)を超えた場合、新しく受信した履歴データを記録するとともに、古いものから順次、履歴データを削除する。
図17は、メモリ201に記録される履歴データの構成例を示した図である。履歴データは、端末装置11において実行された機能を時系列的に示すデータである。以下、時系列的に並んで実行された2つの機能のうち、先に実行されたものを「先行機能」、後に実行されたものを「後続機能」という。
音声認識サーバ装置12は、履歴データに従い、例えば以下の規則に従い、端末装置11毎に、先行機能と後続機能との組み合わせ毎のウェイトを算出する。
(1)先行機能の実行された時刻から後続機能の実行された時刻までの時間が所定時間以内(例えば、30分以内)のものを、連続して実行された2つの機能として特定する。(2)連続して実行された先行機能と後続機能の組み合わせ毎にその数をカウントし、カウントした数を0.01倍した数を1に加えた数をその先行機能と後続機能の組み合わせのウェイトとする。
音声認識サーバ装置12は、先行機能と後続機能との組み合わせ毎のウェイトを示すウェイトデータをメモリ201に記憶する。図18は、メモリ201に記憶されるウェイトデータの構成例を示した図である。ウェイトデータは、先行機能と後続機能の組み合わせに応じたウェイトを示すデータである。
第5変形例において、音声認識サーバ装置12は第2の機能の特定の際(図10のステップS107)、第2の関連性データ(図7)が示す第1の機能と第2の機能との組み合わせに応じたスコアに、ウェイトデータが示すウェイト(第1の機能を先行機能とし、第2の機能を後続機能とした場合のそれらの組み合わせに応じたウェイト)を乗じて得られるスコアを用いる。
図19は、第5変形例にかかる端末装置11のディスプレイ1041に表示される画面を例示した図である。図19(b)は、ユーザがまだあまり端末装置11を使用していない時に、図19(a)の画面が表示されている状態の端末装置11に対し、「カレーが食べたい」と発話した場合にディスプレイ1041に表示される画面を例示している。一方、図19(c)は、ユーザが「レストラン検索」を頻繁に利用し、「レストラン検索」の機能を利用した後に「連絡先リスト」を頻繁に利用した後に、図19(a)の画面が表示されている状態の端末装置11に対し、「カレーが食べたい」と発話した場合にディスプレイ1041に表示される画面を例示している。
図19(b)および(c)の画面の領域A01に表示される情報は同じであるが、領域A02に表示される第2の機能のボタンが異なっている。すなわち、図19の画面においては、図19(b)の画面において表示されていた「スケジュール」のボタンに代えて、「連絡先リスト」のボタンが表示されている。これは、ユーザが「レストラン検索」を先行機能、「連絡先リスト」を後続機能として頻繁に利用した結果、これらの機能の組み合わせに応じたウェイトが増加し、これらの機能の組み合わせに応じたウェイト乗算後のスコアが増加したためである。
以上のように、第5変形例にかかる音声エージェントシステム1によれば、ユーザの機能の選択パターンに応じて、適切な第2の機能のボタンがユーザに対し提示される。
[その他の変形例]
(1)上述した第3変形例においては、端末装置11の現在位置に応じて異なる第2の関連性データ(図13)が用いられる。これに代えて、現在時刻に応じて異なる第2の関連性データが用いられる構成が採用されてもよい。
この変形例においては、音声認識サーバ装置12は、クロック204により生成される現在時刻を示す時刻データを取得する時刻データ取得手段を備える。もしくは、音声認識サーバ装置12の受信手段123が、クロック107により生成される時刻データを端末装置11から受信することにより、時刻データ取得手段として機能してもよい。
また、この変形例においては、音声認識サーバ装置12が、例えば、午前用の第2の関連性データ、午後用の第2の関連性データ、夜用の第2の関連性データ、のように1日の時間帯に応じて異なる第2の関連性データや、平日用の第2の関連性データ、休日用の第2の関連性データ、のようにカレンダーに応じて異なる第2の関連性データを取得する。そして、第2の機能の特定の際(図10のステップS107)、時刻データが示す現在時刻に応じた第2の関連性データを用いる。
その結果、この変形例においては、時間帯や曜日等に応じて、適切な第2の機能のボタンがユーザに対し提示される。
(2)上述した第5変形例においては、例えばユーザAの端末装置11に対し音声認識サーバ装置12が送信する第2の機能IDの特定において、ユーザAの履歴データに基づき生成されたウェイトデータが用いられる。これに代えて、もしくは加えて、ユーザAの端末装置11に対し音声認識サーバ装置12が送信する第2の機能IDの特定において、ユーザA以外のユーザの履歴データに基づき生成されたウェイトデータを用いる構成が採用されてもよい。
この変形例によれば、多くの人(他人)が頻繁に利用している先行機能と後続機能の組み合わせが、各自の端末装置11において領域A02に表示されるボタンに反映される。
(3)上述した第5変形例においては、履歴データは先行機能と後続機能の組み合わせを示す。これに代えて、履歴データが、先行機能および先行機能において用いられたパラメータデータと、後続機能および後続機能において用いられたパラメータデータとの組み合わせを示す構成としてもよい。
この変形例によれば、例えばあるユーザが頻繁に、「ショップ検索」機能においてキーワード「衣料品」にて検索をした後、「乗換案内」機能において目的地「銀座」を指定しているような場合、ユーザが「衣料品を買いたい」と発話した場合、第1の機能として「ショップ検索」機能が特定され、衣料品店が検索されると同時に、第2の機能として「乗換案内」が特定され、ユーザが「乗換案内」ボタンをタッチ操作すると、新たに第1の機能として実行される「乗換案内」において、目的地「銀座」が自動入力される。
(4)上述した実施形態および変形例においては、端末装置11の現在位置はGPSユニット106により特定される。これに代えて、例えば端末装置11が無線通信を行うために接続する無線基地局の位置を示す位置データを用いる等、他の種別の位置データが用いられてもよい。
(5)上述した実施形態および変形例においては、端末装置11が音声認識サーバ装置12に対し音声データを送信し、音声認識サーバ装置12において音声データが表わす音声が示す文章の特定(音声認識)が行われる。これに代えて、端末装置11が文章データ生成手段124と同様の構成部を備え、端末装置11において文章の特定が行われる構成が採用されてもよい。この場合、端末装置11から音声認識サーバ装置12に対し、文章データが送信されることになる。
さらに、端末装置11がキーワードデータ生成手段125と同様の構成部を備え、端末装置11において文章からキーワードの抽出が行われる構成が採用されてもよい。この場合、端末装置11から音声認識サーバ装置12に対し、キーワードデータが送信されることになる。
(6)上述した第3変形例においては、端末装置11の現在位置が「自宅」と「自宅以外」で区別される。場所の区分はこれに限られず、例えば、「自宅」、「オフィス」、「それら以外」のように、他の区分が採用されてもよい。
(7)上述した実施形態および変形例においては、ユーザは第1の機能を指定するためのデータ入力として、端末装置11のマイク105に対し発話を行い、当該発話の音声を示す音声データが入力データとして利用される。ユーザが第1の機能を指定するために端末装置11にデータを入力する方法は発話に限られず、また、入力データの形式も音声データに限られない。例えば、ユーザが発話に代えて、端末装置11に対し、キーボード(タッチディスプレイ104に表示される仮想的なキーボード、端末装置11に接続された機械的なキーボード等)等の入力デバイスを用いて文書を入力し、当該文章を示す文章データが入力データとして用いられてもよい。この場合、音声認識サーバ装置12に相当するサーバ装置は、文章データ生成手段124を要さず、キーワードデータ生成手段125が受信手段123により受信された文章データを用いてキーワードデータを生成するように構成されることになる。
(8)上述した実施形態および変形例においては、端末装置11、音声認識サーバ装置12および情報提供サーバ装置13は一般的なコンピュータに、本発明にかかるプログラムに従った処理を実行させることにより、実現されるものとした。これに代えて、端末装置11、音声認識サーバ装置12および情報提供サーバ装置13うちの1以上を、いわゆる専用機として構成してもよい。
本発明は、上述した音声エージェントシステムに例示されるシステム、当該システムを構成する端末装置および音声認識サーバ装置に例示されるサーバ装置、これらの装置が行なう処理の方法、コンピュータをこれらの装置として機能させるためのプログラム、当該プログラムをコンピュータ読取可能に記録した不揮発性の記録媒体、といった形態で把握される。なお、本発明にかかるプログラムは、記録媒体を介する他、インターネットなどのネットワークを介してコンピュータに提供されてもよい。
1…音声エージェントシステム、11…端末装置、12…音声認識サーバ装置、13…情報提供サーバ装置、19…通信ネットワーク、101…メモリ、102…プロセッサ、103…通信IF、104…タッチディスプレイ、105…マイク、106…GPSユニット、107…クロック、109…バス、111…入力データ取得手段、112…送信手段、113…受信手段、114…処理実行手段、115…表示指示手段、121…第1の関連性データ取得手段、122…第2の関連性データ取得手段、123…受信手段、124…文章データ生成手段、125…キーワードデータ生成手段、126…第1の機能特定手段、127…第2の機能特定手段、128…送信手段、131…受信手段、132…処理実行手段、133…送信手段、201…メモリ、202…プロセッサ、203…通信IF、204…クロック、209…バス、1041…ディスプレイ、1042…タッチパネル

Claims (9)

  1. 複数のキーワードの各々と、端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する第1の関連性データ取得手段と、
    前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する第2の関連性データ取得手段と、
    前記端末装置から、ユーザにより入力された入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを受信する受信手段と、
    前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する第1の機能特定手段と、
    前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する第2の機能特定手段と、
    前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する送信手段と
    を備えるサーバ装置。
  2. 前記受信手段は前記ユーザの音声を表わす前記入力データを受信し、
    前記入力データが表わす音声が示す文章を表わす文章データを生成する文章データ生成手段と、
    前記文章データ生成手段により生成された文章データが表わす文章に含まれるキーワードを表わすキーワードデータを、前記第1の機能特定手段により使用される前記キーワードデータとして生成するキーワードデータ生成手段と
    を備える請求項1に記載のサーバ装置。
  3. 前記端末装置の現在位置を示す位置データを取得する位置データ取得手段を備え、
    前記第2の関連性データ取得手段は、前記位置データが示す位置に応じて異なる前記第2の関連性データを取得する
    請求項1または2に記載のサーバ装置。
  4. 前記端末装置が前記第1の機能の実行において使用するデータを取得する使用データ取得手段を備え、
    前記第2の関連性データ取得手段は、前記使用データ取得手段により取得されたデータに位置を示すデータが含まれる場合、当該位置を示すデータが示す位置と前記位置データ取得手段により取得された位置データが示す前記端末装置の現在位置との距離に応じて異なる前記第2の関連性データを取得する
    請求項3に記載のサーバ装置。
  5. 現在時刻を示す時刻データを取得する時刻データ取得手段を備え、
    前記第2の関連性データ取得手段は、前記時刻データが示す現在時刻に応じて異なる前記第2の関連性データを取得する
    請求項1乃至4のいずれか1項に記載のサーバ装置。
  6. 前記端末装置に対し前記ユーザにより行われた機能の実行指示の履歴を示す履歴データを取得する履歴データ取得手段を備え、
    前記第2の関連性データ取得手段は、前記履歴データが示す履歴に応じて異なる前記第2の関連性データを取得する
    請求項1乃至5のいずれか1項に記載のサーバ装置。
  7. 端末装置との間でデータ通信を行う通信手段を備えるコンピュータに、
    複数のキーワードの各々と、前記端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する処理と、
    前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する処理と、
    前記端末装置から、ユーザにより入力された入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを受信する処理と、
    前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する処理と、
    前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する処理と、
    前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する処理と
    を実行させるプログラム。
  8. サーバ装置と端末装置を備え、
    前記サーバ装置は、
    複数のキーワードの各々と、前記端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得する第1の関連性データ取得手段と、
    前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する第2の関連性データ取得手段と
    を備え、
    前記端末装置は、
    ユーザにより入力された入力データを取得する入力データ取得手段と、
    前記入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを前記サーバ装置に送信する送信手段と
    を備え、
    前記サーバ装置は、
    前記端末装置から前記入力データ、もしくは前記キーワードデータを受信する受信手段と、
    前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定する第1の機能特定手段と、
    前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定する第2の機能特定手段と、
    前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信する送信手段と
    を備え、
    前記端末装置は、
    前記サーバ装置から前記第1の機能識別データと前記1以上の第2の機能識別データを受信する受信手段と、
    前記第1の機能識別データにより識別される前記第1の機能を実行する処理実行手段と、
    前記処理実行手段により前記第1の機能が実行されている間、前記1以上の第2の機能識別データにより識別される前記1以上の第2の機能の各々に関し、当該機能の実行指示をユーザに促す表示を表示装置に指示する表示指示手段と
    を備える
    システム。
  9. サーバ装置が、複数のキーワードの各々と、端末装置において実行され得る一連の処理の種別である複数の機能の各々との関連性の高低を示す第1の関連性データを取得するステップと、
    前記サーバ装置が、前記複数の機能に含まれる一の機能と前記複数の機能に含まれ当該一の機能とは異なる他の機能との関連性の高低を示す第2の関連性データを取得する処理と、
    前記端末装置が、ユーザにより入力された入力データを取得するステップと、
    前記端末装置が、前記入力データ、もしくは前記入力データが表わすキーワードを表わすキーワードデータを前記サーバ装置に送信するステップと、
    前記サーバ装置が、前記入力データが表わすキーワード、もしくは前記キーワードデータが表わすキーワードに関し前記第1の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1の機能を第1の機能として特定するステップと、
    前記サーバ装置が、前記第1の機能に関し前記第2の関連性データが示す関連性の高低に基づき、前記複数の機能の中から1以上の機能を第2の機能として特定するステップと、
    前記サーバ装置が、前記第1の機能を識別する第1の機能識別データと、前記1以上の第2の機能を各々識別する1以上の第2の機能識別データを前記端末装置に送信するステップと、
    前記端末装置が、前記第1の機能識別データにより識別される前記第1の機能を実行する間、前記1以上の第2の機能識別データにより識別される前記1以上の第2の機能の各々に関し、当該機能の実行指示をユーザに促す表示を表示装置に指示するステップと
    を備える方法。
JP2013193360A 2013-09-18 2013-09-18 ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法 Active JP6110264B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013193360A JP6110264B2 (ja) 2013-09-18 2013-09-18 ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013193360A JP6110264B2 (ja) 2013-09-18 2013-09-18 ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法

Publications (2)

Publication Number Publication Date
JP2015060390A JP2015060390A (ja) 2015-03-30
JP6110264B2 true JP6110264B2 (ja) 2017-04-05

Family

ID=52817866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013193360A Active JP6110264B2 (ja) 2013-09-18 2013-09-18 ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法

Country Status (1)

Country Link
JP (1) JP6110264B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017037B2 (en) * 2017-07-03 2021-05-25 Google Llc Obtaining responsive information from multiple corpora
JP2019105756A (ja) * 2017-12-13 2019-06-27 トヨタ自動車株式会社 車載音声出力装置
JP7432996B2 (ja) * 2019-05-17 2024-02-19 三菱電機株式会社 音声制御システムおよび音声制御装置
US20220399021A1 (en) * 2019-12-04 2022-12-15 Ntt Docomo, Inc. Interaction assistance device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5496947B2 (ja) * 2011-05-27 2014-05-21 株式会社Nttドコモ 機能提示システム、端末装置及びプログラム

Also Published As

Publication number Publication date
JP2015060390A (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
JP6162009B2 (ja) ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法
KR101758302B1 (ko) 컨텍스트에 기초한 음성 인식 문법 선택
US9917904B1 (en) Identifying non-search actions based on a search-query
CN106209935B (zh) 一种信息处理方法、终端及服务器
EP3093842B1 (en) Terminal device, program, and server device for providing information according to user data input
KR20130056252A (ko) 검색결과들을 이용한 자동 라우팅
JP5560229B2 (ja) 経路探索システム及び経路探索方法
KR20110081863A (ko) 개인 정보를 주소좌표로 변환
JP6102282B2 (ja) 施設検索システム、施設検索プログラム、車両用の装置
EP2637134A1 (en) Information processing device, information processing method, program for information processing device, and recording medium
JP6110264B2 (ja) ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、プログラム、システムおよび方法
KR20130082582A (ko) 전자지도에서 범위 검색 서비스 제공 방법 및 시스템
WO2010131445A1 (ja) 目的地設定システムおよび目的地設定方法
JP2007303918A (ja) 最短経路検索装置、最短経路取得システム、最短経路検索方法およびプログラム
KR101624382B1 (ko) 로그 데이터를 이용한 검색 서비스 제공 방법 및 장치
JP5698583B2 (ja) メニュー表示システム
CN109299359A (zh) 一种路况查询方法、装置、终端及存储介质
JP2015114527A (ja) ユーザのデータ入力に応じて情報提供を行うための端末装置、プログラム、記録媒体および方法
CN110069577B (zh) 一种线路规划方法、装置及电子设备
JP2002331938A (ja) 経路検索における駅名入力選択表示方法及びそのシステム
WO2018172883A1 (en) Information providing system, information providing method, and non-transitory computer-readable storage medium storing information providing program
JP2002091973A (ja) 情報提供システム及びその検索方法
JP4758284B2 (ja) webページ表示システム、webページ表示方法及びwebページ表示プログラム
JP6115202B2 (ja) 音声認識システム、方法およびプログラム
KR101986775B1 (ko) 위치 기반 서비스 시스템 및 방법, 이를 위한 장치 및 단말기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170309

R150 Certificate of patent or registration of utility model

Ref document number: 6110264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250