JP2014010816A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2014010816A
JP2014010816A JP2012149424A JP2012149424A JP2014010816A JP 2014010816 A JP2014010816 A JP 2014010816A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2014010816 A JP2014010816 A JP 2014010816A
Authority
JP
Japan
Prior art keywords
information
data
word
output
next action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012149424A
Other languages
English (en)
Inventor
Kaoru Hori
薫 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012149424A priority Critical patent/JP2014010816A/ja
Publication of JP2014010816A publication Critical patent/JP2014010816A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】簡単な構成でユーザに対し行動に関する必要な情報を出力する。
【解決手段】情報処理装置は、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、発話の音声を取得するための音声取得手段と、取得された音声から、声紋を抽出するための抽出部103と、取得される音声の文字データを取得する発話文字取得部104と、抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、発話文字取得部104により取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出す情報読出部105と、情報読出部105により読出された情報を出力部に出力させるための情報出力手段と、を備える。
【選択図】図3

Description

本発明は情報処理装置に関し、特に、取得した発話による音声から識別される情報をメモリから読出し提示する情報処理装置に関する。
従来、ユーザは自己のスケジュールを管理するために携帯電話のスケジュール機能などを使用することが多い。このスケジュール機能によれば、登録された時間に登録された情報を携帯電話からアラームでお知らせするような機能が提供される。
たとえば、特許文献1(特開2010−72677号公報)では、ユーザに対する外出時の携行品の忘れ物チェック機能が示される。つまり、端末装置は、複数の予定情報を記憶するスケジュール機能を有し、予定情報それぞれに物品の識別情報を関連付けて記憶し、近接する物品から当該物品に取付られたICタグによる識別情報を取得し、スケジュール機能に記憶されている予定情報を特定し、取得された識別情報を、特定された予定情報に関連付けて記憶されている識別情報と比較し、比較結果に応じた処理を行う。
特開2010−72677号公報
特許文献1の端末装置は、ユーザが外出するときに、携行品の忘れ物チェックをし、その結果を提示するが、使い勝手に優れない。つまり、ユーザは持物に予めICタグを付けておく必要がありわずらわしい。また予定情報に関連付けされた識別情報に対応する持物を携行していたとしても当該持物にICタグを付け忘れている場合には、忘れ物としてチェックされることになり、ユーザは混乱してしまう。
それゆえに本発明の目的は、簡単な構成でユーザに対し行動に関する必要な情報を出力する情報処理装置を提供することである。
この発明のある局面に従う情報処理装置は、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、発話の音声を取得するための音声取得手段と、取得された音声から、声紋を抽出するための抽出手段と、取得された音声の文字データを取得する発話文字取得手段と、抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出す情報読出手段と、情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える。
好ましくは、情報処理装置は、音声が取得される時間を計時するための計時手段を、さらに備える。メモリには、さらに、次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納される。情報読出手段は、抽出された声紋を示す声紋データに関連付けされた少なくとも1つの言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応する次の行動に関する情報であって、且つ、計時手段が計時した時間が、該次の行動に関する情報に対応する時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す。
好ましくは、少なくとも1つの言葉データには、発話者の出発に際し発せられる言葉を示す第1言葉データが含まれ、メモリの第1言葉データに対応する次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれる。情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する物品情報を読出す物品情報読出手段を含む。
好ましくは、メモリの第1言葉データに対応する次の行動に関する情報は、天気または降水確率の少なくとも何れか一方を示す複数種類の天候のそれぞれに対応して当該天候のもとで携帯するべき物品を示す物品情報を含み、音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備える。物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する天候のもとで携帯するべき物品を示す物品情報のうち、天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む。
好ましくは、携帯物品は、携帯端末を含み、情報処理装置は、携帯端末の位置を示す位置情報を取得するための位置取得手段と、取得される位置情報から、携帯端末は情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示し、且つ距離判定手段により離れていると判定されるとき、当該言葉を示す第1言葉データに対応する携帯端末を含む携帯物品を示す物品情報を読出す手段を含む。
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、さらに、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える。
好ましくは、発話者が情報処理装置から離れているか否かを検出するための離れ検出手段を、さらに備える。情報送信手段は、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための手段を備える。
好ましくは、出力部は、情報を表示するための画面を含み、情報処理装置は、人の予め定められた動作を検出するための動作検出手段を、さらに備える。情報出力手段は、次の行動に関する情報が出力部に出力されるとき、動作検出手段により予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む。
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、当該次の行動に関する情報を、抽出された声紋を示す声紋データについてのメモリの通信アドレスのデータを用いて、通信端末に送信する。
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれに対応し、さらに人物を識別するための識別データが格納される。情報処理装置は、さらに、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、動作が検知されない旨を示す情報が関連付けされた次の行動に関する情報と、当該次の行動に関する情報が関連付けされた声紋データに対応の識別データとをメモリから読出し、読出した情報を出力部に出力させる手段とを含む。
好ましくは、少なくとも1つの言葉データは、発話者の帰着に際し発せられる言葉を示す第2言葉データを含み、メモリの第2言葉データに対応する次の行動に関する情報は、伝言の情報を含み、情報読出手段は、発話文字取得手段が取得する文字データが帰着に際しに発せられる言葉を示すとき、当該言葉を示す第2言葉データに対応する伝言の情報を読出す手段を含む。
この発明の他の局面に従う情報処理方法は、メモリから情報を読出す情報処理方法であって、メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える。
この発明のさらに他の局面に従うと、メモリから情報を読出す情報処理方法をプロセッサに実行させるためのプログラムが提供される。
メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納される。プログラムは、プロセッサに、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させる。
本発明によれば、発話による音声から声紋データと発話の音声の文字データが表す言葉データを取得することで発話した人を判別し、メモリに登録された当該言葉が発せられる際にとられるべき当該人物の次の行動に関する情報を出力する。したがって、簡単な構成でユーザに対し行動に関する必要な情報を出力することができる。
本発明の実施の形態に係る情報処理装置の外観を表わす図である。 本発明の実施の形態に係る情報処理装置のハードウェア構成を表わすブロック図である。 本発明の実施の形態に係る情報処理装置が有する機能構成を示す概略図である。 本発明の実施の形態に係る持物リスト記憶部の情報の一例を示す図である。 本発明の実施の形態に係る伝言記憶部の情報の一例を示す図である。 本発明の実施の形態に係る出発時および帰着時の情報の出力例を示す図である。 本発明の実施の形態に係る情報の登録のための処理フローチャートである。 本発明の実施の形態に係る情報の出力処理のフローチャートである。
以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。
本発明の実施の形態では、情報処理装置は、ユーザの出発時または帰着時の発話から取得された発話内容に対応する当該発話者の行動に関する情報をメモリから読出し出力する。
<ハードウェア構成>
図1および図2を参照して本実施の形態に係る情報処理装置100の構成について説明する。図1は、情報処理装置100の外観を表わす図である。図2は情報処理装置100のハードウェア構成を表わすブロック図である。
情報処理装置100の機能は、たとえば家庭内のサーバ装置の機能のうちの1つとして提供されてもよく、専用装置として提供されてもよい。
情報処理装置100は、プロセッサ10、記憶部を構成するROM(Read Only Memory)15、RAM(Random Access Memory)16およびHDD(Hard Disk Drive)17、アンテナ19を接続する通信部18およびメモリドライバ20を含む。プロセッサ10は、CPU11および時間を計測するためのタイマ12を有する。
通信部18は、電話回線による通信のための電話通信部181および無線による近距離通信のための近距離通信部182を含む。情報処理装置100は、電話通話部181を介し電子メールの送信など、外部ネットワーク(図示せず)を経由した通信をすることができる。
メモリドライバ20は、外部から着脱自在にCD−ROM(Compact Disk Read Only Memory)21などの各種の記憶媒体が装着されて、装着された記憶媒体をアクセスすることにより、そこに記憶されたデータを読出すとともに、記憶媒体に対しプロセッサ10からのデータを書込む。
プロセッサ10には、タブレット2に関連する表示ドライバ14が接続されたグラフィックメモリ13、カメラ4、マイク5およびスピーカ6が接続される。プロセッサ10は、図示しないがカメラ4が撮像して出力する被写体画像およびマイク5が集音した音声を入力するための入力インターフェイスを有する。入力インターフェイスは、入力する画像および音声についてA/D(Analog/Digital)変換などする機能を有する。また、音声をD/A(Digital/Analog)変換しスピーカ6に出力する出力インターフェイスを有する。入力インターフェイスは、マイク5を用いて発話の音声を取得するための音声取得部に相当する。また、出力インターフェイスの機能およびグラフィックメモリ13に表示用データを書込む機能は、出力部(マイク5、表示部202)に情報を出力させるための情報出力部に相当する。
タブレット2は、タッチパネル201と表示部202を一体的に備える。表示部202はLCD(Liquid Crystal Display)パネルなどに相当し、その表示画面上にはタッチパネル201が載置される。表示部202に対する表示用データはプロセッサ10によってグラフィックメモリ13に書込まれ、表示ドライバ14は、グラフィックメモリ13の表示用データを用いて表示部202を駆動することにより、表示部202に表示用データに従う画像を表示させる。表示画面に表示される画像はタッチパネル201を介して視認可能な可視画像である。つまり、ユーザは表示部202による表示画像を透明部材からなるタッチパネル201を介して外部から視認することができる。
カメラ4は、タブレット2の表示部202が表示する情報を確認するユーザが位置する方向に撮像方向が向けられている。マイク5は、少なくとも情報処理装置100周辺の、より特定的にはタブレット2周辺の音声を集音可能な機能を有する。スピーカ6からの音声は、情報処理装置100周辺に、より特定的にはタブレット2周辺に出力される。
ここでは、カメラ4、マイク5およびスピーカ6はタブレット2と一体的に備えられているが、それぞれ個別に設置されるとしてもよい。
なお、情報処理装置100には、キーボード3が有線または無線で接続されるとしてもよい。
<機能構成>
本実施の形態では、図1に示すタブレット2は、たとえば玄関などに載置されると想定する。情報処理装置100は、玄関を通って出発する際または玄関を通って外出先から帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉が発せられる際にとられるべき当該ユーザの次の行動に関する情報を出力する。
具体的には、玄関を通って出発する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「行ってきます」)からユーザに対応の携帯物品を示す物品情報が、タブレット2により表示される。これにより、外出時に忘れ物がないように注意を促す(リマインドする)ことができる。また、玄関を通って外出先から家に帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「ただいま」)から当該ユーザに対し残されている伝言が、タブレット2により表示される。これにより、帰着時には伝言の確認が促される。
ここでは、発話の内容が示す言葉が発せられる際にとられるべきユーザの次の行動に関する情報として、外出時に携帯すべき物品または帰着時に確認するべき伝言の情報としているが、これら情報に限定されるものではない。
図3は、本発明の実施の形態に係る情報処理装置100が有する機能構成を示す概略図である。図3では、プロセッサ10が有する機能と、それら機能に関連する周辺部とを示す。図3のプロセッサ10が有する機能は、プログラムまたはプログラムと回路の組合せにより実現される。プログラムは、予めROM15などの記憶領域に格納されており、後述のCPU11がプログラムを記憶領域から読出し実行することにより、その機能が実現される。
上記の周辺部には、持物リスト記憶部431および伝言記憶部432が格納されるRAM16が含まれる。持物リスト記憶部431および伝言記憶部432は書換え可能であって、RAM16の不揮発性記憶領域に格納されると想定する。
プロセッサ10は、タッチパネル201の出力から、ユーザ操作による情報処理装置100に対する入力を受付けるための入力受付部101、持物リスト記憶部431および伝言記憶部432に対し情報の書込を行なうための情報格納部102、持物リスト記憶部431および伝言記憶部432を検索し、これら記憶部から情報を読出すための情報読出部105、ならびに情報読出部105に対し記憶部の検索に必要なデータを与える検索用データ取得部を含む。
さらに、情報読出部105により読出された情報を出力部(表示部202またはスピーカ6)に出力させるための情報出力部113、情報読出部105が読出した情報を外部の通信端末に送信するための情報送信部115、持物リスト記憶部431に対し後述するチェックデータ62を書込むための書込部116、およびチェックデータ62に関連付けされた情報を持物リスト記憶部431から読出し出力部(表示部202またはスピーカ6)により出力させるための関連付情報出力部117、動作検出部118および離れ検出部119を含む。
情報出力部113は、表示される情報の出力態様を変更するための出力態様変更部114を含む。動作検出部118は、情報出力部113から情報が出力されるとき人の予め定められた動作を検出する。予め定められた動作は、たとえばタッチパネル201をタッチ、または予め定められた内容(たとえば、“持った”の言葉)の発話などである。タッチ動作は、入力受付部101を介したタッチパネル201からの出力により判定する。また、発話内容は、発話文字取得部104から出力される発話内容が示す言葉により判定する。
離れ検出部119は発話者であるユーザが情報処理装置100から、より特定的にはタブレット2から離れつつあるか否かを検出する。
情報読出部105は、持物リスト記憶部431から物品情報を読出すための物品情報読出部106を含む。物品情報読出部106は、持物リスト記憶部431から天候毎の物品情報を読出すための天候別情報読出部107、および伝言記憶部432から伝言を示す情報を読出すための伝言情報読出部108を有する。
上述の検索用データ取得部は、抽出部103、発話文字取得部104、距離判定部109、位置取得部110、天候取得部111および計時部112を備える。これら各部の詳細は後述する。
本実施の形態では、“天候”とは、天気の種類(晴れ、雨、曇りなど)または降水確率の少なくとも何れか一方を示すものとする。
<記憶部の情報>
図4は、本発明の実施の形態に係る持物リスト記憶部431の情報の一例を示す図であり、図5は本発明の実施の形態に係る伝言記憶部432の情報の一例を示す図である。
図4を参照して持物リスト記憶部431は、少なくとも1種類の声紋データ50と、複数の文字からなる少なくとも1つの言葉データ51と、言葉データ51に対応した次の行動に関する情報とを関連付けて記憶する。
より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ50、言葉を表わす1つ以上の言葉データ51、当該人物の識別データ(名前、ニックネームなどを示すデータ)52、持物リスト53、当該持物リストを出力するべき時間を示す日付データ54および時刻データ55、サブ持物リスト60、チェックデータ62および当該人物が所有する通信端末の通信アドレスのデータ63を関連付けて記憶する。
持物リスト53は、対応の人物が言葉データ51の言葉を発した際に、人物が携帯するべき携帯物品を示す物品情報を示す。サブ持物リスト60は、対応の人物が言葉データ51の言葉を発した際に、場合によって当該人物が携帯するべき携帯物品を示す物品情報を示す。距離別持物リスト61および天候別持物リスト70を含む。距離別持物リスト61は、対応する人物が言葉データ51を示す言葉を発した際に当該人物が携帯するべき1つ以上の端末(以下、携帯端末という)の情報を示す。距離別持物リスト61は、これら携帯端末と情報処理装置100とが予め定められた距離以上離れたときに出力される。距離別持物リスト61の各携帯端末の情報は、当該携帯端末の種類(携帯(携帯電話の略)、防犯ブザーの端末、タブレット端末など)と当該携帯端末の通信用アドレスを含む。
なお、本実施の形態では、ユーザは携帯端末を常時携帯しているものと想定している。したがって、持物リスト53が示す物品は携帯端末を含まないとするが、含むようにしてもよい。
天候別持物リスト70は、雨データ71、注意報データ72、雪データ73、低温データ74を含む。
天候別持物リスト70のこれらデータは、天候の種類ごとに当該天候のもとで携帯するべき携帯物品の情報(傘、レインコート、長靴など)を示す。つまり、天候の種類に基づいて携帯すべき携帯物品の情報(傘、レインコート、長靴など)を対応付けて記憶するリストである。たとえば、天気の種類が雨ならば、傘などを対応付けて記憶するが、天気の種類に限らず、降水確率に基づいて、「降水確率が何%以上」であるならば、傘などを対応付けておくという記憶の仕方でも構わない。
チェックデータ62は、持物リスト53またはサブ持物リスト60が出力部に出力された場合に、ユーザが出力された情報を確認したことを示す予め定められた動作(タッチパネル201へのタッチ、または「持った」という言葉の発話)が検出されたか否かを示すためのものであって、初期値は“F”(未検出)が格納されるが、予め定められた動作が検出された場合には書込部116によりチェックデータ62の値は“F”→“T”に書換えられる。
図5を参照して伝言記憶部432は、少なくとも1種類の声紋データ80と、複数の文字からなる少なくとも1つの言葉データ81と、言葉データ81に対応した次の行動に関する情報とを関連付けて記憶する。
より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ80、言葉を表わす1つ以上の言葉データ81、当該人物の識別データ(名前、ニックネームなどを示すデータ)82、当該人物に対しての伝言を示す伝言データ83、当該伝言を残した人の名前などを示す伝言者データ84および日付データ85を記憶する。日付データ85は、対応する伝言データ83が示す伝言を出力部から出力するべき日付を示す。
図4と図5では、説明のために、持物リスト記憶部431と伝言記憶部432は別のものとして示されているが、両者は関連付けされている。具体的には、これら2つの記憶部は、図中の実線矢印で示されるような紐付け機能(ポインタP1とP2などの機能)を用いて、同一人物すなわち同一の声紋を示す声紋データ50と声紋データ80とを紐付けする。これにより、1つの声紋データが取得されたとき、持物リスト記憶部431および伝言記憶部432の両方において、当該声紋データに該当する人物に対応付けされている情報を検索することができる。
<各機能の説明>
図4と図5に示した持物リスト記憶部431および伝言記憶部432を参照しながら、図3に示す各部の機能について説明する。
情報格納部102は、入力受付部101が受付けたユーザ入力に従う情報を持物リスト記憶部431または伝言記憶部432に格納する。
抽出部103は、集音部であるマイク5により集音された人物の音声から、当該人物に固有の声紋を抽出する機能を有する。たとえば、マイク5により集音した音声から、当該音声が有する周波数に基づき、声紋を抽出する。発話文字取得部104は、マイク5が集音した音声から、音声認識により、認識結果を複数の仮名文字からなる文字列に変換する。音声認識により取得された仮名文字列により、マイク5が集音した音声が示す発話の内容を表す言葉が取得される。発話文字取得部104は、音声認識の結果が示す仮名文字列と、予め定められた言葉(“行ってきます”、“ただいま”、“持った”など)を表す仮名文字列とを比較することにより、発話の内容が、これら言葉を表すか否かを判定する。なお、上記の予め定められた言葉は、一例であり、これに限定されない。
情報読出部105は、抽出された声紋を示す声紋データ50(または80)に関連付けされた言葉データ51(または81)のうち、発話文字取得部104により取得された言葉の文字列に一致する文字列を示す言葉データ51(または81)に対応する情報(持物リスト53、サブ持物リスト60、伝言データ83など)を、持物リスト記憶部431および伝言記憶部432から読出す。
計時部112は、マイク5を介して発話の音声が取得される時間をタイマ12を用いて計時する。物品情報読出部106は、抽出部103が抽出する声紋を示す声紋データ50に関連付けされた1つ以上の言葉データ51のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する持物リスト53またはサブ持物リスト60を読出す。また、言葉データに対応して時間データ(日付データ54および時刻データ55)が格納されている場合には、計時部112が計時した時間を示す時間データに対応する持物リスト53またはサブ持物リスト60を読出す。
伝言情報読出部108は、抽出部103が抽出する声紋を示す声紋データ80に関連付けされた言葉データ81のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する伝言データ83を読出す。また、言葉データに対応して時間データ(日付データ85)が格納されている場合には、計時部112が計時した時間を示す日付データ85に対応する伝言データ83を読出す。なお、伝言データ83とともに対応の伝言者データ84も読出すようにしてもよい。
これにより、同一の言葉が発せられた場合であっても、その言葉が発せられた時間または天候によって、出力するべき情報を異ならせることができる。たとえば、ユーザが夜勤などシフト勤務に従事している場合には、夕方時間であっても“行ってきます”と発話することから、同一の言葉データであっても、時間によって出力するべき情報を異ならせることは有効である。
(天候に応じた持物情報の提示)
天候別情報読出部107は天候取得部111からの天候データを用いて天候別持物リスト70が示す情報を読出す。ここで、天候取得部111は、マイク5により発話されたときの音声が集音されるときの予め定めた地域の天候、またはその後に予測される天候に関する天候データを、通信部18を介して、図示しない外部サーバから取得する。天候別情報読出部107は、発話文字取得部104が取得する発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)を示すと判定したとき、当該言葉を示す言葉データ51に対応する天候別持物リスト70のうち、天候取得部111が取得した天候データが示す天候の種類に対応した情報(雨データ71〜低温データ74のいずれか1つ以上)を読出す。なお、予め定めた地域は、情報処理装置100が位置する出発地域、および目的地を含む。
これにより、発話したユーザが出発しようとしているときに、天候に応じた携帯物品の情報を提示することができる。
(携帯端末の情報提示)
さらに、物品情報読出部106は、距離判定部109の判定結果に基づき、距離別持物リスト61による携帯端末の情報を読出す。ここでは、各ユーザの携帯端末は、自己の位置情報をGPS(Global Positioning System)機能を利用して取得し、取得した位置情報を情報処理装置100に送信すると想定する。
位置取得部110は、近距離通信部182を介して携帯端末からの位置情報を取得する。取得される位置情報は送信元の当該携帯端末を示すアドレスが付加されている。位置取得部110は、当該ユーザの距離別持物リスト61に登録された携帯端末のアドレスと位置情報に付加されたアドレスを比較することにより、取得する位置情報が当該ユーザの携帯端末から送信されたものか否かを判定する。当該携帯端末から送信されたものと判定すると、位置取得部110は位置情報を距離判定部109に出力する。
距離判定部109は、位置情報から当該携帯端末は情報処理装置100から予め定められた距離以上離れているか否かを判定する。具体的には、携帯端末の位置情報と情報処理装置100の予め取得されている位置情報とから、両者間の距離を算出し、算出された距離と予め定められた距離とを比較し、比較結果から、携帯端末は予め定められた距離以上離れているか否を判定し、その判定結果を物品情報読出部106に出力する。
物品情報読出部106は、対応するユーザについて発話文字取得部104が取得した発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)であって、かつ距離判定部109からの判定結果が“予め定められた距離以上離れている”を示す場合は、当該ユーザについての言葉データ51に対応する距離別持物リスト61を読出す。
これにより、発話したユーザが出発しようとしているときに、携帯端末が情報処理装置100から離れていると判定されるとき、すなわちユーザが所持していないときは、出力される携帯物品の情報に携帯端末の情報を含めることができる。これにより、ユーザに携帯端末を忘れている旨の注意を喚起することができる。
(携帯物品情報の転送)
また、情報読出部105が読出した情報は出力部を介して出力されるとともに、発話したユーザが所有する通信端末宛てに送信されるようにしてもよい。
情報送信部115は、情報読出部105により読出された情報が情報出力部113により出力部に出力されると、当該情報に対応する人物についての持物リスト記憶部431のアドレスのデータ63を用いて、当該情報を通信部18を介し人物の通信端末宛てに転送する。これにより、ユーザは、出力部による情報の確認とともに、自己の通信端末を介して情報を確認することができる。
携帯物品情報は、必要に応じてユーザの通信端末に転送されるとしてもよい。つまり、離れ検出部119が、発話後において発話者が情報処理装置100から離れていると検出するときに、情報を転送するとしてもよい。
具体的には、離れ検出部119は、カメラ4からの撮像画像データを用いて発話者が情報処理装置100から離れ続けているか否かを判定する。ここでは、発話者は発話するとき、カメラ4の撮像方向に位置し、その被写体像は十分に撮像範囲に収まるものと想定する。離れ検出部119は、マイク5から音声が取得されたときの画像データをカメラ4から入力し、当該画像データから顔特徴(目、鼻、口、眉など)データを用いたパターンマッチングにより部分画像である人の顔画像データを抽出する。これにより、発話者の顔画像データが抽出される。抽出した顔画像データと撮像画像データとを用いて、当該顔画像が撮像範囲外に移動し、その後予め定めた時間経過しても撮像範囲内に戻って来ないことを検出すると、発話者が情報処理装置100から離れ続けていると判定する。
また、発話者は携帯端末を携帯していると想定する場合には、離れ検出部119は、上述したGPS機能を用いて算出した携帯端末と情報処理装置100との距離から判定するようにしてもよい。つまり、離れ検出部119は、マイク5を介し音声が取得されたときから携帯端末と情報処理装置100との距離の取得を開始し、取得する距離が時間の経過に伴って大きくなると判定する場合には、発話者が情報処理装置100から離れ続けていると検出する。
携帯物品情報は、動作検出部118が人の予め定められた動作を検出するときに、ユーザの通信端末に情報が転送されるとしてもよい。予め定められた動作は、出力部により出力された携帯物品の情報をユーザが確認したことを表す動作である。たとえば、入力受付部101が受付けた入力に基づき、タッチパネル201の画面へのタッチ、または物品を携帯したことを表す言葉(たとえば、“持った”)の発話などである。動作検出部118は、入力受付部101の出力から上記のタッチ動作を検出し、また発話文字取得部104から上記の携帯したことを表す言葉(“持った”)の発話を検出する。
情報送信部115は、情報出力部113によって情報が出力部を介し出力されるとき、動作検出部118により上記の予め定められた動作が検出されない場合には、出力される情報を、通信端末に転送する。
なお、予め定められた動作を、上記の発話および画面へのタッチのいずれにするかは、ユーザ毎に予め選択的に指定できるとしてもよい。また、予め定められる動作の種類は、これらに限定されない。
これにより、情報送信部115による情報の転送によれば、携帯物品の情報を出力したときにユーザによって出力した情報に対する確認の動作がされないときは、当該情報をユーザの通信端末に転送することで、ユーザが出力された情報を未確認のまま出発したとしても、出先においてユーザに対し情報を提供することができる。具体的には、ユーザは通信端末で転送された情報を表示して確認し、忘れた物に気付いたときは、出先で購入することもできる。
(情報の出力態様の変更)
情報出力部113は、携帯物品の情報を出力部により出力させるとき、動作検出部118からの出力に基づき、情報の出力態様を変更してもよい。
つまり、動作検出部118により予め定められた動作が検出されたときには、出力態様変更部114は、画面に表示されている携帯物品の情報の表示態様を変更させる。たとえば、情報を画面から消去する、または反転表示する、または特別なチェックマークを付加して表示する。また、スピーカ6から音声で情報が出力され場合には、たとえば、当該情報の音声出力を停止するなどである。
このように出力態様を変更することにより、ユーザは提示された携帯物品の情報を確認済みであるか、未だ確認していないかを視覚または聴覚で感覚的に知ることができる。
(フォロー処理)
本実施の形態では、出力された携帯物品の情報に対する上記の確認のための予め定められた動作がされたか否かをフォロー(追跡)することができる。フォローするために書込部116および関連付情報出力部117が用いられる。
具体的には、書込部116は、動作検出部118からの出力に基づき、出力された携帯物品の情報に対し、上記の予め定められた動作が検出されたと判定した場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62に“T”に書込む。したがって、上記の予め定められた動作が検出されないと判定された場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62は“F”のままであり、“T”に更新されない。
その後、ユーザがタッチパネル201を操作してチェックの指令を入力すると、関連付情報出力部117は、入力受付部101の出力が示す当該指令に基づき、“F”を示すチェックデータ62に関連付けされた持物リスト53(またはサブ持物リスト60)と識別データ52とを、持物リスト記憶部431から読出し、読出したこれら情報を出力部に出力させる。
このように、ユーザによって確認の動作がされなかった携帯物品の情報については、当該情報が示す携帯物品と識別データ52が示す名前などを出力部に出力させて確認することができる。これにより、たとえば、母親が、子供が持って行くのを忘れたであろう物品の情報を確認して、当該物品を出先の子供に届けることが可能になる。
この「出力部」による出力方法は、タブレット2の表示部202に情報を表示する方法と、通信部18を介して予め指定されたメールアドレス宛てに情報を送信して通知する方法などを含む。
(伝言情報の出力)
上述の例では、発話の内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)の場合に持物リスト記憶部431の情報を出力するものであったが、帰着に際し発せられる言葉(たとえば、“ただいま”を示す場合)には、伝言記憶部432の伝言の情報が出力される。
情報読出部105は、発話文字取得部104の出力に基づき取得された発話の内容が帰着時の言葉を示すと判定したときは、伝言情報読出部108は、抽出部103、発話文字取得部104および計時部112の出力に基づき伝言記憶部432を検索する。検索により、抽出部103により取得された発話者の声紋を示す声紋データ80、発話文字取得部104により取得された発話の内容が表す言葉データ81、および計時部112からの出力を示す日付データ85に関連付けされた伝言データ83(または伝言データ83および伝言者データ84)が伝言記憶部432から読出されて、情報出力部113に与えられる。情報出力部113は、伝言データ83(または伝言データ83および伝言者データ84)を出力部に出力させる。
なお、本実施の形態では、伝言データ83には日付データ85が関連付けされており、帰着した日が日付データ85が示す日を示すときのみ伝言データ83が出力されるとしているが、伝言データ83は日付けにかかわらず、帰着時の言葉を表す発話が取得されたときは出力されるとしてもよい。
伝言情報読出部108を用いることにより、ユーザが帰着した場合には、当該ユーザに対して残された伝言が出力されることから、伝えるべきメッセージを帰着時のユーザに確実に提示することができる。
図6は、上述した出発時および帰着時の情報の出力例を示す図であるが、この詳細は後述する。
<データ登録処理>
図7は、本発明の実施の形態に係る情報の登録のための処理フローチャートである。このフローチャートに従って、情報の登録処理について説明する。
ここでは、情報処理装置100は複数種類の動作モードを有し、動作モードには、ユーザの操作により、持物リスト記憶部431および伝言記憶部432に情報を格納するための登録モードを含む。
まず、情報処理装置100の動作モードが持物リスト記憶部431への情報の登録モードに設定されると想定する。
各ユーザはマイク5に向かって発話することにより、声紋データ50と言葉データ51が取得される(ステップS1)。つまり、抽出部103および発話文字取得部104は、マイク5で集音された発話の音声から声紋データおよび発話の内容が表す言葉(“行ってきます”など)のデータを取得し、これらを情報格納部102に出力する。
また、ユーザはタッチパネル201を操作して、自分の名前またはニックネームなどを入力する(ステップS3)。入力受付部101は入力した情報を情報格納部102に出力する。
情報格納部102は、抽出部103、発話文字取得部104および入力受付部101からの出力を声紋データ50、言葉データ51および識別データ52と関連付けて、持物リスト記憶部431に格納する(ステップS5)。
続いて、ユーザはタッチパネル201を操作して、さらに情報を入力する(ステップS7)。具体的には、出発時に携帯するべき物品の情報を示した持物リスト53、当該持物リスト53を提示してほしい日付および時間のデータ54および55を入力するとともに、サブ持物リスト60のためのデータを入力する。さらに、ユーザが所持している携帯端末の通信用のアドレスのデータ63を入力する。
情報格納部102は、ステップS7でユーザが入力するデータを入力受付部101を介して受理し、これらデータを持物リスト記憶部431において、ステップS3で格納した声紋データ50、言葉データ51および識別データ52に関連付けて格納する(ステップS9)。これにより、当該ユーザについての持物リスト記憶部431におけるデータ50〜63が格納されることになる。なお、このときチェックデータ62には“F”がセットされる。
このように、各ユーザについて図7のフローチャートに従って同様にデータの格納が行なわれることにより、持物リスト記憶部431が完成する。
ここでは、持物リスト記憶部431のデータの格納動作を示したが、伝言記憶部432についても同様にして、ユーザが発話することにより情報格納部102は声紋データ80、言葉データ81および識別データ82を格納することができる。そして、伝言記憶部432に登録されたユーザに対し伝言を残したい人は、タッチパネル201を操作し、当該ユーザの名前と伝言メッセージを入力する。
情報格納部102は、入力受付部101を介してユーザの名前と伝言メッセージを入力すると、ユーザの名前に基づき伝言記憶部432を検索し、当該ユーザの名前を示す識別データ82に関連付けて当該伝言メッセージを伝言データ83として格納する。また、伝言を残したい人は、タッチパネル201を操作して自分の名前および伝言を出力させたい日付を入力することで、情報格納部102に、伝言者データ84および日付データ85を伝言記憶部432に格納させることができる。
本実施の形態では、情報格納部102は、タッチパネル201を介した入力から、持物リスト記憶部431および伝言記憶部432の情報を書換(削除・変更・追加など)することもできる。たとえば、外出先から伝言データを格納するようにしてもよい。つまり、情報処理装置100宛てに外出先から伝言データを送信し、情報処理装置100の情報格納部102は通信部18を介し伝言データを受信すると伝言記憶部432に格納する。
<情報の出力処理>
図8は、本発明の実施の形態に係る情報の出力処理のフローチャートである。ここでは、当該情報処理装置100のユーザの全てについてマイク5に、持物リスト記憶部431および伝言記憶部432に対応の情報が登録済みであると想定する。
なお、本実施の形態ではカメラ4は常時電源ONされており、マイク5および表示部202は通常は省電力のために電源OFFされているが、情報処理装置100に人物が近付いてきたことが検出されると電源OFF→電源ONに切替えられる。その後、持物リスト記憶部431または伝言記憶部432から読出された情報が出力された後に、マイク5および表示部202の電源はOFFされるものとする。
まず、CPU11は、情報処理装置100への人の接近を、より特定的にはタブレット2への人の接近を検出する(ステップS11)。具体的には、カメラ4が撮像する時系列の被写体画像から、カメラ4の撮像範囲に人物が入ったか否かを判定する。この判定は、被写体画像に顔特徴(目、鼻、口、眉)などを含む顔画像が検出されるか否かにより行う。
なお、人物の検知は、カメラ4からの撮像画像を用いるものに限定されず、人感センサにより、人体から放射される赤外線の検知結果を利用して人物の不在→在の変化を判定するようにしてもよい。
人の接近が検出されない(ステップS11でNO)、ステップS11の処理が繰返されるが、接近を検出すると(ステップS11でYES)、CPU11は、マイク5および表示部202を電源ONする(ステップS13)。なお、表示部202は、予め電源ONされているとしてもよい。
次に、プロセッサ10は、マイク5の出力に基づき、音声が入力されたか否かを判定する(ステップS15)。音声が入力されないと判定される(ステップS15でNO)間は、ステップS15の処理が繰返されるが、音声が入力されると判定されると(ステップS15でYES)、処理はステップS17に移る。
抽出部103は、マイク5が出力する発話による音声から、声紋データを抽出する(ステップS17)。CPU11は、抽出された声紋データに基づき、持物リスト記憶部431および伝言記憶部432を検索し、当該声紋データに関連付けられた識別データ52を読出す(ステップS19)。これにより、当該音声を発した人物を判別することができる。
続いて、発話文字取得部104は、マイク5が出力する発話の音声から、発話の内容が表す言葉データを取得する(ステップS21)。
続いて、計時部112は、発話による音声をマイク5から取得した時間を、タイマ12を用いて取得する(ステップS23)。
続いて、情報読出部105は、発話文字取得部104の出力に基づき、取得された言葉が出発時の言葉(たとえば、“行ってきます”)を示すか否かを判定する(ステップS25)。出発に際して発せられる言葉を示すと判定すると(ステップS25でYES)、情報読出部105は、持物リスト記憶部431を、ステップS17で取得した声紋データ、またはステップS19で判別された識別データ52に基づき検索し、当該声紋データまたは識別データ52に関連付けられた情報を読出す。
具体的には、関連付けされた日付および時刻データ54および55が示す時間のうち、ステップS23で取得された時間に該当するものがあるか否かを判定する(ステップS27)。該当する日付および時刻のデータ54および55はないと判定される場合には(ステップS27でNO)、後述するステップS31の処理に移る。
一方、該当する日付および時刻のデータ54および55が格納されていると判定すると(ステップS27でYES)、情報読出部105は、当該日付および時刻のデータ54および55に関連付けられた持物リスト53を読出し情報出力部113に与える(ステップS29)。
天候取得部111は天候に関するデータを取得する(ステップS31)。天候別情報読出部107は、天候取得部111からの出力に基づき持物リスト記憶部431の、当該人物のサブ持物リスト60を検索し、検索により取得した天候に関するデータに対応の天候別持物リスト70が格納されているか否かを判定する(ステップS33)。
たとえば、取得された天候に関するデータが、たとえば“晴天”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70は格納されていないことになるので(ステップS33でNO)、そのような場合には処理はステップS37に移る。
なお、このとき物品情報読出部106により距離別持物リスト61が読出されるとしてもよい。距離別持物リスト61が読出された場合の出力例が図6の(A)に示される。この出力例では、“行ってきます”と発話したユーザに対し、距離別持物リスト61による物品が出力されている。
一方、取得した天候に関するデータが、たとえば“雨”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70の雨データ71が読出される(ステップS33でYES、ステップS35)。読出された天候別持物リスト70は、情報出力部113に与えられる。
情報出力部113は、情報読出部105からの天候別情報読出部107を含む情報を出力部に出力させ(ステップS37)。具体的には、情報読出部105からの情報を表示用データに変換しグラフィックメモリ13に書込む、またはスピーカ6を介して音声により出力させる。これにより、携帯物品を示す情報が、表示用データとして表示部202に表示されるとともに、スピーカ6から音声で出力される(ステップS37)。
このときの出力例が図6の(B)に示される。出力例では、“行ってきます”と発話したユーザに対し持物リスト53とともに天候別持物リスト70として“傘”が出力されている。また、図6の(C)では、図6の(B)のように出力された情報を確認したユーザが、情報出力に対する応答として“持った”と発話した状態が示される。
ステップS25の処理に戻る。取得された発話の内容が表す言葉が“行ってきます”を示さないと判定されると(ステップS25でNO)、情報読出部105は、発話文字取得部104の出力に基づき、当該言葉が帰着時に発せれる言葉(たとえば“ただいま”)を表すか否かがを判定する(ステップS39)。
帰着時の言葉ではないと判定されると(ステップS39でNO)、その他の音声処理が行なわれ(ステップS47)、ステップS15の処理に戻る。
ここで、その他の音声処理としては、たとえば、“この言葉は登録されていません”などのメッセージ出力を含む。
一方、情報読出部105が、発話文字取得部104の出力に基づき発話内容が表す言葉は帰着時に発せられる言葉(たとえば、“ただいま”)であると判定すると(ステップS39でYES)、伝言情報読出部108は、伝言記憶部432をステップS17で取得した声紋データ、またはステップS19で判別された名前データに基づき検索し、当該声紋データまたは名前データに関連付けられた情報を読出す。
具体的には、関連付けされた日付データ85が示す日付のうち、ステップS23で取得された時間に該当する日付を示すものがあるか否かを判定する(ステップS41)。ないと判定されると(ステップS41でNO)、処理は終了するが、格納されていると判定すされると(ステップS41でYES)、伝言情報読出部108は、伝言記憶部432から対応する伝言データ83(または伝言データ83および伝言者データ84)を読出し、読出したデータを情報出力部113に与える(ステップS43)。
情報出力部113は、伝言情報読出部108から出力される伝言データ83などを、表示用データに変換しグラフィックメモリ13に格納し、またはスピーカ6から音声として出力させる(ステップS45)。これにより、帰着したユーザに対する伝言が表示部202に表示され、またはスピーカ6から音声出力される。
このときの出力例が図6の(D)に示される。出力例では、“ただいま”と発話したユーザに対し伝言が出力されている。
(実施の形態による効果)
本実施の形態によれば、発話による音声から声紋データを取得することで発話した人を判別し、事前に持物リスト記憶部431に登録されたそれぞれに適切・必要な出発時に携帯するべき物品情報を自動的にお知らせできるから、忘れ物を防止することができる。
さらには、天気予報など、外部から取得する天候の予測情報から携帯するべき物品情報を提示することにより、出先で天候に応じた快適な生活を送ることが可能となる。
また、情報処理装置100による情報出力機能を子供向けに使用する際には、保護者が不在であっても、必要な情報を提供することが可能になり、子供に対し忘れ物がないかの注意を促すことができる。
また、音声認識を採用することで、立ち位置などの場所を限定されずに、人の認識が可能になる。たとえば、顔認証の場合のように、カメラに顔を向けなければ認証されないといったような限定条件を外すことができ使い勝手に優れる。
[他の実施の形態]
上述した実施の形態では、各フローチャートに従うプログラムは予めROM15に格納されており、CPU11が当該プログラムをROM15から読出し実行するが、このようなプログラムは、情報処理装置100に付属するCD−ROM21などのように、プロセッサ10のCPU11が読取り可能な一時的ではない記録媒体に記録させて、プログラム製品として提供することもできる。あるいは、図示しないネットワークを介してアンテナ19及び通信部18を介して受信しRAM16またはHDD17の記憶領域へのダウンロードによって、プログラムを提供することもできる。
提供されるプログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
2 タブレット、4 カメラ、5 マイク、6 スピーカ、10 プロセッサ、12 タイマ、13 グラフィックメモリ、14 表示ドライバ、50,80 声紋データ、51,81 言葉データ、52,82 識別データ、53 持物リスト、54 日付データ、55 時刻データ、60 サブ持物リスト、61 距離別持物リスト、62 チェックデータ、70 天候別持物リスト、83 伝言データ、84 伝言者データ、100 情報処理装置、101 入力受付部、102 情報格納部、103 抽出部、104 発話文字取得部、105 情報読出部、106 物品情報読出部、107 天候別情報読出部、108 伝言情報読出部、109 距離判定部、110 位置取得部、111 天候取得部、112 計時部、113 情報出力部、114 出力態様変更部、115 情報送信部、116 書込部、117 関連付情報出力部、118 動作検出部、119 離れ検出部、202 表示部、431 持物リスト記憶部、432 伝言記憶部。

Claims (13)

  1. 少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、
    発話の音声を取得するための音声取得手段と、
    取得された音声から、声紋を抽出するための抽出手段と、
    取得された音声の文字データを取得する発話文字取得手段と、
    前記抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出す情報読出手段と、
    前記情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える、情報処理装置。
  2. 音声が取得される時間を計時するための計時手段を、さらに備え、
    前記メモリには、さらに、
    前記次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納され、
    前記情報読出手段は、
    抽出された前記声紋を示す前記声紋データに関連付けされた前記少なくとも1つの言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応する前記次の行動に関する情報であって、且つ、前記計時手段が計時した時間が、該次の行動に関する情報に対応する前記時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す、請求項1に記載の情報処理装置。
  3. 前記少なくとも1つの言葉データには、発話者の出発に際し発せられる言葉を示す第1言葉データが含まれ、
    前記メモリの前記第1言葉データに対応する前記次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれ、
    前記情報読出手段は、
    前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記物品情報を読出す物品情報読出手段を含む、請求項1または2に記載の情報処理装置。
  4. 前記メモリの前記第1言葉データに対応する前記次の行動に関する情報は、天気または降水確率の少なくとも何れか一方を示す複数種類の天候のそれぞれに対応して当該天候のもとで携帯するべき物品を示す物品情報を含み、
    前記音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備え、
    前記物品情報読出手段は、
    前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記天候のもとで携帯するべき物品を示す物品情報のうち、前記天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む、請求項3に記載の情報処理装置。
  5. 前記携帯物品は、携帯端末を含み、
    前記情報処理装置は、
    前記携帯端末の位置を示す位置情報を取得するための位置取得手段と、
    取得される前記位置情報から、前記携帯端末は前記情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、
    前記物品情報読出手段は、
    前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示し、且つ前記距離判定手段により離れていると判定されるとき、当該言葉を示す前記第1言葉データに対応する前記携帯端末を含む携帯物品を示す物品情報を読出す手段を含む、請求項3に記載の情報処理装置。
  6. 前記メモリには、前記少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納され、
    前記情報処理装置は、さらに、
    前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える、請求項1から5のいずれかに記載の情報処理装置。
  7. 発話者が前記情報処理装置から離れているか否かを検出するための離れ検出手段を、さらに備え、
    前記情報送信手段は、
    前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、前記離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための手段を備える、請求項6に記載の情報処理装置。
  8. 前記出力部は、情報を表示するための画面を含み、
    前記情報処理装置は、
    人の予め定められた動作を検出するための動作検出手段を、さらに備え、
    前記情報出力手段は、
    前記次の行動に関する情報が前記出力部に出力されるとき、前記動作検出手段により前記予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む、請求項1から7のいずれかに記載の情報処理装置。
  9. 前記メモリには、前記少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納され、
    前記情報処理装置は、
    前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、当該次の行動に関する情報を、前記抽出された声紋を示す前記声紋データについての前記メモリの前記通信アドレスのデータを用いて、前記通信端末に送信する、請求項8に記載の情報処理装置。
  10. 前記メモリには、前記少なくとも1種類の声紋データのそれぞれに対応し、さらに人物を識別するための識別データが格納され、
    前記情報処理装置は、さらに、
    前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、前記メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、
    前記動作が検知されない旨を示す情報が関連付けされた前記次の行動に関する情報と、当該次の行動に関する情報が関連付けされた前記声紋データに対応の前記識別データとを前記メモリから読出し、読出した情報を前記出力部に出力させる手段とを含む、請求項8または9に記載の情報処理装置。
  11. 前記少なくとも1つの言葉データは、発話者の帰着に際し発せられる言葉を示す第2言葉データを含み、
    前記メモリの前記第2言葉データに対応する前記次の行動に関する情報は、伝言の情報を含み、
    前記情報読出手段は、
    前記発話文字取得手段が取得する文字データが前記帰着に際しに発せられる言葉を示すとき、当該言葉を示す前記第2言葉データに対応する前記伝言の情報を読出す手段を含む、請求項1から10のいずれかに記載の情報処理装置。
  12. メモリから情報を読出す情報処理方法であって、
    前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
    発話の音声から、声紋を抽出するステップと、
    前記発話の音声の文字データを取得するステップと、
    前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
    前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える、情報処理方法。
  13. メモリから情報を読出す情報処理方法をプロセッサに実行させるためのプログラムであって、
    前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
    前記プログラムは、前記プロセッサに、
    発話の音声から、声紋を抽出するステップと、
    前記発話の音声の文字データを取得するステップと、
    前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
    前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させるプログラム。
JP2012149424A 2012-07-03 2012-07-03 情報処理装置 Pending JP2014010816A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149424A JP2014010816A (ja) 2012-07-03 2012-07-03 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149424A JP2014010816A (ja) 2012-07-03 2012-07-03 情報処理装置

Publications (1)

Publication Number Publication Date
JP2014010816A true JP2014010816A (ja) 2014-01-20

Family

ID=50107410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149424A Pending JP2014010816A (ja) 2012-07-03 2012-07-03 情報処理装置

Country Status (1)

Country Link
JP (1) JP2014010816A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219706A (ja) * 2018-06-15 2019-12-26 Mamorio株式会社 遺失物情報音声回答システム、方法及びプログラム
CN113506550A (zh) * 2021-07-29 2021-10-15 北京花兰德科技咨询服务有限公司 一种人工智能阅读显示器及显示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219706A (ja) * 2018-06-15 2019-12-26 Mamorio株式会社 遺失物情報音声回答システム、方法及びプログラム
CN113506550A (zh) * 2021-07-29 2021-10-15 北京花兰德科技咨询服务有限公司 一种人工智能阅读显示器及显示方法

Similar Documents

Publication Publication Date Title
US11763580B2 (en) Information processing apparatus, information processing method, and program
US11164213B2 (en) Systems and methods for remembering held items and finding lost items using wearable camera systems
KR102327203B1 (ko) 전자 장치 및 그 동작 방법
CN105573573B (zh) 基于图像管理用户信息的设备和方法
US8606316B2 (en) Portable blind aid device
US11675996B2 (en) Artificial intelligence assisted wearable
US20100066647A1 (en) Information processing system, digital photo frame, information processing method, and computer program product
JP2010061265A (ja) 人物検索登録システム
US20120137254A1 (en) Context-aware augmented communication
US11289084B2 (en) Sensor based semantic object generation
JP2003533768A (ja) 記憶支援装置
EP3893087A1 (en) Response processing device, response processing method, and response processing program
JP2014010816A (ja) 情報処理装置
JP3962916B2 (ja) 照合システム
US20150161572A1 (en) Method and apparatus for managing daily work
US20230038025A1 (en) Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features
WO2015105075A1 (ja) 情報処理装置及び電子機器
CN112185384A (zh) 一种查账方法、装置和耳机
KR20150066778A (ko) 모바일 디바이스, 이를 이용한 알람 설정 방법 및 알람 방법
KR20220106005A (ko) 콘텐트에 관련된 알림 메시지를 제공하는 디바이스 및 방법
CN117409789A (zh) 信息处理装置、信息处理方法以及记录介质
CN111479060A (zh) 图像采集方法、装置、存储介质及电子设备
JP2006163617A (ja) 個人所在認識システム、個人所在認識方法、及び、プログラム