JP2008001247A - エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法 - Google Patents

エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法 Download PDF

Info

Publication number
JP2008001247A
JP2008001247A JP2006173274A JP2006173274A JP2008001247A JP 2008001247 A JP2008001247 A JP 2008001247A JP 2006173274 A JP2006173274 A JP 2006173274A JP 2006173274 A JP2006173274 A JP 2006173274A JP 2008001247 A JP2008001247 A JP 2008001247A
Authority
JP
Japan
Prior art keywords
character
input
display
agent
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006173274A
Other languages
English (en)
Other versions
JP4946200B2 (ja
Inventor
Haruki Kuzuoka
春樹 葛岡
Minoru Shinkawa
実 新川
Atsushi Tsurumi
篤 鶴見
Kunihiro Suga
邦博 須賀
Sayuri Yuzukizaki
さゆり 柚木▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2006173274A priority Critical patent/JP4946200B2/ja
Publication of JP2008001247A publication Critical patent/JP2008001247A/ja
Application granted granted Critical
Publication of JP4946200B2 publication Critical patent/JP4946200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】エージェント機能を複数のユーザ間で切り替えて利用する際に、エージェント機能の特性を生かした切替えを行うことができるようにする。
【解決手段】第1及び第2のインタフェースを介して第1及び第2の者をそれぞれ対象とする入力の受入れ及び出力を行うエージェント装置において、装置で具現化されたキャラクタを、第1及び第2インタフェースをそれぞれ構成する第1及び第2の表示装置のうちいずれか適宜選択した方において表示させるキャラクタ表示手段と、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、第1対象者とする場合には第1表示装置において(ステップ72)、又は第2対象者とする場合には第2表示装置において(ステップ77)、キャラクタの表示がなされるようにキャラクタ表示手段を制御する制御手段とを設ける。
【選択図】図7

Description

本発明は、エージェント装置で具現化されたキャラクタを、第1及び第2の者をそれぞれ対象とする第1及び第2のヒューマンインタフェースのうちいずれか適宜選択した方において表示させるようにしたエージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法に関する。
近年、ナビゲーション装置において、ナビゲーション以外の機能を有するものが増えてきている。また、車内のエンターテインメント性を高めるために、複数の表示装置を有するものも存在する。すなわち、後部座席においてテレビやDVDコンテンツを視聴するために、後部座席用の表示装置であるリアモニタが追加的に設置されたものである。このような装置として、たとえば、後席用ディスプレイの表示画面に表示される情報の内容及び該情報の表示タイミングを、前席用操作リモコンの操作により予約設定可能なモードを設けるようにしたものが提案されている(たとえば特許文献1参照)。
さらに、表示装置において擬人化されたキャラクタを表示しながら、音声認識や音声合成によってユーザとの音声による対話を行うエージェント機能を有する車載装置も存在する。図9はこのような従来のエージェント装置の構成を示すブロック図である。同図に示すように、このエージェント装置は、ユーザが発する音声を音声信号に変換する入力部91、入力部91からの音声信号に基づいて出力用の音声信号を生成する音声対話システム90、並びに音声対話システム90からの音声信号を音声に変換して出力する出力部92を備える。
エージェント装置は、ユーザに成り代って、ユーザのために各種情報の検索や助言等を行い、種々の便宜を図る、いわば代理人若しくは秘書としての機能を行うものであり、かかるエージェントとしての機能を達成するために、音声対話システム90を有している。入力部91は、マイク、タッチパネル、リモコン等により構成される。出力部92は、ディスプレイやスピーカ等により構成される。ディスプレイにはエージェントを象徴するキャラクタが表示される。
音声対話システム90は、入力部91からの音声信号に基づき、音声認識を行って文章データを抽出する音声認識エンジン93、音声認識エンジン93からの文章データに基づき、テキストデータを生成する対話処理エンジン94、対話処理エンジン94が使用する各種データを記憶する記憶部95、対話処理エンジン94からのテキストデータに基づき、音声信号を生成して出力部92に供給する音声合成エンジン96を備える。
記憶部95はシナリオデータを記憶している。シナリオデータとは、対話処理エンジン94における処理の内容や流れの一部を定義したものである。すなわち、シナリオデータは、プログラムと協働して、対話処理エンジン94の動作内容を決定する。つまり、対話処理エンジン94はシナリオデータに基づき、音声認識エンジン93及び音声合成エンジン96を制御し、対話システム90を実現している。
特開2002−234401号公報
しかしながら、複数の表示装置を有する車載装置において、エージェント機能を実施する際、複数の表示装置のうち、たとえば、前部座席で視聴可能な1つの表示装置のみでエージェント機能を実施する場合には、後部座席で視聴可能な他の表示装置を利用する後部座席に着座しているユーザは、エージェント機能を利用するメリットを得ることはできない。
また、複数の表示装置において同時にエージェント機能を利用できるようにする場合、前部座席及び後部座席の双方における音声認識を誤認又は混同する可能性もある。さらに各々の表示装置間において、エージェント機能を切り替えて利用できるようにすることも可能であるが、単にエージェント機能を切り替えるのみでは機械的であり、単一の表示装置をそれぞれ利用している場合に比べ、大きな差異はない。
本発明の目的は、このような従来技術の問題点に鑑み、複数のユーザをそれぞれ対象として標示を行う複数の表示装置を有するエージェント装置において、エージェント機能を各ユーザ間で切り替えて利用する際に、エージェント機能の特性を生かした切替えを行うことができるようにすることにある。
上記目的を達成するため、第1の発明は、第1のインタフェースを介して第1の者を対象とする入力の受入れ及び出力を行い、第2のインタフェースを介して第2の者を対象とする入力の受入れ及び出力を行うエージェント装置に関する。このエージェント装置は、エージェント装置で具現化されたキャラクタを、前記第1及び第2インタフェースをそれぞれ構成する第1及び第2の表示装置のうちいずれか適宜選択した方において表示させるキャラクタ表示手段と、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記第1対象者とする場合には前記第1表示装置において、又は前記第2対象者とする場合には前記第2表示装置において、前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御する制御手段とを具備することを特徴とする。
ここで、エージェント装置としては、たとえば、カーナビゲーション装置に組み込んだものが該当する。第1の者及び第2の者としては、たとえば、車両の前席及び後席に座っているユーザが該当する。インタフェースとしては、たとえば、マイク、スピーカ、タッチパネル、表示装置等により構成されるものが該当する。表示されるキャラクタは第1及び第2表示装置において異なるものであってもよい。たとえば、対象者が車両における後席の子供である場合には犬のキャラクタを後席に設けられた第2表示装置に表示し、対象者が前席の父親である場合には、執事風のキャラクタを前席に設けられた第1表示装置に表示することができる。入力の受入れ及び出力の所定の一部としては、たとえば音声入力の受入れが該当する。入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象は、たとえば、通常は第1対象者であり、第1対象者又は第2対象者からの要請や、何らかのトリガの発生に応じて、第2対象者に切り替わったりする。
この構成において、入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象が第1対象者であるとき、エージェント装置を具現化したキャラクタは、第1表示装置上にのみ表示される。同様の対象が第2対象者である場合には、キャラクタは第2表示装置上にのみ表示される。つまり、対象者が切り替わるとともにキャラクタの表示もそれに対応して切り替わることになる。したがって、第1対象者及び第2対象者は、エージェントとしてのキャラクタが目前の第1表示装置又は第2表示装置に表示されているか否かによって、自然に、自身が入力受入れ等の対象又は主たる対象となっていることを認識することができる。これにより、第1対象者及び第2対象者は、自然な感じで交代しながら、エージェント装置を共有することができる。
第2の発明に係るエージェント装置は、第1発明において、前記制御手段は、前記第1又は第2対象者からの前記第1又は第2インタフェースを介した所定の指示があったことに応答し、その指示を行った第1又は第2対象者に係る前記第1又は第2表示装置において前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御するとともに、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記指示を行った第1又は第2対象者に切り替えるものであることを特徴とする。
第3の発明に係るエージェント装置は、第1又は第2発明において、前記第1及び第2インタフェースは音声を電気信号に変換する第1及び第2の変換器をぞれぞれ用いて構成され、前記制御手段は、前記第1又は第2変換器を介した所定の音声入力があったことに応答し、その音声入力があった方の前記第1又は第2変換器に対応する前記第1又は第2表示装置において前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御するとともに、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記音声入力を行った第1又は第2対象者に切り替えるものであることを特徴とする。
第4の発明に係るエージェント装置は、第1又は第2発明において、前記第1及び第2インタフェースは音声を電気信号に変換する第1及び第2の変換器をぞれぞれ用いて構成され、前記第1又は第2変換器は入力切替手段によっていずれかが適宜入力先として選択されるものであり、前記制御手段は、前記入力切替手段による第1変換器の選択及び前記第1表示装置におけるキャラクタの表示が時間的に一致して行われ、かつ前記入力切替手段による第2変換器の選択及び前記第2表示装置におけるキャラクタの表示が時間的に一致して行われるように前記入力切替手段又はキャラクタ表示手段を制御するものであることを特徴とする。
第5の発明に係るプログラムは、第1〜第4のいずれかの発明に係るエージェント装置における各手段としてコンピュータを機能させることを特徴とする。
第6の発明に係るエージェント装置におけるキャラクタ表示方法は、第1のインタフェースを介して第1の者を対象とする入力の受入れ及び出力を行い、第2のインタフェースを介して第2の者を対象とする入力の受入れ及び出力を行うエージェント装置におけるキャラクタ表示方法に関する。この方法は、エージェント装置で具現化されたキャラクタを、前記第1及び第2インタフェースをそれぞれ構成する第1及び第2の表示装置のうちいずれか適宜選択した方において表示させるキャラクタ表示工程と、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記第1対象者とする場合には前記第1表示装置において、又は前記第2対象者とする場合には前記第2表示装置において、前記キャラクタの表示がなされるように前記キャラクタ表示工程を制御する制御工程とを具備することを特徴とする。
本発明によれば、エージェント装置による入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、第1対象者とする場合には第1表示装置において、又は第2対象者とする場合には第2表示装置において、エージェントのキャラクタの表示がなされるようにしたため、第1及び第2対象者は、表示されているキャラクタに対して働きかけるような感じでエージェント装置にアクセスすることにより、エージェント装置を自然な感じで交互に共用することができる。
また、第1又は第2対象者からの所定の指示があったことに応答し、その指示を行った第1又は第2対象者に係る第1又は第2表示装置においてキャラクタの表示を行うとともに、入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、指示を行った第1又は第2対象者に切り替えるようにしたため、第1又は第2対象者は、所望のタイミングにおいて、キャラクタを自身の前の第1又は第2表示装置に表示させ、エージェント装置に対し、アクセスすることができる。
また、第1又は第2変換器を介した所定の音声入力があったことに応答し、その音声入力があった方の第1又は第2変換器に対応する第1又は第2表示装置においてキャラクタの表示がなされるようにキャラクタ表示手段を制御するとともに、入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記音声入力を行った第1又は第2対象者に切り替えるようにしたため、第1又は第2対象者は、所望のタイミングにおいて、たとえばキャラクタを呼ぶだけで、自身の前の第1又は第2表示装置上にキャラクタを呼び出し、エージェント装置に対し、アクセスすることができる。
また、入力切替手段による第1変換器の選択及び第1表示装置におけるキャラクタの表示が時間的に一致して行われ、かつ入力切替手段による第2変換器の選択及び第2表示装置におけるキャラクタの表示が時間的に一致して行われるようにようにしたため、第1又は第2対象者からの音声入力を第2又は第1対象者からのものであると誤認し又は混同するのを入力切替手段によって防止しながら、音声入力が可能な方の第1又は第2変換器が対象とする第1又は第2対象者と、キャラクタが表示される方の第1又は第2表示装置が対象とする第1又は第2対象者とを一致させることができる。したがって、第1又は第2対象者は、眼前にキャラクタが居れば、話しかけや依頼を行い、居なければしようがないので沈黙し、又はキャラクタを呼び出して話かけを行うことにより、自然な感じで、エージェント装置を交互に、共用することができる。
図1は本発明の一実施形態に係る車載用のエージェント装置の構成を示すブロック図である。このエージェント装置は、たとえばナビゲーション装置の一部として実施することができる。同図に示すように、このエージェント装置は、前部座席のユーザがエージェント装置への入力のために使用する前部座席入力装置11、後部座席のユーザがエージェント装置への入力のために使用する後部座席入力装置12、前部座席入力装置11及び後部座席入力装置12からの音声信号等に基づいて出力用の音声信号や画像データを生成する音声対話システム10、音声対話システム10からの音声信号や画像データに基づいて音声出力や画像出力をそれぞれ前部座席のユーザ及び後部座席のユーザに対して行う前部座席出力装置13及び後部座席出力装置14、並びに、音声対話システム10への音声信号の入力先を前部座席入力装置11及び後部座席入力装置12間で切り替える音声入力切替えスイッチ15を備える。
エージェント装置は、一般的には、ユーザに成り代って、ユーザのために各種情報の検索や助言等を行い、種々の便宜を図る、いわば代理人若しくは秘書としての機能を行うものであり、かかるエージェントとしての機能を達成するために、本実施形態では音声対話システム10を有している。エージェント装置は、主として音声対話システム10により構成されるが、さらに、入出力機能を行う部分を含めた、専用の機器、たとえばナビゲーションシステム全体を意味する場合もある。
前部座席入力装置11はマイク等の音声入力装置11a及びタッチパネル、リモコン等のコマンド入力装置11bにより構成される。後部座席入力装置12も同様の音声入力装置12a及びコマンド入力装置12bにより構成される。前部座席出力装置13はスピーカ等の音声出力装置13a及びモニタ等の表示出力装置13bにより構成される。後部座席出力装置14も同様の音声出力装置14a及び表示出力装置14bにより構成される。
音声対話システム10は、前部座席入力装置11及び後部座席入力装置12からの音声信号に基づき、音声認識を行って文章データを抽出する音声認識エンジン16、音声認識エンジン16からの文章データや、コマンド入力装置11b及び12bからのコマンドに基づき、出力用のテキストデータや画像データを生成する対話処理エンジン17、対話処理エンジン17が使用する各種データを記憶する記憶部18、対話処理エンジン17からのテキストデータに基づき、音声信号を生成して前部座席出力装置13及び後部座席出力装置14に供給する音声合成エンジン19を備える。表示出力装置13b及び14bは対話処理エンジン17からの画像データに基づき、画像表示を行う。
音声入力切替えスイッチ15は、音声入力装置11a及び12aと、音声認識エンジン16との間に接続される。音声入力切替えスイッチ15は、音声入力装置11a及び12aからの音声信号が同時に音声認識エンジン16へ入力されることがないように、音声認識エンジン16への入力先を、音声入力装置11a及び12a間で切り替える。
記憶部18はシナリオデータ18a及び共有データ18bを記憶する。シナリオデータとは、対話処理エンジン17における処理の内容や流れの一部を定義したものである。すなわち、シナリオデータ18aは、プログラムと協働して、対話処理エンジン17の動作内容を決定する。つまり、対話処理エンジン17はシナリオデータ18aに基づいて音声認識エンジン16及び音声合成エンジン19を制御し、対話システム10を機能させる。
音声対話システム10との対話は、前部座席の音声入力装置11a又は後部座席の音声入力装置12aを介して行われる。したがって、音声対話システム10への音声信号の入力先として、音声入力切替えスイッチ15により音声入力装置11aが選択されているときには、専ら前部座席のユーザがエージェント機能を享受することができる。一方、音声入力装置12a選択されているときには、専ら後部座席のユーザがエージェント機能を享受することができる。
対話処理エンジン17は、音声信号の入力先として前部座席の音声入力装置11aを選択しているとき、前部座席の表示出力装置13bにおいて、エージェントを具現化したキャラクタを表示する。一方、後部座席の音声入力装置12aを選択しているとき、後部座席の表示出力装置14bにおいてエージェントのキャラクタを表示する。つまり、このキャラクタの前部座席及び後部座席間の移動により、前部座席及び後部座席のいずれにおいてエージェント機能を享受することができる状態にあるかが表現されることになる。
図2はユーザの指示に応じてキャラクタを前部座席から後部座席へ移動させる際の対話処理エンジン17における処理を示すフローチャートである。処理の開始時には、音声入力切替えスイッチ15は音声信号の入力先として、前部座席の音声入力装置11aを選択しており、キャラクタは前部座席の表示出力装置13bにおいて表示されている。この状態において、対話処理エンジン17は、キャラクタを前部座席から後部座席へ移動させる処理を開始するためのトリガとして、キャラクタを前部座席から後部座席へ移動させる旨のユーザからの指示をステップ21において検出すると、ステップ22へ進む。
なお、この指示は、前部座席のユーザは、前部座席の音声入力装置11a又はコマンド入力装置11bを介して行うことができる。また、後部座席のユーザは、後部座席のコマンド入力装置12bを介して行うことができる。後部座席の音声入力装置12aは、この場合、音声認識エンジン16へ接続されていないので、使用することはできない。
ステップ22においては、ステップ21において検出した指示が、前部座席入力装置11を介して与えられたものであるか否かを判定する。前部座席入力装置11を介した指示であると判定した場合にはステップ24へ進む。前部座席入力装置11を介した指示ではないと判定した場合、つまり後部座席入力装置12を介した指示である場合には、ステップ23へ進む。
ステップ23においては、当該キャラクタの移動を許可する旨の指示が、前部座席のユーザから得られたか否かを判定する。すなわち、前部座席出力装置13により当該キャラクタの移動の指示を許可するかどうかを問い合わせる出力を行い、これに対する応答として、前部座席入力装置11を介し、当該指示を許可する旨の音声等による入力がなされたか否かを判定する。当該指示を許可する旨の入力がなされたと判定した場合にはステップ24へ進み、なされなかったと判定した場合には図2の処理を終了する。
ステップ24へ進むと、前部座席出力装置13及び後部座席出力装置14においてキャラクタの移動中である旨の画面を表示する。次に、ステップ25において、音声入力切替えスイッチ15を音声入力装置11a側から音声入力装置12a側に切り替えることにより、前部座席の音声入力装置11aによる音声入力を不能とし、後部座席の音声入力装置12aによる音声入力を可能とする。これにより、前部座席のユーザはエージェント機能を使用することができなくなり、代わりに、後部座席のユーザがエージェント機能を使用することができるようになる。
次に、ステップ26において、前部座席の表示出力装置13bに表示されているキャラクタを消去し、代わりに、後部座席の表示出力装置14bにおいてキャラクタの表示を行う。これにより、キャラクタは前部座席から後部座席へ移動し、エージェント機能が後部座席で享受することができるようになった旨をユーザに伝達することができる。
なお、以上の処理は、前部座席側から後部座席側へエージェントのキャラクタを移動させる場合についての処理であるが、後部座席側から前部座席側への移動も、同様の処理手順で行うことができる。
図3は図2の処理に際し、前部座席の表示出力装置13b及び後部座席の表示出力装置14bにおける表示が変遷する様子を示す。図中の31は前部座席の表示出力装置13bにおける表示画面であり、32は後部座席の表示出力装置14bにおける表示画面である。同図(a)は、図2の処理の開始前における表示画面31及び32の状態を示している。前部座席の表示画面31上に、エージェントのキャラクタ33が表示されている。これにより、前部座席のユーザは、前部座席において、音声入力によるエージェント機能を使用することができる状態にあることを認識することができる。
一方、後部座席の表示画面32においては、エージェントのキャラクタは表示されていない。これにより、後部座席のユーザは、後部座席において、音声入力によるエージェント機能を使用することができない状態にあることを認識することができる。なお、キャラクタが前部座席又は後部座席のいずれにおいて表示されている場合でも、前部座席及び後部座席におけるコマンド入力装置11b及び12bによるコマンド入力は可能である。
図3(b)は、図2のステップ24の処理によって、キャラクタが移動している状態にあることを現す表示34が、表示画面31及び32において行われている様子を示している。この状態においては、前部座席の音声入力装置11aによる音声入力は不能となり、後部座席の音声入力装置12aによる音声入力は可能となっている(ステップ25)。ただし、コマンド入力は、前部座席及び後部座席のいずれにおいても可能である。
図3(c)は、図2のステップ26の処理によって、キャラクタが前部座席の表示画面31から後部座席の表示画面32に移動した様子を示している。前部座席の表示画面31に表示されていたエージェントのキャラクタは消去されている。これにより前部座席のユーザは、前部座席において、音声入力によるエージェント機能を使用することができなくなったことを認識することができる。一方、後部座席の表示画面32においては、エージェントのキャラクタ33が表示されている。これにより、後部座席のユーザは、後部座席において、音声入力によるエージェント機能を使用することがでる状態になったことを認識することができる。
図4はエージェントのキャラクタが表示されていないときの後部座席の表示出力装置14bにおける表示画面32の別の例を示す。図中の41はエージェントのキャラクタを呼び出すための呼出しボタンであり、42は現在、エージェントのキャラクタが前部座席の方に居ることを示すメッセージである。後部座席のユーザが呼出しボタン41を押下すると、対話処理エンジン17は、これを図2のステップ21におけるトリガとして捉え、図2におけるステップ22以降の処理を開始する。
本実施形態によれば、音声入力切替えスイッチ15による音声信号の入力先の切替えに連動してエージェントのキャラクタを移動させるようにしたので、前部座席及び後部座席のユーザはエージェント機能が自身の座席において使用可能であるかどうかを、話し相手としてのエージェントのキャラクタが目の前に居るかどうかによって、自然な感じで認識することができる。すなわち、前部座席及び後部座席のユーザは、音声入力が可能かどうかは特に意識する必要はなく、エージェントのキャラクタが目の前に居ればキャラクタに向かって話をし、居なければしようがないので沈黙し、どうしても話したくなったらエージェントを呼び出すといったように、自然なかたちで、エージェント機能を共有し、享受することができる。
また、前部座席及び後部座席において専用の音声入力装置11a及び12aを設け、切り替えて使用するようにしたため、広い範囲の音声を1つの音声入力装置でカバーする必要がなくなり、音声認識における誤認識を減少させることができる。
また、エージェントのキャラクタが前部座席及び後部座席間で移動する際には、その旨の図形34を表示するようにしたため、突然にエージェントが現れてびっくりしたり、驚いたり、恐怖を感じたりするのを防止することができる。
また、前部座席及び後部座席それぞれに専用のエージェント装置を設けるのではなく、前部座席及び後部座席において1つのエージェント装置を共有するようにしたため、構成の簡便化を図るとともに、前部座席及び後部座席間で、情報を共有することができる。
たとえば、エージェントのキャラクタの表示を、前部座席の表示出力装置13bから後部座席の表示出力装置14b上に移動させる場合、移動前において、表示出力装置13bによりDVDコンテンツの再生が行われていたとすれば、その旨を共有データ18bとして記憶部18に記憶しておく。そして、キャラクタの移動後、「前の席ではDVDを見てたけど、こっちでも見る?」との音声を、共有データ18bに基づき、後部座席の音声出力装置14aから出力させることができる。あるいは、移動前において、前部座席の音声入力装置11aを介して得られたユーザの発話の内容「〜〜〜」を、共有データ18bとして記憶しておき、キャラクタの移動後、「×××さんが〜〜〜って言ってたよ。」との音声を、後部座席の音声出力装置14aから出力させることができる。
図5は本発明の別の実施形態に係る車載用エージェント装置の構成を示すブロック図である。このエージェント装置は、たとえばナビゲーション装置の一部として実施することができる。同図に示すように、このエージェント装置は、前部座席のユーザがエージェント装置への入力のために使用する前部座席入力部51a、後部座席のユーザがエージェント装置への入力のために使用する後部座席入力部51b、前部座席入力部51a及び後部座席入力部51bからの音声信号等に基づいて出力用の音声信号や画像データを生成する音声対話システム50、並びに、音声対話システム50からの音声信号や画像データに基づいて音声出力や画像出力を行う前部座席出力部52a及び後部座席出力部52bを備える。
前部座席入力部51a及び後部座席入力部51bは、それぞれ車両の前部座席及び後部座席専用に設けられており、マイク、タッチパネル、リモコン等により構成される。前部座席出力部52a及び後部座席出力部52bは、ディスプレイやスピーカ等により構成される。ディスプレイにはエージェントを象徴するキャラクタが表示される。前部座席入力部51a及び後部座席入力部51b並びに前部座席出力部52a及び後部座席出力部52bは、通常、前部座席に設けられた入出力端子を介して音声対話システム50に接続される。
音声対話システム50は、前部座席入力部51a及び後部座席入力部51bからの音声信号に基づき、音声認識を行って文章データを抽出する音声認識エンジン53、音声認識エンジン53からの文章データに基づき、テキストデータを生成する対話処理エンジン54、対話処理エンジン54が使用する各種データを記憶する記憶部56、対話処理エンジン54からのテキストデータに基づき、音声信号を生成して前部座席出力部52a及び後部座席出力部52bに供給する音声合成エンジン55を備える。
エージェント装置は、本実施形態においては、エージェント機能として、子守機能を有している。子守機能とは、後部座席に設けられたチャイルドシート等に着座等している子供に対し、後部座席入力部51b及び後部座席出力部52bを介し、子守としての役割を果たす機能を意味する。エージェント装置は、また、子守機能の一部を構成する睡眠判別機能を有する。この機能は、後部座席の子供が睡眠状態に至ったかどうかを判別する機能である。
記憶部56はシナリオデータ56a及び子守用データ56bを記憶する。シナリオデータとは、対話処理エンジン54における処理の内容や流れの一部を定義したものである。すなわち、シナリオデータ56aは、プログラムと協働して、対話処理エンジン54の動作内容を決定する。つまり、対話処理エンジン54はシナリオデータ56aに基づいて音声認識エンジン53及び音声合成エンジン55を制御し、音声対話システム50を実現する。子守用データ56bは、子守機能を実現するために必要なデータである。子守用データ56bには、子守に使用する本のテキストデータや、本の各場面に対応した画像のデータ等が含まれる。
図6は後部座席出力部52bにおける出力の一例を示す。同図においては、子守機能の一例として、本を読み聞かせて子守を行う場合の例が示されている。同図(a)では、エージェント装置が、ある物語の本の一場面を後部座席出力部52bの表示画面61上に表示するとともに、この場面に対応する「桃を割るとそこから・・・」との音声62を出力することにより、子守機能を果たしている様子が示されている。
図中の63は、場面を次に進めるための選択肢の図形である。後席の子供が選択肢図形63のタッチやその選択肢の音声入力により、エージェント装置に対し、次の場面へ移るように指示を与えることができるようになっている。選択肢図形63が押下されると、エージェント装置は、次の場面の画像を表示画面61上に表示し、対応する次の音声を出力する。選択肢図形63の選択によらず、所定時間が経過したことに基づいて、次の場面へ進むようにしてもよい。
同図(b)では、エージェント装置が、物語の別の一場面を後部座席出力部52bの表示画面61上に表示するとともに、この場面に対応する「お婆さんは出かけました・・・」との音声64を出力することにより、子守機能を果たしている様子が示されている。図中の65及び66は、場面を次に進めるための選択肢の図形である。選択肢図形65上にはそれをタッチすると川に関連した場面に移行することを暗示する「川」が表示されており、選択肢図形66上にはそれを押下すると海に関連した場面に移行することを暗示させる「海」が表示されている。
後席の子供が選択肢図形65又は66をタッチすることにより、又は「川」若しくは「海」と発声することにより、エージェント装置に対し、川又は海に関連した場面へ移行するように指示を与えることができるようになっている。選択肢図形65が選択されると、エージェント装置は次の場面として、川に関連した場面の画像を表示画面61上に表示し、対応する音声を出力する。一方、選択肢図形66が選択された場合には、エージェント装置は次の場面として、海に関連した場面の画像を表示画面61上に表示し、対応する音声を出力する。これによれば、選択肢図形65又は66のいずれを選択するかに応じて、次の場面が異なったものになるので、ゲーム的要素が加わることになる。このようにして、エージェント装置は、子守機能を果たすことができる。
表1は子守機能において、後部座席の子供が睡眠状態に至るまでの各段階における反応時間の値及び対応する子供の状態の一例を示す。「反応時間」の欄に記載された各値は、所定の音声を出力してから、これに対する子供からの応答が入力されるまでの時間である。「子供の状態」の欄における各記述は、「反応時間」の欄の各値に対応する子供の状態を表している。
Figure 2008001247
この表に従い、エージェント装置は、反応時間が3秒未満の場合には子供は普通の覚醒状態にあると判別し、3秒以上10秒未満ではやや眠い状態、10秒以上30秒未満ではかなり眠たい状態、そして60秒経過しても応答が得られない場合には眠った状態にあると判別することができる。この反応時間は、たとえば定期的に、「・・ちゃん、聴いていますか?」と問いかけ、それに対する応答、たとえば「うん!」に至るまでの時間を計測することによって取得することができる。表1に記載の反応時間は、一例であって、当然これらに限定されるものではなく、個々の子供や年齢に対しても異なるため、ユーザによる設定変更や、エージェントによる学習による設定変更が可能であってもよい。
なお、表2のように、反応時間の変化、すなわち前回の反応時間と今回の反応時間との差を測定し、子供の状態を把握するようにしてもよい。
Figure 2008001247
この場合、表2に基づき、エージェント装置は、前回と今回の反応時間に差がない場合には普通の覚醒状態にあり、前回に比べ今回の反応時間が所定の小量だけ増加した場合にはやや眠い状態にあり、また、反応時間が所定量増加した場合にはかなり眠い状態にあると判定することができる。そして、反応時間が所定値以上となった時点で、睡眠状態に至ったと判定することができる。
睡眠判別機能を実施している間、エージェント装置は、反応時間が長くなり、一定の値を超えた場合、眠くなってきた、又は飽きてきたと判定し、出力音声のボリュームを下げたり、ディスプレイの照度を低下させたりして、睡眠欲を高める動作を行う。このようなボリュームや照度の低下は、反応時間に応じて段階的に行うことができる。
図7は音声対話システム50による子守処理の流れを示すフローチャートである。ステップ71において子守処理の開始の指示があったことを検出すると、音声対話システム50はまず、ステップ72及び73において、後部座席出力部52b及び後部座席入力部51bの電源をオン状態に移行させ、前部座席出力部52aにおけるエージェントのキャラクタの表示を消去し、かつ後部座席出力部52bにおいてそのキャラクタの表示を行う。これにより、キャラクタが前部座席から後部座席に移動し、子守機能が開始されることになる。
次に、ステップ74において、上述図6の子守機能を実施する。この間、上述の睡眠判別機能により、定期的に、反応時間の計測、及び表1に基づく子供の状態の判定を行い、ステップ75において、後部座席の子供が睡眠状態に至ったか否かの判定を行う。睡眠状態に至ったと判定した場合には、ステップ76へ進み、後部座席出力部52b及び後部座席入力部51bの電源をオフ状態に移行させる。
次に、ステップ77において、後部座席出力部52bにおいて表示されているエージェントのキャラクタを消去し、かつ前部座席出力部52aにおいてこのキャラクタの表示を行う。これにより、キャラクタが後部座席から前部座席に移動することになる。
次に、ステップ78において、子供が眠ったので、子守機能を終了する旨の出力を、全部座席出力部52aにおいて行う。これにより、子守処理を終了する。
図8は図7の子守処理に従って子守機能を享受する様子を模式的に示す。子守処理の開始前においては、前部座席出力部52aにおいて、同図(a)に示すように、執事風の男性エージェントのキャラクタ81が表示されている。このとき、運転中の父親82が、後部座席における子供83の泣き声がうるさいので、キャラクタ81に頼むようにして、「後ろをどうにかしてくれ!」と発話する。すると対話処理エンジン54は、該発話に基づいて音声認識エンジン53から得られる文章データ及びシナリオデータ56aに基づき、子守機能の依頼であると判定し(図7のステップ71)、「かしこまりました。」との音声を出力して、図7の子守処理を開始する。
すなわち、同図(b)に示すように、前部座席出力部52aにおけるキャラクタ81の表示を消去し、後部座席入力部51b及び後部座席出力部52bの電源をオン状態とし、犬のエージェントのキャラクタ84を、後部座席出力部52bにおいて表示する(ステップ72、73)。そして、対話処理エンジン54は子守用データ56bに基づき、キャラクタ84が子供83に語りかけるかのようにして、「昔むかし、あるところに・・・」と所定の本を読み聞かせる音声出力を開始する(ステップ74)。また、これに伴い、本の内容の各場面に対応する画像の表示を開始する。
この子守機能による音声出力や画像表示が進行するにつれて、それに興味をもった子供83は泣き止み、父親82は、やっと静かになったことを感じることができる。この間、対話処理エンジン54は、上述の睡眠判別機能による反応時間の計測を定期的に実施し、子供83の状態をモニタするとともに、その状態に応じて、音声出力の音量やディスプレイの輝度を調整し、子供に対し睡眠を促す。
子供83が睡眠状態に至ると、対話処理エンジン54はその旨を検出し(ステップ75)、後部座席入力部51b及び後部座席出力部52bの電源をオフ状態とし(ステップ76)、同図(c)に示すように、前部座席出力部52aにおける執事風キャラクタ81の表示を再開する(ステップ77)。そして、「お休みになられました。」との音声を出力し、子供83が睡眠状態に至った旨を父親82に通知する(ステップ78)。これにより子守機能を終了する。
本実施形態によれば、子守機能の開始及び終了に連動してエージェントのキャラクタの表示を、前部座席出力部52a及び後部座席出力部52b間で移動させるようにしたため(ステップ72、77)、子守機能の実行に際しては後部座席の子供に対してエージェントのキャラクタが読み聞かせを行い、子供が眠って子守機能を終了するときには、前部座席において父親72に対し、エージェントのキャラクタがその旨を報告するような印象を与えることができる。つまり、入力の受入れ及び出力の対象を、父親82とする場合には前部座席出力部52aにおいて、又は子供83とする場合には後部座席出力部52bにおいて、キャラクタの表示がなされるようにしたため、前部座席及び後部座席において、自然なかたちでエージェント機能を共有しながら、享受することができる。なお、図6の子守機能の様子は、前部座席出力部52aによってモニタできるようにしてもよい。また、子守機能(ステップ74)の実施中においても、前部座席入力部51aからの音声入力を可能にしておいてもよい。
なお、本発明は上述実施形態に限定されることなく、適宜変形して実施することができる。たとえば上述図2の例では、キャラクタの移動処理を開始するためのトリガとして、ユーザからの指示を用いているが、この代わりに、入力のない状態が所定期間継続したことをトリガとして用いるようにしてもよい。たとえば、前部座席の表示出力装置13bにおいてエージェントのキャラクタが表示されている場合、一定時間入力が無いときには、前部座席出力装置13により後部座席側へ移動してもよいかどうかを問い合わせる。そして移動してもよい旨の指示が得られた場合には、キャラクタの表示を、前部座席の表示出力装置13bから後部座席の表示出力装置14b上へ移動させる。
さらに、別のトリガとして、ユーザ及びエージェント間の友好度を用いるようにしてもよい。友好度は、たとえば、エージェント装置からの質問に対し、肯定的回答が得られる頻度に基づいて測定することができる。たとえば、前部座席の表示出力装置13bにおいてエージェントのキャラクタが表示されている場合、所定の質問すべてについて否定的回答「いいえ」が得られたとき、キャラクタの表情を困った顔つきの表情に変化させ、キャラクタの表示を、後部座席の表示出力装置14b上に移動させることができる。
また、上述の図3の例では、エージェントのキャラクタが移動中であることを示すために表示34を用いているが、この代わりに、移動することを示す音声の出力やキャラクタの動作の表示を用いるようにしてもよい。たとえば、後部座席のユーザが図4の呼び出しボタン41を押下したことに応じ、後部座席の音声出力装置14aから「今からいくね!」との音声を出力させると同時に、全部座席の表示出力装置13bにおいて、ジャンプの飛び上がる動作とともにエージェントのキャラクタを消去する。そしてこの直後、後部座席の音声出力装置14aから「遊びにきたよ!」との音声を出力させると同時に、後部座席の表示出力装置14bにおいて、エージェントのキャラクタを、ジャンプの着地動作とともに出現させることができる。すなわち、前部座席の表示出力装置13bから後部座席の表示出力装置14bへ、あたかもキャラクタが飛び移ったかのように見せるようにすることができる。
また、上述においては言及しなかったが、エージェント装置がナビゲーション装置の一部として実施されている場合、ナビゲーション機能に基づき、前部座席のコマンド入力装置11bによりルート設定が行われた後、ルート上の観光ポイントを通過する時やそのポイントへの到着前に、エージェントのキャラクタの表示を後部座席の表示出力装置14bに移動させ、「この場所の歴史はね、・・・」等の解説の音声を後部座席の音声出力装置から出力するようにしてもよい。
また、エージェント装置が、クイズを出題し、回答を受け入れ、正解か否かを通知するクイズ機能を有する場合には、たとえば、前部座席出力装置13及び前部座席入力装置11と、後部座席出力装置14及び後部座席入力装置とを交互に用い、出題、回答の受入れ及び正否の通知を前部座席及び後部座席において交互に行い、これに連動させて、キャラクタを前部座席及び後部座席間で移動させ、交互に表示させるようにしてもよい。つまりキャラクタは、前席及び後席のユーザにクイズを出すために、前席及び後席の間を行ったり来たりするわけである。
本発明の一実施形態に係る車載用のエージェント装置の構成を示すブロック図である。 図1の装置の対話処理エンジンにおける処理を示すフローチャートである。 図2の処理に際し、前部座席及び後部座席の表示出力装置における表示が変遷する様子を示す図である。 エージェントのキャラクタが表示されていないときの後部座席の表示出力装置における表示画面の別の例を示す図である。 本発明の別の実施形態に係る車載用エージェント装置の構成を示すブロック図である。 図5の装置の後部座席出力部における出力の一例を示す図である。 図5の装置の音声対話システムによる子守処理の流れを示すフローチャートである。 図7の子守処理に従って子守機能を享受する様子を模式的に示す図である。 従来のエージェント装置の構成を示すブロック図である。
符号の説明
10:音声対話システム、11:前部座席入力装置、11a:音声入力装置、11b:コマンド入力装置、12:後部座席入力装置、12a:音声入力装置、12b:コマンド入力装置、13:前部座席出力装置、13a:音声出力装置、13b:表示出力装置、14:後部座席出力装置、14a:音声出力装置、14b:表示出力装置、15:音声入力切替えスイッチ、16:音声認識エンジン、17:対話処理エンジン、18:記憶部、18a:シナリオデータ、18b:共有データ、19:音声合成エンジン、31,32:表示画面、33:キャラクタ、34:表示、41:呼出しボタン、42:メッセージ、51a:前部座席入力部、51b:後部座席入力部、52a:前部座席出力部、52b:後部座席出力部、53:音声認識エンジン、54:対話処理エンジン、55:音声合成エンジン、56:記憶部、56a:シナリオデータ、56b:子守用データ、61:表示画面、62,64:音声、63,65,66:選択肢図形、81,84:キャラクタ、82:父親、83:子供、90:音声対話システム、91:入力部、92:出力部、93:音声認識エンジン、94:対話処理エンジン、95:記憶部、96:音声合成エンジン。

Claims (6)

  1. 第1のインタフェースを介して第1の者を対象とする入力の受入れ及び出力を行い、第2のインタフェースを介して第2の者を対象とする入力の受入れ及び出力を行うエージェント装置であって、
    エージェント装置で具現化されたキャラクタを、前記第1及び第2インタフェースをそれぞれ構成する第1及び第2の表示装置のうちいずれか適宜選択した方において表示させるキャラクタ表示手段と、
    前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記第1対象者とする場合には前記第1表示装置において、又は前記第2対象者とする場合には前記第2表示装置において、前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御する制御手段とを具備することを特徴とするエージェント装置。
  2. 前記制御手段は、前記第1又は第2対象者からの前記第1又は第2インタフェースを介した所定の指示があったことに応答し、その指示を行った第1又は第2対象者に係る前記第1又は第2表示装置において前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御するとともに、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記指示を行った第1又は第2対象者に切り替えるものであることを特徴とする請求項1に記載のエージェント装置。
  3. 前記第1及び第2インタフェースは音声を電気信号に変換する第1及び第2の変換器をぞれぞれ用いて構成され、
    前記制御手段は、前記第1又は第2変換器を介した所定の音声入力があったことに応答し、その音声入力があった方の前記第1又は第2変換器に対応する前記第1又は第2表示装置において前記キャラクタの表示がなされるように前記キャラクタ表示手段を制御するとともに、前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記音声入力を行った前記第1又は第2対象者に切り替えるものであることを特徴とする請求項1又は2に記載のエージェント装置。
  4. 前記第1及び第2インタフェースは音声を電気信号に変換する第1及び第2の変換器をぞれぞれ用いて構成され、
    前記第1又は第2変換器は入力切替手段によっていずれかが適宜入力先として選択されるものであり、
    前記制御手段は、前記入力切替手段による第1変換器の選択及び前記第1表示装置におけるキャラクタの表示が時間的に一致して行われ、かつ前記入力切替手段による第2変換器の選択及び前記第2表示装置におけるキャラクタの表示が時間的に一致して行われるように、前記入力切替手段又はキャラクタ表示手段を制御するものであることを特徴とする請求項1又は2に記載のエージェント装置。
  5. 請求項1〜4のいずれかのエージェント装置における各手段としてコンピュータを機能させることを特徴とするプログラム。
  6. 第1のインタフェースを介して第1の者を対象とする入力の受入れ及び出力を行い、第2のインタフェースを介して第2の者を対象とする入力の受入れ及び出力を行うエージェント装置におけるキャラクタ表示方法であって、
    エージェント装置で具現化されたキャラクタを、前記第1及び第2インタフェースをそれぞれ構成する第1及び第2の表示装置のうちいずれか適宜選択した方において表示させるキャラクタ表示工程と、
    前記入力の受入れ及び出力の全部又は所定の一部の対象又は主たる対象を、前記第1対象者とする場合には前記第1表示装置において、又は前記第2対象者とする場合には前記第2表示装置において、前記キャラクタの表示がなされるように前記キャラクタ表示工程を制御する制御工程とを具備することを特徴とするエージェント装置におけるキャラクタ表示方法。
JP2006173274A 2006-06-23 2006-06-23 エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法 Active JP4946200B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006173274A JP4946200B2 (ja) 2006-06-23 2006-06-23 エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006173274A JP4946200B2 (ja) 2006-06-23 2006-06-23 エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法

Publications (2)

Publication Number Publication Date
JP2008001247A true JP2008001247A (ja) 2008-01-10
JP4946200B2 JP4946200B2 (ja) 2012-06-06

Family

ID=39005979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006173274A Active JP4946200B2 (ja) 2006-06-23 2006-06-23 エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法

Country Status (1)

Country Link
JP (1) JP4946200B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182769A (ja) * 2008-01-31 2009-08-13 Kenwood Corp 車載装置、プログラム及び表示制御方法
JP2009198268A (ja) * 2008-02-20 2009-09-03 Pioneer Electronic Corp ナビゲーション装置、表示装置、演出方法、演出プログラム、および記録媒体
KR100956108B1 (ko) 2008-04-30 2010-05-07 주식회사 인젠트 전자서식 운영 시스템
JP2010224748A (ja) * 2009-03-23 2010-10-07 Digital Sensation Co Ltd 情報処理装置および方法、並びにプログラム
JP2014044707A (ja) * 2012-08-01 2014-03-13 Nissan Motor Co Ltd 運転者異常時支援装置及び運転者異常時支援方法
JP2015115879A (ja) * 2013-12-13 2015-06-22 Kddi株式会社 遠隔操作システムならびにそのユーザ端末および視聴機器
JP2015179371A (ja) * 2014-03-19 2015-10-08 ブラザー工業株式会社 処理実行装置および処理実行プログラム
JP2017090613A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2019018729A (ja) * 2017-07-18 2019-02-07 アルパイン株式会社 車載システム
CN111261154A (zh) * 2018-11-14 2020-06-09 本田技研工业株式会社 智能体装置、智能体提示方法及存储介质
JP2020144081A (ja) * 2019-03-08 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020144663A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020160833A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP2020160832A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
US11408745B2 (en) 2020-10-29 2022-08-09 Toyota Motor Engineering & Manufacturing North America, Inc Methods and systems for identifying safe parking spaces
US11741836B2 (en) 2020-10-29 2023-08-29 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for performing correlation-based parking availability estimation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165587A (ja) * 1997-08-18 1999-03-09 Honda Motor Co Ltd 車両用音声入力装置
JP2003008767A (ja) * 2001-06-26 2003-01-10 Nippon Seiki Co Ltd アバータ
JP2005136958A (ja) * 2003-10-07 2005-05-26 Sony Corp 車載用ビデオ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165587A (ja) * 1997-08-18 1999-03-09 Honda Motor Co Ltd 車両用音声入力装置
JP2003008767A (ja) * 2001-06-26 2003-01-10 Nippon Seiki Co Ltd アバータ
JP2005136958A (ja) * 2003-10-07 2005-05-26 Sony Corp 車載用ビデオ装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182769A (ja) * 2008-01-31 2009-08-13 Kenwood Corp 車載装置、プログラム及び表示制御方法
JP2009198268A (ja) * 2008-02-20 2009-09-03 Pioneer Electronic Corp ナビゲーション装置、表示装置、演出方法、演出プログラム、および記録媒体
KR100956108B1 (ko) 2008-04-30 2010-05-07 주식회사 인젠트 전자서식 운영 시스템
JP2010224748A (ja) * 2009-03-23 2010-10-07 Digital Sensation Co Ltd 情報処理装置および方法、並びにプログラム
JP2014044707A (ja) * 2012-08-01 2014-03-13 Nissan Motor Co Ltd 運転者異常時支援装置及び運転者異常時支援方法
JP2015115879A (ja) * 2013-12-13 2015-06-22 Kddi株式会社 遠隔操作システムならびにそのユーザ端末および視聴機器
JP2015179371A (ja) * 2014-03-19 2015-10-08 ブラザー工業株式会社 処理実行装置および処理実行プログラム
JP2017090613A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2019018729A (ja) * 2017-07-18 2019-02-07 アルパイン株式会社 車載システム
CN111261154A (zh) * 2018-11-14 2020-06-09 本田技研工业株式会社 智能体装置、智能体提示方法及存储介质
JP7340940B2 (ja) 2019-03-07 2023-09-08 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020144663A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN111661068A (zh) * 2019-03-07 2020-09-15 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
CN111661068B (zh) * 2019-03-07 2023-09-29 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
JP2020144081A (ja) * 2019-03-08 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7222757B2 (ja) 2019-03-08 2023-02-15 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7169921B2 (ja) 2019-03-27 2022-11-11 本田技研工業株式会社 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
US11518399B2 (en) 2019-03-27 2022-12-06 Honda Motor Co., Ltd. Agent device, agent system, method for controlling agent device, and storage medium
JP7288781B2 (ja) 2019-03-27 2023-06-08 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP2020160832A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP2020160833A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
US11408745B2 (en) 2020-10-29 2022-08-09 Toyota Motor Engineering & Manufacturing North America, Inc Methods and systems for identifying safe parking spaces
US11741836B2 (en) 2020-10-29 2023-08-29 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for performing correlation-based parking availability estimation

Also Published As

Publication number Publication date
JP4946200B2 (ja) 2012-06-06

Similar Documents

Publication Publication Date Title
JP4946200B2 (ja) エージェント装置、プログラム、及びエージェント装置におけるキャラクタ表示方法
JP2784409B2 (ja) ビデオゲーム方法および装置
JP2009178363A (ja) プログラム、情報記憶媒体及びコンテンツ提供装置
JP2005215694A (ja) 対話を実行する方法および対話システム
JP5553446B2 (ja) アミューズメントシステム
WO2014181524A1 (ja) 会話処理システム及びプログラム
CN108724205B (zh) 互动装置、互动方法、互动程序以及机器人
US10617941B2 (en) Computer game interface
JP6589514B2 (ja) 対話装置及び対話制御方法
JP2002169590A (ja) 模擬会話システム、模擬会話方法、および情報記憶媒体
JP4729171B2 (ja) 電子書籍装置および音声再生システム
JP2017208003A (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2019124855A (ja) 装置及びプログラム等
US11275554B2 (en) Information processing apparatus, information processing method, and program
JP2007334251A (ja) エージェント装置、プログラム、及び音声供給方法
CN116830559A (zh) 处理语音音频流中断的***和方法
JP2020042066A (ja) 音声対話装置、音声対話方法および音声対話プログラム
CN113287117A (zh) 交互***和方法
JPH04338817A (ja) 電子機器の制御装置及び制御方法
JP2018176384A (ja) 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP2018175627A (ja) 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP6217003B2 (ja) 端末装置、睡眠言動記録方法及び睡眠言動記録プログラム
JP2019018336A (ja) 装置、方法、プログラム、及びロボット
JP2001296877A (ja) 音声による会話を行うプログラム実行装置、そのためのプログラム
JP3290903B2 (ja) カラオケ採点ゲーム装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110915

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4946200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150