JP4193300B2 - Agent device - Google Patents

Agent device Download PDF

Info

Publication number
JP4193300B2
JP4193300B2 JP23093699A JP23093699A JP4193300B2 JP 4193300 B2 JP4193300 B2 JP 4193300B2 JP 23093699 A JP23093699 A JP 23093699A JP 23093699 A JP23093699 A JP 23093699A JP 4193300 B2 JP4193300 B2 JP 4193300B2
Authority
JP
Japan
Prior art keywords
information
agent
user
data
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23093699A
Other languages
Japanese (ja)
Other versions
JP2001056225A (en
Inventor
真吾 石田
智氣 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP23093699A priority Critical patent/JP4193300B2/en
Publication of JP2001056225A publication Critical patent/JP2001056225A/en
Application granted granted Critical
Publication of JP4193300B2 publication Critical patent/JP4193300B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To permit communication with different agents according to information by making an agent appear in a vehicle out of a plurality of personified agents, and discriminating an assigned field from a learning result from the condition of the vehicle and acquired information to determine the action of the agent. SOLUTION: An information providing channel processing part 16 receives communication information such as FM multiplex broadcasting from an information center through an information providing channel communication part 30 at the receiving time, and classifies and stores the information in the specified areas of an information providing channel storage part, determining assigned fields. The channel processing part 16 supplies an agent processing part 11 with information usable for the own assigned fields of agents assigned for the fields and stored in an agent data storage device 29b. The agent processing part 11 confirms user information 298 on a present user, reads an information channel selected by the user, from the user information 298 and displays a corresponding channel key.

Description

【0001】
【発明の属する技術分野】
本発明はエージェント装置に係り、例えば、複数のエージェントが存在するエージェント装置に関する。
【0002】
【従来の技術】
エージェントを車両内に出現させ、車両の状況を判断してユーザとのコミュニケーション又は積極的に行うエージェント装置が特開平11−37766号公報で提案されている。
このエージェント装置によれば、例えば、お昼時にお腹が鳴る音を検出した場合に「食堂の案内をしましょうか?」といったように、エージェントが処理可能な行為の提案をするようになっている。
そして、車両内に出現させるエージェントについては、その容姿や音声をユーザの好みに応じて選択することが可能になっている。
【0003】
【発明が解決しようとする課題】
従来のエージェント装置により車両内に出現するエージェントの容姿や音声を選択することが可能であるが、これらを一度決定すると同一容姿等のエージェントが出現するのみであった。例えば、エージェントの容姿として女性秘書を選択した場合には、そのエージェント一人がユーザとのコミュニケーションを行うため、顧客のところに出かける場合であっても、野球観戦に出かける場合であっても同一容姿のエージェントとコミュニケーションをとる必要があり、走行目的等の状況に応じた複数のエージェントとコミュニケーションをとることができなかった。
このため、従来のエージェント装置において、新たに取得した情報に応じてコミュニケーションを行うようにしたとしても、すべて同一のエージェントとのコミュニケーションが行われることになる。
また、従来のエージェントは、容姿等を変更したり成長したりすることでその外観が変化していてたが、ユーザ毎に記憶保存されるエージェントの学習データは1つのみであり、この1つの学習データを使用してコミュニケーションが行われていた。このため同一ユーザとコミュニケーションをとるエージェントは、あくまでも同一(擬似)人格のエージェントであり、異なる擬似人格を有する複数のエージェントとのコミュニケーションを行うことはできなかった。
更に、従来のエージェント装置では、実質的に1人のエージェントが対応していたため、趣味や職業等によるユーザの指向がエージェント出現に反映されていなかった。
【0004】
本発明は、ユーザの指向により適合した(気の合う)エージェントを自動的に選択することが可能なエージェント装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
請求項1に記載した発明では、複数分野の情報を通信により取得する情報取得手段と、前記情報取得手段により取得した情報の分野毎のエージェント複数記憶された記憶手段と、車両の状況を判断する状況判断手段と、ユーザの入力操作又はエージェントの問い合わせに対するユーザの回答内容によって当該ユーザの指向を取得する指向取得手段と、前記指向取得手段で取得したユーザの指向と、前記状況判断手段で判断された状況とに応じ前記記憶手段に記憶された複数のエージェントの中からエージェントを選択する選択手段と、前記選択手段により選択されたエージェントによって、当該選択されたエージェントに対応する分野の情報を前記ユーザに提供する情報提供手段と、を具備することを特徴とするエージェント装置を提供する。
請求項記載の発明では、目的地までの経路案内を行うナビゲーション手段を備え、前記指向取得手段は、前記ナビゲーション手段において目的地を設定する過程でユーザが選択した内容から指向を取得することを特徴とする請求項に記載のエージェント装置を提供する。
請求項3記載の発明では、前記指向取得手段は、走行目的、目的地、ユーザ情報をユーザの指向として取得することを特徴とする請求項1に記載のエージェント装置を提供する。
【0006】
【発明の実施の形態】
以下、本発明の目的地設定装置及びエージェント装置における好適な実施の形態について、図1から図12を参照して詳細に説明する。
(1)実施形態の概要
本実施形態のエージェント装置では、複数のエージェントに対して、おのおの異なる擬似人格を持つようにする。そのため、パソコンや秋葉原に詳しいエージェント、飲食店に詳しいエージェントというように各エージェントの得意分野(担当分野)と、優しい、気短、おっとりしている等のエージェントの性格と共に決めておき、必要なデータ(最新モデルのパソコン情報や、秋葉原のマップ情報等のデータ)を各エージェント毎に担当分野データベースに格納しておく。そして、FM多重放送や特定の情報提供業者から1日に数回送信される天気予報、交通情報等の通信情報を受信し、担当分野に分類して担当分野データベースに格納する。通信情報に対する担当分野は、その通信情報を受信したチャンネル毎に(特定のチャンネル以外の場合にはその内容毎にいずれかのチャンネルに)あらかじめ決められており、各チャンネルには担当のエージェントが割り当てられている。そして、新たな通信情報を受信した場合、分類される担当分野のエージェントが必要に応じて出現し、通信情報の案内や解説等が行われる。
【0007】
また、ユーザは自分の好みや指向にあったエージェントを、各エージェントの性格や得意分野から指定しすることができ、指定したエージェントにナビゲーションのアシスト等をしてもらうことができる。指定されたエージェントは自分の得意分野について詳しい案内や説明を行いながら経路案内等におけるユーザとのコミュニケーションを行う。
ユーザによるエージェントの指定が行われない場合、走行目的(デート、買い物等)、目的地、ユーザ情報等からユーザの指向が判断され、ユーザの指向に適したエージェントが推薦される。
【0008】
各エージェントの擬似人格を決定する1つの要素である学習結果について、各エージェントと各ユーザとの対応毎に学習結果が記憶(保存)され、該当するエージェントの行為を決定する場合に、このエージェントとユーザとの対応毎の学習結果を使用することで異なる疑似人格を持った複数のエージェントが実現される。
【0009】
本実施形態のエージェント装置では、車両内の各種センサ等からの出力に基づいて車両の各種状況を判断し(状況判断手段)、この判断状況や、ユーザとエージェントとに対応する学習結果や、受信情報や担当分野等の担当分野情報に基づいてエージェントの行為を決定し(行為決定手段)、この行為をエージェントに行わせる(エージェント制御手段)。
【0010】
なお、本実施形態におけるエージェントは、擬人化されたエージェントであり、その画像(平面的画像、ホログラフィ等の立体的画像等)が画像表示装置によって車両内に出現される。このエージェントの処理としては、車両自体、搭乗者、対向車等を含む車両の状況判断と学習(状況の学習だけでなく運転者の応答や反応等も含む)をし、各時点での車両状況とそれまでの学習結果に基づいて、エージェントが運転者や車両に対して様々なバリエーションをもった対応(行為=行動と音声)をする。これにより運転者は、複数のエージェントを車両内に自由に呼びだしてつき合う(コミュニケーションする)ことが可能になり、車両内での環境を快適にすることができる。
ここで、本実施形態において擬人化されたエージェントとは、特定の人間、生物、漫画のキャラクター等との同一性があり、その同一性のある生物が、同一性・連続性を保つようなある傾向の出力(動作、音声により応答)を行うものである。また、同一性・連続性は特有の個性を持つ人格として表現され、電子機器内の一種の疑似生命体としてもとらえることができる。車両内に出現させる本実施形態のエージェントは、人間と同様に判断する疑似人格化(仮想人格化)された主体である。従って、同一の車両状況であっても、過去の学習内容に応じてコミュニケーションの内容は異なる。ときには、車両の相応には関係ない範囲での判断ミスも有り、この判断ミスによる不要な(ドジな)応答をすることもある。そして運転者の応答により、判断ミスか否かを判定し、学習する。
【0011】
(2)実施形態の詳細
図1は、本実施形態におけるエージェント装置の構成を示すブロック図である。
本実施形態では、エージェントによるコミュニケーション機能全体を制御する全体処理部1を備えている。この全体処理部1は、設定した目的地までの経路を探索して音声や画像表示によって経路案内等をするナビゲーション処理部10、エージェント処理部11、ナビゲーション処理部10とエージェント処理部11に対するI/F部12、エージェント画像や地図画像等の画像出力や入力画像を処理する画像処理部13、エージェントの音声や経路案内用の音声等の音声を出力したり、入力される音声を音声認識辞書を使用して認識したりする音声制御部14、車両や運転者に関する各種状況の検出データを処理する状況情報処理部15、及び天気予報や交通情報等の各種情報を提供するセンタから提供される情報を処理する情報提供チャンネル処理部16、その他図示しない時計等の各部を有している。
【0012】
エージェント処理部11は、所定容姿のエージェントを車両内に出現させる。また、車両の状況や運転者(ユーザ)による過去の応対等を学習して適切な会話や制御を行うようになっている。そして本実施形態のエージェント装置では、車両の状況や車内、車外の状況を判断し、判断結果に対応した処理を、ユーザが指定したエージェントや、担当分野のエージェントが行うようになっている。
【0013】
ナビゲーション処理部10とエージェント処理部11は、データ処理及び各部の動作の制御を行うCPU(中央処理装置)と、このCPUにデータバスや制御バス等のバスラインで接続されたROM、RAM、タイマ等を備えている。両処理部10、11はネットワーク接続されており、互いの処理データを取得することができるようになっている。例えば、エージェント処理部11は、ナビゲーション処理部10で特定した車両の現在位置のデータや、ナビゲーション処理部10で探索した目的地までの走行経路や、ナビゲーションデータ記憶装置31に格納されたナビゲーション用のデータ等を取得できる。
ROMはCPUで制御を行うための各種データやプログラムが予め格納されたリードオンリーメモリであり、RAMはCPUがワーキングメモリとして使用するランダムアクセスメモリである。
【0014】
本実施形態のナビゲーション処理部10とエージェント処理部11は、CPUがROMに格納された各種プログラムを読み込んで各種処理を実行するようになっている。なお、CPUは、記憶媒体駆動装置23にセットされた外部の記憶媒体からコンピュータプログラムを読み込んで、エージェントデータ記憶装置29bやナビゲーションデータ記憶装置31、図示しないハードディスク等のその他の記憶装置に格納(インストール)し、この記憶装置から必要なプログラム等をRAMに読み込んで(ロードして)実行するようにしてもよい。また、必要なプログラム等を記録媒体駆動装置23からRAMに直接読み込んで実行するようにしてもよい。
【0015】
ナビゲーション処理部10には、現在位置検出装置21とナビゲーションデータ記憶装置31が接続され、エージェント処理部11にはエージェントデータベース29のエージェントデータ記憶装置29bが接続されている。
I/F部12には入力装置22と記憶媒体駆動装置23と通信制御装置24と、図示しないその他の装置(窓開閉装置、エアコン風量調節装置、オーディオ音量調節装置、ヘッドランプオン・オフ装置、ワイパー駆動制御装置等)が接続されている。
画像処理部13には表示装置27と撮像装置28が接続されている。
音声制御部14は、音声合成部141と音声認識部142を備えており、音声合成部141には音声出力装置25が接続され、音声認識部142には、運転者からの音声を取り込む音声取り込み手段として機能するマイク26が接続されている。
状況情報処理部15には状況センサ部40が接続されている。
【0016】
情報提供チャンネル処理部16には、エージェントデータベース29の情報提供チャンネル記憶部29aと情報提供チャンネル通信部30が接続されている。
この情報提供チャンネル処理部16は、情報提供チャンネル通信部30を制御することで、情報センタから送信される各種通信情報を受信するようになっている。すなわち、情報センタは、FM多重放送などを利用して天気予報、ニュース、スポーツ、その他街の情報等の各種通信情報を1日に何回か定期的に送信するようになっており、情報提供チャンネル処理部16は情報が送信される時間を監視して、該当時間になると情報提供チャンネル通信部30を制御して通信情報を受信するようになっている。また、特定の情報チャンネルに対する情報受信については、送信要求を情報センタ等に送信することで送られてくる情報を受信する。
情報提供チャンネル処理部16は、受信したチャンネルや、内容から通信情報を分類して担当分野を決めるとともに、受信したことをユーザに知らせる必要がある通信情報である場合には、その通信情報を情報提供チャンネル記憶部29aに格納するようになっている。
また情報提供チャンネル処理部16は、受信した通信情報のうち、天気予報やニュース等のトピックス的に受信する通信情報を除き、担当分野のエージェントが自己の担当分野としてコミュニケーションに使用可能な情報、例えば、パソコンの新規モデル情報や、秋葉原の新規店舗情報等の各種担当分野情報をエージェント処理部11に供給するようになっている。
なお本実施形態では、情報提供チャンネル通信部30を独立して設けているが、通信制御装置24に情報提供チャンネル通信部30の機能をもたせるようにしてもよい。
【0017】
現在位置検出装置21は、車両の絶対位置(緯度、経度による)を検出するためのものであり、人工衛星を利用して車両の位置を測定するGPS(Global Positioning System)受信装置211と、方位センサ212と、舵角センサ213と、距離センサ214と、路上に配置されたビーコンからの位置情報を受信するビーコン受信装置215等の各種現在位置検索手段が使用される。
GPS受信装置211とビーコン受信装置215は単独で位置測定が可能であるが、GPS受信装置211やビーコン受信装置215による受信が不可能な所では、方位センサ212と距離センサ214の双方を用いた推測航法によって現在位置を検出するようになっている。なお、より正確な現在位置を検出するために、所定の基地局から送信される測位誤差に対する補正信号を受信し、現在位置を補正するD−GPS(ディファレンシャルGPS)を使用するようにしてもよい。
方位センサ212は、例えば、地磁気を検出して車両の方位を求める地磁気センサ、車両の回転角速度を検出しその角速度を積分して車両の方位を求めるガスレートジャイロや光ファイバジャイロ等のジャイロ、左右の車輪センサを配置しその出力パルス差(移動距離の差)により車両の旋回を検出することで方位の変位量を算出するようにした車輪センサ、等が使用される。
舵角センサ213は、ステアリングの回転部に取り付けた光学的な回転センサや回転抵抗ボリューム等を用いてステアリングの角度αを検出する。
距離センサ214は、例えば、車輪の回転数を検出して計数し、または加速度を検出して2回積分するもの等の各種の方法が使用される。
【0018】
入力装置22は、複数存在するエージェントの中から1のエージェントをユーザが指定したり(指定手段)、エージェント処理を行う上で使用されるユーザ情報(ユーザの指名、年齢、性別、職業、趣味、希望する情報提供チャンネル等)を入力したり、各ユーザが各エージェントに独自の名前をする場合にその名前の読みを入力したりするためのものである。なお、これらユーザに関する情報は、入力装置22からユーザが入力する場合に限らず、ユーザとのコミュニケーションが無い時間が一定時間以上経過した場合等に、未入力の項目について例えば、プロ野球が好きか否か、好きな球団名等に関する各種問い合わせをエージェントがユーザに行い、ユーザの回答内容から取得するようにしてもよい。
この入力装置22は、エージェントによる動作や制御(窓の開閉やエアコンのオンオフ等)の確認や、その他のすべての問い合わせ等に対して運転者が応答するための1つの手段でもある。
また、入力装置22は、ナビゲーション処理における走行開始時の現在地(出発地点)や目的地(到達地点)、情報提供局へ渋滞情報等の情報の請求を発信したい車両の所定の走行環境(発信条件)、車内で使用される携帯電話のタイプ(型式)などを入力するためのものでもある。
【0019】
入力装置22には、タッチパネル(スイッチとして機能)、キーボード、マウス、ライトペン、ジョイスティック、赤外線等によるリモコンや音声認識装置などの各種の装置が使用可能である。音声認識開始の要求以外の情報を入力するものについては、音声認識装置を用いることもできる。また、赤外線等を利用したリモコンと、リモコンから送信される各種信号を受信する受信部を備えてもよい。
【0020】
記憶媒体駆動装置23は、ナビゲーション処理部10やエージェント処理部11が各種処理を行うためのコンピュータプログラムを外部の記憶媒体から読み込むのに使用される駆動装置である。記憶媒体に記録されているコンピュータプログラムには、各種のプログラムやデータ等が含まれる。
ここで、記憶媒体とは、コンピュータプログラムが記録される記憶媒体をいい、具体的には、フロッピーディスク、ハードディスク、磁気テープ等の磁気記憶媒体、メモリチップやICカード等の半導体記憶媒体、CD−ROMやMO、PD(相変化書換型光ディスク)、DVD(ディジタル・ビデオ・ディスク)等の光学的に情報が読み取られる記憶媒体、紙カードや紙テープ、文字認識装置を使用してプログラムを読み込むための印刷物等の用紙(および、紙に相当する機能を持った媒体)を用いた記憶媒体、その他各種方法でコンピュータプログラムが記録される記憶媒体が含まれる。
【0021】
記憶媒体駆動装置23は、これらの各種記憶媒体からコンピュータプログラムを読み込む他に、記憶媒体がフロッピーディスクやICカード等のように書き込み可能な記憶媒体である場合には、ナビゲーション処理部10やエージェント処理部11のRAMや記憶装置29b、31のデータ等をその記憶媒体に書き込むことが可能である。
例えば、そのユーザに対応している全エージェント、又は特定のエージェントの、エージェント機能に関する学習内容(学習項目データ、応答データ)や、ユーザ情報等をICカードに記憶させ、他の車両を運転する場合でもこの記憶させたICカードを使用することで、自分の好みに合わせて命名され、過去の応対の状況に応じて学習された同一のエージェントとコミュニケーションすることが可能になる。これにより、車両毎のエージェントではなく、運転者に固有な名前と、学習内容のエージェントを車両内に出現させることが可能になる。
【0022】
通信制御装置24は、各種無線通信機器からなる携帯電話が接続されるようになっている。通信制御装置24は、電話回線による通話の他、道路の混雑状況や交通規制等の交通情報に関するデータなどを提供する情報提供局との通信や、車内での通信カラオケのために使用するカラオケデータを提供する情報提供局との通信を行うことができるようになっている。
また、通信制御装置24を介して、エージェント機能に関する学習データやユーザ情報等を送受信することも可能である。
また通信制御装置24は、ATISセンターから送信される渋滞等の各種情報を受信したり、また、道路周辺に配置されたビーコンから送信される渋滞等のVICS情報をビーコンレシーバーで受信したりすることができるようになっている。
【0023】
音声出力装置25は、車内に配置された複数のスピーカで構成され、音声制御部14の音声合成部141により合成された音声が出力される。例えば、音声による経路案内を行う場合の案内音声や、エージェントによる運転者への問い合わせの音声、エージェントの動作に伴う音等が音声合成部141で合成され、音声出力装置25から出力されるようになっている。この音声出力装置25は、全部又は一部をオーディオ用のスピーカと兼用するようにしてもよい。なお、音声制御部14は、運転者のチューニング指示の入力に応じて、音声出力装置25から出力する音声の音色やアクセント等を制御することが可能である。
音声出力装置25は、音声制御部14の音声認識部142で認識した音声についての認識内向をユーザに確認(コールバック)するために合成された音声も出力するようになっている。
【0024】
マイク26は、音声制御部14の音声認識部142における音声認識の対象となる音声を入力する音声入力手段として機能する。マイク26には、例えば、ナビゲーション処理における目的地等の入力音声や、エージェントとの運転者の会話等(エージェントからの問い合わせに対する回答や、コールバックに対する応答等を含む)が入力される。
このマイク26は、通信カラオケ等のカラオケを行う際のマイクと兼用するようにしてもよく、また、運転者の音声を的確に収集するために指向性のある専用のマイクを使用するようにしてもよい。
音声出力装置25とマイク26とでハンズフリーユニットを形成させて、携帯電話を介さずに、電話通信における通話を行えるようにしてもよい。
【0025】
表示装置27には、ナビゲーション処理部10の処理による経路案内用の道路地図や各種画像情報が表示されたり、エージェント処理部11によるエージェントの容姿や、その容姿のエージェントによる各種行動(動画)が表示されたりするようになっている。また、撮像装置28で撮像された車両内外の画像も画像処理部13で処理された後に表示されるようになっている。
表示装置27は、液晶表示装置、CRT等の各種表示装置が使用される。
この表示装置27は、例えばタッチパネル等の、前記入力装置22としての機能を兼ね備えたものとすることができる。
【0026】
撮像装置28は、画像を撮像するためのCCD(電荷結合素子)を備えたカメラで構成されており、運転者を撮像する車内カメラの他、車両前方、後方、右側方、左側方を撮像する各車外カメラが配置されている。撮像装置28の各カメラにより撮像された画像は、画像処理部13に供給され、画像認識等の処理が行われ、各認識結果をエージェント処理部11によるプログラム番号の決定にも使用するようになっている。
撮像装置28で撮像された画像は、車両内外の状況が特定状況にある可能性があるか否かを判断する可能性判断に使用することができ、この場合には、状況を検出するセンサとしても機能することになる。
【0027】
エージェントデータベース29は、情報提供チャンネル記憶部29aと、エージェントデータ記憶装置29を備えている。
情報提供チャンネル記憶部29aは、情報提供チャンネル通信部30によって受信され情報提供チャンネル処理部16によって各々のチャンネル毎に分類される、天気予報、ニュース、スポーツ、その他街の情報等の各種情報が格納される記憶装置である。この記憶媒体としては、前述した各種記憶媒体を使用可能であるが、本実施形態ではRAMが使用されている。
この情報提供チャンネル記憶部29aには、情報提供チャンネル処理部16で分類された情報(各チャンネルの情報)のうち、登録済みの全ユーザのうちのいずれかのユーザによって選択されているチャンネルの情報のみが格納されるようになっている。
情報提供チャンネル記憶部29aに格納されている各種通信情報は、記憶容量を越ると、情報提供チャンネル処理部16によって古い情報から消去されるようになっている。また、情報の有効性の期日が予め設定されている天気予報やニュース等の短期間情報については、設定されている期間、期日を経過した時点で情報提供チャンネル16によって消去される。
【0028】
エージェントデータ記憶装置29bは、本実施形態によるエージェント機能を実現するために必要な各種データやプログラムが格納される記憶装置である。このエージェントデータ記憶装置29bには、例えば、フロッピーディスク、ハードディスク、CD−ROM、光ディスク、磁気テープ、ICカード、光カード、DVD等の各種記憶媒体と、その駆動装置が使用される。
この場合、例えば、学習項目データ292、応答データ293、及びユーザ情報298を持ち運びが容易なICカードやフロッピーディスクで構成し、その他のデータをハードディスクで構成するというように、複数種類の異なる記憶媒体と駆動装置で構成し、駆動装置としてそれらの駆動装置を用いるようにしてもよい。
【0029】
エージェントデータ記憶装置29bには、エージェントプログラム290、プログラム選択テーブル291、学習項目データ292、応答データ293、エージェントの容姿や行動を静止画像や動画像で画像表示するための画像データ294、エージェントリストデータ296、担当分野情報297、運転者を特定するためのユーザ情報298、その他エージェントのための処理に必要な各種のデータが格納されている。
【0030】
エージェントプログラム290には、エージェント機能を実現するためのエージェント処理プログラムや、エージェントと運転者とがコミュニケーションする場合の細かな行動を表示装置27に画像表示するための画像データと、エージェントの行動に対応した会話を音声合成部141で合成して音声出力装置25から出力するための音声データとからなるコミュニケーションプログラムがプログラム番号順に格納されている。コミュニケーションプログラムは、全エージェントに共通する共通プログラムと、各エージェントの担当分野に応じた担当分野プログラムとがあり、両者が格納されている。
各エージェントは担当分野が決められており、それぞれ別の擬似人格を有しているため、予めその容姿と音声が決められているが、ユーザは各エージェントの容姿と、音声を自由に入力装置22から変更することができるようになっている。エージェントの容姿の変更は、所定の操作により本実施形態装置27に選択可能なエージェントの各容姿をリスト表示し、その中から1の容姿を選択する。エージェントの音声としては、男性の音声、女性の音声、子供の音声、機械的な音声、動物的な音声、特定の声優や俳優の音声、特定のキャラクタの音声等があり、これらの中から適宜運転者が選択する。
【0031】
プログラム選択テーブル291は、エージェントプログラム290に格納されているコミュニケーションプログラムを選択するためのテーブルである。
このプログラム選択テーブル291からコミュニケーションプログラムを選択する選択条件には、状態センサ40や現在位置検出装置21、撮像装置28により検出される車両や運転者の各種状況から決定される項目(時間、起動場所、冷却水温、シフトポジション位置、アクセル開度等)と、学習項目データ292や応答データ293及びユーザ情報298に格納されている学習内容から決定される項目(今日のIG ON回数、前回終了時からの経過時間、通算起動回数等)などがある。
プログラム選択テーブル291中で、これら全項目を満足するプログラムは必ず一義的に決定するようになっている。
【0032】
学習項目データ292、応答データ293は、運転者の運転操作や応答によってエージェントが学習した結果を格納するデータである。従って、学習項目データ292と応答データ293は、各運転者と各エージェントとの組み合わせ毎に別々に格納・更新(学習)されるようになっている。すなわち、学習項目データ292と応答データ293は、それぞれ存在するエージェント数×登録ユーザ数だけ存在することになる。
【0033】
学習項目データ292には、プログラム選択テーブル291の選択条件を決定する通算起動回数、前回終了日時、今日のイグニッションON回数、前5回の給油時残量等が格納され、選択条件により選択されたプログラムを起動するか否か(お休みするか否か)を決定するためのお休み回数/日時、デフォルト値、その他のデータが格納される。
通算起動回数には、イグニッションを起動した通算回数が格納され、イグニッションがONされる毎にカウントアップされる。前回終了日時には、イグニッションをOFFにする毎にその日時が格納される。
今日のイグニッションON回数には、その日におけるイグニッションONの回数と、1日の終了時間が格納される。イグニッションがONされる毎にカウントアップされるが、1日が終了するとデータが”0”に初期化される。1日の終了時間はデフォルト値として24:00が格納されている、この時間はユーザ(運転者)の生活パターンによって変更することが可能である。時間が変更された場合には、変更後の時間が格納される。
前5回の給油残量には、燃料(ガソリン)を給油する直前に検出された燃料の残量が格納され、新たに給油される毎に各データが左側にシフトされ(最も古い最左のデータが削除される)今回給油直前の残量が一番右側に格納される。このデータは、後述する燃料検出センサ415の検出値G1が、全5回分の給油残量の平均値G2以下(G1≦G2)になった場合に、エージェントEが表示装置27に現れて給油を促す行動が表示装置27に表示され、「おなかが減ったなあ!ガソリンがほしいな!」等の音声が音声出力装置25から出力される。
お休み回数/日時には、該当するコミュニケーションプログラムが選択されたとしても実行せずにお休みした回数等が各プログラム番号毎に格納される。このお休み回数/日時は、例えば後述するエアコンの停止を提案するエージェントの行為(プログラム番号00123)のように、学習項目としてお休み項目が設定されているエージェント行為について格納される。エージェントの提案や会話に対する運転者の応答が、拒否(拒絶)であった場合や無視(又は無応答)であった場合、コミュニケーションプログラムに応じて選択的に「お休み」が設定される。
デフォルト値には、時間、回数、温度、車速、日時等の各項目に対する初期設定値が格納されており、前記した1日の終了時間のように学習項目の中で変更された値を初期値に戻す場合に使用される。
学習項目データ292に格納されるその他のデータとしては、例えば、運転者やその関係者の誕生日(これはユーザ入力項目である)、祭日とその言われ、クリスマス、バレンタインデー、ホワイトデー等のイベント日などが格納される。各イベント日に応じた特別メニューのコミュニケーションプログラムも用意されており、例えば、クリスマスイブにはサンタクロースに変装したエージェントが現れる。
【0034】
応答データ293には、エージェントの行為に対するユーザの応答の履歴が、各コミュニケーションプログラム番号毎に格納される。ユーザ応答データは、最新の応答日時と応答内容が所定回分格納されるものと、最新の応答内容のみが1回分格納される(従って応答がある毎に更新される。)ものと、最新の応答内容のみが所定回分格納されるものと、最新の日時と応答内容が一回分格納されるものと、最新の日時だけが1回分または所定回分格納されるもの等がある。
応答データ293としては、応答内容を区別するデータが各応答毎に格納され、例えば、記号Aが無視された場合、記号Bが拒絶された場合、記号Cが受容された場合を表す。運転者の応答内容については、マイク26から入力される運転者の音声に対する音声認識の結果や、入力装置による入力結果から判断される。
なお、本実施形態では運転者の応答を無視、拒絶、受容の3パターに分類しているが、「強く拒絶」、「怒られた」、「喜ばれてた」を新たに加えるようにしてもよい。この場合、新たに加えた応答により、学習項目データ292(例えば、お休み回数等)や応答データ293のを追加変更する。
【0035】
画像データ294には、各エージェントの容姿と、各容姿のエージェントが様々な表情や動作を表すための各種画像データが格納されている。ユーザは、これら各エージェントを選択し、自由に名前を付ける(設定する)ことができるようになっている。
格納される容姿としては、人間(男性、女性)的な容姿である必要はなく、例えば、ひよこや犬、猫、カエル、ネズミ等の動物自体の容姿や人間的に図案化(イラスト化)した動物の容姿であってもよく、更にロボット的な容姿や、特定のキャラクタの容姿等であっても良く、これら各容姿に対応して名前を付けることが可能である。
またエージェントの年齢としても一定である必要がなく、エージェントの学習機能として、最初は子供の容姿とし、時間の経過と共に成長していき容姿が変化していく(大人の容姿に変化し、更に老人の容姿に変化していく)ようにしてもよい。画像データ294には、これら各種エージェントの容姿の画像が格納されており、運転者の好みによって入力装置22等から選択することができるようになっている。
【0036】
エージェントリストデータ296は、車両内に出現可能なエージェントの擬似人格を決定するためのデータが格納されている。
図2は、エージェントリストデータ296の内容を表したものである。
この図2に示されるように、エージェントの名前、年齢、性別、職業、趣味、服装、性格(案内の得意分野)が、各エージェント毎に決められている。そして、車両内に出現する場合、エージェントの容姿、声、態度はエージェントリストデータで決められた年齢、性別、趣味、服装、性格が反映される。服装については、基本的に毎日変更されるようになっている。
各エージェントの性格は、そのエージェントに対して決められている担当分野を含めて決められている。例えば図2に示されているように、エージェント「雄一」はレコード店、レコード関係が担当分野として決められており、「英子」は報復店、雑貨店、ファーストフードが担当分野としてきめられており、「大地」は安い洋服店、飲食店が担当分野として決められている。
なお、各エージェントの担当分野は、複数でも単数でもよく、また特に担当分野を持たないエージェントが存在してもよい。また、各担当分野は、複数のエージェントが担当するようにしてもい。
【0037】
担当分野情報297には、例えば、レコード店、洋服店、雑貨屋、ディスカウント店等の店舗情報や、パソコン、たばこ、カー用品等の物品情報、秋葉原、新宿、神田等の場所情報や、ファーストフード、洋食、和食等の飲食情報や、ゴルフ、野球、サッカー等のスポーツ情報や、飯山温泉、草津温泉、湯河原温泉等の温泉情報、その他雑学情報など各種情報が、担当分野毎に分類されて格納されている。
この担当分野情報297の各種情報は予め格納されていると共に、情報提供チャンネル通信部30で受信し、情報提供チャンネル処理部16で担当分野に分類された通信情報が、エージェント処理部11によって各担当分野の情報に追加、更新されるようになっている。
各エージェントは、この担当分野情報297に格納されている情報を使用して、自分が担当している分野に関連したコミュニケーションをとることになる。例えば、京都の神社仏閣を担当分野とするエージェントは、車両が清水寺から所定距離に到達した場合や目的地として清水寺が設定された場合等に、担当分野情報297格納されている清水寺の歴史や宗派等の情報を使用してユーザに説明する。
【0038】
ユーザ情報298には、ユーザに関する各種情報が格納されている。
図3はユーザ情報298の格納内容を表したものである。
この図3に示されるように、ユーザ情報としては、各ユーザの名前(表記)、性別、年齢、職業、趣味、表示を希望する情報提供チャンネルが各ユーザ毎に付けられたユーザ番号毎に格納されている。また図示しないが、その他のユーザ情報として、住所、生年月日、性格、好きなスポーツ、好きなチーム、好きな食べ物、宗教、ユーザの身長、体重、運転席(シート)の固定位置(前後位置、背もたれの角度)、ルームミラーの角度、視線の高さ、顔写真をデジタル化したデータ、音声の特徴パラメータ等のユーザ情報が各ユーザ毎(ユーザ番号毎)に格納されている。
図3に示された名前から情報提供チャンネルまでの各ユーザ情報は、ユーザ登録設定処理において表示装置27の表示画面に従って入力装置22や音声入力(マイク26と音声認識部142を使用)によって入力される。一方、図示しないその他のユーザ情報は、その他のユーザ項目としてユーザ登録設定処理で表示画面に従って入力装置22等から入力するようにしてもよいが、ユーザがこの方法による入力をしなかった場合には、いずれかのエージェントがユーザとの会話のなかで未入力項目に対する質問をすることで順次取得して、ユーザ情報298に格納するようになっている。
ユーザ情報は、エージェントがユーザと取るコミュニケーションの内容を判断する場合に使用される他、本実施形態のエージェントの紹介処理におけるユーザの指向を判断する場合に使用される。また、その他のデータのうちのユーザの身長から音声の特徴パラメータまでのデータ群は運転者を特定するためにも使用される。
【0039】
エージェント処理部11は、これら学習項目データ292、応答データ293、担当分野情報297、ユーザ情報298、及び状況センサ部40で検出される車両の各種状況に対応するプログラム番号をプログラム選択テーブル291から選択し、そのプログラム番号に対応するエージェントプログラム290を選択して実行することで、エージェントは一般的なコミュニケーションや得意分野についてのコミュニケーションを運転者と行うようになっている。
例えば、エンジンの冷却水温度が低い場合には、エンジンの調子に合わせてエージェントが「眠そうに…」行動する。眠そうな表現として、瞼が下がった表情の画像にしたり、あくびや伸びをした後に所定の行動(お辞儀等)をしたり、最初に目をこすったり、動きや発声を通常よりもゆっくりさせたりすることで表すことができる。これらの眠そうな表現は、常に同一にするのではなく、行動回数等を学習することで適宜表現を変更する。例えば、3回に1回は目をこすり(A行動)、10回に1回はあくびをするようにし(B行動)、それ以外では瞼を下がった表情(C行動)にする。これらの変化は、行動Bや行動Cの付加プログラムを行動Aの基本プログラムに組み合わせることで実現される。そして、どの行動を組み合わせるかについては、基本となる行動Aのプログラム実行回数を学習項目として計数しておき、回数に応じて付加プログラムを組み合わせるようにする。
また、急ブレーキが踏まれたことを条件として、エージェントが「しりもち」をついたり、「たたら」を踏んだりする行動をとったり、驚き声をだすようなプログラムも規定されている。エージェントによる各行動の選択は急ブレーキに対する学習によって変化するようにし、例えば、最初の急ブレーキから3回目まで「しりもち」をつき、4回目から10回目までは「たたら」を踏み、10回目以降は「片足を一歩前にだすだけで踏ん張る」行動を取るようにし、エージェントが急ブレーキに対して段階的に慣れるようにする。そして、最後の急ブレーキから1週間の間隔があいた場合には、1段階後退するようにする。
【0040】
図4は、ナビゲーションデータ記憶装置31(図1)に格納されるデータファイルの内容を表したものである。
図4に示されるように、ナビゲーションデータ記憶装置31には経路案内等で使用される各種データファイルとして、通信地域データファイル301、描画地図データファイル302、交差点データファイル303、ノードデータファイル304、道路データファイル305、探索データファイル306、写真データファイル307が格納されるようになっている。
このナビゲーションデータ記憶装置31は、例えば、フロッピーディスク、ハードディスク、CD−ROM、光ディスク、磁気テープ、ICカード、光カード等の各種記憶媒体と、その駆動装置が使用される。
なお、ナビゲーションデータ記憶装置31は、複数種類の異なる記憶媒体と駆動装置で構成するようにしてもよい。例えば、検索データファイル46を読み書き可能な記憶媒体(例えば、フラッシュメモリ等)で、その他のファイルをCD−ROMで構成し、駆動装置としてそれらの駆動装置を用いるようにする。
【0041】
通信地域データファイル301には、通信制御装置24に接続される携帯電話や、接続せずに車内で使用される携帯電話が、車両位置において通信できる地域を表示装置27に表示したり、その通信できる地域を経路探索の際に使用するための通信地域データが、携帯電話のタイプ別に格納されている。この携帯電話のタイプ別の各通信地域データには、検索しやすいように番号が付されて管理され、その通信可能な地域は、閉曲線で囲まれる内側により表現できるので、その閉曲線を短い線分に分割してその屈曲点の位置データによって特定する。なお、通信地域データは、通信可能地を大小各種の四角形エリアに分割し、対角関係にある2点の座標データによりデータ化するようにしてもよい。
通信地域データファイル301に格納される内容は、携帯電話の使用可能な地域の拡大や縮小に伴って、更新できるのが望ましく、このために、携帯電話と通信制御装置24を使用することにより、情報提供局との間で通信を行なって、通信地域データファイル301の内容を最新のデータと更新できるように構成されている。なお、通信地域データファイル301をフロッピーディスク、ICカード等で構成し、最新のデータと書換えを行うようにしても良い。
描画地図データファイル302には、表示装置27に描画される描画地図データが格納されている。この描画地図データは、階層化された地図、例えば最上位層から日本、関東地方、東京、神田といった階層ごとの地図データが格納されている。各階層の地図データは、それぞれ地図コードが付されている。
【0042】
交差点データファイル303には、各交差点を特定する交差点番号、交差点名、交差点の座標(緯度と経度)、その交差点が始点や終点になっている道路の番号、および信号の有無などが交差点データとして格納されている。
ノードデータファイル304には、各道路における各地点の座標を指定する緯度、経度などの情報からなるノードデータが格納されている。すなわち、このノードデータは、道路上の一地点に関するデータであり、ノード間を接続するものをアークと呼ぶと、複数のノード列のそれぞれの間をアークで接続することによって道路が表現される。
道路データファイル305には、各道路を特定する道路番号、始点や終点となる交差点番号、同じ始点や終点を持つ道路の番号、道路の太さ、進入禁止等の禁止情報、後述の写真データの写真番号などが格納されている。
交差点データファイル303、ノードデータファイル304、道路データファイル305にそれぞれ格納された交差点データ、ノードデータ、道路データからなる道路網データは、経路探索に使用される。
【0043】
探索データファイル306には、経路探索により生成された経路を構成する交差点列データ、ノード列データなどが格納されている。交差点列データは、交差点名、交差点番号、その交差点の特徴的風景を写した写真番号、曲がり角、距離等の情報からなる。また、ノード列データは、そのノードの位置を表す東経、北緯などの情報からなる。
写真データファイル307には、各交差点や直進中に見える特徴的な風景等を撮影した写真が、その写真番号と対応してディジタル、アナログ、またはネガフィルムの形式で格納されている。
【0044】
図5は、状況センサ部40を構成する各種センサを表したものである。
図5に示すように状況センサ部40は、イグニッションセンサ401、車速センサ402、アクセルセンサ403、ブレーキセンサ404、サイドブレーキ検出センサ405、シフト位置検出センサ406、ウィンカー検出センサ407、ワイパー検出センサ408、ライト検出センサ409、シートベルト検出センサ410、ドア開閉検出センサ411、同乗者検出センサ412、室内温度検出センサ413、室外温度検出センサ414、燃料検出センサ415、水温検出センサ416、ABS検出センサ417、エアコンセンサ418、体重センサ419、前車間距離センサ420、後車間距離センサ421、体温センサ422、心拍数センサ423、発汗センサ424、脳波センサ425、アイトレーサー426、赤外線センサ427、傾斜センサ428、車輪速センサ429、その他のセンサ(タイヤの空気圧低下検出センサ、ベルト類のゆるみ検出センサ、窓の開閉状態センサ、クラクションセンサ、室内湿度センサ、室外湿度センサ、油温検出センサ、油圧検出センサ、操舵角センサ等)430等の車両状況や運転者状況、車内状況等を検出する各種センサを備えている。
これら各種センサは、それぞれのセンシング目的に応じた所定の位置に配置されている。
なお、これらの各センサは独立したセンサとして存在しない場合には、他のセンサ検出信号から間接的にセンシングする場合を含む。例えば、タイヤの空気圧低下検出センサは、車速センサの信号の変動により間接的に空気圧の低下を検出する。
【0045】
イグニッションセンサ401は、イグニッションのONとOFFを検出する。
車速センサ402は、例えば、スピードメータケーブルの回転角速度又は回転数を検出して車速を算出するもの等、従来より公知の車速センサを特に制限なく用いることができる。
アクセルセンサ403は、アクセルペダルの踏み込み量を検出する。
ブレーキセンサ404は、ブレーキの踏み込み量を検出したり、踏み込み力や踏む込む速度等から急ブレーキがかけられたか否かを検出する。
サイドブレーキ検出センサ405は、サイドブレーキがかけられているか否かを検出する。
シフト位置検出センサ406は、シフトレバー位置を検出する。
ウィンカー検出センサ407は、ウィンカの点滅させている方向を検出する。
ワイパー検出センサ408は、ワイパーの駆動状態(速度等)を検出する。
ライト検出センサ409は、ヘッドランプ、テールランプ、フォグランプ、ルームランプ等の各ランプの点灯状態を検出する。
シートベルト検出センサ410は、運転者、及び同乗者(補助席、後部座席)がシートベルトを着用しているか否かを検出する。着用していない場合には適宜(嫌われない程度に学習しながら)エージェントが現れ、警告、注意、コメント等(学習により程度を変更する)を行う。
【0046】
ドア開閉検出センサ411は、ドアの開閉状態を検出し、いわゆる半ドアの状態が検出された場合にはエージェントがその旨を知らせるようになっている。ドア開閉検出センサ411は、運転席ドア、助手席ドア、後部運転席側ドア、後部助手席側ドア、ハッチバック車のハッチ、ワゴン車の後部ドア等、車種に応じた各ドア毎の開閉を検出できるようになっている。また、車両後部のトランク、車両前部のボンネット、サンルーフ等の開閉部にも開閉状態を検出するドア開閉検出センサ411を配置するようにしてもよい。
同乗者検出センサ412は、助手席や後部座席に同乗者が乗っているか否かを検出するセンサで、撮像装置28で撮像された車内の画像から検出し、または、補助席等に配置された圧力センサや、体重計により検出する。
室内温度検出センサ413は室内の気温を検出し、室外温度検出センサ414は車両外の気温を検出する。
燃料検出センサ415は、ガソリン、軽油等の燃料の残量を検出する。給油時直前における過去5回分の検出値が学習項目データ292に格納され、その平均値になった場合にエージェントが給油時期であることを知らせる。
【0047】
水温検出センサ416は、冷却水の温度を検出する。イグニッションON直後において、この検出温度が低い場合には、エージェントが眠そうな行為をする場合が多い。逆に水温が高すぎる場合にはオーバーヒートする前に、エージェントが「だるそう」な行動と共にその旨を知らせる。
ABS検出センサ417は、急ブレーキによるタイヤのロックを防止し操縦性と車両安定性を確保するABSが作動したか否かを検出する。
エアコンセンサ418は、エアコンの操作状態を検出する。例えば、エアコンのON・OFF、設定温度、風量等が検出される。
体重センサ419は、運転者の体重を検出するセンサである。この体重から、または、体重と撮像装置28の画像から運転者を特定し、その運転者との関係で学習したエージェントを出現させるようにする。すなわち、特定した運転者に対してエージェントが学習した、学習項目データ292と応答データ293を使用することで、その運転者専用のエージェントを出現させるようにする。
前車間距離センサ420は車両前方の他車両や障害物との距離を検出し、後車間距離センサ421は後方の他車両や障害物との距離を検出する。
【0048】
体温センサ422、心拍数センサ423、発汗センサ424は、それぞれ運転者の体温、心拍数、発汗状態を検出するセンサで、例えば、ハンドル表面に各センサを配置し運転者の手の状態から検出する。または、体温センサ422として、赤外線検出素子を使用したサーモグラフィーにより運転者の各部の温度分布を検出するようにしても良い。
脳波センサ425は、運転者の脳波を検出するセンサで、例えばα波やβ波等を検出して運転者の覚醒状態等を調べる。
アイトレーサー426は、ユーザの視線の動きを検出し、通常運転中、車外の目的物を捜している、車内目的物をさがしている、覚醒状態等を判断する。
赤外線センサ427は、ユーザの手の動きや顔の動きを検出する。
【0049】
傾斜センサ428は、車両全体の姿勢角度を検出するセンサで、車両の進行方向の姿勢角度を検出する進行方向傾斜センサと、進行方向と直交方向の姿勢角度を検出する直交方向傾斜センサとを備えており、両センサは別々に傾斜角度を検出するようになっている。進行方向傾斜センサで検出される姿勢角は、上り坂を走行中である可能性判断や、下り坂を走行中である可能性判断等に使用される。
【0050】
車輪速センサ429は、4個の車輪のそれぞれに取り付けられており、各車輪の車輪速度(回転速度)を個別に検出するようになっている。
車輪速センサ429は、一定ピッチの歯を有して車輪と共に回転し、一定ピッチの歯が配設されたロータと、静止位置取り付けられた電磁ピックアップとを備えている。電磁ピックアップは、ロータの歯と対向配置されており、歯の通過を電磁的に検知するようになっており、このピックアップで検知される出力電圧の変化の時間間隔や、単位時間の変化数から車輪の回転速度が検出される。
なお、車輪速センサ429としては、電磁ピックアップ以外に、磁気抵抗素子ピックアップ等を使用することで車輪速を検出するようにしてもよい。
また、車輪速センサ429の検知信号から車速を算出するようにしてもよく、この場合の車輪速センサは車速センサ402として機能する。
【0051】
次に、以上のように構成された本実施形態の動作について説明する。
図6はエージェントによるメインの処理を表したフローチャート、図7はユーザ登録設定処理を表したフローチャート、図8〜図10は処理の各段階における表示装置27の表示画面を表したものである。
エージェント処理部11は、イグニッションがONされたことがイグニッションセンサ401で検出されると、まず最初に初期設定を行う(図6;ステップ10)。初期設定としては、RAMのクリア、各処理用のワークエリアをRAMに設定、プログラム選択テーブル291のRAMへのロード等の初期設定処理が行われる。なお、本実施形態のエージェント処理では、その処理の開始をイグニッションONとしたが、例えばドア開閉検出センサ411によりいずれかのドアの開閉が検出された場合に処理を開始するようにしてもよい。
【0052】
次に、エージェント処理部11は、主としてユーザ情報298に格納された各種データに基づいてユーザ(運転者)の特定(認識)を行う(ステップ11)。すなわち、エージェント処理部11は、ユーザから先に挨拶がかけられたときにはその声を分析してユーザを特定したり、撮像した画像を分析することでユーザを特定したり、状況センサ部40の体重センサで検出した体重からユーザを特定したり、設定されたシート位置やルームミラーの角度からユーザを特定したりする。
そしてエージェント処理部11は、図8(a)のユーザの認識画面に示されるように、登録済みの全ユーザの名前を、ユーザ情報298から読み出して画面表示するとともに、特定したユーザ名を点滅させる。
【0053】
なお、特定した運転者については、後述のエージェントの処理とは別個に、運転者の確認を行うための特別のコミュニケーションプログラムが起動され、ユーザ認識を担当するエージェントエージェントを表示装置27(ユーザの認識画面)に表示するとともに、このエージェントの音声によって例えば、「○○さんですか?」等の問い合わせが行われ、音声認識部142による音声認識プログラムが自動起動されてユーザの音声による回答分析等によりユーザの最終確認が行われるようにしてもよい。
【0054】
図8(a)に示したユーザの認識画面を表示した後、エージェント処理部11は、音声認識及び入力装置22の操作内容からユーザの応答として新規登録キーが表示画面で選択(タッチパネルの該当個所の押下、入力装置22により選択)または、「新規登録」と音声で発声されたか否かを確認する(ステップ12)。
【0055】
ユーザによって新規登録が選択されると(ステップ12;Y)、エージェント処理部11は新規ユーザの登録設定処理を行う(ステップ13)。
図7は、エージェント処理部11によるユーザ登録処理動作を表したフローチャートであり、図10は処理の各段階における表示装置27の表示画面を表したものである。
エージェント処理部11は、まず最初に表示装置27にユーザ登録画面(図10(a))を表示し、ユーザの名前を取得する(ステップ131)。
このユーザ登録画面においてユーザは、自己の指名の読みを入力し、変換キーを選択(押下)することで仮名漢字変換する。変換された漢字は画面の上部(名前を入力)右側に表示される。名前の入力が終了するとユーザは登録キーを選択することで、名前の設定登録を行う。
【0056】
ユーザ登録画面で名前の入力後に登録キーが選択されるとエージェント処理部11は、図10(b)に示されるように、表示装置27に年齢選択画面を表示し、ユーザの年齢を取得する(ステップ132)。
この年齢選択画面に表示されたテンキー(0〜9のキー)とその左側に配置された10代キー(10+、20+、〜60+のキー)を使用して、ユーザは自己の年齢を入力する。年齢の入力は、例えば、36歳の場合、3と6の順にテンキーを指定してもよく、30+キーを指定した後にテンキーで6を指定してもよい。選択された年齢には上部に「36歳」と表示され、確認した後にユーザは登録キーを選択することで年齢の選択を行う。
【0057】
次にエージェント処理部11は、図10(c)に示されるように性別表示画面を表示装置27に表示し、ユーザの性別を取得する(ステップ133)。ユーザは性別表示画面に表示された男キーまたは女キーを選択した後に登録キーを選択することで性別の選択を行う。
その後エージェント処理部11は、図10(d)に示されるように趣味選択画面を表示装置27に表示し、ユーザの趣味を取得する(ステップ134)。この趣味選択画面では、複数項目の選択が可能になっており、ユーザは表示画面のタッチパネル上にふれると該当項目が反転表示するようになっている。ユーザは、自己の趣味に該当する項目箇所をすべて反転表示させた後に、登録キーを選択することで趣味の登録を行う。
【0058】
さらにエージェント処理部11は、図10(e)に示されるように、職業選択画面を表示装置27に表示し、ユーザの職業を取得する(ステップ135)。ユーザは、この職業選択画面に表示された各種職業のなかから該当する職業を選択した後に登録キーを選択することで職業の選択を行う。
次に、エージェント処理部11は、図10(f)に示されるように情報チャンネル選択画面を表示装置27を表示し、ユーザの情報チャンネルを取得する(ステップ136)。この情報チャンネル選択画面では、複数項目の選択が可能になっており、ユーザは表示画面のタッチパネル上にふれることで該当項目を反転表示させ、その後登録キーにふれることで提供を希望する情報提供チャンネルを選択する。
【0059】
以上の各画面表示とユーザの選択が終了するとエージェント処理部11は、ステップ131からステップ136で取得したユーザの名前等の各情報を、図3に例示する表のように、エージェントデータ記憶装置29bのユーザ情報298に格納し(ステップ137)、図6のエージェント処理にリターンする。
なお、図3のユーザ情報には特に表示されていないが、ユーザの名前情報としては、「エクォス 太郎」等のユーザ氏名の表記に対する付属情報として、エージェントがユーザの名前を呼ぶ場合に必要とされる表音情報、例えば、「えくぉす たろう」といった読み情報が格納されている。この表音情報は図10(a)のユーザ登録画面図において、ユーザ名(表記)を入力した後に表示される読み入力画面からユーザが設定し、この設定にしたがってエージェント処理部11が取得する。エージェント処理部11は取得した表音表示に従って、音声合成することでユーザ名のエージェントに発声させることになる。
【0060】
ユーザの認識が行われ新規登録でない場合(ステップ12;Y)、及びユーザ登録設定処理が終了した後、エージェント処理部11は、車両の現在状況を把握する(ステップ14)。即ちエージェント処理部11は、状況センサ部40の各センサから状況情報処理部15に供給される検出値や、撮像装置28で撮像した画像の処理結果や、現在位置検出装置21で検出した車両の現在位置、全体処理部が有している時計から現在の日時等のデータを取得して、RAMの所定エリアに格納し、格納したデータから現在状況の把握を行う。
例えば、水温検出センサ416で検出された冷却水の温度がt1である場合、エージェント処理部11は、この温度t1をRAMに格納すると共に、t1が所定の閾値t2以下であれば、車両の現在の状態として冷却水温は低い状態であると把握する。
またエージェント処理部11は、情報提供チャンネル通信部30による各情報提供チャンネルの情報受信状況や、受信した情報の上方提供チャンネル処理部16による分類結果を現在状況として把握する。
【0061】
エージェント処理部11は、現在の状況を把握すると、把握した状況からイグニッションキー(IG)がオフされたか否かを確認し(ステップ15)、オフされた場合(;Y)処理を終了する。
一方、イグニッションキーがオフされていなければ(ステップ15;N)、エージェント処理部11は、表示装置27に図8(b)に例示するエージェントシステム選択画面でユーザが選択するキーを監視し、「目的地を探す」キーが選択された場合(ステップ16;Y)、図8(c)に例示するエージェントの指名画面を表示する。このエージェントの指名画面は、出現されるエージェントをユーザーの意志によって指名するための画面である。
このエージェントの指名画面では、図2に示すエージェントリストデータ296に格納されているエージェントの名前、年齢、職業、趣味、性格、担当分野(得意分野)等のエージェントプロフィール(エージェント情報)が表示され、ユーザによって「次→」キーが選択された場合には、次のエージェントについてのエージェントプロフィールが表示される。エージェント指名画面に表示されるエージェントの表示順は、認識されたユーザがよく出現させている(よく選択している)エージェントから順番に表示する。
このエージェントの指名画面により、ユーザは自分の好みに合った(フィーリングの合う)エージェントを指名することができる。
【0062】
なお、このエージェントの指名画面において表示されるエージェントの順番として、ユーザ意志により選択された回数順にエージェントを表示する以外に、エージェントリストデータ296に格納されているエージェントの順番に表示するようにしてもよい。
また、ステップ11で認識し又はステップ13で登録されたユーザに関して格納されたユーザ情報298(エージェント処理部11が認識している運転者に対するユーザ情報)と、エージェントリストデータ296とで共通する項目数が最も多いエージェントから順番に表示するようにしてもよい。その際、各項目毎に重み付けをするようにしてもよい。例えば、趣味が一致する場合には1趣味当たり3点、職業が一致する場合には1点、性別が一致する場合には0.3点、年齢が一致する場合には0.5点というように、各項目毎に点数差を設けるようにしてもよい。
【0063】
図8(c)に例示するエージェントの指名画面において、ユーザが「指名しない」キーを選択した場合(ステップ17;N)、エージェント処理部11は、図8(d)に例示するように、ユーザに車を使用する目的を選択してもらうための目的選択画面を表示装置27に表示する(ステップ18)。この目的選択画面には、図8(d)に例示されるように「ドライブ」「食事」「買い物」「旅行」等の使用目的が記載されており、ユーザは該当する項目に触れることで反転表示(図面に示すように太枠表示でもよい)させた後に登録キーを選択することで、車の使用目的を選択する。
エージェント処理部11は、この目的選択画面でユーザが選択した使用目的を取得し、ナビゲーション処理部10を介してナビゲーションデータ記憶装置31の所定エリアに格納する。
【0064】
目的の選択が終了すると、次にエージェント処理部11は、図8(e)に例示するように目的地選択画面を表示装置27に表示する(ステップ19)。この目的地選択画面には、図8(d)の目的地選択画面でユーザが選択した走行目的に対応した更に詳細な目的を表示する。図8(e)には、図8(d)の目的選択画面で「ドライブ」が選択された場合の画面で、ドライブの更に詳細な目的として、「海」「川」「公園」等が表示される。また、図8(d)の目的選択画面で「買い物」が選択された場合には、「デパート」「スーパー」「コンビニ」「本」「ハンバーガー」等の選択キーが表示される。
この目的地選択画面においてユーザは1つ以上の項目を選択することができ、選択された目的地はナビゲーション処理部10を介してナビゲーションデータ記憶装置31に格納される。
【0065】
次にエージェント処理部11は、図8(f)に例示するように、目的地設定画面を表示装置27に表示する(ステップ20)。この目的地設定画面では、目的地選択画面で選択された目的、目的地選択画面で選択された目的地、エージェントデータ記憶装置29bに格納されているユーザ情報などから、該当する店、施設、場所などの名称、住所、電話番号などを表示する。図8(f)には、例えば、目的「ドライブ」、目的地「公園」が選択され、現在地が都内の所定地点で、さらにユーザが26歳の男性であとした場合の、目的地設定画面であり、「26歳の男性が都内からドライブする場合に適した公園」といった条件を満たす公園として「明治公園」「日比谷公園」「北の丸公園」等の各目的地名が表示されている。
ユーザは、この目的地設定画面に表示された項目を選択(該当項目に触れた後に登録キーを選択)することができ、選択された目的地がナビゲーション処理部10を介してナビゲーションデータ記憶装置31に格納され、ナビゲーション及びエージェントによる案内先の目的地として設定される。
【0066】
次にエージェント処理部11は、目的地選択画面で選択された目的(ステップ18)、目的地選択画面で選択された目的地(ステップ19)、目的地設定画面で設定された目的地(ステップ20)、及びエージェントデータ記憶装置29bに格納されているユーザ情報298をユーザの指向として取得し、このユーザの指向を検索条件として、目的地まで案内するのに最適なエージェントを、エージェントリストデータ296から選択して推薦する(ステップ21)。
推薦するエージェントを選択する際には、エージェントリストデータのうちの、エージェントに設定された趣味と、案内の得意分野が優先され、最も多くの項目が一致しているエージェントが選択される。なお、得意分野の一致項目数が同一のエージェントが複数存在する場合には、趣味の一致数が多いエージェントを選択するが、逆に得意分野の一致数が多いエージェントを選択するようにしてもよい。
このように、ユーザが特に希望するエージェントを指名しない場合(ステップ17;N)に、エージェント処理部11がユーザに関する情報や走行目的等の車両走行に関する情報等から、ユーザの指向に合致した適切なエージェントを選択してユーザに推薦してくれるので、複数のエージェントの中から各エージェントのプロフィールを確認することなく、走行目的や好みといった指向に合ったエージェントによる走行案内を受けたりコミュニケーションを行ったりすることができる。また、本実施形態によるエージェント装置になれていないユーザであってもユーザの指向に合ったエージェントが紹介されるので、エージェントとのコミュニケーションをする際の抵抗感を少なくすることができる。
エージェント処理部11によるエージェントの推薦は、図9(g)に例示されるように、ユーザ情報やユーザの選択項目に従って選択したエージェントの容姿を表す画像と当該エージェントのプロフィールを表すエージェント推薦画面を一定時間表示装置27に表示することで行われる。なお、エージェントの推薦画面を表示する一定時間として、本実施形態では10秒間が設定されているが、5秒、7秒等の他の時間n秒でもよく、また、ユーザが時間設定、変更できるようにしてもよい。
【0067】
一方、図8(c)に例示するエージェントの指名画面において、ユーザが「決定キー」を選択した場合(ステップ17;Y)、エージェント処理部111は、目的地選択(ステップ22)、目的地選択(ステップ23)、及び目的地設定(ステップ24)を行う。これらステップ22〜ステップ23においてエージェント処理部11は、図8(d)の目的選択画面、(e)の目的地選択画面、(f)の目的地設定画面の各画面に、図8(c)のエージェントの指名画面で選択されたエージェントを併せて表示すると共に、必要に応じてエージェントがその画面においてユーザがすべき操作説明をするようにし、それ以外はステップ18〜ステップ20と同様に処理を行う。
【0068】
次にエージェント処理部11は、ステップ20の目的地設定がされた場合にはステップ21のエージェント推薦画面を一定時間表示した後に、ステップ21の目的地設定がされた場合にはその後直ちに、図9(h)に例示するエージェント設定画面を表示装置に表示して、目的地と指名(ステップ17)又は推薦(ステップ21)されたエージェントとをユーザに伝える(ステップ25)。その際、エージェント設定画面と共に、又はエージェント設定画面に代えて、指名又は推薦されたエージェントが音声により目的地とエージェントを伝えるようにしてもよい。
このエージェント設定画面において、目的地の名称部分(図9(h)の例示では「北の丸公園」)には、ステップ20又はステップ24で設定された目的地の名称を表示し、エージェントの指名欄(図9(h)の例示では「*****」で表示)にはステップ21でエージェント処理部11がユーザに推薦したエージェントの氏名、又はステップ17でユーザが決定したエージェントの氏名を表示する。
このエージェント設定画面において、ユーザが「いいえ」キーを選択した場合(ステップ25;N)、エージェント処理部11はステップ17に戻り、エージェント指名からやり直す。
【0069】
一方、ユーザが「はい」キーを選択した場合(ステップ25;Y)、エージェント処理部11は、設定されたエージェントによる音声と画像による案内を開始する(ステップ26)。すなわち、エージェント処理部11は、定されたエージェントを車両内に出現させ、ステップ20で設定した目的地の情報や、又はまでの経路周辺場合の情報を音声で案内する。また、ユーザが指定した走行目的やエージェントの得意分野(担当分野)に応じたアシストや、ユーザとのコミュニケーションを、把握した車両や車両外の状況等に応じたエージェントの処理として行われる。
このエージェントによる案内やコミュニケーションの過程において、情報提供チャンネル通信部30や通信制御装置24等の通信システムを使用することで、各種情報の更新ができ、交通情報、お店のセール情報なども適宜ユーザに提供することができる。
そしてエージェント処理部11は、ユーザとのコミュニケーション等において得られる所定のデータや、案内終了時、目的地到着時に走行データ、時間などをエージェントの学習のための情報として学習項目データ292や応答データ293に格納し(ステップ27)、ステップ14に戻る。これら学習のためのデータは、各ユーザとエージェントとの対応毎に、学習項目データ292や応答データ293に格納されることにより蓄積される。
【0070】
一方、ステップ16において、図8(b)に例示するエージェントシステム選択画面で「情報提供チャンネル」キーが選択された場合(ステップ16;N)、エージェント処理部11は、ユーザ意志による情報提供処理を行う。
すなわち、エージェント処理部11は、指定可能な全情報チャンネルのうち、ユーザ登録設定処理13の情報チャンネル選択(ステップ136)で選択された情報チャンネルをユーザ情報298から読み出して、チャンネル選択画面を表示装置27に表示する(ステップ28)。
図9(i)は、チャンネル選択画面を例示したもので、この例示ではユーザが選択した情報チャンネルに対応して「天気予報」キー、「ニュース」キー、「交通情報」キーが画面表示されている。
このチャンネル選択画面に表示された各情報チャンネルキーのなかからユーザは、所定キーを反転表示させた後に登録キーを選択することで現在知りたい情報チャンネルを選択する(ステップ29)。
エージェント処理部1111は、この選択されたチャンネルを取得し、該当チャンネルを担当するエージェントを出現させると共に、情報チャンネル通信部(RAM)29aに格納されている該当チャンネルの情報を担当エージェントの音声により提供する(ステップ30)。その際、画像情報や文字情報が情報チャンネル通信部(RAM)29aに格納されている場合には、音声による情報の提供に加えて表示装置に画像情報や文字情報を表示する。例えば、野球の試合結果に関する情報チャンネルの場合には、野球担当のエージェントが試合結果を音声で伝える他に、セリーグ、パリーグの各対戦結果(対戦球団名と得点、勝利投手、負け投手等)を表示する。
【0071】
選択された情報についての提供が終了した後、エージェント処理部11は、情報提供を終了するか否かについて、表示画面及び/又は音声によりユーザに確認し情報提供の継続が選択された場合には(ステップ31;N)、ステップ28に戻って再度チャンネル選択画面を表示し、次に選択されたチャンネルの情報を引き続き提供する。
一方、情報提供の終了が選択された場合(ステップ31;Y)、エージェント処理部11はユーザ意志による情報提供処理を終了し、ステップ14に戻って処理を継続する。
以上の、ユーザ意志による情報提供処理では、情報提供チャンネル通信部30と情報提供チャンネル処理部16によって、所定のセンタ等から定期的に各チャンネル毎の新情報を受信し更新するようになっているので、常に最新の情報をユーザに提供することができる。
【0072】
次に、情報提供チャンネル通信部30による通信情報受信処理について説明する。この通信情報受信処理は、ユーザ意志による情報提供希望に基づく処理(ステップ16;N、ステップ28〜ステップ31)とは別に行われ、定期的に情報チャンネルの情報を受信し、受信した情報チャンネルがユーザにより選択されている場合に自動的に新着情報としてユーザに案内を行う処理である。
図11はこの通信情報受信処理における動作を表したフローチャートである。
情報提供チャンネル処理部16は、情報センタから情報が送信される時間(情報受信時間)になったか否かを監視している(ステップ51)。情報提供チャンネル処理部16は、情報受信時間になると(ステップ51;Y)情報センタからFM多重放送等を利用して送信される各情報チャンネルの通信情報(新着情報)を情報提供チャンネル通信部30を介して受信する(ステップ52)。
【0073】
そして、情報提供チャンネル処理部16は、受信した通信情報の分類と、格納を行う(ステップ53)。すなわち、情報提供チャンネル処理部16は、受信した情報チャンネルや、情報内容から通信情報を分類して担当分野を決めるとともに、必要な情報を情報提供チャンネル記憶部29の各チャンネル毎のエリアに格納するようになっている。必要な情報か否かについては、情報提供チャンネル処理部16は、全ユーザ情報を確認し、図10(f)で例示した情報チャンネル選択画面において、いずれかのユーザによって選択されている情報チャンネルに対応する通信情報が必要な情報として格納される。
また情報提供チャンネル処理部16は、受信した通信情報のうち、天気予報やニュース等のトピックス的に受信する通信情報を除き、担当分野のエージェントが自己の担当分野としてコミュニケーションに使用可能な情報、例えば、パソコンの新規モデル情報や、秋葉原の新規店舗情報等の各種担当分野情報をエージェント処理部11に供給し、エージェント処理部11は供給された情報をエージェントデータ記憶装置の所定エリアに格納する。
また、情報提供チャンネル処理部16は、受信した通信情報(新着情報)を情報提供チャンネル通信部(RAM)29aに格納する際に、各情報チャンネル毎の記憶容量の確認と、格納済み情報の保存有効期限の確認を行う。すなわち、情報提供チャンネル処理部16は、新着情報を格納した場合に該当情報チャンネルの記憶容量を越える場合、その表示チャンネル用エリアに格納されてる古い情報から消去する。また、情報の有効性の期日が予め設定されている天気予報やニュース等の短期間情報については、設定されている期間、期日を経過した時点で消去する。
【0074】
情報提供チャンネル処理部16による通信情報の分類と格納処理の後、エージェント処理部11は、現在のユーザ(ステップ11で認識したユーザ、又はステップ13で新規登録されたユーザ)についてのユーザ情報298を確認し、当該ユーザが選択した情報チャンネルの新着情報があるか否かを判断する(ステップ54)。
ユーザが選択した情報チャンネルの新着情報がある場合(ステップ54;Y)、エージェント処理部11は、図12(a)に例示する新着情報画面(ユーザ選択)を表示装置27に表示する。この新着情報画面に示されるようにエージェント処理部11は、ユーザが選択した情報チャンネルをユーザ情報298から読み出して対応するチャンネルキーを表示すると共に、新着情報があるチャンネルキーを点滅表示することで、どの情報チャンネルの新着情報かユーザが確認し易くなっている。図12(a)の例示では、ユーザが天気予報、トレンド情報、及び交通情報の各情報チャンネルを選択している状態で、新着情報として「交通情報」キーが点滅表示されている。
そしてエージェント処理部11は、この新着情報画面(ユーザ選択)中に、新着情報を担当するエージェントを出現させ、新着情報があることを音声で紹介する。例えば、図12(a)に示した例では、交通情報を担当するエージェントが画面に現れ、「新しい交通情報を受信しましたが、確認しますか?」と音声で紹介する。
【0075】
一方、ユーザが選択した情報チャンネルについての新着情報が無い場合(ステップ54;N)、エージェント処理部11はユーザ情報298に格納されているユーザの趣味に関連する新着情報があるかいなかを確認する(ステップ54)。
ユーザの趣味に関連する新着情報も存在しない場合にはメインルーチンにリターンし(ステップ56;N)、存在する場合には(ステップ56;Y)、図12(b)に例示する新着画面(お奨め)を表示装置27に表示する(ステップ57)。この新着画面(お奨め)では、ユーザが選択した表示チャンネルの他に、ユーザ趣味に一致した「お奨め情報」キーを表示すると共に、新着情報であることを示すために点滅表示させる。図12(b)の例示では、ユーザの趣味「ゴルフ」に合致する情報としてマスターズに関する情報が提供可能になっている。
この新着情報画面(お奨め)においても、担当するエージェントを画面に出現させて、「○○に関するお奨め情報を受信しましたが、確認しますか?」と音声で紹介するようにしてもよい。
【0076】
なお、エージェント処理部11は、他のエージェントが経路案内中で、かつ、交差点等の進路変更地点についての音声による案内を出力中である場合、及び/又は、進路変更地点についての音声案内地点から手前所定距離以内である場合、その案内が終了するまでの間、新着情報画面(ユーザ選択、又はお奨め)の表示と音声による紹介を中断しておき、案内終了後に表示と紹介を行うようにしてもよい。このように、経路案内を優先させることで、進路案内の認識率の低下を防ぐことができる。
【0077】
ユーザは、表示装置27に表示された新着情報画面(ユーザ選択、又はお奨め)に表示された各情報チャンネルキーのなかから、所定キーを反転表示させた後に登録キーを選択することで現在知りたい情報チャンネルを選択する(ステップ58)。なお、ユーザは新着情報やお奨め情報以外の情報チャンネルキーを選択することも可能である。
情報チャンネルキー、ユーザの音声により選択することも可能であり、エージェント処理部11はマイク26で集音した音声を音声認識部142で認識し、認識結果の確認をするコールバックを画面に表示されているエージェント(新着情報を担当するエージェント)が行うことでエージェントとのコミュニケーションが行われる。
なお、新着情報として点滅している情報チャンネル以外の情報チャンネルがユーザの音声で選択された場合にも、そのチャンネルの担当としてすでに表示されているエージェントが引き続きコールバックをし、OKであれば(ユーザが承認の音声「OK」「YES」「はい」「そう」「いい」等を発声した場合)、選択された情報チャンネルを担当する別のエージェントが交代で現れて対応する。
エージェント処理部11は、この選択されたチャンネルを取得し、該当チャンネルを担当するエージェントを表示すると共に、情報チャンネル通信部(RAM)29aに格納されている該当チャンネルの情報を担当エージェントの音声により提供する(ステップ59)。その際、画像情報や文字情報が情報チャンネル通信部(RAM)29aに格納されている場合には、音声による情報の提供に加えて表示装置に画像情報や文字情報を表示する。例えば、交通情報であれば受信した文字情報「環状8号線○○方面、事故により5kmの渋滞」を表示する。
【0078】
このように、予め選択した情報チャンネルについて新着情報を受信した場合に自動的に新着情報の告知が行われるので、ユーザは新着情報があるか否かを意識したり、確認するための特別な操作をしたりする必要がなくなる。また、各情報チャンネルを担当するエージェントが新着情報の紹介をしてくれるので、色々な個性を持ったエージェントとのコミュニケーションをとることができ、より親しみが増すシステムとなる。
また、ユーザが選択した情報でなくても、ユーザの指向(趣味)に合致したお奨め情報に関連する新着情報を紹介するので、ユーザの知りたい情報を適切に提供することができる。
【0079】
【発明の効果】
以上説明したように、本発明のエージェント装置によれば、ユーザの指向により適合した(気の合う)エージェントを自動的に選択することが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態としてのエージェント装置の構成を示すブロック図である。
【図2】ナビゲーションデータ記憶装置に格納されるエージェントリストデータの格納内容を概念的に表した説明図である。
【図3】ナビゲーションデータ記憶装置に格納されるユーザ情報の格納内容を概念的に表した説明図である。
【図4】ナビゲーションデータ記憶装置に格納されるデータファイルの内容を概念的に表した説明図である。
【図5】状況センサ部を構成する各種センサを表した説明図である。
【図6】本実施形態によるエージェント処理の内容を表したフローチャートである。
【図7】ユーザ登録設定処理を表したフローチャートである。
【図8】エージェント処理の各段階における表示画面の一部を表した説明図である。
【図9】エージェント処理の各段階における表示画面の他の一部を表した説明図である。
【図10】エージェント処理の各段階における表示画面の残りの一部を表した説明図である。
【図11】本実施形態による通信情報受信処理の内容を表したフローチャートである。
【図12】通信情報受信処理において表示される新着情報画面を表した説明図である。
【符号の説明】
1 全体処理部
10 ナビゲーション処理部
11 エージェント処理部
12 I/F部
13 画像処理部
14 音声制御部
15 状況情報処理部
16 情報提供チャンネル処理部
21 現在位置検出装置
22 入力装置
23 記憶媒体駆動装置
24 通信制御装置
25 音声出力装置
26 マイク
27 表示装置
28 撮像装置
29a 情報提供チャンネル通信部(RAM)
29b エージェントデータ記憶装置
296 エージェントリストデータ
297 担当分野情報
298 ユーザ情報
30 情報提供チャンネル通信部
31 ナビゲーションデータ記憶装置
40 状況センサ部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an agent device, for example, an agent device having a plurality of agents.
[0002]
[Prior art]
Japanese Laid-Open Patent Publication No. 11-37766 proposes an agent device that causes an agent to appear in a vehicle, determines the state of the vehicle, and communicates or actively communicates with a user.
According to this agent device, for example, when a belly sound is detected at noon, the agent proposes an action that can be processed by the agent, such as “Would you like to guide the cafeteria?”.
And about the agent made to appear in a vehicle, it is possible to select the appearance and the sound according to the user's preference.
[0003]
[Problems to be solved by the invention]
Although it is possible to select the appearance and voice of the agent appearing in the vehicle by the conventional agent device, once these are determined, only the agent having the same appearance appears. For example, if a female secretary is selected as the agent's appearance, one of the agents communicates with the user, so the same appearance appears regardless of whether he or she goes to a customer or baseball game. It was necessary to communicate with the agent, and it was not possible to communicate with multiple agents according to the situation such as the driving purpose.
For this reason, in the conventional agent device, even if communication is performed according to newly acquired information, all communication with the same agent is performed.
Further, the appearance of a conventional agent is changed by changing its appearance or growing, but only one agent learning data is stored and stored for each user. Communication was performed using learning data. For this reason, agents that communicate with the same user are agents of the same (pseudo) personality, and cannot communicate with a plurality of agents having different pseudo personalities.
Furthermore, in the conventional agent device, since one agent substantially corresponds, the orientation of the user due to hobbies, occupations, etc. is not reflected in the agent appearance.
[0004]
  The present inventionIsAutomatically select the agent that suits the user's orientation.ChooseAn agent device capable ofEyesTarget.
[0005]
[Means for Solving the Problems]
  In the invention described in claim 1,Information acquisition means for acquiring information of a plurality of fields by communication, and information for each field of information acquired by the information acquisition meansAgentButMultipleStored storage means;A situation judging means for judging the situation of the vehicle;Depending on the user's input operation or user's response to the agent's inquiryDirection acquisition means for acquiring user orientation, and user orientation acquired by the orientation acquisition meansAnd a plurality of situations stored in the storage means according to the situation judged by the situation judgment meansAgentAgent from insidechooseSelect toMeans,Information providing means for providing the user with information on a field corresponding to the selected agent by the agent selected by the selecting means;An agent device is provided.
  Claim2In the described invention, a navigation unit that performs route guidance to a destination is provided, and the direction acquisition unit acquires a direction from contents selected by a user in a process of setting the destination in the navigation unit. Claim1The agent device described in 1. is provided.
  In invention of Claim 3,The agent device according to claim 1, wherein the orientation acquisition unit acquires a travel purpose, a destination, and user information as a user orientation.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of a destination setting device and an agent device according to the present invention will be described in detail with reference to FIGS.
(1) Outline of the embodiment
In the agent device of this embodiment, a plurality of agents have different pseudo personalities. Therefore, determine the necessary data according to the agent's specialty area (field of responsibility) such as personal computers and Akihabara, and agents who are familiar with the restaurant. (Data such as the latest model personal computer information and Akihabara map information) is stored in the field database for each agent. Communication information such as weather forecasts and traffic information transmitted several times a day from FM multiplex broadcasting or a specific information provider is received, classified into the field of responsibility, and stored in the field of responsibility database. The field in charge of communication information is determined in advance for each channel that receives the communication information (in the case of a channel other than a specific channel, it is assigned to any one of the channels), and the assigned agent is assigned to each channel. It has been. When new communication information is received, agents in the assigned field to be classified appear as necessary, and guidance and explanation of the communication information are performed.
[0007]
In addition, the user can designate an agent that suits his / her preference and orientation from the personality and field of expertise of each agent, and the designated agent can assist navigation. The designated agent communicates with the user in route guidance etc. while giving detailed guidance and explanation on his / her field of expertise.
When the user does not specify an agent, the user's orientation is determined from the travel purpose (date, shopping, etc.), the destination, user information, etc., and an agent suitable for the user's orientation is recommended.
[0008]
The learning result, which is one element that determines the pseudo personality of each agent, is stored (saved) for each correspondence between each agent and each user, and when determining the action of the corresponding agent, A plurality of agents with different pseudo personalities are realized by using the learning results for each correspondence with the user.
[0009]
In the agent device according to the present embodiment, various situations of the vehicle are determined based on outputs from various sensors in the vehicle (situation determination means), the determination status, learning results corresponding to the user and the agent, and reception. The agent's action is determined based on information and field information such as the field in charge (action determining means), and the agent is made to perform this action (agent control means).
[0010]
Note that the agent in the present embodiment is an anthropomorphic agent, and an image thereof (planar image, stereoscopic image such as holography) appears in the vehicle by the image display device. This agent process involves judging and learning the situation of the vehicle including the vehicle itself, the passenger, the oncoming vehicle, etc. (including not only the situation learning but also the driver's response and reaction), and the vehicle situation at each time point. Based on the learning results obtained so far, the agent responds to the driver and the vehicle with various variations (action = action and voice). As a result, the driver can freely call and communicate (communicate) a plurality of agents in the vehicle, and the environment in the vehicle can be made comfortable.
Here, the anthropomorphic agent in the present embodiment has the same identity as a specific human being, a creature, a cartoon character, etc., and the creature with that identity maintains the identity and continuity. Outputs the trend (response by action and voice). In addition, identity and continuity are expressed as a personality with a unique personality, and can be regarded as a kind of pseudo-life form in electronic equipment. The agent of the present embodiment that appears in the vehicle is a subject that is pseudo-personalized (virtual personalized) that is determined in the same manner as a human. Therefore, even in the same vehicle situation, the content of communication differs depending on the past learning content. Sometimes, there is a judgment error in a range that is not related to the vehicle, and an unnecessary (due) response may be caused by this judgment error. Based on the driver's response, it is determined whether or not there is a determination error, and learning is performed.
[0011]
(2) Details of the embodiment
FIG. 1 is a block diagram showing the configuration of the agent device in this embodiment.
In the present embodiment, an overall processing unit 1 that controls the entire communication function by the agent is provided. The overall processing unit 1 searches for a route to a set destination and provides route guidance or the like by voice or image display, an agent processing unit 11, an I / O for the navigation processing unit 10 and the agent processing unit 11. F section 12, image processing section 13 for processing image output and input image such as agent image and map image, voice for agent and voice for route guidance, etc. Information provided from a voice control unit 14 that is used and recognized, a situation information processing unit 15 that processes detection data of various situations relating to vehicles and drivers, and a center that provides various information such as weather forecasts and traffic information The information providing channel processing unit 16 for processing the above, and other units such as a clock (not shown).
[0012]
The agent processing unit 11 causes an agent having a predetermined appearance to appear in the vehicle. Also, appropriate conversation and control are performed by learning the situation of the vehicle and past responses by the driver (user). In the agent device according to the present embodiment, the situation of the vehicle, the inside of the vehicle, and the situation outside the vehicle are determined, and the processing corresponding to the determination result is performed by the agent designated by the user or the agent in the field in charge.
[0013]
The navigation processing unit 10 and the agent processing unit 11 are a CPU (central processing unit) that controls data processing and operation of each unit, and a ROM, RAM, and timer connected to the CPU via a bus line such as a data bus or a control bus. Etc. Both the processing units 10 and 11 are connected to a network, and can acquire processing data of each other. For example, the agent processing unit 11 uses the current position data of the vehicle specified by the navigation processing unit 10, the travel route to the destination searched by the navigation processing unit 10, and the navigation data stored in the navigation data storage device 31. Data etc. can be acquired.
The ROM is a read-only memory in which various data and programs for controlling by the CPU are stored in advance, and the RAM is a random access memory used by the CPU as a working memory.
[0014]
In the navigation processing unit 10 and the agent processing unit 11 of the present embodiment, the CPU reads various programs stored in the ROM and executes various processes. The CPU reads a computer program from an external storage medium set in the storage medium driving device 23 and stores (installs) the agent data storage device 29b, the navigation data storage device 31, and other storage devices such as a hard disk (not shown). In addition, a necessary program or the like may be read from the storage device into the RAM and executed. Further, a necessary program or the like may be directly read from the recording medium driving device 23 into the RAM and executed.
[0015]
The navigation processing unit 10 is connected to the current position detection device 21 and the navigation data storage device 31, and the agent processing unit 11 is connected to the agent data storage device 29 b of the agent database 29.
The I / F unit 12 includes an input device 22, a storage medium driving device 23, a communication control device 24, and other devices (not shown) (window opening / closing device, air conditioner air volume adjusting device, audio volume adjusting device, headlamp on / off device, Wiper drive control device etc.) are connected.
A display device 27 and an imaging device 28 are connected to the image processing unit 13.
The voice controller 14 includes a voice synthesizer 141 and a voice recognizer 142. The voice synthesizer 141 is connected to the voice output device 25. The voice recognizer 142 takes in voice from the driver. A microphone 26 functioning as a means is connected.
A status sensor unit 40 is connected to the status information processing unit 15.
[0016]
The information providing channel processing unit 16 is connected to the information providing channel storage unit 29 a of the agent database 29 and the information providing channel communication unit 30.
The information providing channel processing unit 16 receives the various communication information transmitted from the information center by controlling the information providing channel communication unit 30. In other words, the information center regularly transmits various communication information such as weather forecasts, news, sports, and other city information several times a day using FM multiplex broadcasting. The channel processing unit 16 monitors the time at which information is transmitted, and receives the communication information by controlling the information providing channel communication unit 30 at the corresponding time. As for information reception for a specific information channel, information transmitted by transmitting a transmission request to an information center or the like is received.
The information providing channel processing unit 16 classifies the communication information from the received channel and contents to determine the field in charge, and if it is communication information that needs to inform the user that it has been received, It is stored in the provided channel storage unit 29a.
Further, the information providing channel processing unit 16 excludes communication information received in terms of topics such as weather forecasts and news from the received communication information, and information that can be used for communication by the agent in the field in charge as its own field, for example, In addition, various types of field information such as new model information of personal computers and new store information of Akihabara are supplied to the agent processing unit 11.
In this embodiment, the information providing channel communication unit 30 is provided independently. However, the communication control device 24 may have the function of the information providing channel communication unit 30.
[0017]
The current position detection device 21 is for detecting the absolute position (by latitude and longitude) of the vehicle, and includes a GPS (Global Positioning System) reception device 211 that measures the position of the vehicle using an artificial satellite, Various current position search means such as a sensor 212, a steering angle sensor 213, a distance sensor 214, and a beacon receiving device 215 that receives position information from a beacon arranged on the road are used.
The GPS receiver 211 and the beacon receiver 215 can measure the position independently, but when the GPS receiver 211 and the beacon receiver 215 cannot receive the position, both the direction sensor 212 and the distance sensor 214 are used. The current position is detected by dead reckoning navigation. In order to detect a more accurate current position, a D-GPS (differential GPS) that receives a correction signal for a positioning error transmitted from a predetermined base station and corrects the current position may be used. .
The direction sensor 212 is, for example, a geomagnetic sensor that detects the azimuth of the vehicle by detecting geomagnetism, a gyroscope such as a gas rate gyroscope or an optical fiber gyroscope that detects the rotational angular velocity of the vehicle and integrates the angular velocity to obtain the azimuth of the vehicle, A wheel sensor is used that calculates the amount of displacement in the azimuth by detecting the turning of the vehicle based on the output pulse difference (movement distance difference).
The steering angle sensor 213 detects the steering angle α using an optical rotation sensor, a rotation resistance volume, or the like attached to the rotating portion of the steering.
For the distance sensor 214, for example, various methods are used such as detecting and counting the number of rotations of the wheel, or detecting acceleration and integrating twice.
[0018]
The input device 22 designates one agent among a plurality of existing agents (designating means) or user information (user designation, age, gender, occupation, hobby, Desired information providing channel, etc.), or when each user gives a unique name to each agent, the name reading is input. It should be noted that the information regarding these users is not limited to the case where the user inputs from the input device 22, for example, whether or not he / she likes professional baseball for items that have not been input when a certain amount of time has passed without communication with the user No, the agent may make various inquiries regarding a favorite team name or the like to the user, and obtain it from the contents of the user's answer.
This input device 22 is also a means for the driver to respond to confirmation of operation and control by the agent (opening / closing of windows, ON / OFF of air conditioner, etc.) and all other inquiries.
In addition, the input device 22 is a predetermined travel environment (transmission condition) of a vehicle to which a current location (departure point), a destination (arrival point) at the start of travel in the navigation process, a traffic request for information such as traffic information is transmitted to the information providing station. ), And the type of mobile phone used in the car.
[0019]
As the input device 22, various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, a joystick, an infrared remote controller, and a voice recognition device can be used. A voice recognition device can be used for inputting information other than the voice recognition start request. Moreover, you may provide the receiving part which receives the remote control using infrared rays etc., and the various signals transmitted from a remote control.
[0020]
The storage medium driving device 23 is a driving device that is used to read a computer program for the navigation processing unit 10 and the agent processing unit 11 to perform various processes from an external storage medium. The computer program recorded on the storage medium includes various programs and data.
Here, the storage medium refers to a storage medium in which a computer program is recorded. Specifically, a magnetic storage medium such as a floppy disk, a hard disk, or a magnetic tape, a semiconductor storage medium such as a memory chip or an IC card, a CD- ROM, MO, PD (phase change rewritable optical disk), DVD (digital video disk) and other storage media from which information is optically read, paper cards, paper tapes, and character recognition devices for reading programs A storage medium using paper such as printed matter (and a medium having a function corresponding to paper) and a storage medium on which a computer program is recorded by various methods are included.
[0021]
In addition to reading the computer program from these various storage media, the storage medium drive device 23, when the storage medium is a writable storage medium such as a floppy disk or an IC card, The RAM of the unit 11 and the data of the storage devices 29b and 31 can be written to the storage medium.
For example, when learning about agent functions (learning item data, response data) of all agents corresponding to the user or specific agents, user information, etc., are stored in an IC card and driving other vehicles However, by using the stored IC card, it is possible to communicate with the same agent named according to his / her preference and learned according to the past situation of reception. Thereby, it is possible to make the name unique to the driver and the agent of the learning content appear in the vehicle, not the agent for each vehicle.
[0022]
The communication control device 24 is connected to a mobile phone including various wireless communication devices. The communication control device 24 communicates with an information providing station that provides data related to traffic information such as road congestion and traffic regulations, as well as telephone line communication, and karaoke data used for communication karaoke in a car. It is possible to communicate with an information providing station that provides information.
It is also possible to transmit / receive learning data regarding the agent function, user information, and the like via the communication control device 24.
The communication control device 24 receives various information such as traffic jams transmitted from the ATIS center, and receives VICS information such as traffic jams transmitted from beacons arranged around the road by a beacon receiver. Can be done.
[0023]
The audio output device 25 is composed of a plurality of speakers arranged in the vehicle, and outputs the audio synthesized by the audio synthesis unit 141 of the audio control unit 14. For example, a guidance voice when performing route guidance by voice, a voice of an inquiry to the driver by the agent, a voice accompanying the operation of the agent, etc. are synthesized by the voice synthesizer 141 and output from the voice output device 25. It has become. The audio output device 25 may be used in whole or in part as an audio speaker. The voice control unit 14 can control the timbre, accent, and the like of the voice output from the voice output device 25 in accordance with the driver's input of the tuning instruction.
The voice output device 25 is also configured to output a synthesized voice for confirming (calling back) the inward recognition of the voice recognized by the voice recognition unit 142 of the voice control unit 14.
[0024]
The microphone 26 functions as a voice input unit that inputs a voice to be recognized by the voice recognition unit 142 of the voice control unit 14. For example, an input voice such as a destination in navigation processing, a driver conversation with an agent, etc. (including an answer to an inquiry from the agent, a response to a callback, etc.) are input to the microphone 26.
The microphone 26 may be used also as a microphone for performing karaoke such as online karaoke, and a dedicated microphone having directivity is used in order to accurately collect the driver's voice. Also good.
A hands-free unit may be formed by the audio output device 25 and the microphone 26 so that a telephone call can be made without using a mobile phone.
[0025]
On the display device 27, a road map for route guidance and various image information by the processing of the navigation processing unit 10 are displayed, the appearance of the agent by the agent processing unit 11, and various actions (moving images) by the agent of the appearance are displayed. It has come to be. In addition, images inside and outside the vehicle imaged by the imaging device 28 are also displayed after being processed by the image processing unit 13.
As the display device 27, various display devices such as a liquid crystal display device and a CRT are used.
The display device 27 may have a function as the input device 22 such as a touch panel.
[0026]
The imaging device 28 includes a camera equipped with a CCD (charge coupled device) for capturing an image, and images the front, rear, right side, and left side of the vehicle in addition to the in-vehicle camera that images the driver. Each outside camera is arranged. An image captured by each camera of the imaging device 28 is supplied to the image processing unit 13, and processing such as image recognition is performed, and each recognition result is also used for determining a program number by the agent processing unit 11. ing.
The image captured by the imaging device 28 can be used to determine whether or not the situation inside and outside the vehicle may be in a specific situation, and in this case, as a sensor for detecting the situation Will also work.
[0027]
The agent database 29 includes an information providing channel storage unit 29 a and an agent data storage device 29.
The information providing channel storage unit 29a stores various information such as weather forecast, news, sports, and other city information received by the information providing channel communication unit 30 and classified for each channel by the information providing channel processing unit 16. Storage device. As this storage medium, the above-described various storage media can be used, but in this embodiment, a RAM is used.
In the information provision channel storage unit 29a, information on the channel selected by any one of all registered users among the information (information on each channel) classified by the information provision channel processing unit 16 is stored. Only is supposed to be stored.
The various communication information stored in the information providing channel storage unit 29a is deleted from the old information by the information providing channel processing unit 16 when the storage capacity is exceeded. Further, short-term information such as weather forecasts and news in which the validity date of information is set in advance is deleted by the information providing channel 16 when the set date and time have passed.
[0028]
The agent data storage device 29b is a storage device that stores various data and programs necessary for realizing the agent function according to the present embodiment. As the agent data storage device 29b, for example, various storage media such as a floppy disk, a hard disk, a CD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, a DVD, and a driving device thereof are used.
In this case, for example, the learning item data 292, the response data 293, and the user information 298 are configured with an easily carried IC card or a floppy disk, and other data are configured with a hard disk, and a plurality of different storage media. And a driving device, and these driving devices may be used as the driving device.
[0029]
The agent data storage device 29b includes an agent program 290, a program selection table 291, learning item data 292, response data 293, image data 294 for displaying the appearance and behavior of the agent as a still image or a moving image, and agent list data. 296, assigned field information 297, user information 298 for specifying the driver, and other various data necessary for processing for the agent are stored.
[0030]
The agent program 290 corresponds to an agent processing program for realizing the agent function, image data for displaying detailed actions on the display device 27 when the agent and the driver communicate with each other, and the action of the agent. A communication program comprising voice data for synthesizing the conversation by the voice synthesizer 141 and outputting it from the voice output device 25 is stored in the order of the program numbers. The communication program includes a common program common to all agents and a responsible field program corresponding to the responsible field of each agent, and both are stored.
Each agent is assigned a field of responsibility and has a different personality, so the appearance and voice of each agent are determined in advance, but the user can freely input the appearance and voice of each agent. It can be changed from. To change the appearance of the agent, each appearance of the agent that can be selected by the apparatus 27 according to the present embodiment is displayed in a list, and one appearance is selected from the list. Agent voices include male voices, female voices, child voices, mechanical voices, animal voices, voices of specific voice actors and actors, voices of specific characters, etc. The driver chooses.
[0031]
The program selection table 291 is a table for selecting a communication program stored in the agent program 290.
Selection conditions for selecting a communication program from the program selection table 291 include items (time, start location) determined from various conditions of the vehicle and the driver detected by the state sensor 40, the current position detection device 21, and the imaging device 28. , Cooling water temperature, shift position position, accelerator opening, etc.) and items determined from learning contents stored in learning item data 292, response data 293, and user information 298 (number of today's IG ON, since the previous end) Elapsed time, total number of activations, etc.).
In the program selection table 291, a program that satisfies all these items is always determined uniquely.
[0032]
The learning item data 292 and the response data 293 are data for storing the results learned by the agent by the driving operation and response of the driver. Therefore, the learning item data 292 and the response data 293 are stored and updated (learned) separately for each combination of each driver and each agent. That is, the learning item data 292 and the response data 293 exist as many as the number of existing agents × the number of registered users.
[0033]
The learning item data 292 stores the total number of activation times for determining the selection conditions of the program selection table 291, the previous end date and time, the number of times the ignition has been turned on today, the remaining amount at the time of refueling five times, and the like. Stores the number of times of rest / date, default value, and other data for determining whether to start the program (whether to take a rest).
The total number of activations stores the total number of times the ignition has been activated, and is counted up each time the ignition is turned on. The previous end date and time is stored every time the ignition is turned off.
The number of times the ignition is turned on today stores the number of times the ignition is turned on that day and the end time of the day. The count is incremented every time the ignition is turned on, but the data is initialized to “0” when the day ends. The end time of the day is stored as 24:00 as a default value. This time can be changed according to the life pattern of the user (driver). When the time is changed, the changed time is stored.
In the previous five refueling remaining amounts, the remaining amount of fuel detected immediately before refueling (gasoline) is stored, and each time data is newly refueled, each data is shifted to the left (the oldest leftmost (The data is deleted.) The remaining amount immediately before refueling is stored on the rightmost side. This data indicates that when a detection value G1 of a fuel detection sensor 415, which will be described later, becomes equal to or less than the average value G2 of the remaining amount of fuel for all five times (G1 ≦ G2), the agent E appears on the display device 27 and supplies fuel. The prompting action is displayed on the display device 27, and a sound such as “I am hungry! I want gasoline!” Is output from the sound output device 25.
The number of times / date of rest stores, for each program number, the number of times of rest without executing even if the corresponding communication program is selected. The number of times / date of rest is stored for an agent action in which the rest item is set as a learning item, such as an agent act (program number 00123) that proposes to stop the air conditioner described later. When the driver's response to the agent's proposal or conversation is rejection (rejection) or disregard (or no response), “rest” is selectively set according to the communication program.
In the default value, initial setting values for each item such as time, number of times, temperature, vehicle speed, date and time are stored, and the value changed in the learning item, such as the end time of the day described above, is the initial value. Used to return to
Other data stored in the learning item data 292 includes, for example, the birthday of the driver and related persons (this is a user input item), the national holiday, the event, such as Christmas, Valentine's Day, White Day, etc. Stores the date. There is also a special menu communication program for each event day. For example, an agent disguised as Santa Claus appears on Christmas Eve.
[0034]
The response data 293 stores a history of user responses to agent actions for each communication program number. As for the user response data, the latest response date and time and the response content are stored for a predetermined number of times, only the latest response content is stored for one time (thus updated every time there is a response), and the latest response. There are a case in which only the contents are stored for a predetermined number of times, a case in which the latest date and time and response contents are stored in a single time, a case in which only the latest date and time are stored in one time or a predetermined number of times, and the like.
As the response data 293, data for distinguishing response contents is stored for each response. For example, when the symbol A is ignored, the symbol B is rejected, or the symbol C is accepted. The response content of the driver is determined from the result of voice recognition for the driver's voice input from the microphone 26 and the input result by the input device.
In this embodiment, the driver's response is ignored, categorized into three patterns of rejection and acceptance, but “strongly rejected”, “angry”, and “happy” were newly added. Also good. In this case, the learning item data 292 (for example, the number of days off) and the response data 293 are additionally changed according to the newly added response.
[0035]
The image data 294 stores the appearance of each agent and various image data for the agent of each appearance to express various facial expressions and actions. The user can select each of these agents and freely give (set) a name.
The stored appearance does not have to be a human (male, female) appearance. For example, the appearance of animals such as chicks, dogs, cats, frogs, mice, etc., and human design (illustration) The appearance of an animal may be used, and the appearance of a robot, the appearance of a specific character, or the like may be used. A name can be assigned to each of these appearances.
In addition, the age of the agent does not need to be constant. The learning function of the agent is that it is initially a child's appearance and grows over time, changing its appearance (changing to the appearance of an adult, It may change to the appearance of The image data 294 stores images of the appearances of these various agents, and can be selected from the input device 22 or the like according to the driver's preference.
[0036]
The agent list data 296 stores data for determining the agent's pseudo personality that can appear in the vehicle.
FIG. 2 shows the contents of the agent list data 296.
As shown in FIG. 2, the agent's name, age, gender, occupation, hobby, clothes, and personality (field of guidance) are determined for each agent. When appearing in the vehicle, the appearance, voice, and attitude of the agent reflect the age, sex, hobbies, clothes, and personality determined by the agent list data. The clothes are basically changed every day.
The personality of each agent is determined including the field assigned to that agent. For example, as shown in FIG. 2, the agent “Yuichi” is assigned to record stores and record relations, and “Eiko” is assigned to retaliation stores, general stores, and fast food. , "Earth" has been decided to be a cheap clothes shop and restaurant area.
Each agent may be assigned to a plurality of fields or a single field, and there may be agents who do not have a field in particular. Further, a plurality of agents may be in charge of each assigned field.
[0037]
The field-of-charge information 297 includes, for example, store information such as record stores, clothes stores, general stores, discount stores, article information such as personal computers, cigarettes, and car supplies, location information such as Akihabara, Shinjuku, Kanda, and fast food. Various information, such as eating and drinking information such as Western food, Japanese food, sports information such as golf, baseball, soccer, hot spring information such as Iiyama hot spring, Kusatsu hot spring, Yugawara hot spring, and other trivia information is classified and stored for each field. Has been.
Various information of the assigned field information 297 is stored in advance and received by the information providing channel communication unit 30 and the communication information classified into the assigned field by the information providing channel processing unit 16 is received by the agent processing unit 11. It is added and updated in the field information.
Each agent uses the information stored in the assigned field information 297 to perform communication related to the field for which the agent is in charge. For example, an agent who is in charge of a shrine or temple in Kyoto will know the history or denomination of Kiyomizu-dera stored in the field-of-charge information 297 when the vehicle reaches a predetermined distance from Kiyomizu-dera or when Kiyomizu-dera is set as the destination. It explains to the user using information such as.
[0038]
The user information 298 stores various types of information related to the user.
FIG. 3 shows the stored contents of the user information 298.
As shown in FIG. 3, as user information, each user's name (notation), gender, age, occupation, hobby, and information providing channel desired to be displayed are stored for each user number assigned to each user. Has been. Although not shown, other user information includes address, date of birth, personality, favorite sport, favorite team, favorite food, religion, user height, weight, fixed position of driver's seat (front and rear position) , The angle of the backrest, the angle of the rearview mirror, the height of the line of sight, the digitized data of the face photograph, and user information such as voice feature parameters are stored for each user (for each user number).
Each user information from the name shown in FIG. 3 to the information providing channel is input by the input device 22 or voice input (using the microphone 26 and the voice recognition unit 142) according to the display screen of the display device 27 in the user registration setting process. The On the other hand, other user information (not shown) may be input as other user items from the input device 22 or the like according to the display screen in the user registration setting process, but when the user does not input by this method These agents are sequentially acquired by asking questions about uninput items in the conversation with the user, and stored in the user information 298.
The user information is used not only when determining the contents of communication that the agent takes with the user, but also when determining the orientation of the user in the agent introduction process of this embodiment. In addition, among other data, a data group from the height of the user to the feature parameter of the voice is also used for specifying the driver.
[0039]
The agent processing unit 11 selects, from the program selection table 291, program numbers corresponding to the various vehicle conditions detected by the learning item data 292, response data 293, assigned field information 297, user information 298, and the situation sensor unit 40. Then, by selecting and executing the agent program 290 corresponding to the program number, the agent communicates with the driver in general communication or in a field of specialty.
For example, when the coolant temperature of the engine is low, the agent behaves “sleepy ...” in accordance with the condition of the engine. As a sleepy expression, you can create an image with a heel-down expression, yawning and stretching, then performing a predetermined action (bowing, etc.), rubbing your eyes first, and making your movements and voices slower than usual It can be expressed by doing. These sleepy expressions are not always the same, but are appropriately changed by learning the number of actions. For example, rubbing eyes once every three times (A action), yawning once every ten times (B action), and other than that, a facial expression with a heel down (C action). These changes are realized by combining the additional program of action B or action C with the basic program of action A. As to which action is to be combined, the number of program executions of the basic action A is counted as a learning item, and the additional program is combined according to the number of times.
There are also programs that allow agents to act “sit-mochi” or “tatara” or make a surprise voice on the condition that sudden braking is applied. The selection of each action by the agent is changed by learning for sudden braking. For example, “Sirimochi” is applied from the first sudden braking to the third time, and “Tatara” is pressed from the fourth time to the tenth time. After that, take the action of “placing one foot one step forward” and let the agent get used to sudden braking step by step. Then, when there is an interval of one week from the last sudden braking, the vehicle is moved backward by one step.
[0040]
FIG. 4 shows the contents of the data file stored in the navigation data storage device 31 (FIG. 1).
As shown in FIG. 4, the navigation data storage device 31 includes a communication area data file 301, a drawing map data file 302, an intersection data file 303, a node data file 304, a road as various data files used for route guidance and the like. A data file 305, a search data file 306, and a photo data file 307 are stored.
As the navigation data storage device 31, for example, various storage media such as a floppy disk, a hard disk, a CD-ROM, an optical disk, a magnetic tape, an IC card, an optical card, and a driving device thereof are used.
The navigation data storage device 31 may be composed of a plurality of different types of storage media and driving devices. For example, the search data file 46 is configured by a readable / writable storage medium (for example, a flash memory), and other files are configured by a CD-ROM, and these drive devices are used as drive devices.
[0041]
In the communication area data file 301, an area where a mobile phone connected to the communication control device 24 or a mobile phone used in the vehicle without being connected can communicate at the vehicle position is displayed on the display device 27. Communication area data for use in route search for a possible area is stored for each type of mobile phone. Each communication area data for each type of mobile phone is numbered and managed so that it can be easily searched, and the communicable area can be expressed by the inside surrounded by a closed curve. And is specified by the position data of the bending point. Note that the communication area data may be generated by dividing the communicable area into large and small square areas and using the coordinate data of two points in a diagonal relationship.
The content stored in the communication area data file 301 is preferably updateable as the area in which the mobile phone can be used is expanded or reduced. For this purpose, by using the mobile phone and the communication control device 24, The communication area data file 301 can be updated with the latest data by communicating with the information providing station. The communication area data file 301 may be composed of a floppy disk, an IC card, etc., and rewritten with the latest data.
The drawing map data file 302 stores drawing map data to be drawn on the display device 27. The drawing map data stores a hierarchical map, for example, map data for each hierarchy such as Japan, Kanto region, Tokyo, Kanda from the highest layer. Map data is attached to each level of map data.
[0042]
The intersection data file 303 includes intersection numbers, intersection names, intersection coordinates (latitude and longitude), road numbers starting and ending at the intersection, and presence / absence of signals as intersection data. Stored.
The node data file 304 stores node data consisting of information such as latitude and longitude that specifies the coordinates of each point on each road. That is, this node data is data relating to a single point on the road. When a node connecting nodes is called an arc, a road is expressed by connecting each of a plurality of node rows with an arc.
The road data file 305 includes a road number that identifies each road, an intersection number that is a start point and an end point, a road number that has the same start point and end point, road thickness, prohibition information such as entry prohibition, Photo number etc. are stored.
Road network data composed of intersection data, node data, and road data stored in the intersection data file 303, node data file 304, and road data file 305, respectively, is used for route search.
[0043]
The search data file 306 stores intersection sequence data, node sequence data, and the like constituting the route generated by the route search. The intersection string data includes information such as an intersection name, an intersection number, a photo number showing a characteristic landscape of the intersection, a turning angle, and a distance. The node string data includes information such as east longitude and north latitude indicating the position of the node.
In the photo data file 307, photographs taken of characteristic scenery or the like that can be seen at each intersection or straight ahead are stored in a digital, analog, or negative film format corresponding to the photograph number.
[0044]
FIG. 5 shows various sensors constituting the situation sensor unit 40.
As shown in FIG. 5, the situation sensor unit 40 includes an ignition sensor 401, a vehicle speed sensor 402, an accelerator sensor 403, a brake sensor 404, a side brake detection sensor 405, a shift position detection sensor 406, a winker detection sensor 407, a wiper detection sensor 408, Light detection sensor 409, seat belt detection sensor 410, door opening / closing detection sensor 411, passenger detection sensor 412, indoor temperature detection sensor 413, outdoor temperature detection sensor 414, fuel detection sensor 415, water temperature detection sensor 416, ABS detection sensor 417, Air conditioner sensor 418, weight sensor 419, front inter-vehicle distance sensor 420, rear inter-vehicle distance sensor 421, body temperature sensor 422, heart rate sensor 423, sweat sensor 424, electroencephalogram sensor 425, eye tracer 426, infrared sensor 427 Tilt sensor 428, wheel speed sensor 429, other sensors (tire pressure drop detection sensor, belt looseness detection sensor, window open / close state sensor, horn sensor, indoor humidity sensor, outdoor humidity sensor, oil temperature detection sensor, hydraulic pressure (Detection sensor, steering angle sensor, etc.) 430 and the like are provided with various sensors for detecting vehicle conditions, driver conditions, in-vehicle conditions, and the like.
These various sensors are arranged at predetermined positions according to the respective sensing purposes.
In addition, when each of these sensors does not exist as an independent sensor, the case where it senses indirectly from another sensor detection signal is included. For example, a tire air pressure decrease detection sensor indirectly detects a decrease in air pressure by a change in a signal from a vehicle speed sensor.
[0045]
The ignition sensor 401 detects ON and OFF of the ignition.
As the vehicle speed sensor 402, a conventionally known vehicle speed sensor such as one that calculates the vehicle speed by detecting the rotational angular speed or the number of rotations of the speedometer cable can be used without particular limitation.
The accelerator sensor 403 detects the amount of depression of the accelerator pedal.
The brake sensor 404 detects the amount of depression of the brake, and detects whether or not a sudden brake is applied based on the depression force, the depression speed, and the like.
The side brake detection sensor 405 detects whether or not the side brake is applied.
The shift position detection sensor 406 detects the shift lever position.
The blinker detection sensor 407 detects the blinking direction of the blinker.
The wiper detection sensor 408 detects the driving state (speed, etc.) of the wiper.
The light detection sensor 409 detects the lighting state of each lamp such as a head lamp, tail lamp, fog lamp, and room lamp.
The seat belt detection sensor 410 detects whether the driver and the passenger (auxiliary seat, rear seat) are wearing the seat belt. If it is not worn, the agent will appear as appropriate (learning to the extent that it is not disliked), and give warnings, cautions, comments, etc. (the degree will be changed by learning).
[0046]
The door open / close detection sensor 411 detects the open / closed state of the door, and when a so-called half-door state is detected, the agent notifies the fact. The door opening / closing detection sensor 411 detects opening / closing of each door according to the vehicle type, such as a driver's seat door, a passenger seat door, a rear driver seat side door, a rear passenger seat side door, a hatchback car hatch, and a rear door of a wagon car. It can be done. In addition, a door opening / closing detection sensor 411 that detects an opening / closing state may be disposed in an opening / closing portion such as a trunk at the rear of the vehicle, a hood at the front of the vehicle, or a sunroof.
The passenger detection sensor 412 is a sensor that detects whether or not a passenger is on the passenger seat or the rear seat. The passenger detection sensor 412 is detected from an in-vehicle image captured by the imaging device 28, or is disposed in an auxiliary seat or the like. Detect with pressure sensor or scale.
The indoor temperature detection sensor 413 detects the indoor air temperature, and the outdoor temperature detection sensor 414 detects the air temperature outside the vehicle.
The fuel detection sensor 415 detects the remaining amount of fuel such as gasoline and light oil. The detected values for the past five times immediately before refueling are stored in the learning item data 292, and when the average value is reached, the agent informs that it is the refueling time.
[0047]
The water temperature detection sensor 416 detects the temperature of the cooling water. Immediately after the ignition is turned on, if the detected temperature is low, the agent often acts to sleep. On the other hand, if the water temperature is too high, before overheating, the agent informs that effect along with the “dull” behavior.
The ABS detection sensor 417 detects whether or not the ABS is activated to prevent the tire from being locked due to a sudden brake and to ensure the maneuverability and vehicle stability.
The air conditioner sensor 418 detects the operation state of the air conditioner. For example, ON / OFF of the air conditioner, set temperature, air volume, etc. are detected.
The weight sensor 419 is a sensor that detects the weight of the driver. A driver is identified from this weight or from the weight and the image of the imaging device 28, and an agent learned in relation to the driver is caused to appear. That is, by using the learning item data 292 and the response data 293 learned by the agent for the specified driver, an agent dedicated to the driver appears.
The front inter-vehicle distance sensor 420 detects the distance to other vehicles and obstacles in front of the vehicle, and the rear inter-vehicle distance sensor 421 detects the distance to other vehicles and obstacles behind.
[0048]
The body temperature sensor 422, the heart rate sensor 423, and the sweat sensor 424 are sensors for detecting the driver's body temperature, heart rate, and sweat state, respectively. For example, the sensors are arranged on the handle surface and detected from the state of the driver's hand. . Alternatively, as the body temperature sensor 422, the temperature distribution of each part of the driver may be detected by thermography using an infrared detection element.
The electroencephalogram sensor 425 is a sensor that detects a driver's brain wave, and detects, for example, an α wave, a β wave, or the like to check a driver's arousal state or the like.
The eye tracer 426 detects the movement of the user's line of sight and determines whether the user is looking for an object outside the vehicle, searching for the object inside the vehicle, or a wakeful state during normal driving.
The infrared sensor 427 detects the movement of the user's hand and the movement of the face.
[0049]
The tilt sensor 428 is a sensor that detects a posture angle of the entire vehicle, and includes a traveling direction tilt sensor that detects a posture angle in the traveling direction of the vehicle, and an orthogonal direction tilt sensor that detects a posture angle orthogonal to the traveling direction. Both sensors detect the tilt angle separately. The posture angle detected by the traveling direction inclination sensor is used for determining the possibility of traveling uphill, determining the possibility of traveling downhill, and the like.
[0050]
The wheel speed sensor 429 is attached to each of the four wheels, and individually detects the wheel speed (rotational speed) of each wheel.
The wheel speed sensor 429 has teeth with a constant pitch and rotates together with the wheel, and includes a rotor on which teeth with a constant pitch are arranged, and an electromagnetic pickup attached at a stationary position. The electromagnetic pickup is arranged opposite to the teeth of the rotor and electromagnetically detects the passage of teeth. From the time interval of change in output voltage detected by this pickup and the number of changes in unit time The rotational speed of the wheel is detected.
The wheel speed sensor 429 may detect the wheel speed by using a magnetoresistive element pickup or the like in addition to the electromagnetic pickup.
Further, the vehicle speed may be calculated from the detection signal of the wheel speed sensor 429, and the wheel speed sensor in this case functions as the vehicle speed sensor 402.
[0051]
Next, the operation of the present embodiment configured as described above will be described.
FIG. 6 is a flowchart showing main processing by the agent, FIG. 7 is a flowchart showing user registration setting processing, and FIGS. 8 to 10 show display screens of the display device 27 at each stage of processing.
When the ignition sensor 401 detects that the ignition is turned on, the agent processing unit 11 first performs initial setting (FIG. 6; step 10). As the initial setting, initial setting processing such as clearing the RAM, setting a work area for each process in the RAM, and loading the program selection table 291 into the RAM is performed. In the agent processing of this embodiment, the start of the processing is set to ignition ON. However, for example, the processing may be started when any door opening / closing is detected by the door opening / closing detection sensor 411.
[0052]
Next, the agent processing unit 11 specifies (recognizes) a user (driver) based mainly on various data stored in the user information 298 (step 11). That is, the agent processing unit 11 analyzes the voice when a greeting is first given from the user, identifies the user, identifies the user by analyzing the captured image, and determines the weight of the situation sensor unit 40 The user is identified from the weight detected by the sensor, or the user is identified from the set seat position and the angle of the room mirror.
Then, as shown in the user recognition screen of FIG. 8A, the agent processing unit 11 reads the names of all registered users from the user information 298 and displays them on the screen, and blinks the specified user names. .
[0053]
For the identified driver, a special communication program for confirming the driver is activated separately from the agent processing described later, and the agent agent responsible for user recognition is displayed on the display device 27 (user recognition In addition, the agent's voice makes an inquiry such as “Is Mr. XX?”, And the voice recognition program by the voice recognition unit 142 is automatically started to perform an answer analysis by the user's voice, etc. The final confirmation of the user may be performed.
[0054]
After the user recognition screen shown in FIG. 8A is displayed, the agent processing unit 11 selects a new registration key on the display screen as a user response from the contents of the voice recognition and operation of the input device 22 (corresponding portions of the touch panel). Or is selected by the input device 22), or it is confirmed whether or not "new registration" is uttered (step 12).
[0055]
When the new registration is selected by the user (step 12; Y), the agent processing unit 11 performs a new user registration setting process (step 13).
FIG. 7 is a flowchart showing a user registration processing operation by the agent processing unit 11, and FIG. 10 shows a display screen of the display device 27 at each stage of the processing.
First, the agent processing unit 11 displays a user registration screen (FIG. 10A) on the display device 27, and acquires the name of the user (step 131).
In this user registration screen, the user inputs his / her reading of the nomination and selects (presses) a conversion key to convert kana / kanji. The converted kanji will be displayed on the right side of the screen (input name). When the input of the name is completed, the user selects the registration key to register and register the name.
[0056]
When the registration key is selected after the name is input on the user registration screen, the agent processing unit 11 displays the age selection screen on the display device 27 and acquires the user's age as shown in FIG. Step 132).
Using the numeric keypad (0-9 keys) displayed on this age selection screen and the teenage keys (10+, 20+, -60+ keys) arranged on the left side of the age selection screen, the user inputs his / her age. For example, when the age is 36 years old, the numeric keypad may be designated in the order of 3 and 6, or 6 may be designated with the numeric keypad after the 30+ key is designated. The selected age is displayed as “36 years old” at the top, and after confirmation, the user selects the age by selecting a registration key.
[0057]
Next, the agent processing unit 11 displays a gender display screen on the display device 27 as shown in FIG. 10C, and acquires the gender of the user (step 133). The user selects a gender by selecting a male key or a female key displayed on the gender display screen and then selecting a registration key.
Thereafter, the agent processing unit 11 displays a hobby selection screen on the display device 27 as shown in FIG. 10D, and acquires the user's hobbies (step 134). On this hobby selection screen, a plurality of items can be selected, and when the user touches the touch panel on the display screen, the corresponding item is displayed in reverse video. The user highlights all items corresponding to his / her hobby, and then registers the hobby by selecting a registration key.
[0058]
Further, as shown in FIG. 10E, the agent processing unit 11 displays an occupation selection screen on the display device 27 and acquires the occupation of the user (step 135). The user selects an occupation by selecting a corresponding occupation from various occupations displayed on the occupation selection screen and then selecting a registration key.
Next, the agent processing unit 11 displays the information channel selection screen on the display device 27 as shown in FIG. 10F, and acquires the user's information channel (step 136). In this information channel selection screen, multiple items can be selected, and the user highlights the corresponding item by touching the touch panel on the display screen, and then touches the registration key to provide the desired information providing channel. Select.
[0059]
When the above screen display and user selection are completed, the agent processing unit 11 stores the information such as the user name acquired in steps 131 to 136 in the agent data storage device 29b as shown in the table illustrated in FIG. Is stored in the user information 298 (step 137), and the process returns to the agent processing of FIG.
Although not particularly displayed in the user information of FIG. 3, the user name information is required when the agent calls the user name as ancillary information to the user name notation such as “Equus Taro”. The phonetic information, for example, reading information such as “exclamation” is stored. This phonetic information is set by the user from the reading input screen displayed after inputting the user name (notation) in the user registration screen diagram of FIG. 10A, and the agent processing unit 11 acquires it according to this setting. The agent processing unit 11 synthesizes a voice according to the acquired phonetic display to cause the agent with the user name to utter.
[0060]
When the user is recognized and not newly registered (step 12; Y), and after the user registration setting process is completed, the agent processing unit 11 grasps the current situation of the vehicle (step 14). That is, the agent processing unit 11 detects the detection value supplied from each sensor of the situation sensor unit 40 to the situation information processing unit 15, the processing result of the image captured by the imaging device 28, and the vehicle detected by the current position detection device 21. Data such as the current position and the current date and time are acquired from the clock possessed by the overall processing unit, stored in a predetermined area of the RAM, and the current status is grasped from the stored data.
For example, when the temperature of the cooling water detected by the water temperature detection sensor 416 is t1, the agent processing unit 11 stores the temperature t1 in the RAM, and if the t1 is equal to or less than a predetermined threshold value t2, It is grasped that the cooling water temperature is in a low state.
Further, the agent processing unit 11 grasps the information reception status of each information providing channel by the information providing channel communication unit 30 and the classification result by the upper providing channel processing unit 16 of the received information as the current status.
[0061]
When the agent processing unit 11 grasps the current situation, the agent processing unit 11 confirms whether or not the ignition key (IG) is turned off from the grasped situation (step 15), and when it is turned off (; Y), the process is terminated.
On the other hand, if the ignition key is not turned off (step 15; N), the agent processing unit 11 monitors the key selected by the user on the agent system selection screen illustrated in FIG. When the “Find Destination” key is selected (step 16; Y), an agent nomination screen illustrated in FIG. 8C is displayed. This agent nomination screen is a screen for nominating an appearing agent according to the user's will.
In this agent nomination screen, the agent profile (agent information) such as agent name, age, occupation, hobby, personality, field of responsibility (field of expertise) stored in the agent list data 296 shown in FIG. 2 is displayed. When the user selects the “Next →” key, the agent profile for the next agent is displayed. The display order of the agents displayed on the agent designation screen is displayed in order from the agent that the recognized user often appears (often selected).
With this agent nomination screen, the user can nominate an agent that suits his / her preference (feels good).
[0062]
It should be noted that as the order of agents displayed on the agent nomination screen, the agents may be displayed in the order of agents stored in the agent list data 296, in addition to displaying the agents in the order selected by the user's will. Good.
Further, the number of items common to the user information 298 (user information for the driver recognized by the agent processing unit 11) stored for the user recognized in step 11 or registered in step 13 and the agent list data 296. You may make it display in order from the agent with the most. At this time, each item may be weighted. For example, 3 points per hobby if the hobbies match, 1 point if the occupations match, 0.3 points if the genders match, 0.5 points if the ages match, etc. In addition, a score difference may be provided for each item.
[0063]
In the agent nomination screen illustrated in FIG. 8C, when the user selects the “no designation” key (step 17; N), the agent processing unit 11 displays the user as illustrated in FIG. 8D. A purpose selection screen for allowing the user to select the purpose of using the car is displayed on the display device 27 (step 18). In this purpose selection screen, as shown in FIG. 8D, usage purposes such as “drive”, “meal”, “shopping”, “travel”, etc. are described, and the user reverses by touching the corresponding item. The purpose of use of the car is selected by selecting a registration key after displaying (may be displayed in a thick frame as shown in the drawing).
The agent processing unit 11 acquires the usage purpose selected by the user on the purpose selection screen and stores it in a predetermined area of the navigation data storage device 31 via the navigation processing unit 10.
[0064]
When the selection of the purpose is completed, the agent processing unit 11 next displays a destination selection screen on the display device 27 as illustrated in FIG. 8E (step 19). On this destination selection screen, a more detailed purpose corresponding to the travel purpose selected by the user on the destination selection screen of FIG. 8D is displayed. FIG. 8E shows a screen when “drive” is selected on the purpose selection screen of FIG. 8D, and displays “sea”, “river”, “park”, etc. as further detailed purposes of the drive. Is done. When “shopping” is selected on the purpose selection screen in FIG. 8D, selection keys such as “department store”, “supermarket”, “convenience store”, “book”, and “hamburger” are displayed.
On the destination selection screen, the user can select one or more items, and the selected destination is stored in the navigation data storage device 31 via the navigation processing unit 10.
[0065]
Next, as illustrated in FIG. 8F, the agent processing unit 11 displays a destination setting screen on the display device 27 (step 20). In this destination setting screen, from the destination selected on the destination selection screen, the destination selected on the destination selection screen, the user information stored in the agent data storage device 29b, etc., the corresponding store, facility, location The name, address, telephone number, etc. are displayed. FIG. 8F shows a destination setting screen when, for example, the destination “drive” and the destination “park” are selected, the current location is a predetermined point in Tokyo, and the user is a 26-year-old man. Yes, each destination name such as “Meiji Park”, “Hibiya Park”, “Kitanomaru Park” is displayed as a park that satisfies the conditions such as “a park suitable for a 26-year-old man driving from Tokyo”.
The user can select an item displayed on the destination setting screen (select a registration key after touching the corresponding item), and the selected destination is sent to the navigation data storage device 31 via the navigation processing unit 10. And is set as a destination for navigation and guidance by agents.
[0066]
Next, the agent processing unit 11 selects the destination selected on the destination selection screen (step 18), the destination selected on the destination selection screen (step 19), and the destination set on the destination setting screen (step 20). ), And the user information 298 stored in the agent data storage device 29b is acquired as the user's orientation, and the optimum agent for guiding to the destination is obtained from the agent list data 296 using the user orientation as a search condition. Select and recommend (step 21).
When selecting an agent to be recommended, priority is given to the hobby set for the agent and the specialty field of guidance in the agent list data, and the agent having the most matching items is selected. In addition, when there are a plurality of agents having the same number of matching items in the field of specialty, an agent having a large number of matches in the hobby is selected. Conversely, an agent having a large number of matches in the field of specialty may be selected. .
As described above, when the agent that the user particularly desires is not designated (step 17; N), the agent processing unit 11 can select an appropriate information that matches the user's orientation from information related to the user and information related to vehicle travel such as the travel purpose. Since the agent is selected and recommended to the user, it is possible to receive driving guidance and communicate with the agent according to the direction such as driving purpose and preference without checking the profile of each agent from multiple agents. be able to. In addition, even a user who is not an agent device according to the present embodiment introduces an agent suitable for the user's orientation, so that a sense of resistance when communicating with the agent can be reduced.
As illustrated in FIG. 9G, the agent processing unit 11 recommends an agent with an image representing the appearance of the agent selected according to user information and user selection items and an agent recommendation screen representing the agent profile. This is done by displaying on the time display device 27. In this embodiment, 10 seconds is set as the fixed time for displaying the agent recommendation screen. However, other time n seconds such as 5 seconds and 7 seconds may be set, and the user can set and change the time. You may do it.
[0067]
On the other hand, when the user selects the “decision key” on the agent nomination screen illustrated in FIG. 8C (step 17; Y), the agent processing unit 111 selects the destination (step 22). (Step 23) and destination setting (Step 24) are performed. In step 22 to step 23, the agent processing unit 11 displays the screen shown in FIG. 8C on each screen of the destination selection screen in FIG. 8D, the destination selection screen in FIG. 8E, and the destination setting screen in FIG. The agent selected on the agent nomination screen is also displayed together, and if necessary, the agent explains the operation to be performed by the user on the screen. Otherwise, the processing is the same as in steps 18 to 20. Do.
[0068]
Next, the agent processing unit 11 displays the agent recommendation screen in step 21 when the destination is set in step 20, and immediately after that, when the destination is set in step 21, FIG. The agent setting screen illustrated in (h) is displayed on the display device, and the destination and the nominated (step 17) or recommended (step 21) agent are communicated to the user (step 25). At that time, the designated or recommended agent may communicate the destination and the agent by voice together with the agent setting screen or instead of the agent setting screen.
In the agent setting screen, the name of the destination set in step 20 or 24 is displayed in the destination name portion (“Kitanomaru Park” in the example of FIG. 9H), and the agent nomination field ( In FIG. 9 (h), the name of the agent recommended by the agent processing unit 11 to the user in step 21 or the name of the agent determined by the user in step 17 is displayed. .
When the user selects the “No” key on this agent setting screen (step 25; N), the agent processing unit 11 returns to step 17 and starts again from the agent designation.
[0069]
On the other hand, when the user selects the “Yes” key (step 25; Y), the agent processing unit 11 starts guidance by voice and image by the set agent (step 26). That is, the agent processing unit 11 causes the determined agent to appear in the vehicle, and guides the destination information set in step 20 or information about the route to the destination by voice. In addition, the assist according to the travel purpose designated by the user and the field of expertise of the agent (the field in charge) and the communication with the user are performed as an agent process according to the grasped vehicle or the situation outside the vehicle.
In the process of guidance and communication by the agent, various information can be updated by using a communication system such as the information providing channel communication unit 30 and the communication control device 24, and traffic information, store sales information, etc. can be appropriately updated by the user. Can be provided.
Then, the agent processing unit 11 uses the learning item data 292 and the response data 293 as predetermined data obtained in communication with the user, travel data at the end of guidance, arrival at the destination, time, and the like as information for learning the agent. (Step 27) and return to step 14. These learning data are accumulated by being stored in the learning item data 292 and the response data 293 for each correspondence between each user and the agent.
[0070]
On the other hand, when the “information provision channel” key is selected on the agent system selection screen illustrated in FIG. 8B in step 16 (step 16; N), the agent processing unit 11 performs the information provision process by the user's will. Do.
That is, the agent processing unit 11 reads out the information channel selected by the information channel selection (step 136) of the user registration setting process 13 from all the specifiable information channels from the user information 298, and displays the channel selection screen. 27 (step 28).
FIG. 9I illustrates a channel selection screen. In this example, a “weather forecast” key, a “news” key, and a “traffic information” key are displayed on the screen corresponding to the information channel selected by the user. Yes.
From the information channel keys displayed on the channel selection screen, the user selects the information channel to be known at present by selecting the registration key after highlighting the predetermined key (step 29).
The agent processing unit 1111 acquires the selected channel, causes an agent in charge of the channel to appear, and provides information on the channel stored in the information channel communication unit (RAM) 29a by the voice of the agent in charge. (Step 30). At this time, if image information or character information is stored in the information channel communication unit (RAM) 29a, the image information or character information is displayed on the display device in addition to providing information by voice. For example, in the case of an information channel related to baseball game results, in addition to the baseball agent communicating the results of the game in a voice, the results of each match between the Selague and Palague (the name of the team and the score, winning pitcher, losing pitcher, etc.) indicate.
[0071]
After the provision of the selected information is completed, the agent processing unit 11 confirms with the user whether or not to terminate the information provision with a display screen and / or voice, and when the continuation of the information provision is selected. (Step 31; N), returning to Step 28, the channel selection screen is displayed again, and the information on the next selected channel is continuously provided.
On the other hand, when the end of information provision is selected (step 31; Y), the agent processing unit 11 terminates the information provision process according to the user's will, and returns to step 14 to continue the process.
In the information providing process by the user's will, the information providing channel communication unit 30 and the information providing channel processing unit 16 periodically receive and update new information for each channel from a predetermined center or the like. Therefore, the latest information can always be provided to the user.
[0072]
Next, communication information reception processing by the information providing channel communication unit 30 will be described. This communication information reception process is performed separately from the process based on the user's intention to provide information (step 16; N, step 28 to step 31), and periodically receives information on the information channel. This is a process of automatically guiding the user as new arrival information when selected by the user.
FIG. 11 is a flowchart showing the operation in this communication information reception process.
The information providing channel processing unit 16 monitors whether or not it is time to transmit information from the information center (information reception time) (step 51). When the information reception time comes (step 51; Y), the information provision channel processing unit 16 transmits the communication information (new arrival information) of each information channel transmitted from the information center using FM multiplex broadcasting or the like. (Step 52).
[0073]
Then, the information providing channel processing unit 16 classifies and stores the received communication information (step 53). That is, the information providing channel processing unit 16 classifies communication information from the received information channel and information contents to determine a field in charge, and stores necessary information in an area for each channel of the information providing channel storage unit 29. It is like that. As to whether the information is necessary information, the information providing channel processing unit 16 confirms all user information and sets the information channel selected by any user on the information channel selection screen illustrated in FIG. Corresponding communication information is stored as necessary information.
Further, the information providing channel processing unit 16 excludes communication information received in terms of topics such as weather forecasts and news from the received communication information, and information that can be used for communication by the agent in the field in charge as its own field, for example, Various types of field information such as new model information of personal computers and new store information of Akihabara are supplied to the agent processing unit 11, and the agent processing unit 11 stores the supplied information in a predetermined area of the agent data storage device.
Further, when storing the received communication information (new arrival information) in the information providing channel communication unit (RAM) 29a, the information providing channel processing unit 16 confirms the storage capacity for each information channel and stores the stored information. Check the expiration date. That is, when the new information is stored and the storage capacity of the information channel is exceeded, the information providing channel processing unit 16 deletes the old information stored in the display channel area. Further, short-term information such as weather forecasts and news for which the validity date of information is set in advance is deleted when the set period and date have passed.
[0074]
After the communication information classification and storage processing by the information providing channel processing unit 16, the agent processing unit 11 obtains user information 298 about the current user (the user recognized in Step 11 or the newly registered user in Step 13). Confirmation is made to determine whether there is new arrival information of the information channel selected by the user (step 54).
When there is new arrival information of the information channel selected by the user (step 54; Y), the agent processing unit 11 displays a new arrival information screen (user selection) illustrated in FIG. As shown in this new arrival information screen, the agent processing unit 11 reads out the information channel selected by the user from the user information 298 and displays the corresponding channel key, and by flashing and displaying the channel key with the new arrival information, It is easy for the user to check which information channel is new arrival information. In the example of FIG. 12A, the “traffic information” key blinks as new arrival information in a state where the user selects each information channel of weather forecast, trend information, and traffic information.
Then, the agent processing unit 11 causes an agent in charge of new arrival information to appear in the new arrival information screen (user selection), and introduces that there is new arrival information by voice. For example, in the example shown in FIG. 12A, an agent who is in charge of traffic information appears on the screen and introduces with a voice, "You have received new traffic information, do you want to confirm it?"
[0075]
On the other hand, when there is no new arrival information about the information channel selected by the user (step 54; N), the agent processing unit 11 checks whether there is new arrival information related to the user's hobby stored in the user information 298. (Step 54).
When there is no new arrival information related to the user's hobbies, the process returns to the main routine (step 56; N), and when it exists (step 56; Y), the new arrival screen illustrated in FIG. (Recommended) is displayed on the display device 27 (step 57). In this new arrival screen (recommended), in addition to the display channel selected by the user, a “recommended information” key that matches the user's hobby is displayed and blinked to indicate that it is new arrival information. In the example of FIG. 12B, information relating to the masters can be provided as information that matches the user's hobby “golf”.
Also on this new information screen (recommended), the agent in charge may appear on the screen, and you may be told by voice that "Recommended information about XX has been received, will you confirm?" .
[0076]
Note that the agent processing unit 11 is in a case where another agent is in route guidance and is outputting voice guidance for a route change point such as an intersection, and / or from a voice guidance point for a route change point. If the distance is within the predetermined distance, the display of the new arrival information screen (user selection or recommendation) and the voice introduction will be suspended until the guidance ends, and the display and introduction will be performed after the guidance ends. May be. Thus, by giving priority to route guidance, it is possible to prevent a decrease in recognition rate of route guidance.
[0077]
The user currently knows by selecting a registration key after highlighting a predetermined key from each information channel key displayed on the new arrival information screen (user selection or recommendation) displayed on the display device 27. A desired information channel is selected (step 58). Note that the user can also select an information channel key other than new arrival information or recommended information.
It is also possible to select by the information channel key and the user's voice, and the agent processing unit 11 recognizes the voice collected by the microphone 26 by the voice recognition unit 142 and displays a callback for confirming the recognition result on the screen. Communication with the agent is performed by the agent who is in charge (the agent in charge of new arrival information).
Even when an information channel other than the information channel blinking as new arrival information is selected by the user's voice, the agent already displayed as the person in charge of the channel continues to call back and is OK ( When the user utters voices “OK”, “YES”, “Yes”, “Yes”, “Good”, etc.), another agent in charge of the selected information channel appears and responds.
The agent processing unit 11 acquires the selected channel, displays the agent in charge of the channel, and provides the information of the channel stored in the information channel communication unit (RAM) 29a by the voice of the agent in charge. (Step 59). At this time, if image information or character information is stored in the information channel communication unit (RAM) 29a, the image information or character information is displayed on the display device in addition to providing information by voice. For example, in the case of traffic information, the received character information “Circular Route 8 XX direction, traffic jam of 5 km due to accident” is displayed.
[0078]
In this way, when new arrival information is received for a preselected information channel, new arrival information is automatically notified, so that the user is aware of whether there is new arrival information or a special operation for checking There is no need to In addition, since the agent in charge of each information channel introduces the new arrival information, it is possible to communicate with agents having various personalities, and the system becomes more familiar.
Moreover, since the new arrival information related to the recommended information that matches the user's orientation (hobby) is introduced even if it is not the information selected by the user, the information that the user wants to know can be provided appropriately.
[0079]
【The invention's effect】
  As described above, according to the agent device of the present invention,YuAutomatically selects the agent that suits the userChooseIt will be possible.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an agent device as an embodiment of the present invention.
FIG. 2 is an explanatory diagram conceptually showing stored contents of agent list data stored in a navigation data storage device.
FIG. 3 is an explanatory diagram conceptually showing stored contents of user information stored in a navigation data storage device.
FIG. 4 is an explanatory diagram conceptually showing the contents of a data file stored in a navigation data storage device.
FIG. 5 is an explanatory diagram showing various sensors constituting a situation sensor unit.
FIG. 6 is a flowchart showing the contents of agent processing according to the present embodiment.
FIG. 7 is a flowchart showing a user registration setting process.
FIG. 8 is an explanatory diagram showing a part of a display screen at each stage of agent processing;
FIG. 9 is an explanatory diagram showing another part of the display screen at each stage of agent processing;
FIG. 10 is an explanatory diagram showing the remaining part of the display screen at each stage of agent processing.
FIG. 11 is a flowchart showing the contents of communication information reception processing according to the present embodiment.
FIG. 12 is an explanatory diagram showing a new arrival information screen displayed in the communication information reception process.
[Explanation of symbols]
1 Overall processing section
10 Navigation processing part
11 Agent processing section
12 I / F section
13 Image processing unit
14 Voice control unit
15 Situation information processing department
16 Information provision channel processing section
21 Current position detection device
22 Input device
23 Storage medium drive
24 Communication control device
25 Audio output device
26 microphone
27 Display device
28 Imaging device
29a Information provision channel communication part (RAM)
29b Agent data storage device
296 Agent list data
297 Field information
298 User information
30 Information Provision Channel Communication Department
31 Navigation data storage device
40 Situation sensor section

Claims (3)

複数分野の情報を通信により取得する情報取得手段と、
前記情報取得手段により取得した情報の分野毎のエージェント複数記憶された記憶手段と、
車両の状況を判断する状況判断手段と、
ユーザの入力操作又はエージェントの問い合わせに対するユーザの回答内容によって当該ユーザの指向を取得する指向取得手段と、
前記指向取得手段で取得したユーザの指向と、前記状況判断手段で判断された状況とに応じ前記記憶手段に記憶された複数のエージェントの中からエージェントを選択する選択手段と、
前記選択手段により選択されたエージェントによって、当該選択されたエージェントに対応する分野の情報を前記ユーザに提供する情報提供手段と、
を具備することを特徴とするエージェント装置。
Information acquisition means for acquiring information in multiple fields by communication;
Storage means for storing a plurality of agents for each field of information acquired by the information acquisition means ;
A situation judging means for judging the situation of the vehicle;
Orientation acquisition means for acquiring the orientation of the user according to the user's input operation or the content of the user's answer to the inquiry of the agent ;
A selection means for selecting an agent from a plurality of agents stored in the storage means according to the user orientation acquired by the orientation acquisition means and the situation determined by the situation determination means ;
Information providing means for providing the user with information on a field corresponding to the selected agent by the agent selected by the selecting means;
An agent device comprising:
目的地までの経路案内を行うナビゲーション手段を備え、
前記指向取得手段は、前記ナビゲーション手段において目的地を設定する過程でユーザが選択した内容から指向を取得する
ことを特徴とする請求項に記載のエージェント装置。
It has navigation means to provide route guidance to the destination,
The agent device according to claim 1 , wherein the orientation acquisition unit acquires the orientation from contents selected by a user in the process of setting a destination in the navigation unit.
前記指向取得手段は、走行目的、目的地、ユーザ情報をユーザの指向として取得することを特徴とする請求項1に記載のエージェント装置。The agent device according to claim 1, wherein the orientation acquisition unit acquires a travel purpose, a destination, and user information as a user orientation.
JP23093699A 1999-08-17 1999-08-17 Agent device Expired - Fee Related JP4193300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23093699A JP4193300B2 (en) 1999-08-17 1999-08-17 Agent device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23093699A JP4193300B2 (en) 1999-08-17 1999-08-17 Agent device

Publications (2)

Publication Number Publication Date
JP2001056225A JP2001056225A (en) 2001-02-27
JP4193300B2 true JP4193300B2 (en) 2008-12-10

Family

ID=16915630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23093699A Expired - Fee Related JP4193300B2 (en) 1999-08-17 1999-08-17 Agent device

Country Status (1)

Country Link
JP (1) JP4193300B2 (en)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227962A (en) * 2000-02-15 2001-08-24 Fujitsu Ten Ltd Navigation device
JP2002324075A (en) * 2001-04-26 2002-11-08 Optowave Laboratory Inc System for information providing, apparatus therefor, mobile terminal and base station
JP2003006222A (en) * 2001-06-25 2003-01-10 Toshiba Corp Server computer, portable telephone, news presenting method, enquette method, agent transfer method and information transmission method
JP2003106846A (en) * 2001-09-28 2003-04-09 Equos Research Co Ltd Agent apparatus
JP2004053251A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd In-vehicle device, data creating device and data creation program
CN1586080A (en) * 2001-11-16 2005-02-23 皇家飞利浦电子股份有限公司 Creating agents to be used for recommending media content
JP2003168018A (en) * 2001-11-30 2003-06-13 Tsubasa System Co Ltd Information distribution system and its method
JP3907509B2 (en) * 2002-03-22 2007-04-18 株式会社エクォス・リサーチ Emergency call device
JP2004037953A (en) * 2002-07-04 2004-02-05 Equos Research Co Ltd On-vehicle device, and device and program for data creation
JP4259054B2 (en) * 2002-07-10 2009-04-30 株式会社エクォス・リサーチ In-vehicle device
JP4040937B2 (en) * 2002-09-05 2008-01-30 株式会社デンソー Car navigation system
JP2004128624A (en) * 2002-09-30 2004-04-22 Aiphone Co Ltd Multiple dwelling house interphone system
JP4137605B2 (en) * 2002-11-18 2008-08-20 日本電信電話株式会社 Service mediation method and system, mediation server device, user terminal device, and service mediation program
JP2004233175A (en) * 2003-01-30 2004-08-19 Hitachi Ltd Car navigation system using character
JP2005148724A (en) * 2003-10-21 2005-06-09 Zenrin Datacom Co Ltd Information processor accompanied by information input using voice recognition
JP4477378B2 (en) * 2004-02-25 2010-06-09 株式会社ケンウッド In-vehicle information providing apparatus and in-vehicle information providing method
JP4838499B2 (en) 2004-05-21 2011-12-14 オリンパス株式会社 User support device
JP4844098B2 (en) * 2005-11-24 2011-12-21 株式会社ケンウッド Navigation device, navigation method, navigation system, and traffic information guide program
JP4666091B2 (en) * 2009-07-07 2011-04-06 株式会社ケンウッド In-vehicle information providing apparatus and in-vehicle information providing method
KR20130071958A (en) * 2011-12-21 2013-07-01 엔에이치엔(주) System and method for providing interpretation or translation of user message by instant messaging application
US20140278951A1 (en) * 2013-03-15 2014-09-18 Avaya Inc. System and method for identifying and engaging collaboration opportunities
EP3012833B1 (en) * 2013-06-19 2022-08-10 Panasonic Intellectual Property Corporation of America Voice interaction method, and device
JP6849964B2 (en) * 2016-09-05 2021-03-31 株式会社Nextremer Dialogue control device, dialogue engine, management terminal, dialogue device, dialogue control method, dialogue method, and program
JP6915829B2 (en) * 2016-09-09 2021-08-04 米澤 朋子 Familiar ambient agent systems and programs
JP2018054850A (en) 2016-09-28 2018-04-05 株式会社東芝 Information processing system, information processor, information processing method, and program
WO2018179331A1 (en) 2017-03-31 2018-10-04 本田技研工業株式会社 Behavior support system, behavior support device, behavior support method and program
JP6660030B2 (en) * 2017-06-22 2020-03-04 カシオ計算機株式会社 Information processing apparatus, artificial intelligence identification method and program
EP3712563A4 (en) * 2017-09-29 2021-08-25 Pioneer Corporation Information provision device, information provision method, and program
JP7280066B2 (en) * 2019-03-07 2023-05-23 本田技研工業株式会社 AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM
JP7211856B2 (en) 2019-03-11 2023-01-24 本田技研工業株式会社 AGENT DEVICE, AGENT SYSTEM, SERVER DEVICE, CONTROL METHOD FOR AGENT DEVICE, AND PROGRAM
JPWO2020213468A1 (en) * 2019-04-16 2020-10-22
JP7208603B2 (en) * 2019-07-11 2023-01-19 株式会社フューチャーアイ Service provision system and terminal
JP7164501B2 (en) * 2019-09-11 2022-11-01 本田技研工業株式会社 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP2021182218A (en) * 2020-05-18 2021-11-25 トヨタ自動車株式会社 Agent control apparatus, agent control method, and agent control program
CN113639435B (en) * 2021-08-02 2023-01-13 青岛海尔空调器有限总公司 Air conditioner control method, apparatus, medium, and program product

Also Published As

Publication number Publication date
JP2001056225A (en) 2001-02-27

Similar Documents

Publication Publication Date Title
JP4193300B2 (en) Agent device
JP3873386B2 (en) Agent device
JP4353310B2 (en) In-vehicle device
JP4258585B2 (en) Destination setting device
JP4085500B2 (en) Vehicle status grasping device, agent device, and vehicle control device
JP5019145B2 (en) Driver information collection device
JP3965538B2 (en) Agent device
JP4441939B2 (en) Destination setting device
JPH11259446A (en) Agent device
US20040225416A1 (en) Data creation apparatus
JPH11259271A (en) Agent device
JP4207350B2 (en) Information output device
JP2003109162A (en) Agent apparatus
JPH11272640A (en) Agent device
JP2000181500A (en) Speech recognition apparatus and agent apparatus
JP4253918B2 (en) Agent device
JP4284733B2 (en) Agent device
JP2000186942A (en) Agent mental model preparing method, and agent device
JP4032492B2 (en) Agent device
JP2004045616A (en) On-board device, data preparation device and data preparation program
JP2003106846A (en) Agent apparatus
JP2000203465A (en) Information recording device
JP2004037953A (en) On-vehicle device, and device and program for data creation
JP2004053251A (en) In-vehicle device, data creating device and data creation program
JP2004051074A (en) In-vehicle device, data preparation device, and data preparation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080915

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees