JP2018083583A - 車両感情表示装置、車両感情表示方法および車両感情表示プログラム - Google Patents

車両感情表示装置、車両感情表示方法および車両感情表示プログラム Download PDF

Info

Publication number
JP2018083583A
JP2018083583A JP2016229202A JP2016229202A JP2018083583A JP 2018083583 A JP2018083583 A JP 2018083583A JP 2016229202 A JP2016229202 A JP 2016229202A JP 2016229202 A JP2016229202 A JP 2016229202A JP 2018083583 A JP2018083583 A JP 2018083583A
Authority
JP
Japan
Prior art keywords
emotion
vehicle
image
basic
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016229202A
Other languages
English (en)
Other versions
JP6419134B2 (ja
Inventor
智子 新谷
Tomoko Shinya
智子 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016229202A priority Critical patent/JP6419134B2/ja
Publication of JP2018083583A publication Critical patent/JP2018083583A/ja
Application granted granted Critical
Publication of JP6419134B2 publication Critical patent/JP6419134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

【課題】運転に集中している運転者にとっても車両感情を容易かつ正しく認識可能な車両感情表示装置を提供する。
【解決手段】車両感情表示装置1は、車両状態を検出する車両状態検出部2と、検出された車両状態に応じて車両感情を生成する車両感情生成部12と、生成された車両感情に対応する車両の表情画像とその背景となる背景画像とを含む車両感情画像の画像信号を生成する画像生成部14と、生成された画像信号に基づき車両感情画像を表示するモニタ6とを備える。車両感情は、基本感情と応用感情とを含み、画像生成部14は、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成する一方、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する。
【選択図】図1

Description

本発明は、車両が有すると想定される仮想の感情を表示する車両感情表示装置、車両感情表示方法および車両感情表示プログラムに関する。
この種の装置として、従来、車両の操作情報と挙動情報とに基づいて、車両が人格を有すると仮定したときの車両の仮想の感情を生成し、この車両感情を所定のキャラクタの表情により表示するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、キャラクタの表情と連動させて、キャラクタの背景色を変化させる。
特開2003−72488号公報
しかしながら、上記特許文献1記載の装置では、キャラクタの背景が単色で表示されるため、いくつかの異なる車両感情は互いに同一の色彩で表示される。したがって、乗員が車両感情を正しく認識するためには、背景色と同時にキャラクタの表情を目視で認識する必要があり、運転に集中している乗員(運転者)にとって、車両感情を正しく認識することが困難な場合がある。
本発明の一態様は、擬人化した車両が有すると想定される車両感情を表示する車両感情表示装置であって、車両状態を検出する車両状態検出部と、車両状態検出部により検出された車両状態に応じて車両感情を生成する車両感情生成部と、車両感情生成部により生成された車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する画像生成部と、画像生成部により生成された画像信号に基づき車両感情画像を表示する表示部と、を備える。車両感情は、基本感情と、基本感情から派生した応用感情とを含み、画像生成部は、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成する一方、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する。
本発明の他の態様は、擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法であって、車両状態を検出し、検出した車両状態に応じて、基本感情と、基本感情から派生した応用感情とを含む車両感情を生成し、生成した車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成し、生成した画像信号に基づき車両感情画像を表示部に表示させる。車両感情画像を生成するときには、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する。
本発明のさらなる他の態様である車両感情表示プログラムは、車両状態を特定する手順と、特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と該基本感情から派生した応用感情とを含む車両感情を生成する手順と、生成した車両感情に対応する車両の表情画像と、表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する手順であって、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成する一方、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成する手順と、生成した画像信号に基づき車両感情画像を表示部に表示させる手順と、をコンピュータに実行させる。
本発明によれば、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成するので、運転に集中している運転者であっても、表示部の表示を一見するだけで、車両感情を容易かつ正しく認識することができる。
本発明の実施形態に係る車両感情表示装置の概略構成を示すブロック図。 車両状態および乗員感情に対する車両の基本感情の対応関係を、車両感情画像の一例とともに示す図。 図2の基本感情から派生した応用感情の一例を示す図。 図3の応用感情の車両感情画像の一例を示す図。 応用感情に対応する応用背景画像の配色パターンの一例を示す図。 図5Aとは異なる応用感情に対応する応用背景画像の配色パターンの一例を示す図。 図1の制御装置のCPUで実行される処理の一例を示すフローチャート。 図1の変形例を示す図。 図1の別の変形例を示す図。
以下、図1〜図8を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る車両感情表示装置の概略構成を示すブロック図である。この車両感情表示装置1は、車両を擬人化したときに車両が有すると想定される車両感情を、車内の乗員に対して表示することが可能な装置であり、例えば車両に搭載されるナビゲーション装置をベースとして構成される。なお、以下では、擬人化された車両をエージェントと呼ぶことがある。
図1に示すように、車両感情表示装置1は、制御装置(ECU)10を有する。制御装置10には、車両状態検出部2と、操作検出部3と、カメラ4と、マイク5と、モニタ6と、スピーカ7と、通信ユニット8と、ナビゲーションユニット9とがそれぞれ接続される。
車両状態検出部2は、車両に設けられて車両の走行状況や燃費状態等の車両状態を検出する各種センサを含む。例えば、車速を検出する車速センサ、車両の進行方向に対する角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、GPS衛星から測位信号を受信して車両の現在位置を測定するGPSセンサ、燃料タンク内の燃料の残量を検出する残燃料センサ、バッテリの残容量を検出する残容量センサ等、車両状態を検出する各種センサを含む。
車両状態検出部2は、CAN(Controller Area Network)やLIN(Local Interconnect Network)等の車載通信ネットワークを介して他のECUから取得した情報により、車両状態を検出することもできる。この場合の取得情報には、例えば、車両のエンジン始動情報、エアバッグやABS(Antilock Brake System)等の安全装置系の作動情報、ワイパや燈火類の作動情報等が含まれる。車両状態検出部2の信号は、後述するように車両感情を生成するために用いることができる。
操作検出部3は、乗員(運転者など)によって操作される操作部材の操作の有無および操作量を検出する。例えば、エアコンのオンオフスイッチや窓の開閉スイッチ等の各種スイッチの操作の有無を検出する。このような乗員の快適性に影響を与える操作部材の操作の検出信号は、後述するように乗員の感情(乗員感情)を推定するために用いることができる。なお、モニタをタッチパネルにより構成する場合、操作検出部3はタッチパネルの入力操作も検出する。
操作検出部3は、乗員によって操作されるステアリング、アクセルペダル、ブレーキペダル等の操作部材の操作量を検出するセンサを含む。これら操作部材の操作に応じて車両状態が変化するため、操作検出部3により車両状態を間接的に検出することができる。すなわち、車両状態検出部2は、操作検出部3からの信号により車両状態を検出することもできる。このため、操作検出部3の信号は、後述するように車両感情を生成するために用いることもできる。
カメラ4は、CCDセンサやCMOSセンサ等の撮像素子を有し、乗員の顔を含む上半身を撮像する。すなわち、カメラ4は、乗員の表情や姿勢を撮像する。カメラ4からの画像信号は、後述するように乗員感情を推定するために用いることができる。
マイク5は、乗員の発話した音声を取得する。マイク5からの音声信号は、例えばA/D変換器を介し音声データとして制御装置10に入力される。マイク5からの音声信号は、後述するように乗員感情を推定するために用いることができる。
モニタ6は、例えば液晶パネルにより構成される。液晶パネル上にタッチパネルを設けることもできる。モニタ6は、目的地設定に関する情報、目的地までの経路案内情報、および経路上の現在位置情報等を表示する。さらに、モニタ6は、後述するように車両感情を表示することもできる。
スピーカ7は、車載オーディオユニットの一部であり、乗員の操作指令により音声出力の要求があったとき、あるいはマイク5を介して乗員から音声出力の要求があったとき、その要求に応答して乗員に音声を出力する。スピーカ7は、乗員からの音声出力の要求がなくても、制御装置10からの指令により自動的に音声を出力することもできる。スピーカ7は、車両感情に応じた音声を出力することができる。
通信ユニット8は、地上に設定された電話網やインターネット回線等の無線公衆回線との間で通信を行うものであり、通信ユニット8を介して制御装置10が車両の外部機器と通信することができる。通信ユニット8は、車内に存在するスマートフォン等の携帯端末との間で短距離無線通信を行うこともできる。
ナビゲーションユニット9は、乗員の要求に応じて、車両の現在地や目的地を検索し、現在地から目的地までの経路誘導や経路検索を行う、いわゆるナビゲーションシステムを搭載したユニットである。ナビゲーションユニット9は、ナビゲーション情報に関する画像信号および音声信号を生成し、これらをモニタ6およびスピーカ7に出力することができる。
制御装置10は、CPU,ROM,RAMその他の周辺回路を有する演算処理装置を含むコンピュータにより構成される。制御装置10は、機能的構成として、記憶部11と、乗員感情推定部12と、車両感情生成部13と、画像生成部14と、画像出力部15とを有する。
記憶部11は、道路地図データや施設データなどを含む地図情報、マイク5から入力された音声を認識する音声認識処理を行うときに用いられる音声認識辞書、およびスピーカ7から出力する音声に対応する音声情報を記憶する。さらに記憶部11は、乗員感情を推定するために用いられるデータ(例えば乗員感情と乗員の表情や音声との対応関係)、車両感情を生成するために用いられるデータ(例えば車両感情と車両状態との対応関係)、および車両感情に応じてモニタに表示される車両感情画像を生成するために用いられるデータ(例えば車両感情と車両感情画像との対応関係)等を記憶する。
乗員感情推定部12は、カメラ4からの画像信号とマイク5からの音声信号とに基づいて乗員感情を推定する。すなわち、乗員の顔の表情と乗員の発した音声とに基づき、予め記憶部11に記憶された乗員感情と乗員の表情および音声との対応関係を用いて、乗員感情を推定する。
具体的には、例えばPlutchikの感情の輪を用いて、乗員感情を8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、隣り合う2つの感情の組み合わせによる応用感情とに分類し、感情の輪のいずれかのパターンに当てはめることで乗員感情を推定する。なお、カメラ4からの画像信号とマイク5からの音声信号のいずれか一方に基づいて乗員感情を推定してもよい。操作検出部3により乗員感情に影響を及ぼす所定の操作(例えばエアコンのオンオフ操作や窓の開閉操作等)が検出されたか否かを判定し、その判定結果に基づいて乗員感情を推定してもよい。図示は省略するが、ウェアラブル端末を乗員に装着して乗員の脈拍、血圧、体温、血中酸素濃度等の生体情報を取得し、これら生体情報に応じて乗員感情を推定することもできる。
車両感情生成部13は、車両状態と乗員感情推定部12により推定された乗員感情とに基づき、予め記憶部11に記憶された所定の対応関係を用いて車両感情を生成する。図2は、この場合の対応関係を示す図である。図2の横軸の値は車両状態によって定まり、縦軸の値は乗員感情によって定まる。車両感情生成部13は、まず、車両状態を数値化した車両状態値αおよび乗員感情を数値化した乗員感情値βをそれぞれ算出する。
車両状態値αの算出は例えば以下のように行う。車両状態値αは、車両に作用する負荷が小さい場合等、車両にとって好ましい状態(正の状態)をプラスの値で、車両にとって好ましくない状態(負の状態)をマイナスの値で表す。車両状態値αは、車両状態検出部2により検出されたデータを用いて算出され、車両を擬人化したエージェントが車両の耐久性や安全性等の点から好ましいと判断する運転が行われるときに、プラスの値として算出される。反対に、エージェントが苦痛と判断するような運転が行われるとき、車両状態値αはマイナスの値として算出される。
例えば加速度センサにより検出された車両の加速度や減速度をパラメータとし、加速度や減速度が所定値以上のとき、エージェントが苦痛に感じると思われるため、算出される車両状態値αはマイナスの値となる。反対に、加速度や減速度が所定値未満のとき、エージェントにとって苦痛は小さいと思われるため、算出される車両状態値αはプラスの値となる。この場合、加速度や減速度が小さいほど、算出される車両状態値αを大きくし、反対に加速度や減速度が大きいほど、算出される車両状態値αを小さく(車両状態値αがマイナスの場合はその絶対値を大きく)してもよい。
なお、車両状態検出部2により検出されたデータとともに、あるいは車両状態検出部2により検出されたデータの代わりに、操作検出部3により検出されたデータを用いて車両状態値αを算出することもできる。例えば、アクセルペダルやブレーキペダルの踏み込み速度をパラメータとし、これが所定値以下のとき、車両状態値αがプラスであるとしてもよい。またはステアリングハンドルの操作速度をパラメータとし、これが所定値以下のとき車両状態値αがプラスであるとしてもよい。この場合も、アクセルペダルやブレーキペダルの踏み込み速度が遅いほど、あるいはステアリングハンドルの操作速度が遅いほど、算出される車両状態値αを大きくし、反対にこれらの速度が遅いほど、算出される車両状態値αを小さく(車両状態値αがマイナスの場合はその絶対値を大きく)してもよい。
車両状態値αは、燃料の残量や、バッテリの残容量等によっても影響を受ける。すなわち、残燃料や残容量が多いほど、エージェントは車両状態が好ましいと判断する。そこで、例えば残燃料センサにより検出された燃料の残量や、残容量センサによって検出されたバッテリの残容量をパラメータとし、残燃料や残容量が所定値以上のとき、車両状態値αをプラスとしてもよい。GPSセンサからの信号に基づいて車両の走行履歴を記憶部に記憶し、記憶された走行履歴を参照しつつ車両の現在地または目的地から車両状態値αを算出してもよい。例えば車両がある地域内を初めて走行している場合、車両が高揚した状態にあるとして車両状態値αをプラスにする、あるいは車両が不安な状態にあるとして車両状態値αをマイナスとしてもよい。
以上の車両状態値αを算出する複数のパラメータを総合的に勘案して、車両状態値αを算出してもよい。例えば、車両の加速度、減速度、残燃料等のパラメータを用いて算出されたそれぞれの車両状態値αに、車両状態値αがプラスであるときは+1、マイナスであるときは−1等のポイントを付与し、これらポイントの合計により全体の車両状態値αを算出してもよい。検出された車両の加速度、減速度、残燃料等の大きさに応じて+1より大きい、あるいは−1より小さいポイントを付与するようにしてもよい。
乗員感情値βの算出は例えば以下のように行う。乗員感情値βは、上述したようにPlutchikの感情の輪等を用いて類型化された乗員感情のうち、例えば喜びなどの好ましい感情(正の感情)をプラスの値で、悲しみなどの好ましからぬ感情(負の感情)をマイナスの値で表す。この場合、例えばそれぞれの感情が強いほど(感情の輪の内側に行くほど)、乗員感情値βの絶対値を大きくする。
図2に示すように、車両感情は、車両状態値αと乗員感情値βとに応じて4つの基本感情に分類することができる。車両感情生成部13は、算出された車両状態値αと乗員感情値βとに基づき、図2の対応関係を用いて、まず基本感情としての車両感情を生成する。すなわち、車両状態値αがプラスかつ乗員感情値βがプラスのとき、「好き」の車両感情を生成し、車両状態値αがプラスかつ乗員感情値βがマイナスのとき、「平穏」の車両感情を生成し、車両状態値αがマイナスかつ乗員感情値βがプラスのとき、「嫌い」の車両感情を生成し、車両状態値αがマイナスかつ乗員感情値βがマイナスのとき、「耐える」の車両感情を生成する。車両感情が「好き」「平穏」「嫌い」「耐える」と変化するに従い、車両感情が徐々に悪化する。
車両感情は、上記4つの基本感情に加え、各基本感情から派生した応用感情を含む。図3は、応用感情の一例を示す図である。図3に示すように、「好き」の基本感情から「愛しい」と「楽しい」の応用感情が派生し、「平穏」の基本感情から「機嫌がいい」と「安心」の応用感情が派生し、「嫌い」の基本感情から「悲しい」と「怒り」の応用感情が派生し、「耐える」の基本感情から「苦しい」と「辛い」の応用感情が派生する。
車両感情生成部13は、基本感情を生成する際に算出した車両状態値αと乗員感情値βとに応じて、あるいは車両状態値αと乗員感情値βのいずれか一方の値に応じて、基本感情とは別に応用感情を生成する。すなわち、車両状態値αと乗員感情値βのプラスマイナスの符号だけでなく、それらの値の大きさを考慮して応用感情を生成する。具体的には、車両感情生成部13は、車両状態値αや乗員感情値βの大きさ(絶対値)が所定値以上になると、各基本感情から派生したいずれかの応用感情を生成する。
これにより、例えば車両状態値αがプラスかつ乗員感情値βがプラスである図2の第1象限には、「好き」「愛しい」「楽しい」の3つの車両感情が含まれ、全体で12個の車両感情(4個の基本感情と8個の応用感情)に分類することができる。なお、基本感情を細分化したものが応用感情であるとして、応用感情を生成するためだけに基本感情を生成するようにしてもよい。この場合、全体で8個の車両感情(応用感情)に分類することができる。
図1に示すように、画像生成部14は、表情画像生成部14Aと背景画像生成部14Bとを有する。表情画像生成部14Aは、記憶部11に記憶された車両感情と車両感情画像との対応関係を用いて、車両感情生成部13により生成された車両感情に対応する車両(エージェント)の表情画像の画像信号を生成する。背景画像生成部14Bは、記憶部11に記憶された車両感情と車両感情画像との対応関係を用いて、表情画像の背景となる背景画像の画像信号を生成する。
図2は、基本感情の分類とともに、各基本感情に対応する車両感情画像21〜24の一例を示す。車両感情画像21〜24は、エージェントが人と同様の顔を有するものと仮定して、エージェントの顔を模式的に表したものである。すなわち、図2に示すように、基本表情の画像(基本表情画像21a〜24a)は、エージェントの目を模式化した目画像G1a〜G4aと、眉毛を模式化した眉画像G1b〜G4bとを含む。各基本表情画像21a〜24aは、エージェントの基本感情をイメージ化した所定の形態で表示される。すなわち、乗員が基本表情画像21a〜24aから車両状態を直感的に認識できるように、基本感情に応じて画像表示される目と眉毛の形状が定められ、各基本表情画像21a〜24aは互いに別々の形態を有する。なお、目画像G1a〜G4aおよび眉画像G1b〜G4bは所定の色で表示される。
図4は、各基本感情から派生した応用感情に対応する車両感情画像31〜38の一例を示す図である。図4に示すように、応用表情の画像(応用表情画像31a〜38a)は、図2の基本表情画像21a〜24aをベースとし、これにエージェントの表情を補う、あるいは強調する所定のアクセント画像G1c〜G8cを付加して構成される。すなわち、応用表情画像31a〜38aは、基本表情画像21a〜24aと同一の目画像G1a〜G4aおよび眉画像G1b〜G4bと、基本表情画像21a〜24aにはないアクセント画像G1c〜G8cとを含む。
アクセント画像G1c〜G8cは、ハート型や星型等のマーク状の模様によって表され、このアクセント画像G1c〜G8cが基本表情画像21a〜24a上の所定位置(例えば目画像G1a〜G4aの斜め下等)に配置されて、応用表情画像31a〜38aが生成される。アクセント画像G1c〜G8cは、乗員が応用表情画像31a〜38aから車両状態を直感的に認識できるように、形状および配置が定められる。アクセント画像G1c〜G8cを用いることで、各応用表情画像31a〜38aは、エージェントの応用感情のイメージを表す所定の形態で表示される。なお、図4では、応用感情毎に別々のアクセント画像G1c〜G8cを用いているが、全体の表情画像が互いに異なるのであれば、同一のアクセント画像を用いてもよい。アクセント画像G1c〜G8cは目画像G1a〜G4aおよび眉画像G1b〜G4bと同一または異なる所定の色で表示される。
基本表情画像21a〜24aおよび応用表情画像31a〜38aは、所定の色彩を有する背景画像21b〜24b,31b〜38bとともに表示される。すなわち、図2に示す基本感情に対応する4つの車両感情画像21〜24、および図4に示す応用感情に対応する8つの車両感情画像31〜38は、それぞれ互いに異なる背景画像21b〜24b,31b〜38bを含む。このうち、基本感情に対応する背景画像(基本背景画像21b〜24b)は、基本表情画像21a〜24aとは異なる色の単一の色彩によって生成され、基本背景画像21b〜24bは全体がムラなく単色で表示される。
例えば、「好き」の車両感情に対応する基本背景画像21bは暖色系(橙色など)の画像により生成され、「平穏」の車両感情に対応する基本背景画像22bは暖色系または中性系(緑色など)の画像により生成され、「嫌い」の車両感情に対応する基本背景画像23bは中性系または寒色系(紫色など)の画像により生成され、「耐える」の車両感情に対応する基本背景画像24bは中性系または寒色系(灰色など)の画像により生成される。すなわち、車両感情が悪化するに従い、暖色系から中性系または寒色系の色へと基本背景画像21b〜24bの色彩が変化する。
一方、応用感情に対応する背景画像(応用背景画像31b〜38b)は、各応用背景画像31b〜38bに対応する基本背景画像21b〜24bで用いられる色彩(第1の色彩)と、応用表情画像31a〜38aの色彩とは異なる第2の色彩とを組み合わせた画像により生成される。このとき、第2の色彩は第1の色彩と同色系であるとより好ましい。例えば、「愛しい」の応用感情に対応する応用背景画像31bは、共に暖色系の橙色(第1の色彩)と赤色(第2の色彩)とを組み合わせた画像によって生成される。「楽しい」の応用感情に対応する応用背景画像32bは、共に暖色系の橙色(第1の色彩)と黄色(第2の色彩)とを組み合わせた画像によって生成される。
なお、第2の色彩を第1の色彩と同色系の色とする代わりに、予め色彩が徐々に変化する所定数の色からなる配色パターンを設定し、この配色パターンの隣り合った色同士、すなわち互いに類似する色同士を、第1の色彩および第2の色彩に設定してもよい。
図5Aは、「愛しい」の応用感情に対応する応用背景画像31bの配色パターンの一例を示す図であり、図5Bは、「楽しい」の応用感情に対応する応用背景画像32bの配色パターンの一例を示す図である。図5A,図5Bに示すように、背景画像31b,32bは全体が矩形によって構成され、その対角線(境界線)AR0を境にして便宜上、全体を対角線の左上の領域AR1と対角線の右下の領域AR2とに区画する。
このとき、図5Aにおいては、領域AR1が主に第2の色彩(赤色)で表示され、領域AR2が主に第1の色彩(橙色)で表示される。さらに、各領域AR1,AR2の境界線AR0の近傍領域(例えば境界線AR0から所定範囲内の境界部AR3)は、赤色から橙色へと徐々に色が変化するようにグラデーション表示される。すなわち、画像31bの左上から右下にかけて赤色から橙色へと徐々に色彩が変化するように表示される。
図5Bにおいては、領域AR1が主に第1の色彩(橙色)で表示され、領域AR2が主に第2の色彩(黄色)で表示される。さらに、各領域AR1,AR2の境界線AR0の近傍領域(境界部AR3)は、橙色から黄色へと徐々に色が変化するようにグラデーション表示される。すなわち、画像32bの左上から右下にかけて橙色から黄色へと徐々に色彩が変化するように表示される。
このように、連続する応用車両感情「愛しい」「楽しい」のうち、一方の応用感情「愛しい」に対応した応用背景画像31bの領域AR2と、他方の応用感情「楽しい」に対応した応用背景画像32bの領域とを、同一の色(例えば橙色)で表示することにより、応用感情が例えば「愛しい」から「楽しい」へと変化した際に、背景色を連続的に変化させることができる。したがって、乗員は車両感情の変化を連続的なものとして捉えることができ、車両感情の変化を把握しやすい。なお、図示は省略するが、連続する他の応用車両感情に対応する応用背景画像同士においても、一方の応用背景画像の第1領域の色彩と他方の応用背景画像の第2領域の色彩とが、同一の色に設定される。
以上の車両感情と車両感情画像21〜24,31〜38との対応関係は、予め記憶部11に記憶される。画像生成部14は、この記憶情報に基づいて、車両感情に対応する車両感情画像21〜24,31〜38がモニタ6に表示されるように、画像信号を生成する。
図1の画像出力部15は、画像生成部14で生成された画像信号をモニタ6に出力する。これによりモニタ6に車両感情に対応したいずれかの車両感情画像21〜24,31〜38が表示される。画像出力部15は、モニタ6の全体または一部に車両感情画像21〜24,31〜38が表示されるようにモニタ6の表示形態を制御する。例えば、ナビゲーションユニット9による目的地までの経路誘導を表示しているときは、その表示を優先し、車両感情画像21〜24,31〜38をモニタ画面の端部に縮小して表示する。一方、経路誘導の表示を行わない場合には、モニタ画面全体に車両感情画像21を拡大して表示する。
図6は、予め記憶部11に格納されたプログラムに従って制御装置10のCPUで実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えばエンジンキースイッチのオンにより開始され、所定周期で繰り返される。
まず、ステップS1で、車両状態検出部2からの信号を読み込み、この信号に基づき車両状態を特定する。なお、車両状態検出部2と操作検出部3とからの信号に基づき車両状態を特定することもできる。次いで、ステップS2で、カメラ4とマイク5からの信号を読み込み、これらの信号に基づき乗員感情を推定する。なお、操作検出部3からの信号を考慮して乗員感情を推定することもできる。
次いで、ステップS3で、ステップS1で特定された車両状態を数値化した車両状態値αと、ステップS2で推定された乗員感情を数値化した乗員感情値βとに基づき、車両が現在有すると想定される車両感情を生成する。例えば、図2の関係を用いて基本感情を生成、あるいは基本感情から派生した応用感情を生成する。
次いで、ステップS4で、記憶部11に記憶された対応関係を用いて、ステップS3で生成された車両感情に対応する画像信号を生成する。例えば、ステップS3で生成された車両感情が基本感情であるとき、その基本感情を表す基本表情画像21a〜24a(目画像G1a〜G4a、眉画像G1b〜G4b)と単色の基本背景画像21b〜24bとに対応した画像信号をそれぞれ生成する。一方、ステップS3で生成された車両感情が応用感情であるとき、その応用感情を表す応用表情画像31a〜38a(目画像G1a〜G4a、眉画像G1b〜G4b、アクセント画像G1c〜G8c)と2色のグラデーション表示された応用背景画像31b〜38bとに対応した画像信号をそれぞれ生成する。
次いで、ステップS5で、ステップS4で生成された画像信号をモニタ6に出力する。これによりモニタ6には、車両感情に対応した車両感情画像、すなわち図2のいずれかの画像21〜24または図4のいずれかの画像31〜38がモニタ6に表示される。
本実施形態によれば以下のような作用効果を奏することができる。
(1)車両感情表示装置1は、擬人化した車両が有すると想定される車両感情を表示するものであり、車両状態を検出する車両状態検出部2と、車両状態検出部2により検出された車両状態に応じて車両感情を生成する車両感情生成部13と、車両感情生成部13により生成された車両感情に対応する車両の表情画像21a〜24a,31a〜38aと、表情画像21a〜24a,31a〜38aの背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成する画像生成部14と、画像生成部14により生成された画像信号に基づき車両感情画像21〜24,31〜38を表示するモニタ6と、を備える(図1)。車両感情は、基本感情と、基本感情から派生した応用感情とを含む(図3)。画像生成部14は、基本感情に対応する第1の色彩により基本感情に対応する基本背景画像21b〜24bの画像信号を生成する一方、第1の色彩および第2の色彩(例えば第1の色彩と同系色の第2の色彩)の組み合わせにより応用感情に対応する応用背景画像31b〜38bの画像信号を生成する(図6のステップS4)。
このように基本背景画像21b〜24bと同一の色(例えば橙色)を含む2色で応用背景画像31b〜38bを表示するので、車両感情を表す各背景画像21b〜24b,31b〜38bの全体を互いに異なった色で表示することができる。このため、乗員はモニタ6を一見するだけで、現在の車両感情を認識することができ、運転に集中している場合であっても車両状態を容易かつ正確に認識可能である。応用背景画像31b〜38bは、基本背景画像21b〜24bと同一の第1の色彩(例えば橙色)と第2の色彩(例えば第1の色彩と同色系の赤色)とを組み合わせて生成されるので、乗員は、車両感情と基本背景画像21b〜24bの色とを対応付けて記憶しておけば、現在の車両感情がどの基本感情から派生した応用感情であるかを容易に認識することができ、車両感情の把握が容易である。
(2)画像生成部14は、基本感情に対応する基本表情により基本感情に対応する基本表情画像21a〜24aの画像信号を生成する一方、基本感情に対応する基本表情画像21a〜24a(目画像G1a〜G4a、眉画像G1b〜G4b)と車両の表情を補うアクセント画像G1c〜G8cとの組み合わせにより応用感情に対応する応用表情画像31a〜38aの画像信号を生成する(図2,4)。このため、各車両感情がそれぞれ異なる表情で表示されることなり、乗員は、例えば停車中等にモニタ6の画像を目視して表情画像21a〜24a,31a〜38aを認識することにより、車両感情を正しく把握できる。
(3)画像生成部14は、モニタ画像を2つの領域AR1,AR2に区画したとき、領域AR1,AR2の一方が第1の色彩で領域AR1,AR2の他方が第2の色彩で表示され、領域AR1,AR2の境界部AR3が第1の色彩から第2の色彩にかけて徐々に色彩が変化して表示されるように応用背景画像31b〜38bの画像信号を生成する。これにより車両感情画像31〜38の背景がグラデーション表示され、乗員は車両感情の変化を違和感なく直感的に認識できる。
(4)車両感情表示装置1は、乗員の感情を推定する乗員感情推定部12をさらに備える(図1)。車両感情生成部13は、乗員感情推定部12により推定された乗員の感情と車両状態検出部2により検出された車両状態とに応じて、車両感情を生成する(図2)。このため、例えば乗員が喜びの感情を持っているときに、車両(エージェント)にも喜びの感情を与えるように構成することができ、これにより、乗員に寄り添うようなエージェントの気持ち(共感)を演出することができ、乗員がエージェントに愛着を感じるようになる。また、乗員が不安の感情を持っているときには、エージェントには安定の感情を与えるように構成することができ、これにより、乗員の不安の感情を緩和することができる。このように乗員感情を考慮して車両感情を生成することで、車両の付加価値が高まり、乗員の乗車する喜びが大きくなる。
本発明は、上記実施形態に限らず種々の形態に変形することができる。上記実施形態(図1)では、カーナビゲーション装置をベースとして車両感情表示装置1を構成したが、車両感情表示装置の構成はこれに限らない。図7は、図1の変形例を示す図であり、スマートフォン、タブレット端末、携帯電話、各種ウェアラブル端末等の携帯無線端末1Aに車両感情表示装置を適用した例を示す。すなわち、一般に携帯無線端末1A(例えばスマートフォン)は、制御装置10Aと、制御装置10Aに接続されたGPSセンサ、ジャイロセンサ等の車両状態検出部2Aと、カメラ4Aと、マイク5Aと、モニタ6Aと、スピーカ7Aと、通信ユニット8Aとを有する。このため、図1と同様に制御装置10Aを構成することで、車両感情をモニタ6Aに表示することが可能となる。
図8は、図1のさらに別の変形例を示す図である。図8では、車両感情表示装置1が、通信ユニット8(図1)および無線通信網、インターネット網、電話回線網などの通信ネットワーク101を介してサーバ102から各種情報を取得するように構成される。これにより記憶部11に記憶されたデータの一部(例えば画像データ)をサーバ102から取得することができ、大容量の記憶部11を設けることなく車両感情表示装置1を構成することができる。図8において、車両感情表示装置1の少なくとも一部の機能を、運転者が携帯する携帯無線端末1Bによって実現することもできる。例えば通信ネットワーク101を介して携帯無線端末1Bからサーバ102に位置情報を送信するようにしてもよい。
なお、上記実施形態では、車両状態を数値化した車両状態値αと乗員感情を数値化した乗員感情値βとに基づいて車両感情生成部13が車両感情を生成するようにしたが、車両状態や乗員感情を数値化せずに特定の車両状態あるいは乗員感情が検出されたときに、その車両状態あるいは乗員感情に基づいて車両感情を生成するようにしてもよい。また、乗員感情を考慮せずに例えば車両状態のみを考慮して車両感情を生成するようにしてもよく、車両感情生成部の構成は上述したものに限らない。
上記実施形態では、画像生成部14が、エージェントの基本感情に対応する基本表情画像21a〜24aの画像信号を生成するとともに、表情画像21a〜24aとアクセント画像G1c〜G8cとの組み合わせにより応用表情画像31a〜38aの画像信号を生成するようにしたが、車両感情に対応する表情画像と表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成するのであれば、画像生成部の構成はいかなるものでもよい。例えば基本表情画像を用いずに応用表情画像を生成してもよい。上記実施形態では、エージェントの感情を目と眉を含む顔の表情により表すようにしたが、手や足等を含むエージェントの体全体でエージェントの感情を表すようにしてもよく、車両感情画像の構成は上述したものに限らない。
上記実施形態では、ナビゲーション装置のモニタ6に車両感情画像21〜24,31〜38を表示するようにしたが、車両感情表示専用のモニタを車内に設け、そこに車両感情画像を表示するようにしてもよく、表示部の構成は上述したものに限らない。
上記実施形態では、応用感情を表示する際に、モニタ6の領域AR1,AR2の一方および他方をそれぞれ第1領域および第2領域として、各領域AR1,AR2がそれぞれ第1の色彩および第1の色彩と同色系の第2の色彩で表示され、かつ、第1領域と第2領域の境界部AR3が第1の色彩から第2の色彩にかけて徐々に色彩が変化して表示されるようにした。すなわち、応用背景画像31b〜38bをグラデーション表示するようにしたが、背景画像の表示形態はこれに限らず、第1の色彩および第2の色彩の組み合わせにより構成されるのであれば、背景画像はいかに構成されてもよい。例えば、第1の色彩と第2の色彩とに加え、第3の色彩等、より多くの色彩を用いてもよい。
上記実施形態では、擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法として、車両状態検出部2等により車両状態を検出し、検出した車両状態に応じて、車両感情生成部13が基本感情と基本感情から派生した応用感情とを含む車両感情を生成し、画像生成部14が、生成した車両感情に対応する車両の表情画像21a〜24a,31a〜38aとその背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成し、画像出力部15がモニタ6に画像信号を出力することで、生成した画像信号に基づき車両感情画像21〜24,31〜38をモニタ6に表示させるようにした。そして、車両感情画像21〜24,31〜38を生成するときに、基本感情に対応する第1の色彩(例えば橙色)により基本感情に対応する背景画像21bの画像信号を生成し、第1の色彩および第1の色彩と同系色の第2の色彩(例えば赤色、黄色)の組み合わせにより応用感情に対応する背景画像31b,32bの画像信号を生成するようにした。しかしながら、特に、車両感情画像を生成するときに、基本感情に対応する第1の色彩により基本感情に対応する背景画像の画像信号を生成し、第1の色彩および第2の色彩の組み合わせにより応用感情に対応する背景画像の画像信号を生成するのであれば、車両感情表示方法は上述したものに限定されない。
上記実施形態では、図6に示すように制御装置10のECUが、車両状態を特定する手順(ステップS1)と、特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と基本感情から派生した応用感情とを含む車両感情を生成する手順と(ステップS2)、生成した車両感情に対応する車両の表情画像21a〜24a,31a〜38aとその背景となる背景画像21b〜24b,31b〜38bとを含む車両感情画像21〜24,31〜38の画像信号を生成する手順であって、基本感情に対応する第1の色彩により基本感情に対応する背景画像21b〜24bの画像信号を生成する一方、第1の色彩および第1の色彩と同系色の第2の色彩の組み合わせにより応用感情に対応する背景画像31b〜38bの画像信号を生成する手順(ステップS4)と、生成した画像信号に基づき車両感情画像をモニタ6に表示させる手順(ステップS5)と、を含むプログラム(車両感情表示プログラム)を実行するようにした。しかしながら、制御装置10で実行される処理は図6に示したものに限らず、したがって、これらの手順をコンピュータに実行させる車両感情表示プログラムの構成も上述したものに限らない。上記実施形態では、車両感情表示プログラムを制御装置10の記憶部11に格納したが、フラッシュメモリ等の外部記憶媒体に格納してもよい。通信ネットワーク101を介して車両外部から車両感情表示プログラムを取得することもできる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1,1A 車両感情表示装置、2 車両状態検出部、3 操作検出部、4 カメラ、5 マイク、6 モニタ、10 制御装置、11 記憶部、12 乗員感情推定部、13 車両感情生成部、14 画像生成部、15 画像出力部、21〜24,31〜38 車両感情画像、21a〜24a 基本表情画像、21b〜24b 基本背景画像、31a〜38a 応用表情画像、31b〜38b 応用背景画像

Claims (6)

  1. 擬人化した車両が有すると想定される車両感情を表示する車両感情表示装置であって、
    車両状態を検出する車両状態検出部と、
    前記車両状態検出部により検出された車両状態に応じて車両感情を生成する車両感情生成部と、
    前記車両感情生成部により生成された車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する画像生成部と、
    前記画像生成部により生成された画像信号に基づき車両感情画像を表示する表示部と、を備え、
    前記車両感情は、基本感情と、該基本感情から派生した応用感情とを含み、
    前記画像生成部は、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成する一方、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成することを特徴とする車両感情表示装置。
  2. 請求項1に記載の車両感情表示装置において、
    前記画像生成部は、前記基本感情に対応する基本表情により前記基本感情に対応する表情画像の画像信号を生成する一方、前記基本感情に対応する表情画像と車両の表情を補うアクセント画像との組み合わせにより前記応用感情に対応する表情画像の画像信号を生成することを特徴とする車両感情表示装置。
  3. 請求項1または2に記載の車両感情表示装置において、
    前記画像生成部は、前記表示部の第1領域および第2領域がそれぞれ前記第1の色彩および前記第2の色彩で表示され、前記第1領域と前記第2領域の境界部が前記第1の色彩から前記第2の色彩にかけて徐々に色彩が変化して表示されるように背景画像の画像信号を生成することを特徴とする車両感情表示装置。
  4. 請求項1〜3のいずれか1項に記載の車両感情表示装置において、
    乗員の感情を推定する乗員感情推定部をさらに備え、
    前記車両感情生成部は、前記乗員感情推定部により推定された乗員の感情と前記車両状態検出部により検出された車両状態とに応じて、前記車両感情を生成することを特徴とする車両感情表示装置。
  5. 擬人化した車両が有すると想定される車両感情を表示させる車両感情表示方法であって、
    車両状態を検出し、
    検出した車両状態に応じて、基本感情と、該基本感情から派生した応用感情とを含む車両感情を生成し、
    生成した車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成し、
    生成した画像信号に基づき車両感情画像を表示部に表示させ、
    前記車両感情画像を生成するときには、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成し、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成することを含む車両感情表示方法。
  6. 車両状態を特定する手順と、
    特定した車両状態に応じて、擬人化した車両が有すると想定される基本感情と該基本感情から派生した応用感情とを含む車両感情を生成する手順と、
    生成した車両感情に対応する車両の表情画像と、前記表情画像の背景となる背景画像とを含む車両感情画像の画像信号を生成する手順であって、前記基本感情に対応する第1の色彩により前記基本感情に対応する背景画像の画像信号を生成する一方、前記第1の色彩および第2の色彩の組み合わせにより前記応用感情に対応する背景画像の画像信号を生成する手順と、
    生成した画像信号に基づき車両感情画像を表示部に表示させる手順と、をコンピュータに実行させるための車両感情表示プログラム。
JP2016229202A 2016-11-25 2016-11-25 車両感情表示装置、車両感情表示方法および車両感情表示プログラム Active JP6419134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016229202A JP6419134B2 (ja) 2016-11-25 2016-11-25 車両感情表示装置、車両感情表示方法および車両感情表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016229202A JP6419134B2 (ja) 2016-11-25 2016-11-25 車両感情表示装置、車両感情表示方法および車両感情表示プログラム

Publications (2)

Publication Number Publication Date
JP2018083583A true JP2018083583A (ja) 2018-05-31
JP6419134B2 JP6419134B2 (ja) 2018-11-07

Family

ID=62237974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016229202A Active JP6419134B2 (ja) 2016-11-25 2016-11-25 車両感情表示装置、車両感情表示方法および車両感情表示プログラム

Country Status (1)

Country Link
JP (1) JP6419134B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130700A1 (en) * 2017-06-27 2020-04-30 Kawasaki Jukogyo Kabushiki Kaisha Travel evaluation method and pseudo-emotion generation method
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
US11010594B2 (en) 2018-10-11 2021-05-18 Hyundai Motor Company Apparatus and method for controlling vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JP2004301651A (ja) * 2003-03-31 2004-10-28 Equos Research Co Ltd 車載装置及びデータ作成装置
JP2011248502A (ja) * 2010-05-25 2011-12-08 Sony Corp 情報処理装置、情報出力方法及びプログラム
JP2013063747A (ja) * 2011-09-20 2013-04-11 Aisin Seiki Co Ltd 車両情報表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
JP2004301651A (ja) * 2003-03-31 2004-10-28 Equos Research Co Ltd 車載装置及びデータ作成装置
JP2011248502A (ja) * 2010-05-25 2011-12-08 Sony Corp 情報処理装置、情報出力方法及びプログラム
JP2013063747A (ja) * 2011-09-20 2013-04-11 Aisin Seiki Co Ltd 車両情報表示システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130700A1 (en) * 2017-06-27 2020-04-30 Kawasaki Jukogyo Kabushiki Kaisha Travel evaluation method and pseudo-emotion generation method
US11760357B2 (en) * 2017-06-27 2023-09-19 Kawasaki Motors, Ltd. Travel evaluation method and pseudo-emotion generation method
US11010594B2 (en) 2018-10-11 2021-05-18 Hyundai Motor Company Apparatus and method for controlling vehicle
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
JP7370531B2 (ja) 2019-02-26 2023-10-30 株式会社日立製作所 応答装置および応答方法

Also Published As

Publication number Publication date
JP6419134B2 (ja) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6513069B2 (ja) 運転支援装置および運転支援方法
JP6499682B2 (ja) 情報提供システム
JP5729345B2 (ja) 感情モニタリングシステム
US20180093673A1 (en) Utterance device and communication device
US20210124962A1 (en) Artificial intelligence apparatus and method for determining inattention of driver
JP6612707B2 (ja) 情報提供装置
EP3889740A1 (en) Affective-cognitive load based digital assistant
JP6713490B2 (ja) 情報提供装置及び情報提供方法
JP6419134B2 (ja) 車両感情表示装置、車両感情表示方法および車両感情表示プログラム
JP2008068664A (ja) 車両制御装置および車両制御方法
JP6737875B2 (ja) 鞍乗型車両用処理装置
JP2008070965A (ja) 車両制御装置および車両制御方法
JP2018189720A (ja) 情報出力制御装置、情報出力制御方法、情報出力システム、およびプログラム
JP6552548B2 (ja) 地点提案装置及び地点提案方法
Rong et al. Artificial intelligence methods in in-cabin use cases: A survey
CN112837407A (zh) 一种智能座舱全息投影***及其交互方法
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
JP2024041746A (ja) 情報処理装置
Lu et al. A review of sensory interactions between autonomous vehicles and drivers
WO2021258671A1 (zh) 基于车载数字人的辅助驾驶交互方法及装置、存储介质
US11325605B2 (en) Information providing device, information providing method, and storage medium
Choi et al. Conceptual design of driver-adaptive human-machine interface for digital cockpit
CN107888652B (zh) 处理结果异常检测装置、存储介质、检测方法和移动体
CN117087531A (zh) 控制灯光显示设备的方法和装置
Karas et al. Audiovisual Affect Recognition for Autonomous Vehicles: Applications and Future Agendas

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150