JP2021097765A - 制御装置およびプログラム - Google Patents

制御装置およびプログラム Download PDF

Info

Publication number
JP2021097765A
JP2021097765A JP2019229936A JP2019229936A JP2021097765A JP 2021097765 A JP2021097765 A JP 2021097765A JP 2019229936 A JP2019229936 A JP 2019229936A JP 2019229936 A JP2019229936 A JP 2019229936A JP 2021097765 A JP2021097765 A JP 2021097765A
Authority
JP
Japan
Prior art keywords
agent
control device
certainty
control unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019229936A
Other languages
English (en)
Inventor
尚貴 砂川
Naotaka Sunakawa
尚貴 砂川
真史 堀部
Masashi Horibe
真史 堀部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2019229936A priority Critical patent/JP2021097765A/ja
Publication of JP2021097765A publication Critical patent/JP2021097765A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Navigation (AREA)

Abstract

【課題】対象となる情報の確信度を、エージェントを用いてより直感的に伝えることが可能な制御装置およびプログラムを提供する。【解決手段】情報を提示するエージェントの制御を行う制御部を備え、前記制御部は、対象となる情報の確からしさの度合いを示す確信度を取得し、当該取得した確信度が低下すると、前記エージェントの状態を正常と異なる規定の状態に制御する、制御装置。【選択図】図1

Description

本発明は、制御装置およびプログラムに関する。
近年、ユーザと音声による対話を行って様々な情報を提示するエージェント機能が提案されている。例えば、下記特許文献1では、車載用ナビゲーション装置において、エンターテインメント性を持たせるために音声と画像により擬人化したエージェントを現出させ、エージェントとの対話でユーザが各種の指示が与えることができる技術が開示されている。
特開2007−133728号公報
ここで、情報処理によりシステムが何らかの判断を行う際、当該判断に用いる情報の精度が高くない場合や、システムによる判断の精度が高くない場合が生じ得る。また、人の発言内容に関しても、正確さに欠ける場合や、本人が確証を得ずに話している場合等がある。このようなシステム側の状況や人の発言内容といった種々の情報についての正確さを判断し、判断結果を例えば数値でユーザに提示しても、伝わりにくい。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、対象となる情報の確信度を、エージェントを用いてより直感的に伝えることが可能な、新規かつ改良された制御装置およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、情報を提示するエージェントの制御を行う制御部を備え、前記制御部は、対象となる情報の確からしさの度合いを示す確信度を取得し、当該取得した確信度が低下すると、前記エージェントの状態を正常と異なる規定の状態に制御する、制御装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、情報を提示するエージェントの制御を行う制御部として機能させ、前記制御部は、対象となる情報の確からしさの度合いを示す確信度を取得し、当該取得した確信度が低下すると、前記エージェントの状態を正常と異なる規定の状態に制御する、プログラムが提供される。
以上説明したように本発明によれば、対象となる情報の確信度を、エージェントを用いてより直感的に伝えることが可能となる。
本発明の一実施形態に係る制御システムの概要について説明する図である。 本実施形態に係る制御システムの構成の一例を示す図である。 本実施形態に係るエージェントの正常とは異なる状態の制御の一例について説明する図である。 本実施形態に係るエージェント制御システムの動作処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<1.概要>
図1は、本発明の一実施形態に係るエージェント制御システム1の概要について説明する図である。本実施形態において、エージェントとは、利用者に情報を提示するものであって、コンピュータにより実現される。本実施形態では、一例として、図1に示すようにエージェントを実物体で実現したエージェントデバイスとして制御装置10を用いる。本実施形態によるエージェント制御システム1は、制御装置10により利用者に対して情報の提示を行う。なお、図1に示す例では、一例として制御装置10の外観(すなわち、制御装置10を形成する筐体の形状)を卵型としているが、本発明はこれに限定されない。
本実施形態による制御装置10は、移動体の一例である車両に載置され、運転者を含む乗員に対して情報の提示を行い得る。例えば制御装置10は、図1に示すように、運転席の前方に載置される。なお、図1に示す例では、制御装置10が載置される車両が、自律的に走行する自動運転中の場合を想定する。
制御装置10による情報の提示は、例えば制御装置10に設けられたスピーカ130(図2参照)を用いて音声により行われる。すなわち、制御装置10は、情報提示としてエージェント音声により(エージェントの発話として)様々な情報を音声出力する。また、制御装置10は、制御装置10に設けられたマイクロホン100(図2参照)を用いて乗員の発話を収音して音声認識し、乗員の発話に対するエージェントの応答を、スピーカ130から出力することも可能である(エージェントの音声対話機能)。また、本実施形態による制御装置10は、自身の外観の色や模様(表示)を変化させることが可能である。例えば制御装置10を形成する筐体の表面(外側の面)に、表示部140(図2参照)が設けられている場合、制御装置10は、表示部140の表示制御により色や模様を変化させることが可能である。また、制御装置10は、駆動機構(駆動部150、図2参照)を有し、制御装置10自体を動かすことが可能である。
(課題の整理)
ここで、情報処理によりシステムが何らかの判断を行う際(例えば、自動運転制御など)、状況によっては、当該判断に用いる情報の精度が高くない場合や、システムによる判断の精度が高くない場合も生じ得る。また、人の発言内容に関しても、正確さに欠ける場合や、本人が確証を得ずに話している場合等がある。このようなシステムの判断や人の発言内容といった種々の事象についての正確さを判断して判断結果を単に数値でユーザに提示しても、確かさや不確かさは直感的には伝わらない。
本発明の一実施形態に係るエージェント制御システム1は、上記の点に着目して発想されたものであり、対象となる情報の確信度を、エージェントを用いてより直感的に伝えることを可能とする。
以下、本実施形態によるエージェント制御システム1の構成について詳細に説明する。
<2.構成例>
図2は、本実施形態に係るエージェント制御システム1の構成の一例を示す図である。図2に示すように、エージェント制御システム1は、制御装置10、車両状態検出装置20、周辺環境検出装置30、および運転者状態検出装置40を有する。車両状態検出装置20、周辺環境検出装置30、および運転者状態検出装置40は、車両に搭載されるセンサの一例である。制御装置10、車両状態検出装置20、周辺環境検出装置30、および運転者状態検出装置40は、一例としてすべて車両に搭載される。
(2−1.車両状態検出装置20)
車両状態検出装置20は、車両(移動体の一例)の状態に関する情報を検出し、検出した情報を制御装置10に出力する。車両の状態としては、例えば、運転者による操作を必要とする手動運転状態か自律的に走行する自動運転状態かが挙げられる。自動運転状態の場合は、さらに自動運転の状況として、どのような情報(センシングデータ)を用いてどのような判断(運転行動の選択)が行われているか等が検出され得る。自動運転の制御は、車両に設けられた様々なセンサから取得したセンシングデータを用いて行われ得る。例えば、カメラ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging、「光検出と測距」または「レーザー画像検出と測距」)、ミリ波センサ、超音波センサ、加速度センサ、ジャイロセンサ、位置センサ(GNSS;Global Navigation Satellite System)といったセンサが、車両に設けられ、周辺の状況を検出する。例えば、カメラから取得した撮像画像の認識により、物体認識やトラッキングを行い、標識の認識、信号の認識、白線の認識、走行可能エリアの認識、周辺の車両の認識、歩行者や障害物の認識等が行われる。また、ステレオカメラを用いて、認識した物体との距離や相対速度などが測定される。また、LIDARから取得したデータに基づいて、周辺の物体の検出や、物体との距離や方向の測定、また、自動運転で利用する自動運転用地図における自車位置の推定が行われる。車両状態検出装置20は、このような自動運転に用いられる各センサのセンシングデータも、車両の状態として検出する。
また、車両状態検出装置20は、手動運転状態の場合は、さらに運転者による運転の状態(例えば、走行速度、アクセルやブレーキの操作量、操作タイミング、ステアリングホイールの操舵角など)を検出する。
また、車両状態検出装置20は、車両状態として、車両の燃料残量(移動体の駆動源に用いられるエネルギーの残量)、瞬間燃費や平均燃費、航続可能距離(残りの燃料で走れる距離)、車両のメンテナンス状態(エンジンオイルやバッテリーの交換有無といった整備の状態)なども検出し得る。
車両状態検出装置20は、検出した情報(センシングデータ)を制御装置10にそのまま出力してもよいし、センシングデータの解析結果など何らかの処理を行った結果得られたデータを、制御装置10に出力してもよい。
(2−2.周辺環境検出装置30)
周辺環境検出装置30は、車両周辺の環境に関する情報(周辺環境情報)を検出し、検出した情報を制御装置10に出力する。車両周辺の環境とは、例えば、天候(晴天、雨、霧、雪など)、気温、湿度、照度、他の車両や歩行者、障害物の位置などが挙げられる。周辺環境検出装置30は、車両に搭載された1以上の各種センサ(カメラ、レーダ、超音波センサ、照度センサ、温度センサ、雨センサなど)により、上述したような周辺環境情報をそれぞれ検出してもよいし、車両周辺の路上に設置された機器や他の車両との通信により取得してもよい。周辺環境検出装置30は、検出された情報(センシングデータ)をそのまま制御装置10に出力してもよいし、センシングデータを解析した結果を制御装置10に出力してもよい。
(2−3.運転者状態検出装置40)
運転者状態検出装置40は、移動体の一例である車両を運転する運転者の状態に関する情報を検出し、検出した情報を制御装置10に出力する。自動運転中であっても、状況に応じて(例えば安全な走行を保つことができないと判断された場合等)手動運転に切り替わり、運転者が運転に介入する必要がある場合も生じるため、運転席には運転者が着座していることを想定する。
運転者の状態とは、例えば、運転者の生体情報、覚醒状態、視線、顔の向き、感情等が想定される。運転者状態検出装置40は、車両に搭載された1以上の各種センサ(カメラ、マイクロホン、生体センサなど)により、運転者状態を検出し得る。運転者状態検出装置40は、検出した情報(センシングデータ)を制御装置10に出力してもよいし、センシングデータを解析した結果を制御装置10に出力してもよい。例えば、車両に設けられたカメラにより運転者の顔を撮像した撮像画像を解析し、運転者の視線方向(顔の向きなど)を抽出し、抽出結果を制御装置10に出力してもよい。
(2−4.制御装置10)
制御装置10は、エージェントとしての外観を有する装置(所謂エージェントデバイス)であって、利用者に情報を提供する機能(エージェント機能)を有する。制御装置10は、着脱可能に車両に設置されてもよいし、運転者の周辺に単に載置されるだけであってもよい。また、制御装置10は、車両状態検出装置20、周辺環境検出装置30、および運転者状態検出装置40と、有線または無線の通信ネットワークにより接続される。通信ネットワークは、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、又はLAN(Local Area Network)等の任意の規格に準拠した車載通信ネットワークであってもよい。
制御装置10は、図2に示すように、マイクロホン100と、通信I/F(インタフェース)110と、制御部120と、スピーカ130と、表示部140と、駆動部150と、記憶部160と、を備える。
(マイクロホン100)
マイクロホン100は、周辺の音声を収音し、収音した音声のデータ(音声データ)を制御部120に出力する。
(通信I/F110)
通信I/F110は、車両に存在する様々な車内機器との間で、無線または有線により、データの送信および受信を行う機能を有する。車内機器には、上述した車両状態検出装置20、周辺環境検出装置30、および運転者状態検出装置40にそれぞれ該当する各種センサも含まれる。車内機器との間におけるデータの送受信は、例えばCAN、LIN、又はLAN等の任意の規格に準拠した車載通信ネットワークを用いて行われ得る。
また、通信I/F110は、車両の外部に存在する装置(以下、外部の装置とも称する)との間でデータの送信および受信を行う機能を有していてもよい。通信I/F110は、外部の装置との間におけるデータの送受信を行う機能として、例えばWiMAX、LTE(Long Term Evolution)などのセルラー通信プロトコル、又は、無線LAN(Wi−Fi(登録商標))、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してもよい。通信I/F110は、基地局やアクセスポイントを介して、外部ネットワーク(例えば、インターネット)上のサーバに接続し得る。
(制御部120)
制御部120は、制御装置10にて行われる処理全般を統括的に制御する構成である。例えば、制御部120は、記憶部160に記憶されているプログラムやパラメータ等を用いて各種機能を実現するための処理を実行する。制御部120は、例えば、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。なお、制御部120の制御内容は特に限定されない。
例えば制御部120は、マイクロホン100およびスピーカ130を用いて、利用者(ここでは、運転者やその他乗員)と音声による対話を行う制御(すなわち、エージェントによる音声対話機能)を行い得る。具体的には、制御部120は、マイクロホン100で収音した運転者の発話音声に対して音声認識処理を行い、テキスト化したデータの意味解析や形態素解析を行う。次いで、解析結果に基づいて、運転者の発話音声に対する応答文を生成する。応答文の生成アルゴリズムについては特に限定しないが、例えば利用者の発話文に対する応答文の組み合わせ(対話パターン)を改め記憶部160またはネットワーク上に用意しておいてもよいし、改め用意した応答文を組み合わせたり適宜編集してもよいし、機械学習を用いて新たに生成してもよい。または、制御部120は、車両に搭載されているナビゲーション装置等の車内機器と連動し、車内機器から取得した情報に基づいて応答文を生成してもよい。次いで、制御部120は、生成した応答文を音声合成により音声化し、スピーカ130からエージェントの応答として出力するよう制御する。また、制御部120は、運転者の話に対して単に相槌を打ったり同調したりといった応答もエージェントの対話として制御し得る。
また、制御部120は、利用者からの発話に応答する以外にも、所定の通知をエージェント音声によりスピーカ130から出力するようにしてもよい。例えば、制御部120は、車両が目的地に近付いていることや、車両の経路案内、目的地や現在地周辺のおすすめ情報(レストラン情報、観光地情報等)、渋滞情報、ニュース速報、運転者のこの後のスケジュール情報、運転者へのメール通知、SNS(Social Networking Service)からのメッセージ等を、エージェントにより運転者に通知するよう制御することも可能である。
さらに、本実施形態による制御部120は、確信度算出部121、音声出力制御部122、表示制御部123、および、駆動制御部124としても機能する。
確信度算出部121は、対象となる情報の確からしさの度合いを示す確信度を算出する。対象となる情報とは、確信度を算出する対象となる情報である。例えば、システムが何らかの判断を行う際に用いる情報や、判断自体が対象となる。より具体的には、本実施形態の場合、車両の自動運転に用いられる情報(各センサにより検知されたセンシングデータ)や、当該情報に基づいて行われる自動運転における運転行動の選択(具体的には、周辺状況の認知、認知結果に基づく判断、および判断結果に応じた運転操作)が、対象となる情報の一例として挙げられる。確信度算出部121は、このような自動運転における確信度を算出する。
例えば、自動運転に用いられる情報としてカメラにより取得されるセンシングデータ(撮像画像)が挙げられるが、直射日光や対向車のヘッドライト等がカメラに直接当たった場合、画像が白飛びし、正確なデータが取得できない場合がある。また、カメラによる検出は、濃霧や豪雨、豪雪などの悪天候の場合には精度が低下し、正確なデータが取得できない場合がある。また、ミリ波センサは、波長の短い電波を照射し、対象物に反射した電波を検出することで対象物までの距離や方向を検出するが、電波の反射率が低い対象物の場合は検出が困難な場合がある。また、LIDARは、レーザー光をパルス状に照射し、対象物から反射した光(散乱光)を測定することで、対象物の位置、形状、および対象物までの距離を検出するが、正確に受光(計測、センシング)できた場合でも、その後の処理において、対象物と認識する基準となる閾値をあと僅かで越えず、実際は対象物があるにも関わらず対象物と認識されない場合もある。このように、環境要因(雨や霧)等によりセンサの精度が低下している場合や、センシングデータの処理方法等によって、自動運転の確信度(正確性、確からしさ)が低くなっていると言える。
ここで、環境要因(雨や霧)等によりセンサから十分なデータが取得できない場合等、自動運転の確信度が著しく低下した場合、安全のため手動運転に切り替える判断がシステム側で行われる場合がある。しかしながら、突然の手動運転への切り替えに運転者がスムーズに対応できないといった問題がある。
そこで、本実施形態では、確信度算出部121により自動運転の確信度(具体的には、自動運転に用いる情報の確信度や、自動運転における運転行動の選択の確信度等)を算出し、確信度が低下したことを、エージェントの外観の色や目線、表情、音声、動き等を介して運転者に直感的に伝えることを可能とする。例えば実物体により形成されたエージェントが不安な表情をしたり、振り向いて運転者と目を合わせるといった行動を取ったりすることで、運転者は、単に確信度の数値が画面内に表示される場合よりも、より現実的に、緊張感を持って、何らかの問題が起きたことを把握することが可能となる。特にエージェントが自動運転と連動していることを運転者が認識している場合、エージェントの目線や表情等が普段(正常時)と異なる状態になると、自動運転に何らかの不安要素が生じたことを直感的に把握することができる。このように、自動運転の確信度が低下したことを現実的に意識することで、運転者は周辺をより注意深く監視したり、運転引継ぎに備えてハンドルに手を添えておいたりすることができ、予期せぬ運転引継ぎがあった場合もスムーズに手動運転を行うことが可能となる。
なお、「確信度の低下」とは、予め規定された閾値より低下した場合であってもよいし、直近の(直前の)確信度より低下した場合であってもよい。確信度算出部121は、算出した確信度が閾値を下回った場合、または、直前の(前回算出した)確信度より低下した場合、「確信度の低下」と判断するようにしてもよい。確信度の算出は継続的に行われ得る。
また、確信度算出部121による確信度算出のアルゴリズムは特に限定しないが、例えば確信度算出部121は、各種センサの状態(検知結果など)や、周辺環境、また、センシングデータの処理方法等に応じて、自動運転の確信度を算出し得る。より具体的には、例えば確信度算出部121は、カメラにより取得された撮像画像において白飛び領域が所定値以上存在する場合は、検出精度が低下しているとみなし、当該カメラの撮像画像から得られる情報や、当該情報を用いて行われた自動運転の運転行動の選択の確信度を低く算出する(例えば負の重み付けや所定の値の減算等を行って全体の確信度を算出する)。
また、確信度算出部121は、センシングデータと、当該センシングデータの処理において用いる閾値との差に応じて確信度を算出してもよい。具体的には、確信度算出部121は、僅かな差で条件を満たさなかった場合(例えば、対象物と認識されなかった等)は、確信度を低く算出するようにしてもよい。また、確信度算出部121は、天候が悪い場合(例えば、豪雨、濃霧、豪雪など)や強い光を検出した場合等は、所定のセンサの精度が低い(正確な計測ができない)恐れがあるとして、自動運転の確信度を低く算出するようにしてもよい(センシングデータに基づく判断を行わずに天候から確信度を算出するため、処理負担が軽減する)。
以上、確信度算出部121による確信度の算出について説明した。なお、ここでは一例として自動運転の確信度を算出することを説明したが、本実施形態はこれに限定されない。例えば、確信度算出部121は、運転者や他の乗員の発言内容の確信度(本人が確証や自信を持って話している度合いを示す数値)を算出してもよい。具体的には、確信度算出部121は、発言者の生体情報(脈拍、心拍、血圧、血中酸素濃度、発汗量、呼吸、脳波、筋電位、眼電位、瞬き等)や、顔の表情、目の動き、口の動き、身振り手振り等に基づいて、発言の確信度を算出し得る。発言者が焦りや不安、迷いを感じながら確証を得ずに話している場合は、確信度が低く算出され得る。本実施形態による制御装置10は、発言の確信度が低下していること、すなわち発言の信用性の無さなどを、エージェントにより直感的に運転者が他の乗員に伝えることができる。これにより、不確かな情報が発信されることを防止したり、エージェントの反応を見て会話が盛り上がる等エンターテインメント性を高めることができる。
制御部120は、確信度算出部121により算出された確信度が低下した場合(例えば閾値より低下した場合、または、直前の確信度より低下した場合等)、音声出力制御部122、表示制御部123、または駆動制御部124により、エージェントの音声出力(発話)や視線、外観(色)、または動きを制御することで、確信度の低下を直感的に伝える。より具体的には、制御部120は、音声出力制御部122、表示制御部123、および、駆動制御部124の少なくともいずれかにより、エージェントの状態を正常と異なる規定の状態に制御することで、確信度が低下しているといった正常と異なる事態(何らかの不安要素が発生している状態)であることを、運転者に直感的に伝えることができる。
確信度の低下を直感的に伝えるための、正常と異なる規定の状態の制御は、予め設定され得る。例えば音声出力制御部122は、エージェントの音声を、不安な声や震えた声、上ずった声、言い淀む表現等に変化させて、スピーカ130から出力するよう制御してもよい。
また、表示制御部123は、制御装置10を形成する筐体の表面(外側の面)に設けられた表示部140により、エージェントの身体全体の色や、顔の表情、またはエージェントの視線(目の向き)等の少なくともいずれかを制御して、不安感を表現してもよい。
例えば、表示制御部123は、エージェントの身体の色を暗くしたり、不安感を示す青色や警告を示す赤色にしたりするよう表示制御する。なお、制御装置10を形成する筐体の表面が透過性を有する部材により形成され、内部に光源が設けられている場合、制御装置10は、当該内部の光源を点灯してエージェントの外観(色調など)を制御することも可能である。このように、表示部140や、内部に光源を有する発光部(照明部)によりエージェントの外観を表出することが可能である。かかる表示部140や発光部は、表出部の一例である。
また、表示制御部123は、表示部140に表示したエージェントの顔の表情を、予め規定された不安な表情(困った顔、不安な顔、口の震え、目が泳ぐ等)に変化させるよう表示制御してもよい。
また、表示制御部123は、制御装置10の筐体の表面全体に設けられた表示部140において、正常時は、運転者の視線方向、すなわち図1に示すように車両の進行方向である前方方向側にエージェントの目や顔を表示するよう制御し、エージェントが前方を見ているようにする。そして、確信度が低下した場合には、表示制御部123は、図3に示すように、制御装置10の筐体の表面全体に設けられた表示部140においてエージェントの目や顔を運転者側に表示し、エージェントの目線を運転者に向けるよう制御する。単にエージェントの向きを運転者の方に向ける制御(顔や目の表示位置を、運転者と対向する位置に変更する制御)であってもよいし、さらにエージェントの視線を運転者の顔に向ける制御であってもよい。普段は前方(車両の進行方向)を向いているエージェントが急に運転者の方に振り返ったことで、運転者は何かあったのかと察知し、周辺を監視したり、図3に示すように、手をハンドルに添えて手動運転の準備を行ったりすることができる。なお、制御部120は、運転者の顔の位置や視線方向を、例えば運転者状態検出装置40から取得した情報に基づいて特定し得る。また、制御部120は、制御装置10に設けられたカメラ(不図示)により運転者の顔の位置や視線方向を検出してもよい。また、制御部120は、制御装置10に設けられた加速度センサやジャイロセンサ(不図示)により、車両の進行方向(前方向)を検知してもよい。また、車両における制御装置10の設置位置および設置方向が既知の場合、制御部120は、車両の進行方向(前方向)および運転者の位置を推定することが可能である。また、制御部120は、マイクロホン100により収音した運転者の音声を解析して音源位置を算出することで、運転者の顔の位置を特定することも可能である。
以上、エージェントが運転者の方に振り向く動作を表示制御により実現する旨を説明したが、本実施形態はこれに限定されず、例えば駆動制御部124が、駆動部150により制御装置10の向きを変える(例えば制御装置10全体を回転させる)ことで実現してもよい。エージェントの外観形状は様々想定されるため、例えば頭部だけをモータ等により動かして振り返る動作を実現してもよい。
また、駆動部150の一例として振動部を設けてもよい。駆動制御部124は、正常時と異なる状態の制御として、振動部により制御装置10を震えさせる制御を行ってもよい。
また、図1に示すような卵型の形状により構成された制御装置10の受け部として、制御装置10の底部と勘合する駆動装置を別途設けてもよい。駆動装置により制御装置10を回転させたり、振動させたりすることが可能である。また、制御装置10の底部に車輪を設け、回転や前後左右の動きができるようにしてもよい。
(スピーカ130)
スピーカ130は、音声出力制御部122の制御に従ってエージェント音声を出力する。
(表示部140)
表示部140は、制御装置10の筐体の表面(外側の面)に設けられ、エージェントの外観として所定の色や模様を示す画像を表示する。表示部140は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、又は投影型のディスプレイ等によって実現され得る。また、図1や図3に示す例では、筐体の表面全体に表示部140が設けられている場合を図示しているが、これに限定せず、上半分など一部に表示部140が設けられる構造であってもよい。
(駆動部150)
駆動部150は、制御装置10により形成されるエージェント(すなわち、制御装置10自体)を動かす機構である。例えば駆動部150は、エージェントの一部を動かす機構であってもよいし、エージェントの全体を動かす機構であってもよい。また、駆動部150は、モータや振動部等により実現されてもよい。
(記憶部160)
記憶部160は、各種情報を記憶する構成である。例えば、記憶部160は、制御部120によって使用されるプログラムやパラメータ等を記憶する。また、記憶部160は、制御部120による処理結果や、通信I/F110によって受信した情報等を記憶してもよい。なお、記憶部160が記憶する情報の内容は特に限定されない。また、記憶部160は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
以上、本実施形態による制御装置10の構成例について説明した。なお、本実施形態による構成は、図2に示す例に限定されない。例えば本実施形態による制御装置10は、車両に設けられたマイクロホンから乗員の音声を収音したり、車両に設けられたスピーカからエージェント音声を出力したりしてもよい。また、駆動部150が、制御装置10と別の装置として設けられていてもよい。
また、図2の制御部120の機能を、車両に搭載されるECU(Electronic Control Unit)や、ECUに搭載されるマイコン等によって実現してもよい。すなわち、制御装置10を車両内に搭載した際に、制御装置10がECUと無線または有線により通信接続し、ECUにより乗員との対話を行う等のエージェント機能が制御されたり、制御装置10の外観の変化や駆動が制御されたりしてもよい。また、制御部120の機能を、車両に搭載されない外部装置(例えば、インターネット上のクラウドサーバや、運転者が所持するスマートフォン、タブレット端末等)によって実現してもよい。
<3.動作処理>
続いて、本実施形態によるエージェント制御システムの動作処理について説明する。図4は、本実施形態によるエージェント制御システムの動作処理の流れの一例を示すフローチャートである。
図4に示すように、まず、制御部120は、車両状態検出装置20、周辺環境検出装置30、または運転者状態検出装置40から、車両状態(具体的には、自動運転に関する情報)、周辺環境、または運転者状態(具体的には、運転者の視線など)のセンシングデータを取得する(ステップS103)。ここでは、センシングデータと記載したが、センシングデータの解析結果を取得してもよい。
次に、確信度算出部121は、取得したセンシングデータ(または解析結果)に基づいて、(対象となる情報の)確信度を算出する(ステップS106)。本実施形態では、一例として、自動運転の確信度の算出を行う。
次いで、制御部120は、算出された確信度に応じて、エージェントの向き(視線)、外観(色)、発話、および動きの少なくともいずれかを制御する(ステップS109)。具体的には、制御部120は、確信度が低下した場合に、エージェントの状態を正常時の状態と異なる状態に制御し、確信度が低下したことを運転者に直感的に伝達する。なお、確信度がどの程度低下したかに応じて、異なる状態の制御の強度を変更してもよい(例えば、確信度が低下するほど、より大きな不安を表現するよう表情や音声を制御してもよい)。
<4.補足>
上記では、制御装置10が載置される移動体の一例として車両を用いたが、本実施形態に係る移動体は車両に限定されず、船舶(例えば、旅客船、貨物船、又は潜水艦等)や航空機(例えば、飛行機、ヘリコプター、グライダー、又は飛行船等)などであってもよい。また、車両は自動車に限定されず、バス、バイク、機関車、又は電車等であってもよい。また、移動体は、必ずしも上記の例に限定されず、移動可能な物体であればよい。制御装置10が移動体に載置されることはあくまで一例であり、制御装置10は、移動体以外に載置されてもよい。また、制御装置10の少なくとも一部の構成が移動体に搭載され、他の構成は移動体以外に搭載されてもよい。
また、上述した実施形態では、エージェントを有体物により実現するエージェントデバイスとして制御装置10を説明したが、本発明は、エージェントが有体物により実現されるシステムに限定されない。例えば、エージェントの画像を、車両内部に設置された表示部やフロントガラス等に表示した上で、当該エージェントの状態を制御して、確信度が低下したことを直感的に運転者に伝えるようにしてもよい。
また、上述した実施形態では、自動運転の確信度を算出する場合について説明したが、本発明はこれに限定されない。例えば手動運転の場合に、運転者の運転の確信度(正しさ、好ましさ)を算出してもよい。これにより、例えば乱暴な運転が行われた場合や、正しくない運転(例えば速度超過や一時停止無視等の交通ルールの違反など)が行われた場合には確信度が低く算出され、制御装置10は、エージェントに不安な表情をさせたり、運転者の方に視線を向けることで、乱暴な運転や正しくない運転を抑制することが期待できる。
また、上述した実施形態では、制御部120が、運転者と音声による対話を行うエージェントの制御を行う旨を説明したが、本発明において音声対話は必須ではなく、音声対話を行わないものであってもよい。
<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、本明細書の判定装置の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、センシングデータを取得するステップS103は、確信度の算出やエージェントの制御が行われている間も並列して継続的に行われ、一定期間経過など所定のタイミングで確信度の算出処理(ステップS106)が行われるようにしてもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
1:エージェント制御システム、10:制御装置、20:車両状態検出装置、30:周辺環境検出装置、40:運転者状態検出装置、100:マイクロホン、110:通信I/F、120:制御部、121:確信度算出部、122:音声出力制御部、123:表示制御部、124:駆動制御部、130:スピーカ、140:表示部、150:駆動部、160:記憶部

Claims (16)

  1. 情報を提示するエージェントの制御を行う制御部を備え、
    前記制御部は、対象となる情報の確からしさの度合いを示す確信度を取得し、当該取得した確信度が低下すると、前記エージェントの状態を正常と異なる規定の状態に制御する、制御装置。
  2. 前記制御部は、前記エージェントの外観を表出する表出部を制御し、前記正常と異なる規定の状態として、前記正常と異なる規定の色調で前記エージェントの外観を表出するよう前記表出部を制御する、請求項1に記載の制御装置。
  3. 前記制御部は、前記正常と異なる規定の状態への制御として、前記エージェントの向きを、前記正常と異なる規定の向きに向ける制御を行う、請求項1または2に記載の制御装置。
  4. 前記制御部は、前記エージェントの外観を表出する表出部である表示部に前記エージェントの目の画像を表示し、前記正常と異なる規定の向きに向ける制御として、前記エージェントの目の画像の表示位置を、前記エージェントを利用するユーザの方向に変更する制御を行う、請求項3に記載の制御装置。
  5. 前記制御部は、前記エージェントを構成する実物体を駆動する駆動部を制御し、前記正常と異なる規定の向きに向ける制御として、前記エージェントの顔が前記エージェントを利用するユーザに向くよう、前記実物体を駆動する制御を行う、請求項3に記載の制御装置。
  6. 前記制御部は、前記エージェントの顔画像を表示する表示部を制御し、前記正常と異なる規定の状態への制御として、前記エージェントの前記顔画像を、前記正常と異なる規定の表情に制御する、請求項1〜5のいずれか1項に記載の制御装置。
  7. 前記制御部は、前記エージェントの音声を出力する音声出力部を制御し、前記正常と異なる規定の状態への制御として、前記エージェントの音声を、前記正常と異なる規定の音声で出力する制御を行う、請求項1〜6のいずれか1項に記載の制御装置。
  8. 前記制御部は、前記エージェントを構成する実物体を駆動する駆動部を制御し、前記正常と異なる規定の状態への制御として、前記正常と異なる規定の動きで前記実物体を駆動する制御を行う、請求項1〜7のいずれか1項に記載の制御装置。
  9. 前記制御部は、前記確信度が規定の閾値を下回った場合、前記確信度が低下したものと判断する、請求項1〜8のいずれか1項に記載の制御装置。
  10. 前記制御部は、前記確信度を継続的に取得し、時間軸上において直前の時点における確信度を、前記規定の閾値とする、請求項9に記載の制御装置。
  11. 前記対象となる情報は、移動体が自律走行する自動運転の制御に用いる情報を含む、請求項1〜10のいずれか1項に記載の制御装置。
  12. 前記対象となる情報は、移動体が自律走行する自動運転の制御における運転行動の選択に関する情報を含む、請求項1〜11のいずれか1項に記載の制御装置。
  13. 前記制御部は、前記移動体の周辺の環境に関する情報に基づいて、前記確信度を算出する、請求項11または12に記載の制御装置。
  14. 前記制御部は、前記移動体に設けられた1以上のセンサ部により検出されたセンシングデータに基づいて、前記確信度を算出する、請求項11〜13のいずれか1項に記載の制御装置。
  15. 前記制御部は、前記移動体に設けられた1以上のセンサ部により検出されたセンシングデータの処理方法に応じて、前記確信度を算出する、請求項11〜14のいずれか1項に記載の制御装置。
  16. コンピュータを、
    情報を提示するエージェントの制御を行う制御部として機能させ、
    前記制御部は、対象となる情報の確からしさの度合いを示す確信度を取得し、当該取得した確信度が低下すると、前記エージェントの状態を正常と異なる規定の状態に制御する、プログラム。
JP2019229936A 2019-12-20 2019-12-20 制御装置およびプログラム Pending JP2021097765A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019229936A JP2021097765A (ja) 2019-12-20 2019-12-20 制御装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019229936A JP2021097765A (ja) 2019-12-20 2019-12-20 制御装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2021097765A true JP2021097765A (ja) 2021-07-01

Family

ID=76541789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019229936A Pending JP2021097765A (ja) 2019-12-20 2019-12-20 制御装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2021097765A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090020A1 (ja) * 2021-11-16 2023-05-25 株式会社東海理化電機製作所 制御装置、制御方法、およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018147A (ja) * 2000-07-11 2002-01-22 Omron Corp 自動応答機器
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2018146898A (ja) * 2017-03-08 2018-09-20 パナソニックIpマネジメント株式会社 装置、ロボット、方法、及びプログラム
JP2018205211A (ja) * 2017-06-07 2018-12-27 本田技研工業株式会社 情報提供装置及び情報提供方法
WO2019087495A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002018147A (ja) * 2000-07-11 2002-01-22 Omron Corp 自動応答機器
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
JP2018146898A (ja) * 2017-03-08 2018-09-20 パナソニックIpマネジメント株式会社 装置、ロボット、方法、及びプログラム
JP2018205211A (ja) * 2017-06-07 2018-12-27 本田技研工業株式会社 情報提供装置及び情報提供方法
WO2019087495A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090020A1 (ja) * 2021-11-16 2023-05-25 株式会社東海理化電機製作所 制御装置、制御方法、およびプログラム

Similar Documents

Publication Publication Date Title
US10699569B2 (en) Information processing apparatus, information processing method, and program
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
CN113665528B (zh) 自主车辆安全***和方法
JP7080598B2 (ja) 車両制御装置および車両制御方法
US10891495B2 (en) Information processing apparatus, information processing method, and program
KR102498091B1 (ko) 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램
CN112660157B (zh) 一种多功能无障碍车远程监控与辅助驾驶***
EP3882884A1 (en) Information processing device, information processing method, and program
KR101708657B1 (ko) 차량 및 그 제어방법
US11685390B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
KR20170002166A (ko) 차량 운전 보조 방법 및 차량
US11547361B2 (en) Display controller, display device, display system, mobile object, image generation method, and carrier means
JP2018041328A (ja) 車両用情報提示装置
CN114072865A (zh) 信息处理装置、移动装置、方法和程序
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
CN111016820A (zh) 智能体***、智能体控制方法及存储介质
US20230121146A1 (en) Information processing apparatus, information processing method, and computer program
CN115195637A (zh) 一种基于多模交互和虚拟现实技术的智能座舱***
JP2018151907A (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2021097765A (ja) 制御装置およびプログラム
KR101850857B1 (ko) 디스플레이 장치 및 이를 포함하는 차량
JP7198742B2 (ja) 自動運転車両、画像表示方法およびプログラム
KR102192146B1 (ko) 차량 제어장치 및 차량 제어방법
WO2023090020A1 (ja) 制御装置、制御方法、およびプログラム
JP2018149940A (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231010