JP7264139B2 - 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム - Google Patents

車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム Download PDF

Info

Publication number
JP7264139B2
JP7264139B2 JP2020171495A JP2020171495A JP7264139B2 JP 7264139 B2 JP7264139 B2 JP 7264139B2 JP 2020171495 A JP2020171495 A JP 2020171495A JP 2020171495 A JP2020171495 A JP 2020171495A JP 7264139 B2 JP7264139 B2 JP 7264139B2
Authority
JP
Japan
Prior art keywords
vehicle
information
function
unequipped
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020171495A
Other languages
English (en)
Other versions
JP2022063120A (ja
Inventor
智景 久保
景子 中野
英一 前田
博之 西澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020171495A priority Critical patent/JP7264139B2/ja
Priority to CN202111150277.9A priority patent/CN114420112A/zh
Priority to US17/494,919 priority patent/US20220115014A1/en
Publication of JP2022063120A publication Critical patent/JP2022063120A/ja
Application granted granted Critical
Publication of JP7264139B2 publication Critical patent/JP7264139B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

本発明は、装置の説明や操作の説明等を行うエージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムに関する。
特許文献1は、各種車載ユニットの操作に関係のある情報を提供する車両用エージェント処理装置が開示されている。詳細には、車両エージェント処理装置は、無線通信部で受信した信号として、肉声を含む音声情報が与えられたときは音声認識を行った後で、電子メールの場合はそのままで、それぞれ構文解析部を行って意味解釈し、自動車内の各種車載ユニットの操作に関係のある情報を取捨選択して優先的に要約し、これを音声合成してスピーカから出力する。また、各種車載ユニットの操作が必要と推定される場合は、その旨をエージェント処理部で自動的に判断し、その車載ユニットの操作案内情報を付加して音声案内する。
特開2001-141500号公報
特許文献1の車両用エージェント装置に対して車両の機能について案内した場合、案内した機能が装備されていない場合がある。このような場合、乗員は装備されていない機能が追加可能であっても知ることができないため、乗員が追加可能な機能を認知するためには改善の余地がある。
そこで、本発明は、利用しようとして装備されていなかった機能のうち追加可能な機能を乗員が認知可能な車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の車両用エージェント装置は、対象車両の乗員による発話内容の意図を理解する意図理解部と、前記意図理解部によって理解された発話内容に含まれ、前記乗員が利用しようと意図した車両の機能であって、前記対象車両に装備されていなかった機能でかつ前記対象車両に装備可能な機能を未装備機能として検出する検出部と、前記検出部によって検出された前記未装備機能に関する情報を前記乗員へ提供する処理を行う処理部と、を含む。
請求項1に記載の発明によれば、意図理解部では、対象車両の乗員による発話内容の意図が理解され、検出部では、意図理解部によって理解された発話内容に含まれ、乗員が利用しようと意図した車両の機能であって、対象車両に装備されていなかった機能でかつ対象車両に装備可能な機能を未装備機能として検出される。
処理部では、検出部によって検出された未装備機能に関する情報を乗員へ提供する処理が行われる。これにより、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能の追加等を乗員に提案することが可能となるので、利用しようとして装備されていなかった機能のうち追加可能な機能を乗員が認知することが可能となる。
なお、前記意図理解部によって理解された発話内容に対する回答情報を生成する生成部を更に含み、前記乗員が利用しようと意図した機能が前記対象車両に装備されていないことを表す回答情報が生成されて前記対象車両に送信された場合に、前記検出部が前記未装備機能を検出し、前記処理部が前記未装備機能に関する情報を前記乗員へ提供する処理を行ってもよい。これにより、対話内容から、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能を未装備機能として検出することが可能となる。
また、前記処理部は、乗員が携帯する予め登録された携帯端末に対して、前記未装備機能に関する情報を送信する処理を行ってもよい。これにより、走行中以外の他のタイミングで携帯端末を確認して、追加可能な未装備機能を認知することが可能となる。
また、前記処理部は、車両に搭載された車載器に前記未装備機能に関する情報を送信し、前記車載器が、安全確保を表す予め定めた条件が成立した場合に、前記未装備機能に関する情報の表示を行ってもよい。これにより、安全が確保された状態で、車載器で未装備機能に関する情報を確認することが可能となる。
なお、車両用エージェント装置と、車両に設けられ、前記未装備機能に関する情報を受信して前記乗員に通知可能な車載器と、を含む車両用エージェントシステムとしてもよい。
また、コンピュータを、上記車両用エージェント装置として機能させるための車両用エージェントプログラムとしてもよい。
以上説明したように本発明によれば、利用しようとして装備されていなかった機能のうち追加可能な機能を乗員が認知可能な車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラムを提供できる。
本実施形態に係る車両用エージェントシステムの概略構成を示す図である。 本実施形態の車両のハードウェア構成の一例を示すブロック図である。 本実施形態のエージェントサーバのハードウェア構成を示すブロック図である。 本実施形態の携帯端末のハードウェア構成を示すブロック図である。 車載器及びエージェントサーバの機能構成を示す機能ブロック図である。 本実施形態に係る車両用エージェントシステムのおける車載器で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおけるエージェントサーバで行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおける携帯端末で行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る車両用エージェントシステムにおいて、車載器で提案情報を再生表示可能とした場合に車載器で行われる処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。本実施形態では、車両の機能に関する情報を乗員に提供する車両用エージェントシステムを一例として説明する。図1は、本実施形態に係る車両用エージェントシステムの概略構成を示す図である。
車両用エージェントシステム10は、図1に示すように、複数の車両14と、車両用エージェント装置の一例としてのエージェントサーバ12と、を含むサーバネットワークシステムとして構成されている。
各車両14には車載器16が搭載され、通信ネットワーク18を介してエージェントサーバ12と車載器16と間の通信が行われる。また、各車載器16は、乗員の携帯端末40と近距離通信(例えば、Wi-Fi(登録商標)やBluetooth(登録商標)等)によって通信可能とされている。
次に、車両14のハードウェア構成について説明する。図2は、本実施形態の車両14のハードウェア構成の一例を示すブロック図である。
図2に示すように、車両14は、車載器16と、複数のECU20と、マイク22と、スピーカ24と、モニタ26と、カメラ28とを含んで構成されている。
車載器16は、CPU(Central Processing Unit)16A、ROM(Read Only Memory)16B、RAM(Random Access Memory)16C、車内通信I/F(Inter Face)16D、無線通信I/F16E、及び入出力I/F16Fを含んで構成されている。CPU16A、ROM16B、RAM16C、車内通信I/F16D、無線通信I/F16E、及び入出力I/F16Fは、内部バス16Gを介して相互に通信可能に接続されている。
CPU16Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU16Aは、ROM16Bからプログラムを読み出し、RAM16Cを作業領域としてプログラムを実行する。
ROM16Bは、各種プログラム及び各種データを記憶している。本実施形態のROM16Bには、車載器16を制御するための制御プログラムが記憶されている。
RAM16Cは、上述したように、CPU16Aによる各種プログラムの実行時の作業領域としてプログラム又はデータを一時的に記憶する。
車内通信I/F16Dは、ECU20と接続するためのインタフェースである。当該インタフェースは、CANプロトコルによる通信規格が用いられる。車内通信I/F16Dは、外部バス16Hに対して接続されている。ECU20は、車両14の機能毎に複数設けられている。本実施形態のECU20としては、車両制御ECU、エンジンECU、ブレーキECU、ボデーECU、マルチメディアECU等が例示される。
無線通信I/F16Eは、エージェントサーバ12と通信するための無線通信モジュールである。当該無線通信モジュールは、例えば、5G、LTE、Wi-Fi(登録商標)等の通信規格が用いられる。無線通信I/F16Eは、通信ネットワーク18に対して接続されている。また、無線通信I/F16Eは、乗員のスマートフォンやタブレット等の携帯端末40と通信するための無線モジュールとしても機能する。携帯端末40との通信は、上述したように、Wi-Fi(登録商標)やBluetooth(登録商標)等の近距離通信によって行われる。
入出力I/F16Fは、車両14に搭載されるマイク22、スピーカ24、モニタ26、及びカメラ28と通信するためのインタフェースである。
マイク22は、車両14のフロントピラーやダッシュボード等に設けられ、乗員が発した音声を集音する装置である。
スピーカ24は、ドアトリム等に設けられ、音楽や、エージェントサーバ12から受信した情報に基づく音声等を出力する。
モニタ26は、センタコンソールやメータパネルに設けられ、各種情報を表示するための液晶モニタ等のモニタである。モニタ26は、入力スイッチ等の操作部を含むタッチパネルとして設けてもよい。
カメラ28は、例えば、ルームミラーの近傍等の車室内に設けられ、運転者等の乗員を撮影する。なお、カメラ28は省略してもよい。
続いて、エージェントサーバ12のハードウェア構成について説明する。図3は、本実施形態のエージェントサーバ12のハードウェア構成を示すブロック図である。
図3に示すようにエージェントサーバ12は、CPU12A、ROM12B、RAM12C、ストレージ12D、及び通信I/F12Eを含んで構成されている。CPU12A、ROM12B、RAM12C、ストレージ12D及び通信I/F12Eは、内部バス12Gを介して相互に通信可能に接続されている。CPU12A、ROM12B、RAM12C及び通信I/F12Eの機能は、上述した車載器16のCPU16A、ROM16B、RAM16C及び無線通信I/F16Eと同じである。
ストレージ12Dは、HDD(Hard Disk Drive)、またはSSD(Solid State Drive)等の記憶装置により構成され、各種プログラム及び各種データを記憶している。
CPU12Aは、ストレージ12Dからプログラムを読み出し、RAM12Cを作業領域としてプログラムを実行する。
本実施形態のストレージ12Dには、処理プログラム30及びデータ群32が記憶されている。処理プログラム30は、エージェントサーバ12が有する各機能を実現するためのプログラムである。
本実施形態では、エージェントサーバ12は、乗員と音声対話を行って対話に基づいて、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能に関する情報を乗員へ提供する処理を行う。例えば、乗員が「ACC(定速走行・車間距離制御装置)動かして」等の車両14に装備されていない未装備機能を表す発話があった場合に、当該未装備機能が車両14に装備可能な場合に、未装備機能の説明と装備可能であることを表す情報等を未装備機能に関する情報として乗員へ提供する処理を行う。
次に、携帯端末40のハードウェア構成について説明する。図4は、本実施形態の携帯端末40のハードウェア構成を示すブロック図である。
図4に示すように携帯端末40は、CPU40A、ROM40B、RAM40C、ストレージ40D、無線通信I/F40E、表示部40F、及び操作部40Hを含んで構成されている。CPU40A、ROM40B、RAM40C、ストレージ40D、無線通信I/F40E、表示部40F、及び表示部40Hは、内部バス40Gを介して相互に通信可能に接続されている。CPU40A、ROM40B、RAM40C、及び無線通信I/F40Eの機能は、上述した車載器16のCPU16A、ROM16B、RAM16C及び無線通信I/F16Eと同じである。
ストレージ40Dは、eMMC(embedded Multi Media Card)、またはUFS(Universal Flash Storage)等により構成され、各種プログラム及び各種データを記憶している。
CPU40Aは、ストレージ40Dからプログラムを読み出し、RAM40Cを作業領域としてプログラムを実行する。
続いて、車載器16及びエージェントサーバ12の各々の機能構成について説明する。図5は、車載器16及びエージェントサーバ12の機能構成を示す機能ブロック図である。
車載器16は、CPU16AがROM16Bに格納されたプログラムをRAM16Cに展開して実行することで、車載器制御部52、音声入力処理部54、出力処理部56、及び通信部58の機能を有する。
音声入力処理部54は、乗員の発話をマイク22によって集音して、音声情報を生成する処理を行う。
出力処理部56は、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答情報や、エージェントサーバ12から受信した情報を音声としてスピーカ24から出力する処理や、モニタ26に表示する処理等を行う。
通信部58は、エージェントサーバ12と通信を確立して、通信ネットワーク18に接続されたエージェントサーバ12等の機器に対して情報の授受を行う。例えば、車両情報や、音声入力処理部54によって生成された音声情報をエージェントサーバ12へ送信すると共に、エージェントサーバ12から各種情報を受信する処理を行う。
また、通信部58は、乗員の携帯端末40と近距離無線通信を確立して、携帯端末40に対して情報の授受を行う。本実施形態では、エージェントサーバ12から受信した車両14に未装備機能に関する情報を携帯端末40に送信する。
車載器制御部52は、車両14に未装備機能に関する情報を提案する提案情報をエージェントサーバ12から受信する処理を行う。また、車載器制御部52は、エージェントサーバ12から未装備機能の提案情報を受信した場合に、乗員の携帯端末40に受信した未装備機能の提案を転送する処理を行う。
一方、エージェントサーバ12は、CPU12AがROM12Bに格納されたプログラムをRAM12Cに展開して実行することで、複数の機能を有する。当該複数の機能としては、処理部の一例としての制御部70、生成部の一例としての対話制御部60、意図理解部62、検出部64、提案情報生成部66、DB(データベース)68、及び通信部72の機能を有する。
対話制御部60は、車載器16から受信した音声情報をテキスト情報に変換して意図理解部62に出力する。また、対話制御部60は、意図理解部62の意図理解に基づいて、回答情報を生成する処理を行う。回答情報の生成は、例えば、意図理解結果に対応する回答を予め記憶しておき、対応する回答を抽出して回答情報を生成する。
意図理解部62は、対象車両の乗員の発話内容の意図を理解するために、変換されたテキスト情報に基づいて、テキスト情報が示す意図理解を行う。意図理解は、周知の種々の技術を適用して、乗員の発話内容の意図を理解するため、詳細な説明は省略する。
検出部64は、意図理解部62によって理解された発話内容に含まれ、乗員が利用しようと意図した車両の機能であって、対象車両に装備されていなかった機能でかつ対象車両に装備可能な機能を未装備機能として検出する。例えば、本実施形態では、意図理解部62により車両14の機能に関する発話内容が認識され、対話制御部60により車両14に機能が未装備であることを表す回答情報が生成された場合に、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能を未装備機能としてDB68から検出する処理を行う。
提案情報生成部66は、検出部64が検出した未装備機能に関する情報を乗員に提供するための提案情報を生成する。生成する提案情報は、未装備機能の説明や装備可能であることを表すテキスト情報でもよいし、画像情報及びテキスト情報でもよいし、動画像でもよい。
DB68には、テキスト情報を意図理解するための情報、車種毎に装備可能な機能の情報、及び車両14毎に装備されている機能の情報等の各種情報が格納される。
制御部70は、提案情報生成部66により生成された提案情報を車載器16に送信して、相違可能な未装備機能に関する情報を乗員に提供する処理を行う。これにより、車載器16の通信部58から乗員の携帯端末40に対して提案情報を転送することにより、走行中以外の他の任意のタイミングで未装備機能に関する情報を提供して乗員が確認することができる。なお、提案情報の携帯端末40への送信は、車載器16からの近距離通信ではなく、エージェントサーバ12から通信ネットワーク18を介して携帯端末40に直接送信してもよい。
続いて、上述のように構成された本実施形態に係る車両用エージェントシステム10の各部で行われる具体的な処理について説明する。
まず、車載器16で行われる具体的な処理について説明する。図6は、本実施形態に係る車両用エージェントシステム10のおける車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図6の処理は、例えば、音声入力処理部54が、マイク22の集音により乗員の発話を検出した場合に開始する。
ステップ100では、CPU16Aが、発話情報をエージェントサーバ12に送信してステップ102へ移行する。すなわち、音声入力処理部54が、マイク22の集音から音声情報を生成して発話情報として通信部58を介してエージェントサーバ12に送信する。
ステップ102では、CPU16Aが、エージェントサーバ12から発話情報に対する回答を受信したか否かを判定する。該判定が肯定されるまで待機してステップ104へ移行する。
ステップ104では、CPU16Aが、発話情報が認識不能であるか否かを判定する。該判定は、エージェントサーバ12から発話内容が認識不能であることを表す情報を受信したか否かを判定する。該判定が肯定された場合にはステップ106へ移行し、否定された場合にはステップ108へ移行する。
ステップ106では、CPU16Aが、認識不能である旨を出力してステップ110へ移行する。すなわち、出力処理部56が、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答として、発話内容が認識不能であることを表す音声をスピーカ24から出力する処理や、モニタ26に表示する処理を行う。
一方、ステップ108では、CPU16Aが、回答を出力してステップ110へ移行する。すなわち、出力処理部56が、通信部58を介してエージェントサーバ12から受信した乗員の発話に対する回答情報を音声としてスピーカ24から出力する処理や、モニタ26に表示する処理を行う。
ステップ110では、CPU16Aが、未装備機能の提案を受信したか否かを判定する。該判定は、車載器制御部52が、未装備機能に関する提案情報をエージェントサーバ12から受信したか否かを判定する。該判定が否定された場合には一連の処理を終了し、肯定された場合にはステップ112へ移行する。
ステップ112では、CPU16Aが、未装備機能に関する提案情報を乗員の携帯端末40に転送して一連の処理を終了する。
続いて、エージェントサーバ12で行われる具体的な処理について説明する。図7は、本実施形態に係る車両用エージェントシステム10におけるエージェントサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、上述のステップ100により車載器16から発話情報が送信された場合に開始する。
ステップ200では、CPU12Aが、車載器16から送信された発話情報を受信して発話内容の解析を行ってステップ202へ移行する。すなわち、上述のステップ100において車載器16から送信された発話情報を受信し、対話制御部60が発話情報をテキスト情報に変換し、意図理解部62が、テキスト情報に基づいてテキスト情報が示す意図理解を行う。
ステップ202では、CPU12Aが、発話内容を認識したか否かを判定する。該判定は、対話制御部60が、意図理解部62によって意図理解して、発話内容が認識できたか否かを判定する。該判定が否定された場合にはステップ204へ移行し、肯定された場合にはステップ206へ移行する。
ステップ204では、CPU12Aが、認識不能を回答として車載器16に送信して一連の処理を終了する。すなわち、対話制御部60が、意図理解部62の意図理解に基づいて、発話内容が認識不能であることを表す回答情報を生成して通信部72を介して車載器16に送信する。これにより、車載器16では、上述ステップ102及びステップ104の各々の判定が肯定される。
ステップ206では、CPU12Aが、対応する回答を車載器16に送信してステップ208へ移行する。すなわち、対話制御部60が、意図理解部62の意図理解に基づいて回答情報を生成して通信部72を介して車載器16に送信する。これにより、車載器16では、上述ステップ102の判定が肯定されてステップ104の判定が否定される。
ステップ208では、CPU12Aが、機能が未装備を回答したか否かを判定する。該判定は、検出部64が、対話制御部60により車両14に機能が未装備であることを表す内容を含む回答情報が生成されたか否かを判定する。該判定が否定された場合には一連の処理を終了し、肯定された場合にはステップ210へ移行する。
ステップ210では、CPU12Aが、未装備機能の追加可否を検出してステップ212へ移行する。すなわち、検出部64が、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能を未装備機能としてDB68から検出する。
ステップ212では、CPU12Aが、未装備機能の追加が可能であるか否かを判定する。該判定は、検出部64が、乗員が利用しようとして装備されていなかった機能でかつ装備可能な機能を未装備機能としてDB68から検出できたか否かを判定する。該判定が否定された場合には一連の処理を終了し、肯定された場合にはステップ214へ移行する。
ステップ214では、CPU12Aが、未装備機能に関する提案情報を車載器16に送信して一連の処理を終了する。すなわち、提案情報生成部66が、検出部64が検出した未装備機能に関する情報を乗員に提供するための提案情報として生成し、制御部70が、提案情報生成部66により生成された提案情報を車載器16に送信する。これにより、提案情報を車載器16に送信する処理を行うことで、上述のステップ112の車載器16の処理が行われる。換言すれば、未装備機能に関する情報を車載器16に送信することで、乗員が携帯する予め登録された携帯端末40に対して、未装備機能に関する情報を送信する。従って、車両14の未装備機能に関する情報が乗員の携帯端末40に転送されるので、利用しようとして装備されていなかった機能のうち追加可能な機能を乗員が確認したいタイミングで認知することが可能となる。なお、乗員の携帯端末40をエージェントサーバ12に予め登録して、車両14の未装備機能に関する情報を車載器16を介さずに携帯端末40に直接送信してもよい。
続いて、携帯端末40で行われる具体的な処理について説明する。図8は、本実施形態に係る車両用エージェントシステム10における携帯端末40で行われる処理の流れの一例を示すフローチャートである。なお、図8の処理は、車載器16から提案情報が転送された場合に開始する。
ステップ300では、CPU40Aが、未装備機能に関する提案情報を受信してステップ302へ移行する。すなわち、上述のステップ112の処理により車載器16から転送された提案情報を受信する。
ステップ302では、CPU40Aが、未装備機能に関する提案情報の受信を通知してステップ304へ移行する。例えば、携帯端末40の表示部40Fに提案情報を受信したことを表す通知を表示する。或いは、提案情報等の受信を表す通知音を発生する。
ステップ304では、CPU40Aが、通知の確認が指示されたか否かを判定する。該判定は、操作部40Hが操作されて通知の確認の指示が行われたか否かを判定し、該判定が肯定されるまで待機してステップ306へ移行する。
ステップ306では、CPU40Aが、予め定めた通知画像を表示部40Fに表示してステップ308へ移行する。予め定めた通知画面は、例えば、提案情報を受信したことを表す内容を表示して、提案情報の再生表示が指示可能とされた画面を表示する。
ステップ308では、CPU40Aが、提案情報の削除指示が行われたか否かを判定する。該判定は、操作部40Hが操作されて提案情報を削除する指示が行われたか否かを判定する。該判定が肯定された場合にはステップ310へ移行し、否定された場合にはステップ312へ移行する。
ステップ310では、CPU40Aが、未装備機能に関する提案情報を削除して一連の処理を終了する。
一方、ステップ312では、CPU40Aが、提案情報の再生表示が指示されたか否かを判定する。該判定は、操作部40Hが操作されて提案情報の再生表示が指示されたか否かを判定する。該判定が肯定された場合にはステップ314へ移行する。一方、否定された場合には一連の処理を終了する。なお、提案情報の削除操作が行われずに図8の一連の処理を終了した場合には、任意のタイミングで操作部40Hが操作されて提案情報の表示再生が指示された場合に提案情報の再生表示を行ってもよい。
ステップ314では、CPU40Aが、未装備機能に関する提案情報を表示部40Fに再生表示して一連の処理を終了する。これにより、乗員の視聴したいタイミングで提案情報を視聴して、利用しようとして装備されていなかった機能のうち追加可能な機能を確認できる。
なお、上記の実施形態では、車両14の未装備機能に関する提案情報を乗員の携帯端末40に転送する例を説明したが、これに限るものではない。例えば、乗員のパーソナルコンピュータ等を予め登録して転送して当該パーソナルコンピュータで再生表示してもよい。或いは、車載器16で再生表示可能としてもよい。
ここで、車載器16で提案情報を再生表示可能とした場合について説明する。図9は、本実施形態に係る車両用エージェントシステム10において、車載器16で提案情報を再生表示可能とした場合に車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図9の処理は、例えば、車載器16が提案情報を受信後に、提案情報の確認指示が音声や操作等によって指示された場合に開始する。また、車載器16で提案情報を再生表示可能とした場合、携帯端末40への提案情報の転送を省略してもよい。或いは、携帯端末40への転送の有無を設定可能としてもよい。
ステップ400では、CPU16Aが、車載器16が搭載された車両14の車速情報を取得してステップ402へ移行する。車速情報は、車両14に設けられた車速センサから取得してもよいし、車両14の位置情報を測位する衛星情報を取得することによって車速情報を取得してもよい。
ステップ402では、CPU16Aが、車両14の安全確保を表す予め定めた条件が成立したか否かを判定する。該判定は、例えば、予め定めた条件として車両14が停車中であるか否かを判定する。或いは、自動運転等の装備を備えている場合にはステップ400で自動運転の実行有無を表す車両情報を取得して自動運転中であるか否かを判定してもよい。予め定めた条件として停車中であるか否かを判定する場合には、該判定は、例えば、取得した車速情報から車速が0または予め定めた速度以下であるか否かを判定する。該判定が否定された場合にはステップ404へ移行し、肯定された場合にはステップ406へ移行する。
ステップ404では、CPU16Aが、安全を確保した後に提案情報の確認を行うよう乗員に通知して一連の処理を終了する。例えば、出力処理部56が、”提案情報の確認は停車後に行ってください”等のメッセージのスピーカ24からの出力、及び当該メッセージのモニタ26への表示の少なくとも一方を行う。
一方、ステップ406では、CPU16Aが、予め定めた提案情報確認画面をモニタ26に表示してステップ408へ移行する。予め定めた提案情報確認画面は、例えば、エージェントサーバ12から受信した提案情報のリスト等を表示する。
ステップ408では、CPU16Aが、提案情報の再生表示が指示されたか否かを判定する。該判定は、例えば、音声や操作等によって提案情報を再生表示する指示が行われたか否かを判定する。該判定が肯定された場合にはステップ410へ移行し、否定された場合には一連の処理を終了して他の処理を行う。
ステップ410では、CPU16Aが、未装備機能に関する提案情報をモニタ26に再生表示して一連の処理を終了する。これにより、乗員の視聴したいタイミングで提案情報を視聴して、利用しようとして装備されていなかった機能のうち追加可能な機能を確認できる。また、車両14が停車しているタイミングで提案情報が再生表示されるので、安全性を確保した状態で未装備機能に関する提案情報を確認できる。
なお、上記の実施形態では、エージェントサーバ12と乗員との間で対話が可能な例を一例として説明したが、これに限るものではなく、対話の機能を省略した形態としてもよい。この場合は、例えば、車載器16の車載器制御部52が、利用しようとして装備されていなかった未装備機能を乗員の操作等から検出する機能、及び当該未装備機能を検出した場合にエージェントサーバ12に通知する機能を備えて、エージェントサーバ12が未装備機能のうち装備可能な機能を検出すればよい。これにより、エージェントサーバ12の提案情報生成部66が提案情報を生成して上記実施形態と同様に処理が可能となる。或いは、乗員による発話内容の意図理解のみを行って、発話内容に対する回答情報の生成を省略する形態としてもよい。
また、上記の実施形態における車両用エージェントシステム10の各部で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、及びFPGA(Field-Programmable Gate Array)等のハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 車両用エージェントシステム
12 エージェントサーバ(車両用エージェント装置)
14 車両
16 車載器
18 通信ネットワーク
40 携帯端末
60 対話制御部(生成部)
62 意図理解部
64 検出部
66 提案情報生成部
68 DB
70 制御部(処理部)

Claims (6)

  1. 対象車両の乗員による発話内容の意図を理解する意図理解部と、
    前記意図理解部によって理解された発話内容に含まれ、前記乗員が利用しようと意図した車両の機能であって、前記対象車両に装備されていなかった機能でかつ前記対象車両に装備可能な機能を未装備機能として検出する検出部と、
    前記検出部によって検出された前記未装備機能に関する情報を前記乗員へ提供する処理を行う処理部と、
    を含む車両用エージェント装置。
  2. 前記意図理解部によって理解された発話内容に対する回答情報を生成する生成部を更に含み、
    前記乗員が利用しようと意図した機能が前記対象車両に装備されていないことを表す回答情報が生成されて前記対象車両に送信された場合に、前記検出部が前記未装備機能を検出し、前記処理部が前記未装備機能に関する情報を前記乗員へ提供する処理を行う請求項1に記載の車両用エージェント装置。
  3. 前記処理部は、乗員が携帯する予め登録された携帯端末に対して、前記未装備機能に関する情報を送信する処理を行う請求項1又は請求項2に記載の車両用エージェント装置。
  4. 前記処理部は、車両に搭載された車載器に前記未装備機能に関する情報を送信し、前記車載器が、安全確保を表す予め定めた条件が成立した場合に、前記未装備機能に関する情報の表示を行う請求項1~3の何れか1項に記載の車両用エージェント装置。
  5. 請求項1~4の何れか1項に記載の車両用エージェント装置と、
    車両に設けられ、前記未装備機能に関する情報を受信して前記乗員に通知可能な車載器と、
    を含む車両用エージェントシステム。
  6. コンピュータを、請求項1~4の何れか1項に記載の車両用エージェント装置として機能させるための車両用エージェントプログラム。
JP2020171495A 2020-10-09 2020-10-09 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム Active JP7264139B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020171495A JP7264139B2 (ja) 2020-10-09 2020-10-09 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
CN202111150277.9A CN114420112A (zh) 2020-10-09 2021-09-29 车辆用智能体装置、车辆用智能体***以及计算机可读存储介质
US17/494,919 US20220115014A1 (en) 2020-10-09 2021-10-06 Vehicle agent device, vehicle agent system, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020171495A JP7264139B2 (ja) 2020-10-09 2020-10-09 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム

Publications (2)

Publication Number Publication Date
JP2022063120A JP2022063120A (ja) 2022-04-21
JP7264139B2 true JP7264139B2 (ja) 2023-04-25

Family

ID=81078395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020171495A Active JP7264139B2 (ja) 2020-10-09 2020-10-09 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム

Country Status (3)

Country Link
US (1) US20220115014A1 (ja)
JP (1) JP7264139B2 (ja)
CN (1) CN114420112A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008001350A (ja) 2006-05-24 2008-01-10 Nippon Soken Inc 車両用ユーザー支援装置
JP2020119039A (ja) 2019-01-18 2020-08-06 トヨタ自動車株式会社 移動体システム
JP2020149106A (ja) 2019-03-11 2020-09-17 本田技研工業株式会社 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP2020160133A (ja) 2019-03-25 2020-10-01 本田技研工業株式会社 エージェントシステム、エージェントシステムの制御方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040093155A1 (en) * 2002-11-12 2004-05-13 Simonds Craig John System and method for providing vehicle context information
JP7068986B2 (ja) * 2018-10-09 2022-05-17 本田技研工業株式会社 エージェントシステム、エージェント制御方法、およびプログラム
JP7198122B2 (ja) * 2019-03-07 2022-12-28 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7222757B2 (ja) * 2019-03-08 2023-02-15 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
US20220222733A1 (en) * 2019-05-09 2022-07-14 Honda Motor Co., Ltd. Agent system, agent server, control method for agent server, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008001350A (ja) 2006-05-24 2008-01-10 Nippon Soken Inc 車両用ユーザー支援装置
JP2020119039A (ja) 2019-01-18 2020-08-06 トヨタ自動車株式会社 移動体システム
JP2020149106A (ja) 2019-03-11 2020-09-17 本田技研工業株式会社 エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
US20200320999A1 (en) 2019-03-11 2020-10-08 Honda Motor Co., Ltd. Agent apparatus, agent system, and server device
JP2020160133A (ja) 2019-03-25 2020-10-01 本田技研工業株式会社 エージェントシステム、エージェントシステムの制御方法、およびプログラム

Also Published As

Publication number Publication date
US20220115014A1 (en) 2022-04-14
CN114420112A (zh) 2022-04-29
JP2022063120A (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
JP7263233B2 (ja) 車両衝突を検出するための方法、システム及びプログラム
US9969268B2 (en) Controlling access to an in-vehicle human-machine interface
CN110719865B (zh) 驾驶辅助方法、驾驶辅助程序以及车辆控制装置
JP5881596B2 (ja) 車載情報装置、通信端末、警告音出力制御装置、および警告音出力制御方法
JP7053432B2 (ja) 制御装置、エージェント装置及びプログラム
US20160041562A1 (en) Method of controlling a component of a vehicle with a user device
KR20190076731A (ko) 탑승자 단말 및 디스트랙션 확인을 통한 컨텐츠 표시 방법
CN109649268B (zh) 用于车辆的智能语音助理***、装置和方法
JP2010205123A (ja) 運転支援方法、運転支援装置及び運転支援用プログラム
JP2015128915A (ja) 後席乗員モニタシステム及び後席乗員モニタ方法
KR101595700B1 (ko) 운전자의 편의성 및 안정성을 향상시킨 스마트 디지털 운행 기록계
JP7264139B2 (ja) 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
JP2019129441A (ja) 楽曲提供システム及び楽曲提供方法
JP3233033B2 (ja) 車両用事故対処装置
JP7115216B2 (ja) 情報処理装置および情報処理方法
JP2021123133A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20220377286A1 (en) Display control device, display control method, and display control program
KR20220143309A (ko) 차량 및 그 제어 방법
JP2022148823A (ja) エージェント装置
JP7084848B2 (ja) 制御装置、エージェント装置及びプログラム
WO2015174363A1 (ja) 端末車両間通信システム、端末装置、及びプログラム
JP5014349B2 (ja) サーバ装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2022165339A (ja) エージェント装置
CN113844456B (zh) Adas自动开启方法及装置
JP2022108163A (ja) エージェント装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7264139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151