JP2016095705A - 不明事項解消処理システム - Google Patents

不明事項解消処理システム Download PDF

Info

Publication number
JP2016095705A
JP2016095705A JP2014231790A JP2014231790A JP2016095705A JP 2016095705 A JP2016095705 A JP 2016095705A JP 2014231790 A JP2014231790 A JP 2014231790A JP 2014231790 A JP2014231790 A JP 2014231790A JP 2016095705 A JP2016095705 A JP 2016095705A
Authority
JP
Japan
Prior art keywords
unknown
subject
determination
matter
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014231790A
Other languages
English (en)
Other versions
JP6387287B2 (ja
Inventor
志都香 田村
Shizuka Tamura
志都香 田村
善隆 平嶋
Yoshitaka Hirashima
善隆 平嶋
北原 俊夫
Toshio Kitahara
俊夫 北原
隆一 平出
Ryuichi Hiraide
隆一 平出
幹夫 岡崎
Mikio Okazaki
幹夫 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014231790A priority Critical patent/JP6387287B2/ja
Publication of JP2016095705A publication Critical patent/JP2016095705A/ja
Application granted granted Critical
Publication of JP6387287B2 publication Critical patent/JP6387287B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ユーザの手操作などのアクションを抑制する。【解決手段】情報処理装置は、対象者を撮影した画像を認識する認識手段と;音を入力する入力手段と;前記認識手段による前記対象者の口の状態に基づいて発話状態と、前記認識手段による前記対象者の顔の状態に基づいて表情とを判定する第1判定手段と;前記第1判定手段の判定結果に基づいて、前記対象者の発話状態が無く、かつ前記対象者の表情が冴えないと判定する場合に、前記対象者において不明事項が発生したと判定する第2判定手段と;前記第2判定手段により前記不明事項が発生したときの、前記入力手段により入力された音に基づいて、前記不明事項を特定する特定手段と;前記特定手段により特定された前記不明事項を解説する情報を出力する出力手段とを備える。【選択図】図5

Description

本発明は、不明事項解消処理システムに関し、更には不明事項解消処理装置、不明事項解消処理方法、及び不明事項解消処理プログラムに関する。
近年、携帯電話端末及び携帯情報端末の機能を併せ持つ携帯通信機器であるスマートフォンが爆発的に普及している。このスマートフォンの普及はオーディオ機能、ビジュアル機能、ナビゲーション機能、及び近距離通信機能を含む車載通信装置(車載機または車載用ナビゲーション装置と記載することもある)に多大な影響を与え、スマートフォンと車載機とが接続されて連携動作すること、つまりスマートフォン連携が主流になっている。
例えば、スマートフォンの利用者(ユーザ)が自動車などの車両においてスマートフォンを車載機に近距離無線接続すると、スマートフォン連携アプリ(中継アプリケーションソフトウェア)が動作し、普段使い慣れたスマートフォンにおいて見つけた場所(位置情報)を車載機に送信して簡単に目的地設定できる。これにより、スマートフォンのユーザは、車載機のディスプレイに表示された目的地を目指して直ちに出発できる。
また、自律的対話能力及び仮想人格を有し、コミュニケーションを仲介するエージェント(擬人化エージェントまたはコミュニケーションエージェント)として機能するアプリケーションソフトウェアを実装(搭載)したスマートフォンなどの携帯通信機器が普及している。
エージェント搭載のスマートフォン及びこのようなスマートフォンと連携動作する車載機においては、ユーザが疑問に思った不明事項(不明点と記載することもある)をエージェントに問い合わせる(質問する)と、これを契機にエージェントから不明事項に関する情報提供がある。ユーザはこの提供された情報に基づいて不明事項を解消可能である。
特開2003−330487号公報 特開2010−009413号公報 特開2012−144066号公報 特開2009−244204号公報
しかし、上述した不明事項解消技術においては、ユーザは、不明事項をエージェントに積極的に質問しなければ、不明事項を明確にできない。
例えば、ユーザが車両などの移動体を運転しているときは、生じた不明事項のメモを取ること、エージェントに対してアクセスすることなどの手操作を円滑に行えない、支障が生じることを免れない。
第1の課題は、ユーザの手操作などのアクションを抑制しつつ、不明事項を解消可能にする技術を提供することにある。
第2の課題は、ユーザが不明事項を積極的に質問しなくても、不明事項を解消可能にす
る技術を提供することにある。
上記課題を解決するために、不明事項解消処理装置としての情報処理装置は、対象者を撮影した画像を認識する認識手段と;音を入力する入力手段と;前記認識手段による前記対象者の口の状態に基づいて発話状態と、前記認識手段による前記対象者の顔の状態に基づいて表情とを判定する第1判定手段と;前記第1判定手段の判定結果に基づいて、前記対象者の発話状態が無く、かつ前記対象者の表情が冴えないと判定する場合に、前記対象者において不明事項が発生したと判定する第2判定手段と;前記第2判定手段により前記不明事項が発生したときの、前記入力手段により入力された音に基づいて、前記不明事項を特定する特定手段と;前記特定手段により特定された前記不明事項を解説する情報を出力する出力手段とを備える。
上述した不明事項解消処理装置は、不明事項解消処理方法及び不明事項解消処理プログラムとして実施することもできる。
開示した不明事項解消処理装置によれば、ユーザの手操作などのアクションを抑制しつつ、不明事項を解消することができる。また、ユーザが不明事項を積極的に質問しなくても、不明事項を解消することができる。
他の課題、特徴及び利点は、図面及び特許請求の範囲とともに取り上げられる際に、以下に記載される発明を実施するための形態を読むことにより明らかになるであろう。
一実施の形態の不明事項解消処理システムの概要構成を示すブロック図。 一実施の形態の不明事項解消処理システムの特徴を説明するための図。 一実施の形態の不明事項解消処理システムにおける車載機の構成を示すブロック図。 一実施の形態の不明事項解消処理システムにおけるサーバの構成を示すブロック図。 一実施の形態の不明事項解消処理の手順を示すフローチャート。 一実施の形態の不明事項解消処理システムにおけるユーザ管理データベース及び用語データベースの構成を示す図。
以下、添付図面を参照して、さらに詳細に説明する。図面には好ましい実施形態が示されている。しかし、多くの異なる形態で実施されることが可能であり、本明細書に記載される実施形態に限定されない。
[システム概要]
一実施の形態におけるシステムの概要を説明するための図1を参照すると、不明事項解消処理システム1は、自動車などの車両(移動体)の室内に設置された車載機(車載通信装置)2と、携帯電話端末及び携帯情報端末の機能を併せ持つスマートフォン(携帯通信機器)3と、サーバ(不明事項解消処理装置)4とを備えている。
この不明事項解消処理システム1においては、スマートフォン3と車載機2とは近距離無線接続されて連携動作し、スマートフォン3とサーバ4とは無線通信ネットワーク(図示省略)を介して接続される。
後に詳述するように、車載機2はカメラ(車室内カメラ)及びマイク(車室内マイクロホン)をそれぞれ少なくとも1つ含む。Web(World Wide Web)クライアントとしての一面を有するスマートフォン3は、Webブラウザ(例えば、HTML(Hyper Text Markup Language)ブラウザ、VRML(Virtual Reality Modeling Language)ブラウザな
ど)を搭載し、エージェント機能、通信機能、情報入力機能、情報出力(可視表示・可聴表示)機能、情報指定機能、及び情報保持(記憶)機能を含む。
また、サーバ4は、車載機2及びスマートフォン3と協働して、不明事項解消処理を遂行する。つまり、図1及び図2を併せ参照すると、不明事項解消処理システム1においては、スマートフォン3の利用者(ユーザ)は、スマートフォン3と車載機2とを連携動作させるために、車両において両者を近距離無線接続する(図2中の21)。
そして、スマートフォン3のユーザは、自律的対話能力及び仮想人格を有し、コミュニケーションを仲介するエージェント(擬人化エージェントまたはコミュニケーションエージェント)として機能するエージェントアプリ(アプリケーションソフトウェア)をスマートフォン3において起動しておく(図2中の22)。
エージェント搭載のスマートフォン3と連携動作する車載機2においては、カメラ及びマイクを通して取得したドライバ(運転者)の画像信号及び音声信号などをスマートフォン3に送信する。
サーバ4においては、スマートフォン3から転送されたドライバの画像信号及び音声信号などに基づいて、ドライバが車室内の会話を理解できていないと判定すると、不明事項(不明点)を抽出する。そして、サーバ4においては、抽出した不明点を解説する情報をスマートフォン3に送信する(図2中の23)。
スマートフォン3においては、サーバ4から送信された不明点解説情報をエージェントを介して車載機2に転送する。
これにより、車載機2のエージェントはドライバに不明点を解説するので、ドライバ、つまりユーザが不明点をエージェントに積極的に質問しなくても、不明点を解消することができる(図2中の24)。
[車載機の構成]
図3は、図1に示す不明事項解消処理システム1における車載機(車載通信装置)2のハードウェア構成の一例を示す。
車載機2は、車両の現在地や目的地までの経路の案内などを行うカーナビゲーション機能、各種オーディオ/ビジュアル(AV)コンテンツの再生機能、放送波を受信する機能、及び近距離通信機能などを有している。車載機2は、車両の運転席や助手席の乗員の手が届きやすいダッシュボードの中央付近に設置された状態で使用されるものである。この車載機2は、例えば富士通テン株式会社のAVN(Audio Visual Navigation)(登録商
標)一体機の車載用ナビゲーション装置により実現可能である。
車載機2は、具体的には、制御部100、メモリ101、着脱可能記録媒体再生部102、ラジオ及びテレビジョンの放送受信部103、ディスク再生部104、ナビゲーション部106、VICS(Vehicle Information and Communication System)情報受信部107、GPS(Global Positioning System)情報受信部108、分配部109、音声調
整部110、スピーカ111、画像調整部112、画像出力部113、表示部114、リモコン送受信部115、リモコン(遠隔操作部)116、及び操作部117を含む。
さらに、車載機2は、少なくとも1つのカメラ(車室内カメラ)118、少なくとも1つのマイク(車室内マイクロホン)119、映像/音声入力部120、及び近距離通信部121を含み、必要に応じて無線通信部122を含む。
この車載機2において、制御部100は、車載機2の各部または接続された外部機器からの信号に基づき、車載機2の各部または外部機器を統括的に制御する。制御部100は、例えばマイクロコンピュータ(マイコン)を備え、マイコンがメモリ101に記憶された各種プログラムを実行することによって、各機能を実現する。
メモリ101は、車載機2に実装された、各種データやプログラムを記憶する記憶部である。メモリ101は、例えばRAM(Random Access Memory)やフラッシュメモリなどを含む。
着脱可能記録媒体再生部102は、接続された着脱可能記録媒体(図示省略)に記録されたデータを読み出して出力する。着脱可能記録媒体は、例えばSDカード、miniSDカード、microSDカード、その他のフラッシュメモリのメモリカードである。着脱可能記録媒体再生部102は、読取信号の復号回路などを備え、制御部100からの制御信号により、オン/オフ、読み込み位置などの各種動作が制御される。
放送受信部(ラジオ受信部)103は、アンテナにより受信された各ラジオ放送局から発信されるAMまたはFMの放送波から、特定の周波数の放送波を選択して受信することにより、放送の音声信号などを出力する。また、放送受信部(テレビ受信部)103は、アンテナにより受信された各テレビ放送局から発信される放送波から、セレクタにより特定の周波数の放送波を受信し、受信した音声信号、映像信号及びデータ信号などを出力する。放送受信部103は、同調回路、復調及び復号回路などを備え、制御部100からの制御信号により、オン/オフ、受信周波数などの各種動作が制御される。
ディスク再生部104は、CD(Compact Disc)、MD(Mini Disc)、DVD(Digital Versatile Disc)、及びブルーレイディスクなどのディスクに記録されているデータ
をピックアップにより読込み、読み込んだデータに基づく、音声信号及び映像信号などを出力する。ディスク再生部104は、光学ピックアップ、ピックアップディスク駆動機構、ピックアップディスク駆動機構の制御回路、読取信号の復号回路などを備える。ディスク再生部104は、制御部100からの制御信号により、オン/オフ、読み込み位置などの各種動作が制御される。
ナビゲーション部106は、地図上に自車位置や目的地までの経路を表示したり、交差点などで音声などにより右左折などの進行方向案内を行ったり、VICS情報受信部107から交通情報を受信して表示したり、GPS情報受信部108から自車位置情報を受信して表示したりして、目的地までの経路案内を行う。ナビゲーション部106は、ナビゲーションのために利用される地図情報を記録するハードディスク、各種演算処理を行うCPU(Central Processing Unit)、各種処理のためにデータを記憶するRAMなどのメ
モリを含む。ナビゲーション部106は、制御部100からの制御信号により、オン/オフなどの各種動作が制御される。
VICS情報受信部107は、交通情報通信システム(VICS:登録商標)に係る交通情報を受信し、受信した交通情報を出力する。VICS情報受信部107は、交通情報通信システムからのデータを受信する受信機(FM受信機、電波ビーコン受信機、光ビーコン受信機)、受信したデータを復号する復号回路などを備える。
GPS情報受信部108は、GPS衛星からのGPS信号に基づき自車位置を検出し、検出した現在位置情報を出力する。GPS情報受信部108は、GPS信号を受信する受信回路、受信したGPS信号に基づき自車位置を算出する演算部などを備える。
分配部109は、制御部100の制御信号により、出力することが指定された各種ソース、つまり着脱可能記録媒体再生部102、放送受信部103、ディスク再生部104、ナビゲーション部106、及び映像/音声入力部120などからの音声信号及び映像信号(画像信号と記載することもある)を音声調整部110、画像調整部112、及び制御部100に出力する。分配部109は、リレーまたはスイッチングトランジスタなどで構成されたスイッチ群を備える。
ここで、分配部109は、映像/音声入力部120からの音声信号及び画像信号などについては制御部100に出力する。また、無線通信部122が設けられている場合、分配部109は、映像/音声入力部120からの音声信号及び画像信号などについては無線通信部122に出力し、無線通信部122からのデータ信号については制御部100に出力する。
音声調整部110は、制御部100の制御信号により、入力された音声信号に対し、音量及び音声を調整し、調整した音声信号を出力する。音声調整部110は、音声データを記憶するメモリと、音声データを演算処理するデジタルシグナルプロセッサなどの演算回路と、増幅または減衰回路と、共振回路などとを備える。スピーカ111は、音声調整部110からの音声信号を音声として出力する。
画像調整部112は、制御部100の制御信号により、入力された画像信号に対し、輝度や色調、コントラストなどを調整し、調整した各画像信号を出力する。画像調整部112は、画像データを記憶するメモリ、画像データを演算処理するデジタルシグナリングプロセッサなどの演算回路を含む。
画像出力部113は、画像調整部112から入力された画像信号と、制御部100から表示部114に表示させる表示画像信号とを入力して画像合成などの処理を施し、当該処理を施した画像信号に基づき表示部114を駆動する。画像出力部113は、例えば演算処理により、画像処理を行う画像用に特化された演算処理回路である画像ASIC、画像処理及び出力用に画像データを記憶するビデオメモリ、画像出力用ビデオメモリに記憶された画像データに基づき表示部114を駆動する画像駆動回路などを備える。
表示部114は、画像出力部113から入力された画像信号に基づき画像を表示する。表示部114は、例えば液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイ、冷陰極フラットパネルディスプレイなどである。表示部114は、バックライト、液晶パネル、及びタッチパネルを含む。
リモコン送受信部115、リモコン(遠隔操作部)116、及び操作部117については、容易に理解できるので詳細説明を省略する。
カメラ(車室内カメラ)118は、リアルタイムに撮影(撮像)したドライバの画像信号などを映像/音声入力部120に出力する。
マイク(車室内マイクロホン)119は、リアルタイムに収集(集音)したドライバの音声信号などを映像/音声入力部120に出力する。
近距離通信部121は、例えばDSRC(専用狭域通信:Dedicated Short Range Comm
unication)、赤外線通信、ブルートゥース(登録商標)などの近距離の無線通信のため
の通信インタフェースである。ここでは、近距離通信部121はスマートフォン3と近距離無線接続される。
無線通信部122は、送受信アンテナ、無線周波数(RF)信号処理部、ベースバンド(BB)信号処理部及び符号化・復号化部を含む。この無線通信部122を設けた場合は、車載機2とサーバ4とがスマートフォン3を介さずに通信できる。逆に、この無線通信部122を省いた場合は、車載機2とサーバ4とが通信する場合、スマートフォン3を介する必要がある。
[サーバの構成]
図4は、図1に示す不明事項解消処理システム1におけるサーバ(不明事項解消処理装置)4のハードウェア構成の一例を示す。
サーバ4は、サーバコンピュータであり、CPU401と、メモリ402と、各種インタフェース(I/F)403,405,407,409,411,413と、これらのインタフェースを通じてCPU1に接続される周辺装置404,406,408,410,412,414とを含む。
ここでは、周辺装置の例として、ハードディスク駆動装置404、入力装置406、表示装置408、通信ネットワークインタフェース(I/F)410、着脱可能記憶媒体駆動装置412、及びメモリカード・リーダ・ライタ414が示されている。
CPU401は、メモリ402に展開されたアプリケーションプログラムを実行し、サーバ4の各種機能を提供する。メモリ402は、CPU401が実行可能な形式でプログラムを保持する。また、メモリ402は、CPU401が処理するデータを保持する。メモリ402は、DRAM(Dynamic Random Access Memory)、ROM(Read Only Memory)などである。ただし、メモリ402として、フラッシュメモリを用いてもよい。
ハードディスク駆動装置404は、ハードディスクにアクセスし、CPU401が処理したデータ、CPU401で実行されるプログラムなどを記憶する。入力装置406は、キーボードなどの文字入力装置、マウスなどのポインティングデバイスなどである。表示装置408は、液晶ディスプレイ、エレクトロルミネッセンスパネルなどである。
着脱可能記憶媒体駆動装置412は、CD−ROM、DVD、フラッシュメモリカード(SDメモリカード、USBメモリカード)などの駆動装置である。
CPU401で実行されるプログラムは、通常、通信ネットワークインタフェース410または着脱可能記憶媒体駆動装置412を通じて、ハードディスクに保存され、メモリ402に展開される。メモリカード・リーダ・ライタ414は、CPU401の指令に従い、装着されたメモリカードとCPU401との間で、データを入出力する。
サーバ4は、各種データベース、つまりユーザ管理データベース41及び用語データベース42をハードディスク及びメモリ402上の少なくとも一方に有する。
後に詳述する不明事項解消処理機能を論理的に実現するには、サーバ4は、OS標準の各種ツールと連携する不明事項解消処理プログラムを備えている。
[不明事項解消処理]
図5は、サーバ4における不明事項解消処理の手順の一例を示している。ここでは、サ
ーバ4が、車載機2及びスマートフォン3と協働して、ドライバ及び同乗者による会話時の不明事項解消処理を遂行する場合について詳述するが、後に説明するような変形処理を採ることもできる。
図5及び関連図を併せ参照すると、不明事項解消処理システム1においては、不明事項解消対象者となるスマートフォン3のユーザ(つまり、ドライバ)は、スマートフォン3と車載機2とを連携動作させるために、車両において両者を近距離無線接続する(図2中の21)。
そして、スマートフォン3のユーザは、自律的対話能力及び仮想人格を有し、コミュニケーションを仲介するエージェントとして機能するエージェントアプリをスマートフォン3において起動しておく(図2中の22)。また、スマートフォン3のユーザは、スマートフォン3のエージェントとのコミュニケーションを仲介するエージェントとして機能するエージェントアプリを車載機2においても起動しておく。
エージェント搭載のスマートフォン3と連携動作する車載機2においては、制御部100は、映像/音声入力部120がカメラ(車室内カメラ)118及びマイク(車室内マイクロホン)119を通してリアルタイムに取得したドライバの画像信号及び音声信号などを近距離通信部121を介してスマートフォン3に送信する。なお、スマートフォン3に送信されるドライバの画像信号及び音声信号には、車室内で会話を行っている同乗者の画像信号及び音声信号が含まれている。ここで、カメラ118及びマイク119は、運転席の前部近傍、必要に応じて後席近傍などに配置される。
不明事項解消処理プログラムが常駐しているサーバ4においては、CPU401(厳密には、CPU401及び協働する他の構成要素)は、スマートフォン3からユーザID(利用者識別情報)とともに転送されたドライバの画像信号及び音声信号などに基づいて、ドライバが車室内での同乗者との会話を理解できていないと判定すると、不明点を抽出(特定)する。そして、サーバ4においては、CPU401は、抽出した不明点を解説する情報(不明点解説情報)をスマートフォン3に送信する(図2中の23)。なお、スマートフォン3から転送されたドライバの画像信号及び音声信号などは、画像データ及び音声データとしてユーザIDに対応付けて、メモリ402におけるユーザ管理データベース(DB)41(図6(A)参照)に格納される。
更に詳述すると、サーバ4においては、CPU401は、スマートフォン3から受信したドライバの画像信号に基づいて、ドライバの発話状態(口の開閉度)を検知するために、ドライバの口が頻繁に開閉しているかを判定する(図5中のS51)。肯定判定(YES)のときは、ドライバの不明点なしと判定して終了する(S52)。否定判定(NO)のときは、処理S53に進む。なお、処理S51とともに、スマートフォン3から受信したドライバの音声信号などの常時録音、つまりユーザ管理データベース41への格納を開始する。
処理S51において、ドライバの発話状態を検知するためには、顔画像から口の開閉度をリアルタイムに検知する既存の顔認識技術が適用できる。
次に、CPU401は、受信したドライバの画像信号に基づいて、ドライバの不機嫌度を検知するために、ドライバの顔の表情がネガティブ(不機嫌状態)かを判定する(S53)。否定判定のときは、つまり顔の表情がポジティブ(機嫌状態)であるときは、ドライバの不明点なしと判定して終了する(S54)。肯定判定のときは、ドライバが同乗者との会話に入れていない、つまり会話不成立状態であることから、会話の内容に不明点があると仮定する(S55)。
処理S53において、ドライバの顔の表情がネガティブ(不機嫌状態)かを判定するためには、顔画像から眉間の皺、視点のふらつき、瞳孔の大きさ、鼻の穴の動きなどの特徴を検知して、喜び、嫌悪、無表情などを含むいくつかの表情をリアルタイムで推定する既存の表情推定技術が適用できる。
なお、処理S51,S52と処理S53,S54とは、処理の順序が逆であってもよい。
次に、CPU401は、ユーザ管理データベース41にリアルタイムに格納していた画像データ及び音声データに基づいて、ネガティブ表情になったときの音声認識を行い、会話の内容が分からなかった箇所(不明点)を判定する(S56)。つまり、CPU401は、ユーザ管理データベース41にリアルタイムに格納していた画像データ及び音声データに基づいて、不明点の発生が肯定判定されたときに、会話の内容が分からなかった箇所(不明点)を判定する。この判定のために、声色が併せて考慮されてもよい。厳密には、CPU401は、ネガティブ表情になった直前(例えば、15sec前)の会話内容を理解できなかったと判定する。
次に、CPU401は、不明点対応の音声データをユーザ管理データベース41から読み出してテキスト化したときに、意味を理解できる単語があったかを用語データベース42(図6(B))を参照して判定する(S57)。つまり、CPU401は、不明点対応の音声データをユーザ管理データベース41から読み出してテキスト化した単語が用語データベース42に予め登録されているかを判定する。処理S57で否定判定のときは、ドライバの不明点を検出できないと判定して終了する(S58)。処理S57で肯定判定のときは、処理S59に進む。
また、CPU401は、検知された会話内容がドライバにとって不明である可能性が高いかをユーザ管理データベース41を参照して判定する(S59)。例えば、ユーザ管理データベース41には、不明事項解消処理システム1への加入時に、ユーザが申告した属性情報として年齢、性別、趣味趣向が少なくとも登録されている。また、例えば、初期設定のため、趣味のジャンル、情報機器の取り扱いに関するアンケート、簡単な能力試験等を行うことにより、ユーザと、趣味のジャンル、情報機器の分野ごとにレベル分けしておいてもよい。例えば、ドライバを読書量に応じてレベル分けし、それぞれのレベルごとに、不明となる可能性のある用語の一覧をデータベースに保持すればよい。また、例えば、ドライバの情報機器に対する知識に応じてレベル分けし、それぞれのレベルごとに、不明となる可能性のある用語の一覧をデータベースに保持すればよい。処理S59で否定判定のときは、ドライバの不明点を検出できないと判定して終了する(S60)。処理S59で肯定判定のときは、検知された会話内容から不明点を抽出(特定)する(S61)。
さらに、CPU401は、ドライバから予め要求がない限り、同乗者などのドライバ以外には分からない形態でドライバに不明点の解説を行うように、不明点解説情報をスマートフォン3に送信して処理を終了する(S62)。詳述すると、CPU401は、処理S61において、例えば不明点「カーナビ」が特定されると、用語データベース42を参照して「カーナビ」についての解説情報を読出す。そして、CPU401は、例えばテキスト形式の不明点解説情報「あなたが疑問に思った不明点・カーナビとは、・・・ことです。」を作成し、スマートフォン3に送信する。
スマートフォン3においては、CPU(図示省略)は、サーバ4から送信された少なくとも1つのテキスト形式の不明点解説情報を受信し、スマートフォン3のエージェントを介して車載機2に順次に転送する。
車載機2においては、制御部100の制御下で、スマートフォン3のエージェントからのテキスト形式の不明点解説情報を受信した車載機2のエージェントは、図示省略のヘッドアップディスプレイ(HUD)を通してドライバに不明点を解説(可視表示)するので、ドライバ、つまりユーザが不明点をエージェントに積極的に質問しなくても、不明点を解消することができる(図2中の24)。
また、同乗者との会話において不明点が生じた場合、ドライバに不明点の解説を行うことにより、同乗者とのコミュニケーションが円滑になる。
[変形例1]
例えば、車載機2の放送受信部103において番組を受信している場合、車載機2からスマートフォン3に送信される車室内の音声信号には、車室内で会話を行っているドライバ及び同乗者の音声信号の他に番組のオーディオ信号(音声信号及び音信号)が含まれている。サーバ4においては、CPU401は、不明事項解消処理プログラムにより、オーディオ信号を判別して除去し、上述した一実施の形態と同様に、ドライバ及び同乗者による会話の内容を判断する。なお、車載機2がドライバ及び同乗者の音声信号からオーディオ信号を除去した後にサーバ4へ送信してもよい。
[変形例2]
例えば、ドライバが単独乗車し、車室内で会話が行われずに、車載機2の放送受信部103において番組を受信している場合、車載機2からスマートフォン3に送信される信号には、ドライバの画像信号の他に番組のオーディオ信号(音声信号及び音信号)が含まれている。サーバ4においては、CPU401は、ドライバの画像信号とともに受信された番組のオーディオ信号(音声信号)における対応箇所を不明事項として特定し、不明事項解消処理を遂行可能である。
また、サーバ4においては、CPU401は、ドライバの画像信号及び車両外部から室内に侵入する音信号(例えば、緊急車両のサイレン)に基づいて、不明事項解消処理を遂行可能である。この場合、例えば、ドライバあるいは同乗者の会話に、消防車のサイレンの示す表現が含まれている場合に、サーバ4は、どこで火事があったかを、火事とニュースとの紐付けにより、不明点として解説する。例えば、サーバは、インターネット上のニュースのウェブサイトを検索し、エージェントから取得したGPSで特定される車両の現在位置から、所定の範囲内の火事に関する情報を収集し、収集した情報を音声に変換して、エージェントに引き渡せばよい。
また、サーバ4においては、CPU401は、ドライバが車載機2の所定のハードスイッチを操作した場合、その時点の音声信号における対応箇所を不明点として付加的に特定してもよい。
[変形例3]
サーバ4における上述した処理S59,S61の不明点の抽出(特定)処理に関して、次に示す方法を付加的に適用可能である。
(1)ドライバが装着しているウェアラブル機器から取得される心拍数や発汗量などのデータに基づいて、不明点を特定する。例えば、サーバ4は、心拍数が通常値から変化した場合、あるいは発汗量が通常値より多くなった場合に、疑問点が発生したと判断すればよい。
(2)ドライバが装着しているウェアラブル機器を活用し、嘘発見器のように、動揺を
読み取って、不明点を特定する。
(3)ドライバなど個人の語彙力を推定するためのデータ(過去の発話履歴、趣味趣向、年齢、性別など)を格納しているユーザ管理データベース41を参照して、不明点を特定する。例えば、50代男性で野球が好きな人であれば、野球に関する会話には詳しいと予測し、逆に芸能関係には疎いと予測する。また、このユーザ管理データベース41には、個人の苦手分野を登録しておき、サーバ4は、分野ごとの用語データベース42を保持しておき、その分野の用語データベース42の用語とマッチした場合は、不明点とすることも可能である。
(4)ドライバなど個人のスマートフォン3内の検索ワードと連携してユーザ管理データベース41を作成し、ユーザ管理データベース41を参照して不明点を特定する。この場合、サーバ4は、スマートフォン3内の検索ワードを取得し、ユーザ管理データベース41に反映しておく。
(5)最近はやりだした言葉(流行語)は、不明点率が高いと推測できるので、サーバ4においてデータベース化しておき、このデータベース(用語データベース42)を参照して不明点を特定する。
(6)ドライバのジェスチャー(例えば、頭を3回かくなどの身振り)により、不明点を特定する。
[変形例4]
サーバ4における上述した処理S62の不明点の解説処理に関して、次に示す方法を付加的に適用可能である。
(1)サーバ4においては、ドライバから予め要求がない限り、同乗者などのドライバ以外には分からないように、ドライバに不明点の解説を行うように不明点解説情報を送信することを基本にしている。
したがって、サーバ4においては、画像データに基づく乗員検知を行い、ドライバが単独乗車したときに、ドライバに不明点を解説する。また、ドライバの下車時にスマートフォン3に通知するか、ドライバのパーソナルコンピュータ(PC)に電子メールで通知する。ドライバはこれらの不明点解説方法のいずれかを予め指定する必要がある。
(2)同乗者がいる場合でも、ドライバが許可すれば、リアルタイムで不明点を解説する。例えば、エージェントは、画像データから同乗者を検知した場合に、ドライバに解説の要否を問い合わせようにすればよい。
(3)不明点の解説をうんちく風に車内に説明する。これにより、ドライバにとっては不明点解説だが、他の人が聞くとうんちくになる。
(4)不明点の解説は、ユーザからの随時の要求を契機とすることも可能とする。例えば、サーバ4は、ドライバが車載機2の所定のハードスイッチを操作したときを不明点の解説の契機とすることができる。
(5)同乗者がいる場合でも、同乗者との関係(例えば、子供)により、サービス提供可能とする。
(6)同乗者がいる場合でも、ヘッドアップディスプレイ(HUD)などのドライバだ
けが見ることのできるディスプレイにリアルタイムで不明点の解説を表示する。
(7)ドライバの不明点を抽出できなかった場合は、エージェントが所定時間以内の会話で何が分からなかったかをドライバに音声出力で質問し、ドライバが音声で回答し、回答された音声から変換されたテキストに対して、上述した一実施の形態と同様の手順(図5中のS62)で不明点を解説する。
(8)不明点が出た場合は二段階で解説を行う(事前設定で切り替え可能)。
1段:速報レベルの簡易版でスピード重視(HUDを活用するなど)。
2段:ドライバの単独乗車時に詳細の解説(補足説明)。
(9)不明点のジャンルにより、解説時に内容の重みづけを行う。例えば、サーバ4は、ユーザ管理データベース41を参照し、50代男性で野球が好きな人であれば、野球に関する会話には詳しいと予測し、逆に芸能関係には疎いと予測できる。サーバ4は、この結果に応じて、用語データベース42から簡易解説または詳細解説を読出して、解説内容の重みづけを行う。
[変形例5]
サーバ4における上述した処理S62の不明点の解説処理に関して、次に示す内容補足方法を適用可能である。
不明点についての用語データベース42を作成し、個人が苦手な分野を理解し、苦手な分野についてはコンテンツ提供時に詳細まで解説をする。これは、不明点はあるけれども、会話には出てくるということは、興味があるとサーバ4において判断する。
[変形例6]
サーバ4における上述した各処理に関して、次に示す方法を付加的に適用可能である。
(1)車載機2において不明点が解説されたときに、ユーザの反応によっては追加でコンテンツを提供する。サーバ4においては、ユーザの顔の表情(ポジティブ(機嫌状態))から、今回解説した不明点に更に興味がありそうと判断した場合、この付加サービスを提供する。
(2)ユーザ(ドライバ)は、車載機2において不明点が解説されたときに、特定の人(例えば、子供)との乗車時などには、会話のリマインド機能を利用することにより、不明点の解説を再度聞いて理解を深めることができる。サーバ4においては、CPU401は、ドライバが車載機2の所定のハードスイッチを操作した場合、その時点の音声信号における対応箇所をリマインド対象として特定し、不明点の解説を再度行う。
(3)サーバ4は、上述した(2)の会話のリマインド機能において、ユーザが会話の内容(例えば、子供と話した内容)を思い出すことを可能にし、更なる会話の発展の契機を提供する。
(4)サーバ4は、上述した(2)の会話のリマインド機能において、ユーザ管理データベース41を参照し、ユーザの年齢や趣味趣向に応じて適切な不明点の解説を提供することもできる。
(5)ユーザの趣味趣向に基づいて、分からなかった会話の内容を推定して、分からなかったことをユーザ管理データベース41に登録する。例えば、サーバ4は、ユーザ管理データベース41を参照し、50代男性で野球が好きな人であれば、野球に関する会話に
は詳しいと予測し、逆に芸能関係には疎いと予測できる。サーバ4は、この予測に応じて、分からなかった会話の内容を推定して、分からなかったことをユーザ管理データベース41に登録しておくことにより、次回の不明事項解消処理に活用する。
(6)例えば、ラジオ放送曲で知らないことが予測できれば、情報提供する。サーバ4は、例えば、楽曲が流れたときに、画像データからドライバの表情を判断し、疑問点が生じていると判断した場合に、楽曲データごとの解説情報を提供すればよい。サーバ4は、楽曲データごとの旋律を特定する旋律データと、解説情報データベースを保持しておけばよい。そして、サーバ4は、楽曲の音声と旋律データとのマッチングを行い、楽曲と特定すればよい。そして、サーバ4は、特定した楽曲の解説情報を解説情報データベースから取得し、ドライバに提供すればよい。
(7)エージェントは、不明点を解説した後、ユーザが解説された不明点を本当に知らなかったのかどうかを確認した後に、ユーザ管理データベース41に登録する。つまり、サーバ4は、ユーザが疑問に思った不明事項と判定したが、実際は不明事項ではなかった場合、この結果をユーザ管理データベース41に登録しておくことにより、次回の不明事項解消処理に活用する。
[変形例7]
サーバ4における上述した各処理に関して、次に示す方法を付加的に適用可能である。
ドライバは、運転席に着席し、かつ車載機2及びスマートフォン3のユーザであるので、サーバ4にユーザIDを登録して不明事項解消対象者になることができる。しかし、同乗者については、ドライバのように、サーバ4にユーザIDを直接的に登録することができない。
このため、同乗者が不明点の解説を受ける更なる不明事項解消対象者になるためには、ユーザIDを登録したドライバの同乗者としてサーバ4のユーザ管理データベース41への登録を受ければよい。サーバ4は、例えば、ドライバが車載機2において予め定められた指定操作を行ったことを検出したとき、同乗者を不明事項解消対象者に含めて同様に処理し、不明点の解説を行う。
[変形例8]
上述した一実施の形態及び変形例1〜変形例7の不明事項解消処理システム1においては、サーバ4が、車載機2及びスマートフォン3と協働して、不明事項解消処理を遂行する場合について例示した。
しかし、車載機2がサーバ4と直接的に通信するための無線通信部122を備えているときは、スマートフォン3の介在を省略することが可能である。この場合、車載機2のユーザ(つまり、ドライバ)が不明事項解消対象者となる。
そして、車載機2のユーザは、サーバ4とのコミュニケーションを仲介するエージェントとして機能するエージェントアプリを車載機2において起動しておく。
エージェント搭載の車載機2においては、制御部100は、映像/音声入力部120がカメラ(車室内カメラ)118及びマイク(車室内マイクロホン)119を通してリアルタイムに取得したドライバの画像信号及び音声信号などを近距離通信部121ではなく、無線通信部122を介してサーバ4に送信するように制御する。また、制御部100は、サーバ4から送信された不明点解説情報を無線通信部122を介して受信する。
車載機2のエージェントはドライバに不明点を解説するので、ドライバ、つまりユーザが不明点をエージェントに積極的に質問しなくても、不明点を解消することができる。
不明事項解消処理プログラムが常駐しているサーバ4においては、CPU401は、車載機2からユーザID(利用者識別情報)とともに転送されたドライバの画像信号及び音声信号などに基づいて、ドライバが車室内の会話を理解できていないと判定すると、不明点を抽出(特定)する。そして、サーバ4においては、抽出した不明点解説情報を車載機2に送信する。
なお、サーバ4における上述した処理S51〜S62を含む不明事項解消処理は、スマートフォン3の介在を除けば同一である。
[変形例9]
上述した一実施の形態及び変形例1〜変形例8の不明事項解消処理システム1においては、サーバ4が自動車などの車両(移動体)の室内に設置された車載機2と協働して、不明事項解消処理を遂行する場合について例示した。
しかし、不明事項解消処理の対象室内は移動体に限定されず、不明事項解消対象者はドライバ及び同乗者に限定されない。また、コミュニケーションを仲介するエージェントは省略してもよい。
[その他の変形例]
上述した一実施の形態及び各変形例における処理はコンピュータで実行可能なプログラムとして提供され、CD−ROMやフレキシブルディスクなどの非一時的コンピュータ可読記録媒体、さらには通信回線を経て提供可能である。
また、上述した一実施の形態及び各変形例における各処理はその任意の複数または全てを選択し組合せて実施することもできる。
[その他]
上述した一実施の形態及び変形例に関し、更に以下の付記を開示する。
(付記1)
特定の室内に存在する不明事項解消対象者の画像信号を受信し、受信した前記画像信号に含まれる前記不明事項解消対象者の口の開閉度に基づいて発話状態を判定する手段と;
受信した前記画像信号に含まれる前記不明事項解消対象者の顔の表情に基づいて不明事項の発生の有無を判定する手段と;
前記不明事項解消対象者が前記発話状態になく、不機嫌状態を判定したとき、不明事項の発生を判定する手段と;
前記画像信号とともに受信された音声信号及び音信号のいずれかの音における対応箇所を不明事項として特定する手段と;
特定した前記不明事項を解説する情報を送信する手段と;
を備える不明事項解消処理装置。
(付記2)
不明事項対応の音データを第1の記憶手段から読み出してテキスト化した単語が第2の記憶手段に予め登録されているかを判定する手段を更に備える、
付記1記載の不明事項解消処理装置。
(付記3)
検知された会話内容が前記不明事項解消対象者にとって不明事項となる可能性が高いかを第1の記憶手段を参照して判定する手段を更に備える、
付記2記載の不明事項解消処理装置。
(付記4)
前記特定の室内は車両を含む移動体の室内であり、前記不明事項解消対象者は運転者及び同乗者の少なくとも一方であり、前記画像信号及び前記音声信号は運転者及び同乗者の少なくとも一方に対応する、
付記1記載の不明事項解消処理装置。
(付記5)
コンピュータが、
特定の室内に存在する不明事項解消対象者の画像信号を受信し、受信した前記画像信号に含まれる前記不明事項解消対象者の口の開閉度に基づいて発話状態を判定するステップと;
受信した前記画像信号に含まれる前記不明事項解消対象者の顔の表情に基づいて不明事項の発生の有無を判定するステップと;
前記不明事項解消対象者が前記発話状態になく、前記不機嫌状態を判定したとき、不明事項の発生を判定するステップと;
前記画像信号とともに受信された音声信号及び音信号のいずれかの音における対応箇所を不明事項として特定するステップと;
特定した前記不明事項を解説する情報を送信するステップと;
を実行する不明事項解消処理方法。
(付記6)
コンピュータに、
特定の室内に存在する不明事項解消対象者の画像信号を受信し、受信した前記画像信号に含まれる前記不明事項解消対象者の口の開閉度に基づいて発話状態を判定するステップと;
受信した前記画像信号に含まれる前記不明事項解消対象者の顔の表情に基づいて不明事項の発生の有無を判定するステップと;
前記不明事項解消対象者が前記発話状態になく、前記不機嫌状態を判定したとき、不明事項の発生を判定するステップと;
前記画像信号とともに受信された音声信号及び音信号のいずれかの音における対応箇所を不明事項として特定するステップと;
特定した前記不明事項を解説する情報を送信するステップと;
を実行させる不明事項解消処理プログラム。
1 不明事項解消処理システム
2 車載機(車載通信装置)
3 スマートフォン(携帯通信機器)
4 サーバ(不明事項解消処理装置)

Claims (7)

  1. 対象者を撮影した画像を認識する認識手段と;
    音を入力する入力手段と;
    前記認識手段による前記対象者の口の状態に基づいて発話状態と、前記認識手段による前記対象者の顔の状態に基づいて表情とを判定する第1判定手段と;
    前記第1判定手段の判定結果に基づいて、前記対象者の発話状態が無く、かつ前記対象者の表情が冴えないと判定する場合に、前記対象者において不明事項が発生したと判定する第2判定手段と;
    前記第2判定手段により前記不明事項が発生したときの、前記入力手段により入力された音に基づいて、前記不明事項を特定する特定手段と;
    前記特定手段により特定された前記不明事項を解説する情報を出力する出力手段と;
    を備えることを特徴とする情報処理装置。
  2. 不明事項対応の音データを第1記憶手段から読み出してテキスト化した単語が第2記憶手段に予め登録されているかを判定する第3判定手段を更に備える、
    請求項1記載の情報処理装置。
  3. 検知された会話内容が前記対象者にとって前記不明事項となる可能性が高いかを前記第1記憶手段を参照して判定する第4判定手段を更に備える、
    請求項2記載の情報処理装置。
  4. 前記対象者は車両を含む移動体の室内に存在する運転者及び同乗者の少なくとも一方であり、前記画像及び前記音は運転者及び同乗者の少なくとも一方に対応する、
    請求項1記載の情報処理装置。
  5. コンピュータが、
    対象者を撮影した画像を認識する認識ステップと;
    音を入力する入力ステップと;
    前記認識ステップによる前記対象者の口の状態に基づいて発話状態と、前記認識ステップによる前記対象者の顔の状態に基づいて表情とを判定する第1判定ステップと;
    前記第1判定ステップの判定結果に基づいて、前記対象者の発話状態が無く、かつ前記対象者の表情が冴えないと判定する場合に、前記対象者において不明事項が発生したと判定する第2判定ステップと;
    前記第2判定ステップにより前記不明事項が発生したときの、前記入力ステップにより入力された音に基づいて、前記不明事項を特定する特定ステップと;
    前記特定ステップにより特定された前記不明事項を解説する情報を出力する出力ステップと;
    を実行することを特徴とする処理方法。
  6. コンピュータに、
    対象者を撮影した画像を認識する認識ステップと;
    音を入力する入力ステップと;
    前記認識ステップによる前記対象者の口の状態に基づいて発話状態と、前記認識ステップによる前記対象者の顔の状態に基づいて表情とを判定する第1判定ステップと;
    前記第1判定ステップの判定結果に基づいて、前記対象者の発話状態が無く、かつ前記対象者の表情が冴えないと判定する場合に、前記対象者において不明事項が発生したと判定する第2判定ステップと;
    前記第2判定ステップにより前記不明事項が発生したときの、前記入力ステップにより入力された音に基づいて、前記不明事項を特定する特定ステップと;
    前記特定ステップにより特定された前記不明事項を解説する情報を出力する出力ステップと;
    を実行させることを特徴とする処理プログラム。
  7. 情報を提供する対象者の状態に基づき不明点を抽出する抽出手段と;
    所定の情報が提供されている場合に、前記抽出手段から前記不明点が抽出されたときは、前記所定の情報と前記不明点とに基づいて不明内容を推定する推定手段と;
    前記不明内容の意味を検索する検索手段と;
    前記検索手段で検索された意味を前記対象者に報知する報知手段と;
    を備えたことを特徴とする処理装置。
JP2014231790A 2014-11-14 2014-11-14 不明事項解消処理システム Active JP6387287B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014231790A JP6387287B2 (ja) 2014-11-14 2014-11-14 不明事項解消処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014231790A JP6387287B2 (ja) 2014-11-14 2014-11-14 不明事項解消処理システム

Publications (2)

Publication Number Publication Date
JP2016095705A true JP2016095705A (ja) 2016-05-26
JP6387287B2 JP6387287B2 (ja) 2018-09-05

Family

ID=56071125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014231790A Active JP6387287B2 (ja) 2014-11-14 2014-11-14 不明事項解消処理システム

Country Status (1)

Country Link
JP (1) JP6387287B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018182692A (ja) * 2017-04-21 2018-11-15 ソニー株式会社 情報処理装置、受信装置、及び情報処理方法
JP2019067134A (ja) * 2017-09-29 2019-04-25 パイオニア株式会社 情報提供装置、情報提供方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091777A (ja) * 2018-12-07 2020-06-11 株式会社デンソー 情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001232637A (ja) * 1999-12-13 2001-08-28 Nippon Steel Corp 化学原料用廃棄プラスチック粒状化物の成形方法、および、成形装置
JP2008257363A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 操作支援装置
WO2008126355A1 (ja) * 2007-03-29 2008-10-23 Panasonic Corporation キーワード抽出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001232637A (ja) * 1999-12-13 2001-08-28 Nippon Steel Corp 化学原料用廃棄プラスチック粒状化物の成形方法、および、成形装置
WO2008126355A1 (ja) * 2007-03-29 2008-10-23 Panasonic Corporation キーワード抽出装置
JP2008257363A (ja) * 2007-04-02 2008-10-23 Toyota Motor Corp 操作支援装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018182692A (ja) * 2017-04-21 2018-11-15 ソニー株式会社 情報処理装置、受信装置、及び情報処理方法
JP7026449B2 (ja) 2017-04-21 2022-02-28 ソニーグループ株式会社 情報処理装置、受信装置、及び情報処理方法
US11676595B2 (en) 2017-04-21 2023-06-13 Saturn Licensing Llc Information processing device, reception device, and information processing method
JP2019067134A (ja) * 2017-09-29 2019-04-25 パイオニア株式会社 情報提供装置、情報提供方法及びプログラム

Also Published As

Publication number Publication date
JP6387287B2 (ja) 2018-09-05

Similar Documents

Publication Publication Date Title
JP6515764B2 (ja) 対話装置及び対話方法
CN106209138B (zh) 一种车辆谨慎紧急响应***及方法
US20170235361A1 (en) Interaction based on capturing user intent via eye gaze
JP7340940B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
KR20190030731A (ko) 다중모드 신호 분석을 이용한 명령 프로세싱
JPWO2018061491A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN103038818A (zh) 在车载语音识别***与车外语音识别***之间的通信***和方法
US11068529B2 (en) Information output system, information output method, and program
US20200191583A1 (en) Matching method, matching server, matching system, and storage medium
JP6387287B2 (ja) 不明事項解消処理システム
CN111667824A (zh) 智能体装置、智能体装置的控制方法及存储介质
US9791925B2 (en) Information acquisition method, information acquisition system, and non-transitory recording medium for user of motor vehicle
CN111731320B (zh) 智能体***、智能体服务器及其控制方法、存储介质
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
JP7274404B2 (ja) 情報提供装置、情報提供方法、およびプログラム
WO2016147744A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2014065359A (ja) 表示制御装置、表示システム及び表示制御方法
JP2019159559A (ja) 情報提供装置
JP2020162003A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111661065B (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
US11797261B2 (en) On-vehicle device, method of controlling on-vehicle device, and storage medium
JP2022103675A (ja) 情報処理装置、情報処理方法、及びプログラム
CN111754288A (zh) 服务器装置、信息提供***、信息提供方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6387287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250