JP2020160848A - サーバ装置、情報提供システム、情報提供方法、およびプログラム - Google Patents

サーバ装置、情報提供システム、情報提供方法、およびプログラム Download PDF

Info

Publication number
JP2020160848A
JP2020160848A JP2019060284A JP2019060284A JP2020160848A JP 2020160848 A JP2020160848 A JP 2020160848A JP 2019060284 A JP2019060284 A JP 2019060284A JP 2019060284 A JP2019060284 A JP 2019060284A JP 2020160848 A JP2020160848 A JP 2020160848A
Authority
JP
Japan
Prior art keywords
information
vehicle
user
agent
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019060284A
Other languages
English (en)
Other versions
JP7245695B2 (ja
Inventor
基嗣 久保田
Mototsugu Kubota
基嗣 久保田
佐和子 古屋
Sawako Furuya
佐和子 古屋
善史 我妻
Yoshifumi Wagatsuma
善史 我妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019060284A priority Critical patent/JP7245695B2/ja
Priority to CN202010215428.3A priority patent/CN111754288A/zh
Publication of JP2020160848A publication Critical patent/JP2020160848A/ja
Application granted granted Critical
Publication of JP7245695B2 publication Critical patent/JP7245695B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0627Directed, with specific intent or strategy using item specifications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/35Services specially adapted for particular environments, situations or purposes for the management of goods or merchandise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】有用な情報を利用者に提供すること。【解決手段】サーバ装置は、第1利用者の投稿を受信する受信部と、前記受信部により受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得する取得部と、前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する送信部とを備える。【選択図】図1

Description

本発明は、サーバ装置、情報提供システム、情報提供方法、およびプログラムに関する。
従来、販売対象である商品のカタログ情報をデータベースに蓄積しておき、商品に関する情報をデータベースから読み出して、その商品に関する情報を利用者に提供するシステムが知られている(例えば、特許文献1参照)。
特開2007−11466号公報
しかしながら、上記の従来技術では、カタログ情報が利用者に提供されるが、利用者は、それ以外の情報についてはアクセスができない場合があり、車両に関して十分な情報を得ることができない場合があった。
本発明は、このような事情を考慮してなされたものであり、有用な情報を利用者に提供することができるサーバ装置、情報提供システム、情報提供方法、およびプログラムを提供することを目的の一つとする。
この発明に係るサーバ装置、情報提供システム、情報提供方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るサーバ装置は、第1利用者の投稿を受信する受信部と、前記受信部により受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得する取得部と、前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する送信部とを備えるサーバ装置である。
(2):上記(1)の態様において、前記送信部は、前記受信部が受信した前記第1利用者の投稿の態様と同様の態様で、前記対応情報を前記外部端末に表示させるための情報を、前記外部端末に送信するものである。
(3):上記(1)または(2)の態様において、複数の前記第2利用者は、それぞれ特定車両に関連付けれ、前記特定車両は、複数の車種の車両を含み、前記複数の第2利用者のうちから、異なる車種が関連付けられた二以上の第2利用者を選定する選定部を、更に備え、前記送信部は、前記選定部により選定された前記第2利用者の特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信するものである。
(4):上記(1)の態様において、前記選定部は、前記第1利用者の属性に基づいて前記第2利用者を選定するものである。
(5):上記(1)または(4)の態様において、前記車両情報は、情報の開示について制限された第1車両情報と、前記制限がされていない第2車両情報とを含み、前記送信部は、前記第1車両情報を前記第1利用者に送信しないものである。
(6):上記(1)から(5)のいずれかの態様において、前記車両情報は、情報の開示について制限された第1車両情報と、前記制限がされていない第2車両情報とを含み、前記送信部は、前記第2利用者の許諾を得た場合、前記第1車両情報を前記第1利用者に送信するものである。
(7):この発明の他の一態様に係るサーバ装置は、第1利用者の投稿を受信する受信部と、前記受信部により受信された前記投稿に関する、特定車両の種別と車両情報とが関連付けられた関連情報を取得する取得部と、前記特定車両の種別と前記車両情報とが対応付けられた対応情報を前記第1利用者の外部端末に送信する送信部と、を備え、前記関連情報は、車両に搭載され、前記第1利用者とは異なる、前記種別の特定車両に乗車した利用者の発話に応じて、音声による応答を含むサービスを提供するエージェント機能部と、前記利用者との会話とに基づいて得られた情報であるサーバ装置である。
(8):この発明の一態様に係る情報提供システムは、車両の利用者の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部を備えたエージェント装置と、前記車両の利用者と前記エージェント機能部との会話に含まれる前記車両の車両情報を取得する第1取得部、第1利用者の投稿を受信する受信部、前記第1取得部により取得された情報を参照して、前記受信部により受信された前記投稿に関する、特定車両の種別と車両情報とが関連付けられた関連情報を取得する第2取得部、および前記特定車両の種別と前記車両情報とが対応付けられた対応情報を前記第1利用者の外部端末に送信する送信部、を備えたサーバ装置とを備えた情報提供システムである。
(9):この発明の一態様に係る情報提供方法は、コンピュータが、第1利用者の投稿を受信し、前記受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得し、前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する情報提供方法である。
(10):この発明の一態様に係るプログラムは、コンピュータに、第1利用者の投稿を受信させ、前記受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得させ、前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信させるプログラムである。
(1)、(2)、(7)〜(10)によれば、情報提供部が、エージェントに車両情報を対応付けた対応情報を利用者に提供することにより、有用な情報を利用者に提供することができる。
(3)によれば、情報提供部が、異なる車種の情報が利用者に提供されるように第2利用者を選択することにより、利用者に複数の車種の情報を提供することができる。
(4)によれば、情報提供部は、利用者の属性を用いることにより利用者の属性に適した情報を利用者に提供することができる。
(5)、(6)によれば、情報提供部は、制限された情報を無制限に提供しないことにより、情報提供者に安心感を与えることができる。
エージェント装置100を含むエージェントシステム1の構成図である。 汎用通信装置70の機能構成の一例を示す図である。 第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。 表示・操作装置20の配置例を示す図である。 スピーカユニット30の配置例を示す図である。 エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。 情報提供部300により実行される処理の流れの一例を示すフローチャートである。 収集モードが行われる場面の一例を示す図である。 図7のフローチャートの処理で収集された発話情報352の一例を示す図である。 車両情報354の内容の一例を示す図である。 情報提供部300と汎用通信装置70とにより実行される処理の流れの一例を示すシーケンス図である。 エージェントが第1利用者に対応情報を提供する場面の一例を示す図である。 グループでチャットを行う場面の一例を示す図である。 属性情報356の内容の一例を示す図である。 車両属性情報358の内容の一例を示す情報である。 第2実施形態の情報提供部300により実行される処理の流れの一例を示すフローチャートである。 第3実施形態のエージェントシステム1Aの構成の一例を示す図である。 第4実施形態の発話情報352Aおよび車両情報354Aの内容の一例を示す図である。
以下、図面を参照し、本発明のサーバ装置、情報提供システム、情報提供方法、およびプログラムの実施形態について説明する。
<第1実施形態>
エージェント装置は、エージェントシステムの一部または全部を実現する装置である。以下では、エージェント装置の一例として、車両(以下、車両M)に搭載され、複数種類のエージェント機能を備えたエージェント装置について説明する。エージェント機能とは、例えば、車両Mの利用者と対話をしながら、利用者の発話の中に含まれる要求(コマンド)に基づく各種の情報提供を行ったり、ネットワークサービスを仲介したりする機能である。複数種類のエージェントはそれぞれに果たす機能、処理手順、制御、出力態様・内容がそれぞれ異なってもよい。また、エージェント機能の中には、車両内の機器(例えば運転制御や車体制御に関わる機器)の制御等を行う機能を有するものがあってよい。
エージェント機能は、例えば、利用者の音声を認識する音声認識機能(音声をテキスト化する機能)に加え、自然言語処理機能(テキストの構造や意味を理解する機能)、対話管理機能、ネットワークを介して他装置を検索し、或いは自装置が保有する所定のデータベースを検索するネットワーク検索機能等を統合的に利用して実現される。これらの機能の一部または全部は、AI(Artificial Intelligence)技術によって実現されてよい。また、これらの機能を行うための構成の一部(特に、音声認識機能や自然言語処理解釈機能)は、車両Mの車載通信装置または車両Mに持ち込まれた汎用通信装置と通信可能なエージェントサーバ(外部装置)に搭載されてもよい。以下の説明では、構成の一部がエージェントサーバに搭載されており、エージェント装置とエージェントサーバが協働してエージェントシステムを実現することを前提とする。また、エージェント装置とエージェントサーバが協働して仮想的に出現させるサービス提供主体(サービス・エンティティ)をエージェントと称する。
<全体構成>
図1は、エージェント装置100を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、汎用通信装置70と、エージェント装置100−1、100−2と、複数のエージェントサーバ200−1、200−2、200−3、…とを備える。エージェント装置100−1と、100−2とを区別しない場合は、単にエージェント装置100と称する場合がある。エージェントサーバ200の符号の末尾のハイフン以下の数字は、エージェントを区別するための識別子であるものとする。いずれのエージェントサーバであるかを区別しない場合、単にエージェントサーバ200と称する場合がある。図1では3つのエージェントサーバ200を示しているが、エージェントサーバ200の数は2つであってもよいし、4つ以上であってもよい。それぞれのエージェントサーバ200は、互いに異なるエージェントシステムの提供者が運営するものである。従って、本発明におけるエージェントは、互いに異なる提供者により実現されるエージェントである。提供者としては、例えば、自動車メーカー、ネットワークサービス事業者、電子商取引事業者、携帯端末の販売者などが挙げられ、任意の主体(法人、団体、個人等)がエージェントシステムの提供者となり得る。
エージェント装置100は、ネットワークNWを介してエージェントサーバ200と通信する。ネットワークNWは、例えば、インターネット、セルラー網、Wi−Fi網、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、電話回線、無線基地局などのうち一部または全部を含む。ネットワークNWには、各種ウェブサーバ500が接続されており、エージェントサーバ200またはエージェント装置100は、ネットワークNWを介して各種ウェブサーバ500からウェブページを取得することができる。
エージェント装置100は、車両Mの利用者と対話を行い、利用者からの音声をエージェントサーバ200に送信し、エージェントサーバ200から得られた回答を、音声出力や画像表示の形で利用者に提示する。
[汎用通信装置]
図2は、汎用通信装置70の機能構成の一例を示す図である。汎用通信装置70は、スマートフォンやタブレット端末などの可搬型または携帯型の装置である。汎用通信装置70は、例えば、表示部71と、スピーカ72と、マイク73と、通信部74と、ペアリング実行部75と、音響処理部76と、制御部77と、記憶部78とを備える。記憶部120には、チャットアプリケーションプログラム(チャットアプリ79)が記憶されている。チャットアプリ79は、例えば、不図示のアプリ提供サーバにより提供されたものである。
チャットアプリ79は、利用者が汎用通信装置700に対して行った操作に基づいて、汎用通信装置70が取得した情報をエージェント装置100に送信したり、エージェント装置100により送信された情報を利用者に提供したりする。
表示部71は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどの表示装置を含む。表示部71は、制御部77の制御に基づいて画像を表示する。
スピーカ72は、制御部77の制御に基づいて音声を出力する。マイク73は、利用者により入力された音声を収集する。
通信部74は、エージェント装置100と通信するための通信インタフェースである。
ペアリング実行部75は、例えば、Bluetooth(登録商標)等の無線通信を用いてエージェント装置100とのペアリングを実行する。
音響処理部76は、入力された音に対して音響処理を行う。
制御部77は、CPU(Central Processing Unit)などのプロセッサがチャットアプリ79(ソフトウェア)を実行することで実現される。制御部77は、汎用通信装置70の各部(例えば表示部71やスピーカ72等)を制御する。制御部77は、自装置に入力させた情報を管理したり、エージェント装置100によりされた情報を管理したりする。また、制御部77は、利用者の操作に応じて、エージェントサーバ200が提供するチャットサービスに参加する処理を行う。
[車両]
図3は、第1実施形態に係るエージェント装置100の構成と、車両Mに搭載された機器とを示す図である。車両Mには、例えば、一以上のマイク10と、表示・操作装置20と、スピーカユニット30と、ナビゲーション装置40と、車両機器50と、車載通信装置60と、乗員認識装置80と、エージェント装置100とが搭載される。また、汎用通信装置70が車室内に持ち込まれ、通信装置として使用される場合がある。これらの装置は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
マイク10は、車室内で発せられた音声を収集する収音部である。表示・操作装置20は、画像を表示すると共に、入力操作を受付可能な装置(或いは装置群)である。表示・操作装置20は、例えば、タッチパネルとして構成されたディスプレイ装置を含む。表示・操作装置20は、更に、HUD(Head Up Display)や機械式の入力装置を含んでもよい。スピーカユニット30は、例えば、車室内の互いに異なる位置に配設された複数のスピーカ(音出力部)を含む。表示・操作装置20は、エージェント装置100とナビゲーション装置40とで共用されてもよい。これらの詳細については後述する。
ナビゲーション装置40は、ナビHMI(Human machine Interface)と、GPS(Global Positioning System)などの位置測位装置と、地図情報を記憶した記憶装置と、経路探索などを行う制御装置(ナビゲーションコントローラ)とを備える。マイク10、表示・操作装置20、およびスピーカユニット30のうち一部または全部がナビHMIとして用いられてもよい。ナビゲーション装置40は、位置測位装置によって特定された車両Mの位置から、利用者によって入力された目的地まで移動するための経路(ナビ経路)を探索し、経路に沿って車両Mが走行できるように、ナビHMIを用いて案内情報を出力する。経路探索機能は、ネットワークNWを介してアクセス可能なナビゲーションサーバにあってもよい。この場合、ナビゲーション装置40は、ナビゲーションサーバから経路を取得して案内情報を出力する。なお、エージェント装置100は、ナビゲーションコントローラを基盤として構築されてもよく、その場合、ナビゲーションコントローラとエージェント装置100は、ハードウェア上は一体に構成される。
車両機器50は、例えば、エンジンや走行用モータなどの駆動力出力装置、エンジンの始動モータ、ドアロック装置、ドア開閉装置、窓、窓の開閉装置及び窓の開閉制御装置、シート、シート位置の制御装置、ルームミラー及びその角度位置制御装置、車両内外の照明装置及びその制御装置、ワイパーやデフォッガー及びそれぞれの制御装置、方向指示灯及びその制御装置、空調装置、走行距離やタイヤの空気圧の情報や燃料の残量情報などの車両情報装置などを含む。
車載通信装置60は、例えば、セルラー網やWi−Fi網を利用してネットワークNWにアクセス可能な無線通信装置である。
乗員認識装置80は、例えば、着座センサ、車室内カメラ、画像認識装置などを含む。着座センサは座席の下部に設けられた圧力センサ、シートベルトに取り付けられた張力センサなどを含む。車室内カメラは、車室内に設けられたCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラである。画像認識装置は、車室内カメラの画像を解析し、座席ごとの利用者の有無、顔向きなどを認識する。本実施形態において、乗員認識装置80は、着座位置認識部の一例である。
図4は、表示・操作装置20の配置例を示す図である。表示・操作装置20は、例えば、第1ディスプレイ22と、第2ディスプレイ24と、操作スイッチASSY26とを含む。表示・操作装置20は、更に、HUD28を含んでもよい。
車両Mには、例えば、ステアリングホイールSWが設けられた運転席DSと、運転席DSに対して車幅方向(図中Y方向)に設けられた助手席ASとが存在する。第1ディスプレイ22は、インストルメントパネルにおける運転席DSと助手席ASとの中間辺りから、助手席ASの左端部に対向する位置まで延在する横長形状のディスプレイ装置である。第2ディスプレイ24は、運転席DSと助手席ASとの車幅方向に関する中間あたり、且つ第1ディスプレイ22の下方に設置されている。例えば、第1ディスプレイ22と第2ディスプレイ24は、共にタッチパネルとして構成され、表示部としてLCD(Liquid Crystal Display)や有機EL(Electroluminescence)、プラズマディスプレイなどを備えるものである。操作スイッチASSY26は、ダイヤルスイッチやボタン式スイッチなどが集積されたものである。表示・操作装置20は、利用者によってなされた操作の内容をエージェント装置100に出力する。第1ディスプレイ22または第2ディスプレイ24が表示する内容は、エージェント装置100によって決定されてよい。
図5は、スピーカユニット30の配置例を示す図である。スピーカユニット30は、例えば、スピーカ30A〜30Hを含む。スピーカ30Aは、運転席DS側の窓柱(いわゆるAピラー)に設置されている。スピーカ30Bは、運転席DSに近いドアの下部に設置されている。スピーカ30Cは、助手席AS側の窓柱に設置されている。スピーカ30Dは、助手席ASに近いドアの下部に設置されている。スピーカ30Eは、右側後部座席BS1側に近いドアの下部に設置されている。スピーカ30Fは、左側後部座席BS2側に近いドアの下部に設置されている。スピーカ30Gは、第2ディスプレイ24の近傍に設置されている。スピーカ30Hは、車室の天井(ルーフ)に設置されている。
係る配置において、例えば、専らスピーカ30Aおよび30Bに音を出力させた場合、音像は運転席DS付近に定位することになる。また、専らスピーカ30Cおよび30Dに音を出力させた場合、音像は助手席AS付近に定位することになる。また、専らスピーカ30Eに音を出力させた場合、音像は右側後部座席BS1付近に定位することになる。また、専らスピーカ30Fに音を出力させた場合、音像は左側後部座席BS2付近に定位することになる。また、専らスピーカ30Gに音を出力させた場合、音像は車室の前方付近に定位することになり、専らスピーカ30Hに音を出力させた場合、音像は車室の上方付近に定位することになる。これに限らず、スピーカユニット30は、ミキサーやアンプを用いて各スピーカの出力する音の配分を調整することで、車室内の任意の位置に音像を定位させることができる。
[エージェント装置]
図3に戻り、エージェント装置100は、管理部110と、エージェント機能部150−1、150−2、150−3と、ペアリングアプリ実行部152とを備える。管理部110は、例えば、音響処理部112と、エージェントごとWU(Wake Up)判定部114と、表示制御部116と、音声制御部118とを備える。いずれのエージェント機能部であるかを区別しない場合、単にエージェント機能部150と称する。3つのエージェント機能部150を示しているのは、図1におけるエージェントサーバ200の数に対応させた一例に過ぎず、エージェント機能部150の数は、2つであってもよいし、4つ以上であってもよい。図3に示すソフトウェア配置は説明のために簡易に示しており、実際には、例えば、エージェント機能部150と車載通信装置60の間に管理部110が介在してもよいし、任意に改変することができる。
エージェント装置100の各構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
管理部110は、OS(Operating System)やミドルウェアなどのプログラムが実行されることで機能する。
管理部110の音響処理部112は、エージェントごとに予め設定されているウエイクアップワードを認識するのに適した状態になるように、入力された音に対して音響処理を行う。
エージェントごとWU判定部114は、エージェント機能部150−1、150−2、150−3のそれぞれに対応して存在し、エージェントごとに予め定められているウエイクアップワードを認識する。エージェントごとWU判定部114は、音響処理が行われた音声(音声ストリーム)から音声の意味を認識する。まず、エージェントごとWU判定部114は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。エージェントごとWU判定部114は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づくフレーム単位の音声識別および非音声識別に基づく区間検出を行ってもよい。
次に、エージェントごとWU判定部114は、検出した音声区間における音声をテキスト化し、文字情報とする。そして、エージェントごとWU判定部114は、テキスト化した文字情報がウエイクアップワードに該当するか否かを判定する。ウエイクアップワードであると判定した場合、エージェントごとWU判定部114は、対応するエージェント機能部150を起動させる。なお、エージェントごとWU判定部114に相当する機能がエージェントサーバ200に搭載されてもよい。この場合、管理部110は、音響処理部112によって音響処理が行われた音声ストリームをエージェントサーバ200に送信し、エージェントサーバ200がウエイクアップワードであると判定した場合、エージェントサーバ200からの指示に従ってエージェント機能部150が起動する。なお、各エージェント機能部150は、常時起動しており且つウエイクアップワードの判定を自ら行うものであってよい。この場合、管理部110がエージェントごとWU判定部114を備える必要はない。
エージェント機能部150は、対応するエージェントサーバ200と協働してエージェントを出現させ、車両Mの利用者の発話に応じて、音声による応答を含むサービスを提供する。エージェント機能部150には、車両機器50を制御する権限が付与されたものが含まれてよい。また、エージェント機能部150には、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200と通信するものであってよい。例えば、エージェント機能部150−1には、車両機器50を制御する権限が付与されている。エージェント機能部150−1は、車載通信装置60を介してエージェントサーバ200−1と通信する。エージェント機能部150−2は、車載通信装置60を介してエージェントサーバ200−2と通信する。エージェント機能部150−3は、ペアリングアプリ実行部152を介して汎用通信装置70と連携し、エージェントサーバ200−3と通信する。
ペアリングアプリ実行部152は、例えば、汎用通信装置70とペアリングを行い、エージェント機能部150−3と汎用通信装置70とを接続させる。なお、エージェント機能部150−3は、USB(Universal Serial Bus)などを利用した有線通信によって汎用通信装置70に接続されるようにしてもよい。
表示制御部116は、エージェント機能部150による指示に応じて第1ディスプレイ22または第2ディスプレイ24に画像を表示させる。以下では、第1ディスプレイ22を使用するものとする。表示制御部116は、一部のエージェント機能部150の制御により、例えば、車室内で利用者とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を第1ディスプレイ22に表示させる。エージェント画像は、例えば、利用者に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(利用者)によって表情や顔向きが認識される程度の顔画像を含んでよい。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものであってよい。また、エージェント画像は、観者によって、立体的に感じられ、三次元空間における頭部画像を含むことでエージェントの顔向きが認識される画像である。エージェント画像は、エージェントの動作や振る舞い、姿勢等が認識され本体(胴体や手足)の画像を含むものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
音声制御部118は、エージェント機能部150による指示に応じて、スピーカユニット30に含まれるスピーカのうち一部または全部に音声を出力させる。音声制御部118は、複数のスピーカユニット30を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。エージェント画像の表示位置に対応する位置とは、例えば、エージェント画像がエージェント音声を喋っていると利用者が感じると予測される位置であり、具体的には、エージェント画像の表示位置付近(例えば、2〜3[cm]以内)の位置である。また、音像が定位するとは、例えば、利用者の左右の耳に伝達される音の大きさが調節されることにより、利用者が感じる音源の空間的な位置が定められることである。
[エージェントサーバ]
図6は、エージェントサーバ200の構成と、エージェント装置100の構成の一部とを示す図である。以下、エージェントサーバ200の構成と共にエージェント機能部150等の動作について説明する。ここでは、エージェント装置100からネットワークNWまでの物理的な通信についての説明を省略する。
エージェントサーバ200は、通信部210を備える。通信部210は、例えばNIC(Network Interface Card)などのネットワークインターフェースである。更に、エージェントサーバ200は、例えば、音声認識部220と、自然言語処理部222と、対話管理部224と、ネットワーク検索部226と、応答文生成部228と、情報提供部300と、を備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
エージェントサーバ200は、第1記憶部250を備える。第1記憶部250は、上記の各種記憶装置により実現される。第1記憶部250には、パーソナルプロファイル252、辞書DB(データベース)254、知識ベースDB256、応答規則DB258などのデータやプログラムが格納される。
エージェント装置100において、エージェント機能部150は、音声ストリーム、或いは圧縮や符号化などの処理を行った音声ストリームを、エージェントサーバ200に送信する。エージェント機能部150は、ローカル処理(エージェントサーバ200を介さない処理)が可能な音声コマンドを認識した場合は、音声コマンドで要求された処理を行ってよい。ローカル処理が可能な音声コマンドとは、エージェント装置100が備える記憶部(不図示)を参照することで回答可能な音声コマンドであったり、エージェント機能部150−1の場合は車両機器50を制御する音声コマンド(例えば、空調装置をオンにするコマンドなど)であったりする。従って、エージェント機能部150は、エージェントサーバ200が備える機能の一部を有してもよい。
エージェント装置100は、音声ストリームを取得すると、音声認識部220が音声認識を行ってテキスト化された文字情報を出力し、自然言語処理部222が文字情報に対して辞書DB254を参照しながら意味解釈を行う。辞書DB254は、文字情報に対して抽象化された意味情報が対応付けられたものである。辞書DB254は、同義語や類義語の一覧情報を含んでもよい。音声認識部220の処理と、自然言語処理部222の処理は、段階が明確に分かれるものではなく、自然言語処理部222の処理結果を受けて音声認識部220が認識結果を修正するなど、相互に影響し合って行われてよい。
自然言語処理部222は、例えば、認識結果として、「今日の天気は」、「天気はどうですか」等の意味が認識された場合、標準文字情報「今日の天気」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも要求にあった対話をし易くすることができる。また、自然言語処理部222は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、認識結果に基づくコマンドを生成したりしてもよい。
対話管理部224は、自然言語処理部222の処理結果(コマンド)に基づいて、パーソナルプロファイル252や知識ベースDB256、応答規則DB258を参照しながら車両Mの利用者に対する発話の内容を決定する。パーソナルプロファイル252は、利用者ごとに保存されている利用者の個人情報、趣味嗜好、過去の対話の履歴などを含む。知識ベースDB256は、物事の関係性を規定した情報である。応答規則DB258は、コマンドに対してエージェントが行うべき動作(回答や機器制御の内容など)を規定した情報である。
また、対話管理部224は、音声ストリームから得られる特徴情報を用いて、パーソナルプロファイル252と照合を行うことで、利用者を特定してもよい。この場合、パーソナルプロファイル252には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、利用者の初期登録時に所定の単語や文章等を利用者に発声させ、発声させた音声を認識することで得られる情報である。
対話管理部224は、コマンドが、ネットワークNWを介して検索可能な情報を要求するものである場合、ネットワーク検索部226に検索を行わせる。ネットワーク検索部226は、ネットワークNWを介して各種ウェブサーバ500にアクセスし、所望の情報を取得する。「ネットワークNWを介して検索可能な情報」とは、例えば、車両Mの周辺にあるレストランの一般利用者による評価結果であったり、その日の車両Mの位置に応じた天気予報であったりする。
応答文生成部228は、対話管理部224により決定された発話の内容が車両Mの利用者に伝わるように、応答文を生成し、生成した応答文をエージェント装置100に送信する。応答文生成部228は、利用者がパーソナルプロファイルに登録された利用者であることが特定されている場合に、利用者の名前を呼んだり、利用者の話し方に似せた話し方にした応答文を生成したりしてもよい。
エージェント機能部150は、応答文を取得すると、音声合成を行って音声を出力するように音声制御部118に指示する。また、エージェント機能部150は、音声出力に合わせてエージェントの画像を表示するように表示制御部116に指示する。このようにして、仮想的に出現したエージェントが車両Mの利用者に応答するエージェント機能が実現される。
[情報提供部の機能構成]
情報提供部300は、例えば、第1取得部302と、第2取得部304と、投稿処理部310と、提供部320と、第2記憶部350とを備える。以下、各機能部の概要について説明し、詳細については後述する。
第1取得部302は、エージェント装置100により提供された情報や、エージェントサーバ200がエージェント装置100に提供した情報を取得する。第1取得部302は、取得した情報を発話情報352として第2記憶部350に記憶させる。
第2取得部304(「受信部」)は、第1利用者の投稿を受信する。第1利用者の投稿については後述する。第2取得部304は、選定部306を含む。選定部306は、第2取得部304が取得した情報に基づいて第2利用者を選定する。
投稿処理部310(「取得部」)は、第2取得部304により取得された投稿に関する、第2利用者の車両(特定車両)に関連付けられた特定車両のエージェントおよび車両情報を取得する。投稿処理部310は、記憶部350に記憶された車両情報354を参照して、上記の車両情報を取得する。車両情報354の詳細については後述する。
投稿処理部310は、第1車両エージェント機能部312〜第N車両エージェント機能部を含む。「N」は任意の自然数である。図示する例では、第1車両エージェント機能部312、第2エージェント機能部314、および第3車両エージェント機能部316以外のエージェント機能部については省略する。以下、これらの車両エージェント機能部を区別しない場合は、単に「車両エージェント機能部」と称する場合がある。
例えば、第1車両エージェント機能部312は、投稿に関する、第2利用者の第1の特定車両に関連付けられた第1の特定車両のエージェントおよび第1の特定車両の車両情報354を取得する。例えば、第N車両エージェント機能部は、投稿に関する、第2利用者の第Nの特定車両に関連付けられた第Nの特定車両のエージェントおよび第Nの特定車両の車両情報354を取得する。
提供部320(「送信部」)は、特定車両のエージェントに車両情報354を対応付けた対応情報を第1利用者の汎用通信装置70に送信する。
[情報提供部の処理]
図7は、情報提供部300により実行される処理の流れの一例を示すフローチャートである。まず、情報提供部300は、車両情報354の収集モードの開始条件が満たされたか否かを判定する(ステップS100)。車両情報354の収集モードの開始条件が満たされた場合、情報提供部300は、車両に関する発話を行う(ステップS102)。次に、情報提供部300は、発話に対する応答情報を取得したか否かを判定する(ステップS104)。応答情報を取得した場合、情報提供部300は、終了条件を満たしたか否かを判定する(ステップS106)。終了条件とは、例えば、規定された量の応答情報が取得されたことであってもよいし、規定された情報の種類の応答情報が取得されたことであってもよい。また、終了条件とは、利用者が、エージェント装置100に収集モードを終了することを示す音声を入力したことであってもよい。
終了条件を満たした場合、情報提供部300は、収集された情報に基づいて報酬を利用者に付与する(ステップS108)。例えば、情報提供部300は、汎用通信装置70に報酬に関する情報を送信する。終了条件を満たさない場合、ステップS102の処理に戻る。次に、汎用通信装置70は、情報提供部300により付与された報酬を取得する(ステップS150)。報酬とは、例えば、クーポンや電子マネーなどである。報酬の付与に関する処理は省略されてもよい。これにより、本フローチャートの処理が終了する。
図8は、収集モードが行われる場面の一例を示す図である。例えば、エージェントサーバ200がエージェント装置100に車両に関する発話「この車のいいところ教えて」などを行わせる。利用者が、「コンパクトだけど車室内が広いのがいいよね」と応答すると、エージェント装置100は、利用者の応答と、車両の識別情報と利用者の識別情報とをエージェントサーバ200に送信する。これにより、エージェントサーバ200は、車両に関する情報と利用者の識別情報とを取得することができる。エージェント装置100と利用者の会話とに基づいて収集された情報は、発話情報352と記憶部350に記憶される。
図9は、図7のフローチャートの処理で収集された発話情報352の一例を示す図である。エージェントサーバ200の第1取得部302がエージェント装置100から取得した情報である。例えば、第1取得部302は、エージェント装置100により送信された情報を取得する。エージェント装置100により送信された情報は、利用者の識別情報、車両の識別情報、車両の種別、および車両に関する情報が互いに対応付けられた情報である。利用者の識別情報は、予め車両の識別情報に対応付けられた情報であってもよいし、利用者が車両に乗車した際に、利用者が所定の手法で車両の識別情報に対応付けた情報であってもよい。車両の種別は、予め車両の識別情報に対応付けられた種別である。車両に関する情報は、利用者とエージェント装置100との会話から得られた情報である。
なお、上記の例では、収集モードで発話情報352を収集する例について説明したが、これに代えて(加えて)、収集モードが実行されていない場合におけるエージェント装置100と利用者との会話に基づいて車両情報354が収集されてもよい。この場合、第1取得部302は、予め設定されたキーワードが含まれる情報を発話情報352として取得したり、車両に関する会話であると推定される情報を発話情報352として取得したりする。
第1取得部302は、発話情報352に基づいて、車両情報354を生成する。図10は、車両情報354の内容の一例を示す図である。車両情報354は、車両ごと(または車種ごと)に車両の特徴と、車両の仕様とが対応付けられた情報である。換言すると、ユーザごとまたは車両に搭載されたエージェントごとに車両の特徴と、車両の仕様とが対応付けられた情報である。
車両の特徴とは、ターゲット利用者や、セールスポイント、車両の購入に役立つ情報、車両のスペック等である。これらの車両の特徴は、発話情報352から得られた情報の他、車両の公式カタログに載っている情報や、ウエブサイトなどに掲載されている情報等を含んでもよい。
また、図10の例では、車両情報354は、利用者「001」とエージェント装置100との会話に基づいて生成された情報を示しているが、これに代えて(または加えて)、車両の種別や所定のグループ(例えば種別が同一であり、且つ所定の属性を有する第2利用者を含むグループ)ごとに生成されてもよい。車両の識別情報または利用者の識別情報と車両の特徴が対応付けられた情報に対して、エージェントが対応付けられる。エージェントとは、所定の車両の個性を有するキャラクターである。
例えば、第1取得部302は、発話情報352において「積めるゴルフバッグの数はどのくらい?」という質問に対して、利用者が「2つぐらい」と回答したことを示す情報が含まれる場合、「積めるゴルフバッグの数」という情報と、「2つぐらい」という情報とを互いに対応付けた情報を車両情報354として記憶部350に記憶させる。また、第1取得部302は、発話情報352において「燃費はどのくらい?」という質問に対して、利用者が「2つぐらい」と回答したことを示す情報が含まれる場合、「積めるゴルフバッグの数」という情報と、「2つぐらい」という情報とを互いに対応付けた情報を車両情報354として記憶部350に記憶させる。
また、車両情報354において、車両の特徴ごとに、第2利用者に許諾なしに提供可能なことを示す提供可ラベルと、第2利用者の承諾を得た後でないと提供することができないことを示す提供不可ラベルとが対応付けられている。例えば、この情報は、発話した利用者により予め設定されてもよいし、利用者が発話する際に情報提供を不許可とする音声を出力したことに応じて設定されてもよい。提供不可ラベルが付与された車両情報354は、情報の開示について制限がされた車両情報の一例である。
[シーケンス図]
図11は、情報提供部300と汎用通信装置70とにより実行される処理の流れの一例を示すシーケンス図である。図11における汎用通信装置70は、第1利用者が利用する装置である。まず、汎用通信装置70が、情報提供部300に投稿を行う(ステップS200)。
次に、情報提供部300の第2取得部304が投稿を受信すると、選定部306が、取得した投稿と、車両情報354とに基づいて、第1利用者に提供する第1のエージェントを選定する(ステップS202)。第2取得部304は、投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報354を取得する。「第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得する」とは、例えば、第2取得部304が、車両情報354に含まれる情報のうち、所定の車両の識別情報(または利用者の識別情報)に対応付けられた情報を取得することである。換言すると、第2取得部304が、車両情報354を参照して、エージェント、および所定の車両の車両情報354を特定することである。
例えば、選定部306は、取得した投稿の種別(内容)に基づいて、車両、車両の種別、または第2利用者を選定してもよいし、第2実施形態で説明するように第1利用者の属性に基づいて、車両、車両の種別、または第2利用者を選定してもよい。選定部306は、不図示の選定テーブルに基づいて、車両または第2利用者を選定する。選定テーブルは、投稿の種別または第1利用者の属性に対して、車両、車両の種別または第2利用者が互いに対応付けられた情報である。例えば投稿の内容が、「ファミリーカーのおすすめ教えて」である場合、第2取得部304は、ファミリーカーである車両を選択したり、家族を持った人を選択したりする。
更に、上記のように複数のエージェント(車両)が選択される場合、選定部306は、車種が異なる車両を選択し、車両に対応付けられたエージェントを選択する。この複数のエージェントは、異なる車種に対応付けられている。すなわち、選定部306は、複数の第2利用者(車両)のうちから、異なる車種が関連付けられた二以上の第2利用者(車両)を選定する。
次に、提供部320が、選定された第1のエージェントと第1の車両情報とを対応付けた対応情報を汎用通信装置70に送信する(ステップS204)。この対応情報は、第1車両エージェント機能部312により生成された情報である。車両エージェント機能部は、エージェントが選定されることにより出現する機能部である。例えば第1車両エージェント機能部312は、第1のエージェントの出現に付随して出現する機能部である。
エージェントとは、仮想的に出現する車両の情報を利用者に提供するキャラクターである。第1の車両情報は、第1のエージェントに対応する車両情報354である。次に、汎用通信装置70は、情報提供部300により提供された情報を表示部71に表示させる(ステップS206)。
次に、選定部306は、取得した投稿と、車両情報354とに基づいて、第1利用者に提供する第2のエージェントを選定する(ステップS208)。
次に、提供部320が、選定された第2のエージェントと第2の車両情報とを対応付けた対応情報を汎用通信装置70に送信する(ステップS210)。この対応情報は、第2車両エージェント機能部314により生成された情報である。次に、汎用通信装置70は、情報提供部300により提供された情報を表示部71に表示させる(ステップS212)。
また、同様に第3のエージェントと第3の車両情報とが対応付けられた対応情報が汎用通信装置70に送信される。そして、第1のエージェントから第3のエージェントが、第1利用者の投稿に対してエージェントと車両情報354とを対応付けた対応情報を生成する。そして、この対応情報が第1利用者に提供される。
ここで、例えば、第1利用者が、所定の投稿を行い(ステップS214)、第1のエージェントが、投稿に基づいて抽出した車両情報354に対して提供可ラベルが付与されている場合、第1のエージェントは、この車両情報354を第1利用者に提供する。第1のエージェントが、投稿に基づいて抽出した車両情報354に対して提供不可ラベルが付与されている場合、第1のエージェントは、車両情報354の提供を第2利用者に問い合わせる(ステップS218)。そして、第1のエージェントが、第2利用者から提供可の意思を示す情報を取得すると(ステップS220)、この車両情報354を第1利用者に提供する(ステップS222)。なお、投稿に基づいて抽出した車両情報354に対して提供不可ラベルが付与されている場合、第1のエージェントは、車両情報354の提供を行わなくてもよい。
図12は、エージェントが第1利用者に対応情報を提供する場面の一例を示す図である。例えば、第1利用者が、「家族4人のファミリーカーについて教えて」とテキストで投稿すると、第1のエージェントが、第1エージェントUG1と第1車両情報IF1とを対応付けた情報を第1利用者に提供する。第2のエージェントが、第2エージェントUG2と第2車両情報IF2とを対応付けた情報を第1利用者に提供する。第3のエージェントが、第3エージェントUG3と第3車両情報IF3とを対応付けた情報を第3利用者に提供する。すなわち、提供部320は、受信した第1利用者の投稿の態様と同様の態様で、対応情報を汎用通信装置70に表示させるための情報を、汎用通信装置70に送信する。
同様の態様とは、表示部71に表示される表示態様が同一であるまたは類似していることや、表示態様に用いられるフォーマットが同一であるまたは類似していることである。また、同様の態様とは、表示態様に関して、所定度合以上の共通性を有しており、看者が視認したときに共通の表示態様であると感じること、または提供元が同じであると感じる態様である。第1エージェントUG1〜第3エージェントUG3は、「特定車両のエージェント」の一例である。
例えば、エージェント(投稿処理部310)は、投稿されたテキストに対して意味解釈を行って、テキストの意味を取得し、取得した意味に対応する車両情報354を第1利用者に提供する。車両情報354に含まれる第1利用者に提供する情報には、投稿内容または意味が対応付けられている。すなわち、どのような意味のテキストが投稿された場合に、応答すべき情報かが、車両情報354の第1利用者に提供する情報に対して対応付けられている。
上記のように第1エージェントUG1から第3エージェントUG3が投稿に対して応答を行い、第1利用者が、これらのエージェントとチャットすることを希望する場合、第1利用者と、一以上のエージェントとを含むグループでチャットを行うことができる。
図13は、グループでチャットを行う場面の一例を示す図である。例えば、第1利用者が、「車のおすすめのポイントを教えて」や「ゴルフバッグいくつ入る?」などの質問を投稿すると、第1エージェント、第2エージェント、および第3エージェントのそれぞれが、車両情報354を参照して、質問に対する回答を第1利用者に提供する。
例えば、第1利用者は、カタログなど公開されている情報を参照して、車両のセールスポイントや、使用感などを知ることができる。しかしながら、実際に使用した利用者の感想を容易に知ることができない場合がある。また、実際に使用した利用者の感想が公開されている場合であっても、第1利用者が知りたい情報が含まれていない場合がある。
これに対して、本実施形態では、第1利用者がグループでチャットを行って、エージェントに対して質問を行い、エージェントの回答を取得することができる。この回答は、第2利用者が、車両のエージェント(エージェント装置100)に提供した情報であり、実際に第2利用者が車両を使用した感想に基づく情報であり、カタログ等からは得ることができない情報である。このように、第1利用者は、有用な情報を得ることができる。
なお、上述した例では、テキストを用いてチャットが行われる例について説明したが、これに代えて(加えて)、音声によりチャットが行われてもよい。この場合、情報提供部300は、第1利用者から取得した音声の解析を音声認識部220に依頼し、音声認識部220の認識結果を用いて各種処理を行う。
以上説明した第1実施形態によれば、情報提供部300が、投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報354を取得して、車両のエージェントに車両情報354を対応付けた対応情報を第1利用者の外部端末に送信することにより、第1利用者に有用な情報を提供することができる。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、情報提供部300は、第1利用者の属性に類似する属性を有する第2利用者に対応付けられた車両情報354を第1利用者に提供する。以下、第1実施形態との相違点を中心に説明する。
第2実施形態のエージェントサーバ200の記憶部350には、属性情報356、車両属性情報358が記憶されている。図14は、属性情報356の内容の一例を示す図である。属性情報356は、例えば、第1利用者の属性を示す情報と、その属性に対応する第1利用者の属性とが対応付けられた情報である。第1利用者の属性を示す情報は、例えば、車両の利用用途や、車両の好み、利用者の性別、利用者の年収、ライフスタイル、住所、趣味、嗜好などである。
図15は、車両属性情報358の内容の一例を示す情報である。車両属性情報358は、利用者の識別情報、車両の識別情報、車両に関する情報、および属性が互いに対応付けられた情報である。車両に関する情報は、車両に関する情報に対応付けられた利用者と、エージェント装置100との会話に基づいて取得された情報である。
[フローチャート]
図16は、第2実施形態の情報提供部300により実行される処理の流れの一例を示すフローチャートである。まず、情報提供部300は、汎用通信装置70から投稿を受信したか否かを判定する(ステップS400)。この投稿は、例えば、図11のシーケンス図のステップS200で行われた投稿である。すなわち、エージェントが選定される前の投稿である。なお、情報提供部300は、汎用通信装置70により送信された投稿に対付けられた利用者の識別情報を取得する。次に、情報提供部300は、属性情報356を参照して、第1利用者の属性を取得する(ステップS402)。次に、情報提供部300は、車両属性情報356を参照して、第1利用者の属性に応じた第2利用者を取得する(ステップS404)。これにより本フローチャートの処理が終了する。
これにより、情報提供部300は、第2利用者に対応付けられた車両に関する情報を第1利用者に提供することができる。この結果、第1利用者は、自身の属性に応じた利用者から取得した車両に関する情報を取得することができる。すなわち、第1利用者は、有用な情報を取得することができる。
以上説明した第2実施形態によれば、情報提供部300が、第1利用者の属性に基づいて第2利用者を選定し、選定結果に基づいて、第1利用者に車両情報354を提供することにより、より第1利用者が得たい情報を第1利用者に提供することができる。
<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、エージェントサーバ200から情報提供部300は省略される。そして、情報提供装置300Aが、情報提供部300を備える。以下、第1実施形態との相違点を中心に説明する。
図17は、第3実施形態のエージェントシステム1Aの構成の一例を示す図である。エージェントシステム1Aは、第1実施形態のエージェントシステム1の構成に加え、更に情報提供装置300Aを備える。情報提供装置300Aは、情報提供部300を備える。
情報提供装置300Aは、エージェントサーバ200により提供された情報に基づいて、発話情報352を生成したり、車両情報354を生成したりする。そして、情報提供装置300Aの情報提供部300は、汎用通信装置70による投稿に基づいて、車両に関する情報を汎用通信装置70に提供する。
以上説明した第3実施形態によれば、第1実施形態と同様の効果を奏することができる。
<第4実施形態>
以下、第4実施形態について説明する。第4実施形態では、第2利用者の識別情報は考慮されずに、各種情報が生成される。以下、第1実施形態から第3実施形態との相違点を中心に説明する。
図18は、第4実施形態の発話情報352Aおよび車両情報354Aの内容の一例を示す図である。発話情報352は、車両の識別情報、車両の種別、車両に関する情報、および利用者の属性が対応付けられた情報である。車両情報354Aは、車両の種別に対して車両の特徴が対応付けられた情報である。
例えば、情報提供部300は、投稿を受信した後、第1利用者の属性を取得する。そして、情報提供部300は、車両情報354Aを参照して、取得した第1利用者の属性に応じた車両の種別を選択し、選択した車両の種別に対応する車両情報354A(「関連情報」の一例)を取得する。そして、情報提供部300は、第1利用者の投稿に応じて、選択した車両の種別に応じた車両情報354Aを第1利用者に提供する。
以上説明した第4実施形態によれば、情報提供部300は、同じ種別の車両を利用した複数の第2利用者から取得した車両情報354Aを、第1利用者に提供することができる。この結果、情報提供部300は、第1利用者にとって有益な情報を網羅的に提供することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1‥エージェントシステム、20‥表示・操作装置、30‥スピーカユニット、70‥汎用通信装置、71‥表示部、79‥連携アプリ、100、100A、100B‥エージェント装置、110‥管理部、116‥表示制御部、118‥音声制御部、130‥記憶部、150‥エージェント機能部、200‥エージェントサーバ、300‥情報提供部、302‥第1取得部、304‥第2取得部、306‥選定部、310‥投稿処理部、320‥提供部、352、352A‥352、354、354A‥車両情報

Claims (10)

  1. 第1利用者の投稿を受信する受信部と、
    前記受信部により受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得する取得部と、
    前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する送信部と、
    を備えるサーバ装置。
  2. 前記送信部は、前記受信部が受信した前記第1利用者の投稿の態様と同様の態様で、前記対応情報を前記外部端末に表示させるための情報を、前記外部端末に送信する、
    請求項1に記載のサーバ装置。
  3. 複数の前記第2利用者は、それぞれ特定車両に関連付けれ、
    前記特定車両は、複数の車種の車両を含み、
    前記複数の第2利用者のうちから、異なる車種が関連付けられた二以上の第2利用者を選定する選定部を、更に備え、
    前記送信部は、前記選定部により選定された前記第2利用者の特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する、
    請求項1または2に記載のサーバ装置。
  4. 前記選定部は、前記第1利用者の属性に基づいて前記第2利用者を選定する、
    請求項3に記載のサーバ装置。
  5. 前記車両情報は、情報の開示について制限された第1車両情報と、前記制限がされていない第2車両情報とを含み、
    前記送信部は、前記第1車両情報を前記第1利用者に送信しない、
    請求項1から4のうちいずれか1項に記載のサーバ装置。
  6. 前記車両情報は、情報の開示について制限された第1車両情報と、前記制限がされていない第2車両情報とを含み、
    前記送信部は、前記第2利用者の許諾を得た場合、前記第1車両情報を前記第1利用者に送信する、
    請求項1から5のうちいずれか1項に記載のサーバ装置。
  7. 第1利用者の投稿を受信する受信部と、
    前記受信部により受信された前記投稿に関する、特定車両の種別と車両情報とが関連付けられた関連情報を取得する取得部と、
    前記特定車両の種別と前記車両情報とが対応付けられた対応情報を前記第1利用者の外部端末に送信する送信部と、を備え、
    前記関連情報は、車両に搭載され、前記第1利用者とは異なる、前記種別の特定車両に乗車した利用者の発話に応じて、音声による応答を含むサービスを提供するエージェント機能部と、前記利用者との会話とに基づいて得られた情報である、
    サーバ装置。
  8. 車両の利用者の発話に応じて、音声による応答を含むサービスを提供する複数のエージェント機能部を備えたエージェント装置と、
    前記車両の利用者と前記エージェント機能部との会話に含まれる前記車両の車両情報を取得する第1取得部、
    第1利用者の投稿を受信する受信部、
    前記第1取得部により取得された情報を参照して、前記受信部により受信された前記投稿に関する、特定車両の種別と車両情報とが関連付けられた関連情報を取得する第2取得部、および
    前記特定車両の種別と前記車両情報とが対応付けられた対応情報を前記第1利用者の外部端末に送信する送信部、を備えたサーバ装置と、
    を備えた情報提供システム。
  9. コンピュータが、
    第1利用者の投稿を受信し、
    前記受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得し、
    前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信する、
    情報提供方法。
  10. コンピュータに、
    第1利用者の投稿を受信させ、
    前記受信された前記投稿に関する、第2利用者の特定車両に関連付けられた特定車両のエージェントおよび車両情報を取得させ、
    前記特定車両のエージェントに前記車両情報を対応付けた対応情報を前記第1利用者の外部端末に送信させる、
    プログラム。
JP2019060284A 2019-03-27 2019-03-27 サーバ装置、情報提供システム、および情報提供方法 Active JP7245695B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019060284A JP7245695B2 (ja) 2019-03-27 2019-03-27 サーバ装置、情報提供システム、および情報提供方法
CN202010215428.3A CN111754288A (zh) 2019-03-27 2020-03-24 服务器装置、信息提供***、信息提供方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060284A JP7245695B2 (ja) 2019-03-27 2019-03-27 サーバ装置、情報提供システム、および情報提供方法

Publications (2)

Publication Number Publication Date
JP2020160848A true JP2020160848A (ja) 2020-10-01
JP7245695B2 JP7245695B2 (ja) 2023-03-24

Family

ID=72643548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060284A Active JP7245695B2 (ja) 2019-03-27 2019-03-27 サーバ装置、情報提供システム、および情報提供方法

Country Status (2)

Country Link
JP (1) JP7245695B2 (ja)
CN (1) CN111754288A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822544A (zh) * 2021-08-31 2021-12-21 五八有限公司 数据的处理方法、***、电子设备及可读介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249938A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 情報送受信支援装置
JP2002175316A (ja) * 2000-12-07 2002-06-21 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002304581A (ja) * 2001-04-03 2002-10-18 P Site:Kk 商品販売システム
JP2008293362A (ja) * 2007-05-25 2008-12-04 Hitachi Software Eng Co Ltd 商品情報提供装置
JP2018054850A (ja) * 2016-09-28 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249938A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 情報送受信支援装置
JP2002175316A (ja) * 2000-12-07 2002-06-21 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2002304581A (ja) * 2001-04-03 2002-10-18 P Site:Kk 商品販売システム
JP2008293362A (ja) * 2007-05-25 2008-12-04 Hitachi Software Eng Co Ltd 商品情報提供装置
JP2018054850A (ja) * 2016-09-28 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822544A (zh) * 2021-08-31 2021-12-21 五八有限公司 数据的处理方法、***、电子设备及可读介质
CN113822544B (zh) * 2021-08-31 2023-09-01 北京爱上车科技有限公司 数据的处理方法、***、电子设备及可读介质

Also Published As

Publication number Publication date
CN111754288A (zh) 2020-10-09
JP7245695B2 (ja) 2023-03-24

Similar Documents

Publication Publication Date Title
JP7340940B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020147214A (ja) エージェント装置、システム、エージェント装置の制御方法、およびプログラム
JP2020149106A (ja) エージェント装置、エージェントシステム、サーバ装置、エージェント装置の制御方法、およびプログラム
JP2020144274A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111746435B (zh) 信息提供装置、信息提供方法及存储介质
JP7340943B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP7245695B2 (ja) サーバ装置、情報提供システム、および情報提供方法
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020152183A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020144081A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111667823B (zh) 智能体装置、智能体装置的控制方法及存储介质
US11437035B2 (en) Agent device, method for controlling agent device, and storage medium
CN111724778B (zh) 车载装置、车载装置的控制方法及存储介质
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
JP7252029B2 (ja) サーバ装置、情報提供方法、およびプログラム
JP2020142721A (ja) エージェントシステム、車載機器の制御方法、及びプログラム
JP2020154994A (ja) エージェントシステム、エージェントサーバ、エージェントサーバの制御方法、およびプログラム
JP2020160133A (ja) エージェントシステム、エージェントシステムの制御方法、およびプログラム
JP2020152298A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020157808A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
CN111559317B (zh) 智能体装置、智能体装置的控制方法及存储介质
JP7169921B2 (ja) エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム
JP7274901B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020154082A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7245695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150