JP7068986B2 - エージェントシステム、エージェント制御方法、およびプログラム - Google Patents

エージェントシステム、エージェント制御方法、およびプログラム Download PDF

Info

Publication number
JP7068986B2
JP7068986B2 JP2018191294A JP2018191294A JP7068986B2 JP 7068986 B2 JP7068986 B2 JP 7068986B2 JP 2018191294 A JP2018191294 A JP 2018191294A JP 2018191294 A JP2018191294 A JP 2018191294A JP 7068986 B2 JP7068986 B2 JP 7068986B2
Authority
JP
Japan
Prior art keywords
agent
vehicle
voice
image
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018191294A
Other languages
English (en)
Other versions
JP2020061642A (ja
Inventor
敦 関口
大志 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018191294A priority Critical patent/JP7068986B2/ja
Priority to CN201910921703.0A priority patent/CN111016820B/zh
Priority to US16/589,183 priority patent/US10994612B2/en
Publication of JP2020061642A publication Critical patent/JP2020061642A/ja
Application granted granted Critical
Publication of JP7068986B2 publication Critical patent/JP7068986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Stereophonic System (AREA)

Description

本発明は、エージェントシステム、エージェント制御方法、およびプログラムに関する。
従来、車両に搭載された複数スピーカから出力されるオーディオ音の音像を定位させる位置(以下、音像定位位置と称する)の設定をユーザから受け付け、受け付けた定位位置にオーディオ音の音像が定位するように、各スピーカに出力されるオーディオ信号を制御するオーディオシステムが知られている(例えば、特許文献1参照)。
特開2006-196941号公報
しかしながら、従来の技術では、車両の走行環境に基づいて音像定位位置を制御することについては考慮されていなかった。したがって、音声による乗員への適切な運転支援が行われない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、より適切に乗員への運転支援を行うためのエージェントシステム、エージェント制御方法、およびプログラムを提供することを目的の一つとする。
この発明に係るエージェントシステム、エージェント制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェントシステムは、車室内の音声を収集するマイクと、前記車室内に音声を出力するスピーカと、前記マイクにより収集された音声の意味を認識する認識部と、前記認識部により認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を前記スピーカに出力させるエージェント制御部と、前記車両の走行環境を取得する走行環境取得部と、を備え、前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させる、エージェントシステムである。
(2):上記(1)の態様において、画像を表示する表示部を更に備え、前記エージェント制御部は、前記走行環境取得部により前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させるものである。
(3):上記(2)の態様において、前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境に基づいて、前記車両が走行する場合、または将来走行することが予測される場合に、前記エージェント音声を前記車両の進行方向に移動させるものである。
(4):上記(3)の態様において、前記エージェント制御部は、前記エージェント音声の音像定位位置を前記車両の進行方向に移動させる場合に、前記表示部に表示された前記エージェント画像の表示位置を、前記音像定位位置の移動に対応付けて移動させるものである。
(5):上記(2)~(4)のうち、何れか一つの態様において、前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境に基づいて、前記車両が走行している場合、または将来走行することが予測される場合に、前記第1表示部に表示された前記エージェント画像を前記第2表示部に移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させるものである。
(6):上記(2)~(4)のうち、何れか一つの態様において、前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、前記エージェント制御部は、前記走行環境取得部により前記車両が手動運転から自動運転に切り替わった場合に、前記第2表示部に表示された前記エージェント画像を前記第1表示部に向けて移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させるものである。
(7):この発明の他の一態様に係るエージェント制御方法は、コンピュータが、車室内の音声を収集するマイクにより収集された音声の意味を認識し、認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、前記車両の走行環境を取得し、取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させる、エージェント制御方法である。
(8):この発明の他の一態様に係るプログラムは、コンピュータに、車室内の音声を収集するマイクにより収集された音声の意味を認識させ、認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、前記車両の走行環境を取得させ、取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させる、プログラムである。
(1)~(8)によれば、車両の走行環境に基づいて音像定位位置を制御することで、より適切に乗員への運転支援を行うことができる。
実施形態に係るエージェント装置を含むエージェントシステム1の構成図である。 車両Mに設置される表示部およびスピーカを模式的に示す図である。 後部座席付近のスピーカの位置を説明するための図である。 音像が定位する位置を移動させることについて説明するための図である。 回答情報DB244の内容の一例を示す図である。 エージェント制御装置150の処理について説明するための図である。 エージェント音声MP1の音像が定位される態様が変更した様子を説明するための図である。 音像定位位置の移動に対応付けてエージェント画像を移動させる様子を説明するための図である。 視線位置に基づく制御部180の処理について説明するための図である。 視線位置付近に回答画像が存在する場面について説明するための図である。 エージェントシステム1による一連の処理の流れの一例を示すフローチャートである。
以下、図面を参照し、本発明のエージェントシステム、エージェント制御方法、およびプログラムの実施形態について説明する。また、以下では、エージェントシステムの一例として、車両(以下、車両M)に搭載され、対話型エージェント機能を備えたエージェントシステムを用いる。対話型エージェントとは、例えば、車両Mの乗員と対話をしながら、乗員の要求に基づく各種情報の提供や車両内の機器の制御を行うものである。対話型エージェントは、例えば、乗員の音声を認識する音声認識処理(音声をテキスト化する処理)に加え、自然言語処理(テキストの構造や意味を理解する処理)、対話制御処理、検索処理等を統合的に利用して実現される。これらの処理の一部または全部は、AI(Artificial Intelligence)技術によって実現される。また、これらの処理を行う構成の一部または全部は、車両Mと通信可能なサーバ装置等に設けられてもよい。
[全体構成]
図1は、実施形態に係るエージェント装置を含むエージェントシステム1の構成図である。エージェントシステム1は、例えば、エージェント装置100またはサーバ装置200のうち一方または双方と、自動運転制御装置300とを備える。エージェント装置100とサーバ装置200とは、例えば、インターネットやWAN(Wide Area Network)、LAN(Local Area Network)等のネットワークNWによりデータの送受信が可能な状態で接続されている。サーバ装置200は、複数のエージェント装置100との通信が可能であるが、以下では説明の便宜上、一つのエージェント装置100と通信するものとする。また、自動運転制御装置300は、エージェント装置100と同様に車両Mに搭載される。
エージェント装置100は、車両Mの乗員と対話を行い、乗員からの音声等による質問等の要求に対して、サーバ装置200にリクエストを行い、サーバ装置200から得られた回答を、所定の出力態様で乗員に提示する。以下の説明において、乗員とは、例えば、運転席に着座する乗員(以下、運転者)であるが、これに加えて助手席や後部座席に着座する乗員(同乗者)でもよい。
エージェント装置100は、例えば、通信装置110と、カメラ111と、車室内カメラ112と、マイク114と、表示部116と、スピーカ118と、AMP(アンプ)120と、操作部130と、ナビゲーション装置140と、エージェント制御装置(エージェント制御部の一例)150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
通信装置110は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、ネットワークNWを介してサーバ装置200や他車両、乗員が所持する端末装置と通信する。例えば、通信装置110は、音声入力部152により入力された音声や、走行環境取得部154により認識された車両状態情報、視線検出部156により検出された運転者の視線に関する情報等をサーバ装置200に送信する。また、通信装置110は、サーバ装置200から対話情報を受信する。
カメラ111は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ111は、車両Mの任意の箇所に取り付けられる。車両Mの前方を撮像する場合、カメラ111は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、カメラ111は、リアバンパー付近に取り付けられる。車両の側方または後側方を撮像する場合、例えば、車体の外装部分(例えば、Aピラー、屋根、サイドドア)等に取り付けられる。カメラ111は、例えば、周期的に繰り返し車両Mの周辺を撮像する。カメラ111は、ステレオカメラであってもよい。
車室内カメラ112は、例えば、車両Mの車室内に設置されたシートに着座する乗員の顔を含む画像を撮像する。車室内カメラ112は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車室内カメラ112は、例えば、所定のタイミングで乗員を撮像する。
マイク114は、車室内の音声を集音する音声入力装置である。例えば、マイク114は、例えば、マップランプ付近、ステアリングホイール、インストルメントパネル、またはシートに設置される。また、マイク114は、車室内に複数設置されてよい。
表示部116は、車室内のシートに着座する乗員の前方付近に設置される。また、スピーカ118は、車室内のシート付近または表示部116付近に設置される。表示部116およびスピーカ118は、車室内に複数設置されてよい。
図2は、車両Mに設置される表示部およびスピーカを模式的に示す図である。図2に示す車両Mの車室内には、表示部116A~116Fと、スピーカ118A~118Fとが設置されている。表示部116B~116Fのうち少なくとも一つは「第1表示部」の一例である。表示部116Aは、「第2表示部」の一例である。
表示部116Aは、例えば、HUD(Head-Up Display)装置である。HUD装置は、風景に重畳させて画像を視認させる装置であり、一例として、車両Mのフロントウインドシールドやコンバイナーに画像を含む光を投光することで、運転者に虚像を視認させる装置である。
表示部116Aは、表示部116B~116Fよりも運転者の手動運転時の視線方向(例えば、車両Mの進行方向の監視領域を見る視界範囲)に近い位置に設置される。したがって、表示部116Aに表示される画像は、運転者が前方の周辺監視をしながら見え易く、逆に表示部116B~116Fに表示される画像は、運転者が前方の周辺監視をしながらでは見えない、または見えにくくなる。表示部116Aには、例えば、ナビゲーション装置140により実行されるナビゲーション処理に対応する画像や、エージェント制御装置150により生成される画像等が表示される。
表示部116Bは、インストルメントパネルIPにおける運転席(例えば、ステアリングホイールに最も近い座席)の正面付近に設けられ、運転者がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部116Bは、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。表示部116Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像や、エージェント制御装置150により生成される画像等が表示される。
表示部116Cは、インストルメントパネルIPの中央付近に設置される。表示部116Cは、例えば、表示部116Bと同様に、LCDや有機EL表示装置等である。表示部116Cには、例えば、ナビゲーション装置140により実行されるナビゲーション処理に対応する画像、エージェント制御装置150により生成される画像等が表示される。また、表示部116Cは、テレビ番組を表示したり、DVDを再生したり、ダウンロードされた映画等のコンテンツを表示してもよい。
表示部116Dは、インストルメントパネルIPにおける助手席(運転席の隣りの座席)の正面付近に設けられる。表示部116Dには、例えば、テレビ番組やサーバ装置200からダウンロードされた映画等のコンテンツ画像、その他のアプリケーションの実行に基づいて生成される画像、エージェント制御装置150により生成される画像等が表示される。
表示部116B~116Dは、表示部116Aよりも視野角が大きい。そのため、エージェント制御装置150は、運転者の質問に対する回答結果を表示する場合に、表示部116B~116Dに回答結果を表示させることで、運転者に回答結果を視認させ易くすることができる。また、エージェント制御装置150は、表示部116Cや116Dに回答結果を表示させることで、運転者だけでなく、他の同乗者にも回答結果を認識させ易くすることができる。
表示部116Eおよび116Fは、例えば、車両Mに搭載されたCMS(Camera Monitor System)において電子ミラーとして用いられる。表示部116Eは、カメラ111により撮像された車両Mの左後側方の画像を表示させる。表示部116Fは、カメラ111により撮像された車両Mの右後側方の画像を表示させる。エージェント制御装置150は、表示部116A~116Fのうち選択した表示部に画像を表示させる。
スピーカ118Aおよびスピーカ118Bは、例えば、車両Mの左右の前方の窓柱(いわゆるAピラー)に設置される。また、スピーカ118Cは、運転席側のドアの下部に設置され、スピーカ118Dは、助手席側のドアの下部に設置される。スピーカ118Eは、表示部116C付近、つまり、インストルメントパネルIPの中央付近に設置される。スピーカ118Fは、車室内の天井の中央部付近に設置される。
また、車両Mには、後部座席付近にスピーカが設けられていてもよい。図3は、後部座席付近のスピーカの位置を説明するための図である。図3の例では、図2に示すスピーカ118A~118Fの他に、運転席ST1と助手席ST2の後方に設置された後部座席ST3付近にスピーカ118Gおよび118Hが設けられている。具体的には、スピーカ118Gおよび118Hは、左右の方向ドアの下部に設けられる。また、スピーカ118は、車両Mの前方ドアと後方ドアとの間に設けられる窓柱(いわゆるBピラー)に設けられてもよく、後部座席の後方に設けられてもよい。
AMP120は、音声生成部164による制御によりスピーカ118から出力される音の大きさを調整する。例えば、AMP120は、基準となる音の大きさ(最大強度)に対し、0~100%の間で音の調節を可能とする。また、AMP120は、例えば、ミキサー122を備える。ミキサー122は、入力された複数の音を合成する機能を備える。また、ミキサー122は、スピーカ118が複数存在する場合に、それぞれのスピーカに出力する音を分配する機能を備える。エージェント制御装置150は、スピーカ118A~118Hのうち選択したスピーカから音声を出力させる。
操作部130は、乗員からの操作を受け付ける。操作部130は、例えば、スイッチやボタン、キー等を備える。操作部130は、例えば、ステアリングホイールやインストルメントパネルに設けられる。また、操作部130は、タッチパネルとして、表示部116と一体に構成されてもよい。
ナビゲーション装置140は、例えば、GNSS(Global Navigation Satellite System)衛星から受信した信号に基づいて、車両Mの位置を特定する。また、ナビゲーション装置140は、特定された車両Mの位置(或いは入力された任意の位置)から、操作部130や表示部116を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、地図情報142を参照して決定する。地図情報142は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図情報142は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。また、地図情報142は、例えば、車線の中央の情報あるいは車線の境界の情報、車線の種別の情報等を含んでもよい。また、地図情報142には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。地図情報142は、通信装置110が他装置と通信することにより、随時、アップデートされてよい。
また、ナビゲーション装置140は、地図上経路に基づいて、表示部116を用いた経路案内を行ってもよい。ナビゲーション装置140は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置140は、通信装置110を介してサーバ装置200或いはナビゲーションサーバに現在位置と目的地を送信し、サーバ装置200やナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
ナビゲーション装置140は、地図上経路に基づいて、表示部116による地図画像表示やスピーカによる音声出力によって、経路案内を行ってもよい。また、ナビゲーション装置140は、エージェント制御装置150により実行されるナビゲーション用のアプリケーション(ナビアプリ176)の機能によって、上述したナビゲーション装置140の機能が実現されてもよい。
[エージェント制御装置]
エージェント制御装置150は、例えば、音声入力部152と、走行環境取得部154と、環境変化判定部155と、視線検出部156と、出力制御部160と、画像生成部162と、音声生成部164と、アプリ呼出部166と、記憶部170と、制御部180とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部170に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部170にインストールされてもよい。
音声入力部152は、マイク114により収集された乗員の音声の入力を受け付ける。音声入力部152は、受け付けられた音声(音声ストリーム)を、通信装置110を介してサーバ装置200に送信する。また、音声入力部152は、音声をサーバ装置200に送信するタイミングに同期させて走行環境取得部154により認識された走行環境(例えば、車両Mの位置)をサーバ装置200に送信してもよい。また、音声入力部152は、受け付けられた音声を解析し、音声に特定ワードが含まれているか否かを判定し、特定ワードが含まれている場合に、その後、所定時間または音声区間の音声をサーバ装置200に送信してもよい。特定ワードとは、例えば、エージェント装置100による情報提示等の制御を開始するためのウェイクワードである。
走行環境取得部154は、車両Mの走行環境を取得する。例えば、走行環境取得部154は、ナビゲーション装置140により特定された車両Mの位置や、車両に搭載された車両センサにより取得される速度、加速度、鉛直軸回りの角速度、車両Mの向き等に基づいて、車両の状態を解析する。車両Mの状態には、例えば、車両Mが停止しているか、走行しているか等の状態や、右左折や車線変更を行っているか等の状態が含まれる。また、走行環境取得部154は、カメラ111により撮像された画像を解析して、周辺に存在する交通信号機によるランプの点灯状態(進行許可や停止指示の状態)や、周辺物体(例えば、他車両)との相対距離や相対速度等を取得してもよい。
また、走行環境取得部154は、自動運転制御装置300から制御状態に関する情報を取得してもよい。制御状態に関する情報とは、例えば、自動運転中であるか否かの状態を示す情報や、運転支援の度合、実行中のイベント、目標軌道等の情報である。
環境変化判定部155は、走行環境取得部154により取得された車両Mの走行環境に基づいて、車両Mの走行環境が変化するか否かを判定する。また、環境変化判定部155は、例えば、数[秒]程度の近い将来において、車両Mの走行環境が変化することが予測されるか否かを判定してもよい。
例えば、環境変化判定部155は、手動運転中であり、且つ車両Mが停止している状態であって、進行方向の直近に存在する交通信号機の点灯状態が進行許可の状態になった場合、車両Mが走行可能な状態となるため、走行環境が変化すると判定する。また逆に、手動運転中であり、且つ車両Mが走行中であって、進行方向の直近に存在する交通信号機の点灯状態が停止指示の状態になった場合、環境変化判定部155は、車両Mが停止するため、走行環境が変化すると判定する。
また、環境変化判定部155は、前走車両が走行状態から停止状態に変化した場合に、車両Mも停止する必要が生じるため、走行環境が変化すると判定する。また、環境変化判定部155は、前走車両が減速している場合や、進行方向に渋滞区間や事故車等がある場合に、近い将来において車両Mが停止する可能性があるため、車両Mの走行環境が変化することが予測されると判定する。また、環境変化判定部155は、自動運転制御装置300からの目標軌道に基づいて、走行環境が変化するか、または近い将来において走行環境が変化することが予測されるかを判定してもよい。
視線検出部156は、車室内カメラ112により撮像された画像(以下、車室内画像と称する)に対する解析処理を行い、運転者の視線を検出する。例えば、視線検出部156は、テンプレートマッチング等の手法を用いて、車室内画像から運転者の頭部と目の位置関係、目における基準点と動点との組み合わせ等を検出する。例えば、基準点が目頭である場合、動点は虹彩である。また、基準点が角膜反射領域である場合、動点は瞳孔である。そして、視線検出部156は、頭部に対する目の位置に基づいて顔の向きを導出する。また、視線検出部156は、基準点に対する動点の位置に基づいて、視線の向きを導出する。また、視線検出部156は、検出された視線の向きに対応付けて、運転者が注視している位置や、視界領域を検出してもよい。視界領域とは、注視位置を中心とした所定の範囲内の領域である。また、視線検出部156は、視線の向きから運転者が見ている表示部を推定してもよい。以下、視線検出部156により検出される各情報を「視線位置」と称する。
出力制御部160は、サーバ装置200により得られた情報(例えば、対話情報)等に基づいて、乗員に提供する情報を制御する。対話情報には、例えば、乗員に提供される音声情報または画像情報のうち一方または双方が含まれる。乗員に提供される情報には、例えば、表示部116により画面に表示させる画像、スピーカ118により出力させる音声、車両内の各機能を実現するアプリにより実行される機能等が含まれる。
例えば、出力制御部160は、サーバ装置200により得られる対話情報に基づいて、画像生成部162に乗員への提供画像を生成させたり、音声生成部164に乗員への提供音声を生成させる。また、出力制御部160は、画像の表示位置や、音声の音像定位位置が互いに対応付けられるように制御する。
画像生成部162は、出力制御部160または制御部180の制御により、車内で乗員とのコミュニケーションを行う擬人化されたエージェントの画像(以下、エージェント画像と称する)を生成し、生成したエージェント画像を表示部116の所定の表示位置に表示させる。エージェント画像は、例えば、乗員に対して話しかける態様の画像である。エージェント画像は、例えば、少なくとも観者(乗員)によって表情や顔向きが認識される程度の顔画像を含む。例えば、エージェント画像は、顔領域の中に目や鼻に擬したパーツが表されており、顔領域の中のパーツの位置に基づいて表情や顔向きが認識されるものである。また、エージェント画像は、立体的に感じられ、観者によって三次元空間における頭部画像を含むことでエージェントの顔向きが認識されたり、本体(胴体や手足)の画像を含むことで、エージェントの動作や振る舞いが認識されるものであってもよい。また、エージェント画像は、アニメーション画像であってもよい。
また、画像生成部162は、サーバ装置200により得られた画像を、出力制御部160により指示された表示部116に表示させるための表示態様(例えば、画像サイズ、画像フォーマット)に変換し、変換した画像を表示部116に表示させる。
音声生成部164は、対話情報に対応させてエージェント画像が話しかける音声(以下、エージェント音声と称する)や、エージェント音声以外の音声(例えば、ラジオや音楽、映像等のコンテンツに対する音声)を生成し、生成した音声をスピーカ118から出力させる。このとき、音声生成部164は、複数のスピーカ118を用いて、エージェント画像の表示位置に対応する位置にエージェント音声の音像を定位させる制御を行ってもよい。音像が定位するとは、例えば、乗員の左右の耳に伝達される音の大きさと位相を調節することにより、乗員が感じる音源の空間的な位置を定めることである。音像は、例えば、音源が元々保有している音特性や、車室内環境の情報、頭部伝達関数(HRTF;Head-related transfer function)に基づいて定まる。このような原理を利用して、音像を所定の位置に定位させることができる。
図4は、音像が定位する位置を移動させることについて説明するための図である。図4では、説明を簡略化するために、上述したスピーカ118C~118Eを用いるが、車室内に設けられたスピーカ118A~118Hを用いて音像を定位させる位置を空間的に移動させることができる。例えば、図4に示す三次元座標(X、Y、Z)で定められる空間位置MP1に音像を定位させる場合、AMP120は、音声生成部164により生成された音声に基づいて、所定の出力対象の音声に対し、スピーカ118Cから最大強度の5%の出力を行い、スピーカ118Dから最大強度の80%の出力を行い、スピーカ118Eから最大強度の15%の出力を行った場合、乗員P1の位置からは、図4に示す空間位置MP1に音像が定位しているように感じることになる。
また、AMP120は、出力対象の音声に対し、スピーカ118Cから最大強度の45%の出力を行い、スピーカ118Dから最大強度の45%の出力を行い、スピーカ118Eから最大強度の10%の出力を行った場合、乗員P1の位置からは、図4に示す空間位置MP2に音像が定位しているように感じることができる。このように、車室内に設けられる複数のスピーカとそれぞれのスピーカから出力される音の大きさを調整することで、音像が定位される位置を変化させることができる。以下、音像が定位される空間上の位置MPを「音像位置MP」と称するものとする。
アプリ呼出部166は、記憶部170に記憶されたアプリから出力制御部160による制御内容に対応するアプリを呼び出し、呼び出したアプリを制御部180で実行することで、そのアプリの機能を実現させる。アプリには、例えば、電話アプリ172や、ラジオアプリ174、ナビアプリ176等が含まれる。制御部180により電話アプリ172が実行された場合には、通信装置110を介して外部の通話機能を備えた端末と通信を行い、マイク114やスピーカ118を用いて、相手先との通話する機能が実現される。また、制御部180によりラジオアプリ174が実行された場合には、通信装置110を介してラジオ局から乗員が指定した周波数で発信された音声情報を取得し、取得した音声情報をスピーカ118から出力する機能が実現される。また、制御部180によりナビアプリ176が実行された場合には、ナビゲーション装置140と連携した経路探索や経路案内等の機能が実現される。
記憶部170は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部170には、例えば、電話アプリ172、ラジオアプリ174、ナビアプリ176等のプロセッサによって読み出されて実行されるプログラム、その他の情報等が格納される。
制御部180は、エージェント制御装置150の各機能部に実行および停止を制御する。制御部180は、例えば、各機能部からの要求をAPI(Application Programming Interface)によって受け付け、受け付けた要求に基づく処理を実行する機能部を選択し、選択した機能部に、APIを介して処理を実行させる。また、制御部180は、エージェント制御部150の各機能部の処理を、アプリ(例えば、エージェントアプリ)を実行させることで実現してもよい。
例えば、制御部180は、車両Mの走行環境が変化する場合、または将来変化することが予測される場合に、音声生成部164により出力されるエージェント音声の音像が定位される態様を変更させる。音像が定位される態様とは、例えば、音像位置であるが、音像を定位させる時間、音像位置の移動速度等が含まれてもよい。また、制御部180は、車両Mの走行環境が変化する場合、または将来変化することが予測される場合に、画像生成部162により生成されるエージェント画像の表示態様を変更させてもよい。エージェント画像の表示態様とは、例えば、エージェント画像の表示位置であるが、エージェント画像の大きさ、形状、色、移動速度が含まれてもよい。制御部180、出力制御部160と連携して、エージェント画像や音像位置の移動による運転者の視線の誘導制御を行ってもよい。
[サーバ装置]
サーバ装置200は、例えば、通信部210と、認識部220と、対話生成部230と、記憶部240とを備える。これらの構成要素は、例えば、CPU等のコンピュータプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部240に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで記憶部240にインストールされてもよい。
通信部210は、例えば、セルラー網やWi-Fi網、Bluetooth、DSRC等を利用して、ネットワークNWを介してエージェント装置100と通信する。通信部210は、エージェント装置100から送信された音声ストリームを受信する。また、通信部210は、対話生成部230により生成された音声や画像等の対話情報をエージェント装置100に送信する。
認識部220は、通信部210により受信した音声ストリームから音声の意味を解析する。認識部220は、例えば、音声区間検出部222と、音声認識部224と、自然言語処理部226とを備える。音声区間検出部222は、エージェント装置100から送信された音声ストリームから音声区間を検出する。例えば、音声区間検出部222は、音声ストリームにおける音声波形の振幅と零交差に基づいて音声区間を検出する。また、音声区間検出部222は、混合ガウス分布モデル(GMM;Gaussian mixture model) に基づくフレーム単位の音声・非音声識別に基づく区間検出を行ってもよい。また、音声区間検出部222は、予め記憶部240等に記憶された、音声ストリームの特徴情報から音声区間を検出するためのデータベースとのマッチング処理により音声の区間検出を行ってもよい。
音声認識部224は、音声区間検出部222により検出された音声区間における音声を認識し、音声を文字情報としてテキスト化する。また、音声認識部224は、認識された音声から発話者の特徴を特定してもよい。発話者の特徴には、例えば、性別や年齢、運転者であるか、同乗者であるかの情報が含まれる。
また、音声認識部224は、音声から得られる特徴情報を用いて、記憶部240に記憶されたパーソナルプロファイル242と照合を行ってもよい。パーソナルプロファイル242には、例えば、音声の特徴情報に、個人情報が対応付けられている。音声の特徴情報とは、例えば、声の高さ、イントネーション、リズム(音の高低のパターン)、ポーズ等の喋り方の特徴や、メル周波数ケプストラム係数(Mel Frequency Cepstrum Coefficients)等による特徴量に関する情報である。音声の特徴情報は、例えば、乗員の初期登録時に所定の単語や文章等を乗員に発声させ、発声させた音声を解析することで得られる情報である。個人情報には、例えば、氏名、住所、年齢、趣味、過去のサーバ装置200の使用履歴が含まれる。氏名、住所、年齢、趣味は、乗員の初期登録時に音声の特徴情報と共に設定され、その後、設定変更等により適宜更新がなされる。音声認識部224は、音声から得られる特徴情報と、記憶部240に記憶されたパーソナルプロファイル242の特徴情報とを照合して、合致した特徴情報に対応付けられた個人情報を認識する。
自然言語処理部226は、音声認識部224によりテキスト化された文字情報に対する自然言語処理を実行し、文字情報の意味を認識する。自然言語処理には、形態素解析、構文解析、意味解析、文脈解析等が含まれる。形態素解析は、例えば、文字情報を、意味を持つ最小の表現要素の単位に分割し、分割した単位(形態素)ごとの品詞等を解析する。構文解析は、例えば、形態素解析により得られた形態素をもとに、文の構造を解析する。意味解析は、例えば、構文解析により得られた構文をもとに、意味を持つまとまりを判別する。文脈解析は、例えば、文単位や文脈単位で意味を認識する。
また、自然言語処理部226は、解釈した意味に対応するコマンドを生成する。例えば、解釈結果として、「東京駅まで何キロ?」、「東京駅までどのくらい走る?」等の意味が解釈された場合、自然言語処理部226は、標準文字情報「東京駅までの距離は?」に置き換えたコマンドを生成する。これにより、リクエストの音声に文字揺らぎがあった場合にも回答情報を取得し易くすることができる。また、自然言語処理部226は、例えば、確率を利用した機械学習処理等の人工知能処理を用いて文字情報の意味を認識したり、解釈結果に基づくコマンドを生成してもよい。
また、自然言語処理部226は、生成されたコマンドを用いて記憶部240に記憶された回答情報DB244のコマンドを参照し、合致するコマンドに対応する制御内容を取得する。図5は、回答情報DB244の内容の一例を示す図である。回答情報DB244には、例えば、コマンドに、エージェント装置100により実行させる制御内容が対応付けられている。制御内容には、例えば、アプリの実行や終了、機器の起動や停止、音声制御、表示制御、対話用の文章フォーマット等の情報が含まれる。
自然言語処理部226は、合致するコマンドに対応付けられた制御内容を抽出する。例えば、コマンドが「ラジオをつけて」である場合、ラジオアプリを実行するための制御内容が抽出される。また、東京駅までの距離を取得する場合、自然言語処理部226は、エージェント装置100から送信された車両Mの位置情報に基づいて、記憶部240または外部装置に記憶された地図情報(不図示)を参照し、車両の位置から東京駅までの走行距離を導出して、対話用の音声制御「ここから***[km]です。」の「***」に導出した走行距離を代入して音声出力用の文字情報を生成してもよい。
対話生成部230は、自然言語処理部226により取得した制御内容に基づいて乗員と対話するための対話情報を生成する。例えば、対話生成部230は、対話情報として、回答情報DB244から得られた内容(文字情報)に対する音声情報(音声ストリーム)を生成する。音声情報には、例えば、エージェント画像が乗員に対して話しかける音声が含まれる。また、対話生成部230は、表示制御に対する画像や映像、文字情報等を生成したり、機器制御に対する制御情報(例えば、アプリ実行コマンド)を生成し、生成した情報を対話情報に含めてもよい。例えば、回答情報DB244により得られる回答が「表示制御:東京駅までの経路画像を表示」である場合、対話生成部230は、地図情報を参照して、現在地から東京駅までの経路画像を生成する。
また、対話生成部230は、パーソナルプロファイル242から得られた個人情報が得られている場合に、個人情報に基づいて、音声で乗員の名前を呼んだり、乗員の話し方に似せた話し方にした音声情報を生成してもよい。また、対話生成部230は、パーソナルプロファイルから得られる乗員の趣味に関する情報を取得し、取得した情報を対話情報に含めてもよい。対話生成部230は、生成された対話情報を、通信部210を介してエージェント装置100に送信する。
なお、上述した認識部220および対話生成部230の処理において、最初に、認識部220が入力された音声を解析し、入力された音声にウェイクワード等の特定ワードが含まれているか否かを判定し、特定ワードが含まれている場合に、上述した処理を行ってもよい。
記憶部240は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部240は、例えば、パーソナルプロファイル242、回答情報DB244、その他の情報等が格納される。
[自動運転制御装置]
自動運転制御装置300は、カメラ111や、車両Mに搭載されたレーダ装置(不図示)やLiDAR(Light Detection And Ranging)(不図示)等のうち、一部または全部の検出結果に対するセンサフュージョン処理に基づいて車両Mの周辺に存在する物体や道路形状等を認識し、認識した結果に基づいて自動運転が実行可能な状況下で自動運転制御を行う。自動運転とは、車両Mに乗車した乗員による運転操作に依らずに、車両の操舵または速度のうち一方または双方を制御して車両を運転させることである。
例えば、自動運転制御装置300は、原則的にはナビゲーション装置140からの経路情報に基づいて推奨車線を決定し、決定された推奨車線を車両Mが走行し、更に、車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。また、自動運転制御装置300は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベントを含む追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。自動運転制御装置300は、起動させたイベントに応じた目標軌道を生成する。
また、自動運転制御装置300は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度を、目標軌道の速度要素として決定する。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度は、サンプリング時間および軌道点の間隔によって決定される。
そして、自動運転制御装置300は、生成した目標軌道に付随する速度要素に基づいて、車両Mに搭載された走行駆動力出力装置またはブレーキ装置を制御する。走行駆動力出力装置は、車両Mが走行するための走行駆動力(トルク)を駆動輪に出力する。ブレーキ装置は、制動操作に応じたブレーキトルクを各車輪に出力する。また、自動運転制御部145は、目標軌道の曲がり具合に応じて、車両Mに搭載されたステアリング装置を制御する。ステアリング装置は、電動モータを駆動し、転舵輪の向きを変更させる。
自動運転が実行されている場合、乗員は周辺監視を行わなくてもよい状態となる。また、自動運転制御装置300により自動運転が実行されていない場合、運転者による運転操作子(不図示)の操作により手動運転が実行される。運転操作子は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置300、もしくは、走行駆動力出力装置、ブレーキ装置、およびステアリング装置のうち一部または全部に出力される。自動運転制御装置300は、上述した各種の制御状態に関する情報をエージェント装置100に出力する。
[エージェント制御装置]
以下、エージェント制御装置150の機能の詳細について説明する。図6は、エージェント制御装置150の処理について説明するための図である。図6は、手動運転中であり、且つ車両Mが停止中である場合のエージェント制御装置150の処理を説明するものである。また、図6の例は、上述した図2と同様の車室内の様子を示している。
例えば、出力制御部160または制御部180は、乗員からの所定の音声(例えば、ウェイクワードや質問事項等)が受け付けられた場合に、車両Mの停止中に運転者に対して話しかける態様のエージェント画像を表示させる指示と、表示位置に関する情報(例えば、表示部の種類と表示画面上における表示位置(座標))とを画像生成部162に出力する。画像生成部162は、出力制御部160または制御部180からの制御情報に基づいてエージェント画像EIを生成し、生成したエージェント画像を指示された表示部の少なくとも一部の領域(例えば、指示された表示位置を中心とした領域)に表示させる。図6の例では、車両Mが停止中であり、運転者が進行方向の監視を行う必要性が低いため、運転者やその他の乗員が視認できるように、表示部116Cの画面の右側の領域にエージェント画像EIが表示されている。なお、助手席に着座する乗員等、特定された乗員と対話する場合には、出力制御部160または制御部180の制御により、対話する乗員が着座する席に近い表示部(例えば、助手席に着座する乗員であれば、表示部116D)にエージェント画像を表示させてもよい。
また、出力制御部160または制御部180は、乗員からの所定の音声が受け付けられた場合に、音声生成部164にエージェント音声を出力させる指示と、エージェント音声の音像定位位置に関する情報とを音声生成部164に出力する。音声生成部164は、出力制御部160または制御部180からの制御情報に基づいて、エージェント音声を生成し、生成したエージェント音声を、指示された位置に音像が定位するようにAMP120やミキサー122により調整して所定のスピーカ118から出力させる。図6の例では、エージェント画像EIの表示位置付近(例えば、表示位置から数[cm]以内)の三次元の音像位置MP1に定位させてエージェント音声が出力されている。これにより、乗員は、エージェント画像EIがエージェント音声を発しているように、直感的に感じさせることができる。
また、制御部180は、エージェント音声以外の音声をスピーカ118から出力させる場合に、エージェント音声の音像位置MP1と異なる位置に音像を定位させてもよい。例えば、ラジオアプリ174により出力されるラジオ音声や、映像、音楽等のコンテンツの音声を出力させる場合、制御部180は、図6に示すように車室内の天井付近の音像位置MP2に定位させる。これにより、ラジオ音声やコンテンツ音声等を車室内に存在する乗員の全てに広く聞かせることができる。
上述したように、出力制御部160または制御部180は、出力する音声の内容(ジャンルやカテゴリ)に基づいて、音像位置を調整する。なお、ラジオ音声やコンテンツ音声等の音像位置については、乗員の選択により設定されてもよい。
また、エージェント制御装置150は、乗員がエージェントに対して質問等のリクエストを喋った場合、その回答情報を取得し、画像や音声により出力する。具体的には、乗員からの質問を含む音声は、マイク114により収集され、サーバ装置200に送信される。サーバ装置200は、受信した音声に含まれる質問の意味を解析し、意味に対応する対話情報(例えば、画像情報)が取得できた場合、取得した画像情報(以下、回答画像CIと称する)をエージェント装置100に送信する。エージェント装置100の出力制御部160は、サーバ装置200からの回答画像CIと共に、回答画像CIを表示する表示部116の種類および表示位置を指定した情報を画像生成部162に出力する。
画像生成部162は、回答画像CIを指定された表示部116に表示させるためのサイズ変換やフォーマット変換を行い、変換された情報を、指定された表示部116の少なくとも一部の領域に表示させる。なお、回答画像CIは、サーバ装置200から得られる情報に基づいて、画像生成部162により生成されてもよい。図6の例において、回答画像CIは、表示部116Cの画面の左側の領域に表示されている。制御部180は、例えば、視線検出部156により検出される乗員の視線位置に近い表示部に回答画像CIを表示させてもよく、エージェント画像EIの表示位置付近に回答画像CIを表示させてもよい。
ここで、制御部180は、環境変化判定部155により車両Mの走行環境が変化すると判定された場合に、エージェント音声の音像が定位される態様を変更させる。図7は、エージェント音声の音像が定位される態様が変更した様子を説明するための図である。以下の説明において、時刻t1~t6は、「t1<t2<t3<t4<t5<t6」の関係が成立しているものとする。
例えば、環境変化判定部155により、車両Mが停止状態から走行状態になる場合、または将来走行状態になることが予測された場合、制御部180は、車両Mの進行方向または将来進行すると予測される方向に乗員の視線が向くように、音像位置MPを移動させる。図7の例では、前方方向に車両Mが進行するものとする。この場合、前方の監視を行うための視線位置付近に音像が定位するように、表示部116C付近よりも運転者が車両Mの周辺を監視するときの視界に近い位置に設置された表示部116A付近に音像を定位させる。
また、制御部180は、出力されるエージェント音声の音像位置を時刻t1からt6までの間で徐々に移動させてもよい。時刻t6は、例えば、手動運転により車両Mを走行させるべき時刻、または走行させるべき時刻から所定時間前の時刻である。例えば、制御部180は、まず走行環境に基づいて時刻t6を決定し、決定した時刻t6を基準として、音像位置MPを移動させる移動速度や、各時刻t1~t5における音像位置MP(t1)~MP(t5)を設定する。これにより、音声が出力される方向に運転者の視線を誘導することができ、結果として運転者に車両Mの進行方向を向かせることができる。なお、音像位置MPの移動中に出力される音声は、対話中の音声でもよく、走行環境の変化の内容に対応させて「そろそろ、運転が始まるよ。」や「信号が青に変わったよ。」等の手動運転を促すメッセージ音声、或いは注意を促すための警告音でもよい。また、これらの音声の切り替え制御も制御部180によって制御される。
また、制御部180は、車両Mの走行中においては、エージェント画像の表示を行わずに、エージェント音声のみを出力するように制御する。これにより、運転者の目線を監視方向(前方)に注視させることができる。
また、制御部180は、エージェント音声の音像位置MP(t1)~MP(t6)に移動させる場合に、表示部116Cに表示されたエージェント画像E1の表示位置を、音像定位位置MP1の移動に対応付けて移動させてもよい。図8は、音像定位位置の移動に対応付けてエージェント画像を移動させる様子を説明するための図である。以下の説明において、EI(t*)は、時刻t*で表示されるエージェント画像の位置を示し、MP1(t*)は、時刻t*での音像位置を示すものとする。例えば、制御部180は、走行環境の変化に基づいて、エージェント音像位置MP1を移動させる場合に、移動している音像位置MP1(t1)~MP1(t6)に同期させてエージェント画像EIをエージェント画像EI(t1)~EI(t6)のように移動させる。例えば、音像位置MP1が表示部116C付近から表示部116A付近に移動する場合に、制御部180は、表示部116Cと表示部116Aの表示にそれぞれのタイミングでエージェント画像E1が表示されるように、画像生成部162を制御する。画像生成部162は、図8に示すように、エージェント画像EIが表示部116Cから表示部116Aに向かってフェードアウトし、表示部116Aの端部からフェードインして所定の位置に表示されるようにエージェント画像EIを表示する。
このように、エージェント音声だけでなくエージェント画像も移動させることで、音像位置MP1のみを移動させるよりも、より確実に乗員の視線を誘導させることができる。なお、制御部180は、まず、音像位置のみの移動を行った後、または移動させている状態において、視線検出部156により検出される運転者の視線の位置が、音像の移動方向に移動していない場合に、エージェント画像EIの移動制御を行ってもよい。
また、制御部180は、手動運転から自動運転制御装置300の自動運転に切り替わった場合に、図7または図8に示す例とは逆に、エージェント音声の音像位置MP1を、表示部116A付近の位置から回答画像CIが表示されている位置付近まで移動させてもよい。この場合、制御部180は、視線検出部156により検知された運転者の視線位置に基づいて、エージェント画像EIの表示位置や音像位置MPの制御を行ってもよい。
図9は、視線位置に基づく制御部180の処理について説明するための図である。制御部180は、例えば、画像生成部162によりエージェント画像EIが生成される場合に、視線検出部156により検出される運転者の視線位置に基づいてエージェント画像の表示位置を調整する。例えば、図示するように運転者の視線位置EPが表示部116A内にある場合、制御部180は、画像生成部162により表示させるエージェント画像EI1の位置を運転者の視線位置EPに対応付けた位置に調整する。例えば、制御部180は、視線位置EP付近(例えば、視線位置を中心として約3~5[cm]以内)にエージェント画像EIを表示させるように画像生成部162を制御する。また、制御部180は、視線位置EP付近に表示させたエージェント画像EIに対応付けた位置に音像が定位するように音声生成部164を制御する。
また、制御部180は、乗員の視線位置EPに基づいて、回答画像CIが視認されているか否かを判定する。例えば、制御部180は、視線位置EPと回答情報との距離とが所定距離以上ある場合、または、視線位置EPに対応する位置に存在する表示部と、回答画像CIが表示されている表示部とが異なる場合に、回答画像CIが視認されていない判定する。回答画像CIが視認されていないと判定された場合、制御部180は、回答画像CIの表示位置に視線位置EPを移動させるために、エージェント画像E1の表示位置やエージェント音声の音像位置MP1を移動させる制御を実行する。この場合、まず、制御部180は、画像生成部162により、回答画像CIが表示される前の乗員の視線位置EP付近に、エージェント画像EI(t1)を表示させると共に、音声生成部164により、スピーカ118から出力される音声を音像位置MP1(t1)に定位させる。次に、制御部180は、回答画像CIの表示位置に向かって、エージェント画像EIの表示位置およびエージェント音声の音像位置MP1を移動させ、時刻t5において、回答画像CI付近に、エージェント画像EI(t5)を表示させ、音声を音像位置MP(t5)に定位させる。これにより、運転者の視線の誘導が、現在の視線位置を基準に行われるため、運転者の視線移動の負担を軽減させることができる。
なお、制御部180は、エージェント画像EIの表示位置やエージェント音声の音像位置MP1の移動中においても、運転者の視線位置EPを継続して検出し、視線位置EPがエージェント画像EIや音像位置MP1の移動に追従していない場合に、エージェント画像EIの表示位置やエージェント音声の音像位置MP1を再度視線位置EPに位置付けて、視線の誘導制御を行ってもよい。この場合、制御部180は、例えば、エージェント画像EIの表情を変えたり、画像を大きくしたり、色を変えたりしてもよく、音像位置MPの移動速度を遅くしてもよい。これにより、運転者の視線を確実に回答情報CIの表示位置に位置付けさせ易くすることができる。
また、制御部180は、エージェント画像EIの表示位置やエージェント音声の音像位置MP1による視線の誘導を行う前に、運転者の視線位置が、回答画像CI付近に存在する場合、エージェント画像EIや音像位置MPによる視線の誘導制御を行わなくてもよい。図10は、視線位置付近に回答画像が存在する場面について説明するための図である。例えば、車両Mが手動運転から自動運転に切り替わった後に、すでに運転者の視線位置EPが回答画像CI付近に存在している場合、制御部180は、運転者が回答画像CIを視認できているものと推定し、エージェント画像EI(t1)からt2)に切り替えて表示されるように、画像生成部162を制御する。また、制御部180は、エージェント画像の切り替えに合わせて音像位置MP1(t1)から音像位置MP1(t2)に定位させる。このように、制御部180は、運転者の視線位置EPに合わせて、エージェント画像の表示位置および音像位置を適切に制御することができる。
また、制御部180は、自動運転が継続している場合において、車両Mの状態が停止状態と走行状態との間で切り替わったとしても、乗員が周辺監視を行う必要がない場合には、エージェント音声の音像位置やエージェント画像の表示位置を移動させる制御は行わない。
[処理フロー]
以下、エージェントシステム1による一連の処理の流れを、フローチャートを用いて説明する。図11は、エージェントシステム1による一連の処理の流れの一例を示すフローチャートである。なお、図11では、エージェントシステム1が、主に、エージェント音声やエージェント画像により乗員の視線誘導を行う処理の流れについて説明するものである。また、図11では、車両Mの環境が手動運転であって、且つ停止状態から走行状態に変化する場合における運転者の視線誘導の例について説明するものである。本フローチャートの処理は、例えば、所定の周期で繰り返し実行されてよい。
まず、画像生成部162は、出力制御部160または制御部180の制御により、エージェント画像を表示部に表示させる(ステップS100)。次に、音声生成部164は、出力制御部160または制御部180の制御により、エージェント画像の表示位置付近にエージェント音声の音像を定位させる(ステップS102)。
ここで、制御部180は、環境変化判定部155による判定結果に基づいて、車両Mが走行する、または将来走行することが予測されるか否かを判定する(ステップS104)。車両Mが走行する、または将来走行することが予測される場合、音声生成部164は、エージェント音声の音像定位位置を車両Mの進行方向(周辺監視する運転者の視線方向)に向けて移動させる(ステップS106)。次に、画像生成部162は、エージェント音声の音像定位位置の移動に対応付けてエージェント画像の表示位置を移動させる(ステップS108)。これにより、本フローチャートの処理は、終了する。また、ステップS104の処理において、車両Mが走行せず、将来走行することも予測されていない場合、本フローチャートの処理は、終了する。
以上説明した実施形態によれば、車両の走行環境に基づいて音像定位位置を制御することで、より適切に乗員への運転支援を行うことができる。具体的には、エージェント装置100によれば、車両Mが手動運転中であって且つ停車状態である場合には、乗員に見え易い表示部にエージェント画像や回答画像等を表示させたり、エージェント音声の音像をエージェント画像に合わせて定位させて乗員との対話等を行い、停止状態から走行状態に切り替わる場合には、エージェント音声の音像定位位置やエージェント画像の表示位置を運転者が周辺監視する方向に移動させることで、周辺監視をする方向に視線を向けさせることができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。例えば、上述した実施形態のサーバ装置200の構成要素のうち一部または全部は、エージェント装置100内に設けられてもよい。また、上述した実施形態のエージェント装置の構成要素のうち一部または全部は、サーバ装置200内に設けられてもよい。また、エージェント装置100は、他のエージェント装置と連携して乗員のリクエストに対する回答を取得し、取得した回答を乗員に提供してもよい。
1…エージェントシステム、100…エージェント装置、110…通信装置、111…カメラ、112…車室内カメラ、114…マイク、116…表示部、118…スピーカ、120…AMP、122…ミキサー、130…操作部、140…ナビゲーション装置、150…エージェント制御装置、152…音声入力部、154…走行環境取得部、155、状態変化判定部、156…視線検出部、160…出力制御部、162…画像生成部、164…音声生成部、166…アプリ呼出部、170、240…記憶部、180…制御部、200…サーバ装置、210…通信部、220…認識部、222…音声区間検出部、224…音声認識部、226…自然言語処理部、230…対話生成部、242…パーソナルプロファイル、244…回答情報DB、300…自動運転制御装置

Claims (8)

  1. 車室内の音声を収集するマイクと、
    前記車室内に音声を出力するスピーカと、
    前記マイクにより収集された音声の意味を認識する認識部と、
    前記認識部により認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を前記スピーカに出力させるエージェント制御部と、
    前記車両の走行環境を取得する走行環境取得部と、
    画像を表示する表示部と、を備え、
    前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記エージェント制御部は、前記走行環境取得部により前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境に基づいて、前記車両が走行している場合、または将来走行することが予測される場合に、前記第1表示部に表示された前記エージェント画像を前記第2表示部に移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    エージェントシステム。
  2. 車室内の音声を収集するマイクと、
    前記車室内に音声を出力するスピーカと、
    前記マイクにより収集された音声の意味を認識する認識部と、
    前記認識部により認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を前記スピーカに出力させるエージェント制御部と、
    前記車両の走行環境を取得する走行環境取得部と、
    画像を表示する表示部と、を備え、
    前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記エージェント制御部は、前記走行環境取得部により前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    前記エージェント制御部は、前記走行環境取得部により前記車両が手動運転から自動運転に切り替わった場合に、前記第2表示部に表示された前記エージェント画像を前記第1表示部に向けて移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    エージェントシステム。
  3. 前記エージェント制御部は、前記走行環境取得部により取得された前記車両の走行環境に基づいて、前記車両が走行する場合、または将来走行することが予測される場合に、前記エージェント音声を前記車両の進行方向に移動させる、
    請求項1または2に記載のエージェントシステム。
  4. 前記エージェント制御部は、前記エージェント音声の音像定位位置を前記車両の進行方向に移動させる場合に、前記表示部に表示された前記エージェント画像の表示位置を、前記音像定位位置の移動に対応付けて移動させる、
    請求項3に記載のエージェントシステム。
  5. コンピュータが、
    車室内の音声を収集するマイクにより収集された音声の意味を認識し、
    認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、
    生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、
    前記車両の走行環境を取得し、
    取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記車室内の表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    取得された前記車両の走行環境に基づいて、前記車両が走行している場合、または将来走行することが予測される場合に、前記第1表示部に表示された前記エージェント画像を前記第2表示部に移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    エージェント制御方法。
  6. コンピュータが、
    車室内の音声を収集するマイクにより収集された音声の意味を認識し、
    認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成し、
    生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、
    前記車両の走行環境を取得し、
    取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記車室内の表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    前記車両が手動運転から自動運転に切り替わった場合に、前記第2表示部に表示された前記エージェント画像を前記第1表示部に向けて移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    エージェント制御方法。
  7. コンピュータに、
    車室内の音声を収集するマイクにより収集された音声の意味を認識させ、
    認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、
    生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、
    前記車両の走行環境を取得させ、
    取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記車室内の表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    取得された前記車両の走行環境に基づいて、前記車両が走行している場合、または将来走行することが予測される場合に、前記第1表示部に表示された前記エージェント画像を前記第2表示部に移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    プログラム。
  8. コンピュータに、
    車室内の音声を収集するマイクにより収集された音声の意味を認識させ、
    認識された意味に基づいて車両の乗員に対して話しかけるエージェント音声を生成させ、
    生成したエージェント音声の音像が所定の位置に定位されるように、前記エージェント音声を、車室内のスピーカに出力させ、
    前記車両の走行環境を取得させ、
    取得された前記車両の走行環境が変化する場合、または将来変化することが予測される場合に、前記エージェント音声の音像が定位される態様を変更させ、
    前記車両の停止状態が取得された場合に、前記乗員に対して話しかける態様のエージェント画像を前記車室内の表示部に表示させると共に、前記エージェント音声を前記エージェント画像の表示位置に対応付けた位置に定位させ、
    前記表示部は、少なくとも第1表示部と、前記第1表示部よりも前記乗員が前記車両の周辺を監視するときの視界に近い位置に設置される第2表示部とを備え、
    前記車両が手動運転から自動運転に切り替わった場合に、前記第2表示部に表示された前記エージェント画像を前記第1表示部に向けて移動させると共に、前記エージェント音声の音像定位位置を、前記エージェント画像の移動に対応付けて移動させる、
    プログラム。
JP2018191294A 2018-10-09 2018-10-09 エージェントシステム、エージェント制御方法、およびプログラム Active JP7068986B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018191294A JP7068986B2 (ja) 2018-10-09 2018-10-09 エージェントシステム、エージェント制御方法、およびプログラム
CN201910921703.0A CN111016820B (zh) 2018-10-09 2019-09-26 智能体***、智能体控制方法及存储介质
US16/589,183 US10994612B2 (en) 2018-10-09 2019-10-01 Agent system, agent control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191294A JP7068986B2 (ja) 2018-10-09 2018-10-09 エージェントシステム、エージェント制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020061642A JP2020061642A (ja) 2020-04-16
JP7068986B2 true JP7068986B2 (ja) 2022-05-17

Family

ID=70052930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191294A Active JP7068986B2 (ja) 2018-10-09 2018-10-09 エージェントシステム、エージェント制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US10994612B2 (ja)
JP (1) JP7068986B2 (ja)
CN (1) CN111016820B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110730115B (zh) * 2019-09-11 2021-11-09 北京小米移动软件有限公司 语音控制方法及装置、终端、存储介质
JP7318587B2 (ja) * 2020-05-18 2023-08-01 トヨタ自動車株式会社 エージェント制御装置
CN111770133B (zh) * 2020-05-20 2021-07-20 同济大学 一种多体慧联云控平台
JP7314898B2 (ja) * 2020-10-09 2023-07-26 トヨタ自動車株式会社 エージェント装置、エージェント方法及びエージェントプログラム
JP7264139B2 (ja) * 2020-10-09 2023-04-25 トヨタ自動車株式会社 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
JP2022175359A (ja) * 2021-05-13 2022-11-25 株式会社デンソー 車両用情報提供装置、情報提供方法、及び情報提供プログラム
WO2023062865A1 (ja) * 2021-10-15 2023-04-20 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227962A (ja) 2000-02-15 2001-08-24 Fujitsu Ten Ltd ナビゲーション装置
JP2002199499A (ja) 2000-12-22 2002-07-12 Sony Corp 車載装置、自動車及び情報処理方法
JP2006284454A (ja) 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム
JP2017189992A (ja) 2016-04-11 2017-10-19 矢崎総業株式会社 車両用表示装置
JP2018124078A (ja) 2017-01-30 2018-08-09 トヨタ自動車株式会社 車両用情報表示システム及び車両用情報表示方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4817664B2 (ja) 2005-01-11 2011-11-16 アルパイン株式会社 オーディオシステム
WO2014002128A1 (ja) * 2012-06-25 2014-01-03 三菱電機株式会社 車載情報装置
JP6470041B2 (ja) * 2014-12-26 2019-02-13 株式会社東芝 ナビゲーション装置、ナビゲーション方法及びプログラム
CN110291498A (zh) * 2017-02-24 2019-09-27 索尼公司 显示控制装置、方法及程序

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001227962A (ja) 2000-02-15 2001-08-24 Fujitsu Ten Ltd ナビゲーション装置
JP2002199499A (ja) 2000-12-22 2002-07-12 Sony Corp 車載装置、自動車及び情報処理方法
JP2006284454A (ja) 2005-04-01 2006-10-19 Fujitsu Ten Ltd 車載用エージェントシステム
JP2017189992A (ja) 2016-04-11 2017-10-19 矢崎総業株式会社 車両用表示装置
JP2018124078A (ja) 2017-01-30 2018-08-09 トヨタ自動車株式会社 車両用情報表示システム及び車両用情報表示方法

Also Published As

Publication number Publication date
US20200108720A1 (en) 2020-04-09
JP2020061642A (ja) 2020-04-16
US10994612B2 (en) 2021-05-04
CN111016820B (zh) 2023-04-28
CN111016820A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
JP7068986B2 (ja) エージェントシステム、エージェント制御方法、およびプログラム
CN110968048B (zh) 智能体装置、智能体控制方法以及存储介质
US11176948B2 (en) Agent device, agent presentation method, and storage medium
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
US11798552B2 (en) Agent device, agent control method, and program
WO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
US11450316B2 (en) Agent device, agent presenting method, and storage medium
JP7250547B2 (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
CN111016824B (zh) 交流支援***、交流支援方法及存储介质
US11904900B2 (en) Autonomous vehicle for blind people
JPWO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
JP2020020987A (ja) 車内システム
US20230186651A1 (en) Control device, projection system, control method, and program
JP2020059401A (ja) 車両制御装置、車両制御方法、プログラム
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
US20230351895A1 (en) Traffic safety support system
WO2022239642A1 (ja) 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム
US20230311927A1 (en) Traffic safety support system
KR20220055214A (ko) 운전자 보조 시스템 및 그를 가지는 차량

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7068986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150