JP7250547B2 - エージェントシステム、情報処理装置、情報処理方法、およびプログラム - Google Patents

エージェントシステム、情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7250547B2
JP7250547B2 JP2019018971A JP2019018971A JP7250547B2 JP 7250547 B2 JP7250547 B2 JP 7250547B2 JP 2019018971 A JP2019018971 A JP 2019018971A JP 2019018971 A JP2019018971 A JP 2019018971A JP 7250547 B2 JP7250547 B2 JP 7250547B2
Authority
JP
Japan
Prior art keywords
occupant
unit
utterance content
information
wording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019018971A
Other languages
English (en)
Other versions
JP2020126166A (ja
Inventor
智裕 鈴木
潤一郎 尾中
弘一 谷▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019018971A priority Critical patent/JP7250547B2/ja
Priority to US16/779,700 priority patent/US11508368B2/en
Priority to CN202010079363.4A priority patent/CN111599356B/zh
Publication of JP2020126166A publication Critical patent/JP2020126166A/ja
Application granted granted Critical
Publication of JP7250547B2 publication Critical patent/JP7250547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、エージェントシステム、情報処理装置、情報処理方法、およびプログラムに関する。
人間と音声対話によって情報を提供するヒューマンマシンインターフェースの研究が進められている。これに関連し、ロボットのコミュニケーションの対象とする人物の状況に基づいて、当該人物に対する発話の可否や発話音量、発話口調を決定する技術や、語彙が登録された辞書を利用して、乗員が発話した音声を認識し、車室内の複数の制御対象機器を、認識した音声の内容に応じて制御する技術が知られている(例えば、特許文献1、2参照)。
特許第4976903号公報 特開2007-286136号公報
しかしながら、従来の技術では、ユーザの発話に不明確な文言が含まれていると、ユーザの発話内容を正確に認識できない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、ユーザの発話内容を、より正確に認識することができるエージェントシステム、情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
本発明に係るエージェントシステム、情報処理装置、情報処理方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るエージェントシステムは、移動体の乗員の発話内容を含む音声を認識する認識部と、前記乗員を含む画像を取得する取得部と、前記認識部により認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された、発話内容が不明確となる文言を含む不明確情報とを照合し、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記取得部により取得された画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を推定し、推定した前記第1方向または前記第2方向に存在する地物を推定する推定部と、を備え、前記認識部は、前記推定部により推定された地物に基づいて、前記乗員の発話内容を認識する、エージェントシステムである。
(2):上記(1)の態様において、前記取得部は、複数のマイクのそれぞれにより収集された前記乗員の音声を取得し、前記推定部は、前記取得部により取得された複数のマイクのそれぞれから取得される音声に基づいて、前記第1方向を推定するものである。
(3):上記(2の態様において、前記推定部は、前記複数のマイクのそれぞれから取得される音声の強さのピーク値と、それぞれがピーク値となる時間差情報とに基づいて、前記前記第1方向を推定するものである。
(4):上記(1)~(3)のうち何れか一つの態様において、前記推定部は、前記移動体の位置データと前記第1方向または前記第2方向とに基づいて、前記記憶部に記憶された地図情報から前記第1方向または前記第2方向に存在する地物を推定するものである。
(5):上記(1)~(4)のうち何れか一つの態様において、前記推定部は、前記乗員の発話内容に含まれる特徴情報を取得し、取得した特徴情報に基づいて、前記第1方向または前記第2方向に存在する地物を推定するものである。
(6):上記(1)~(5)のうち何れか一つの態様において、前記推定部は、前記第1方向または前記第2方向の変化がない状態が所定時間以上継続している場合に、前記第1方向または前記第2方向に存在する地物に関する情報を前記記憶部に記憶させ、前記乗員の発話内容に不明確な文言が含まれる場合に、前記記憶部に記憶された前記地物に関する情報の中から前記不明確な文言に対応する地物を推定するものである。
(7):上記(1)~(6)のうち何れか一つの態様において、前記推定部は、前記第1方向または前記第2方向に存在する複数の地物候補が推定された場合に、前記記憶部に記憶された前記乗員に対するプロファイル情報に基づいて、前記複数の地物候補のうち一以上の地物を選択するものである。
(8):上記(7)の態様において、前記推定部は、前記記憶部に記憶されたプロファイル情報に基づいて、前記複数の地物候補の優先度を設定するものである。
(9):上記(1)~(8)のうち何れか一つの態様において、前記認識部により認識された発話内容に対応する情報を生成する生成部と、前記生成部により生成された情報を前記乗員に提供する情報提供部と、を更に備えるものである。
(10):この発明の一態様に係る情報処理装置は、移動体の乗員の発話内容を含む音声を認識する認識部と、前記乗員を含む画像を取得する取得部と、前記認識部により認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された、発話内容が不明確となる文言を含む不明確情報とを照合し、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記取得部により取得された画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を推定し、推定した前記第1方向または前記第2方向に存在する地物を推定する推定部と、を備え、前記認識部は、前記推定部により推定された地物に基づいて、前記乗員の発話内容を認識しつつ、前記移動体に搭載された機器または前記移動体を制御する、情報処理装置である。
(11):上記(10)の態様において、前記情報処理装置は、前記移動体に搭載され、前記認識部により認識された発話内容に対応する情報を生成する生成部と、前記生成部により生成された情報を前記乗員に提供する情報提供部と、を更に備えるものである。
(12):この発明の一態様に係る情報処理方法は、単一または複数のコンピュータが、移動体の乗員の発話内容を含む音声を認識するプロセスと、前記乗員を含む画像を取得するプロセスと、認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された発話内容が不明確となる文言を含む不明確情報とを照合するプロセスと、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を取得するプロセスと、取得した前記第1方向または前記第2方向に存在する地物を推定するプロセスと、推定された地物に基づいて、前記乗員の発話内容を認識するプロセスとを有する、情報処理方法である。
(13):この発明の一態様に係るプログラムは、単一または複数のコンピュータにインストールされ、移動体の乗員の発話内容を含む音声を認識する処理と、前記乗員を含む画像を取得する処理と、認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された発話内容が不明確となる文言を含む不明確情報とを照合する処理と、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を取得する処理と、取得された前記第1方向または前記第2方向に存在する地物を推定する処理と、推定された地物に基づいて、前記乗員の発話内容を認識する処理とを含む、前記コンピュータに実行させるプログラムである。
(1)~(13)の態様によれば、ユーザの発話内容を、より正確に認識することができる。
第1の実施形態に係るエージェントシステム1の構成の一例を示す図である。 第1の実施形態に係るエージェント装置100の構成の一例を示す図である。 運転席から見た車室内の一例を示す図である。 車両Mを上から見た車室内の一例を示す図である。 第1の実施形態に係るサーバ装置200の構成の一例を示す図である。 不明確情報232の内容の一例を示す図である。 回答情報234の内容の一例を示す図である。 推定部220の処理について説明するための図である。 図8に示す走行の場面における車室内の様子を説明するための図である。 音声データにより第1方向を推定することについて説明するための図である。 パーソナルプロファイル238に基づいて地物を選択することについて説明するための図である。 第1の実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。 第1の実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。 第2の実施形態に係るエージェント装置100Aの一例を示す図である。 第2の実施形態に係るエージェント装置100Aの一連の処理の流れを示すフローチャートである。
以下、図面を参照し、本発明のエージェントシステム、情報処理装置、情報処理方法、エージェントおよびプログラムの実施形態について説明する。なお、以下では、車両(移動体の一例)に搭載されるエージェント装置(情報処理装置の一例)を含むエージェントシステムについて説明するものとする。エージェントシステムは、車両の乗員(ユーザの一例)と音声対話を行ったり、車両機器や他の機器、走行等を含めた車両全般の制御を行ったりする機能(以下、エージェント機能と称する)を有する。エージェント機能は、ある種の人工知能的機能を持つソフトウェアエージェント(インテリジェントエージェント)によって実現される。
<第1の実施形態>
[システム構成]
図1は、第1の実施形態に係るエージェントシステム1の構成の一例を示す図である。第1の実施形態に係るエージェントシステム1は、例えば、車両(以下、車両M)に搭載されるエージェント装置100と、サーバ装置200とを備える。車両Mは、例えば、二輪や三輪、四輪等の車両である。これらの車両の駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせであってよい。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
エージェント装置100とサーバ装置200とは、ネットワークNWを介して通信可能に接続される。ネットワークNWは、LAN(Local Area Network)やWAN(Wide Area Network)等が含まれる。ネットワークNWには、例えば、Wi-FiやBluetooth(登録商標、以下省略)等無線通信を利用したネットワークが含まれてよい。エージェントシステム1は、複数のエージェント装置100および複数のサーバ装置200により構成されてもよい。
エージェント装置100は、エージェント機能を用いて車両Mの乗員からの音声を取得し、取得した音声をサーバ装置200に送信する。また、エージェント装置100は、サーバ装置から得られるデータ(例えば、エージェントデータ)等に基づいて、乗員と対話したり、画像や映像等の情報を提供したり、車載機器や他の装置を制御したりする。
サーバ装置200は、車両Mに搭載されたエージェント装置100と通信し、エージェント装置100から各種データを取得する。サーバ装置200は、取得したデータに基づいて、音声等による問い合わせに関するエージェントデータを生成し、生成したエージェントデータをエージェント装置100に提供する。第1の実施形態に係るサーバ装置200の機能は、エージェント機能に含まれる。また、サーバ装置200の機能は、エージェント装置100におけるエージェント機能を、より高精度な機能に更新する。
[エージェント装置の構成]
図2は、第1の実施形態に係るエージェント装置100の構成の一例を示す図である。第1の実施形態に係るエージェント装置100は、例えば、エージェント側通信部102と、車室内カメラ104と、マイク(マイクロフォン)106と、スピーカ108と、表示部110と、入力部112と、車両センサ114と、GNSS(Global Navigation Satellite System)受信機116と、車外カメラ118と、エージェント側制御部120と、エージェント側記憶部150とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続されてよい。なお、図2に示すエージェント装置100の構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
エージェント側通信部102は、NIC(Network Interface controller)等の通信インターフェースを含む。エージェント側通信部102は、ネットワークNWを介してサーバ装置200等と通信する。
車室内カメラ104は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。車室内カメラ104は、例えば、エージェント装置100が搭載された車両Mの車室内の所定の位置に設置される。所定の位置とは、例えば、フロントウインドシールド上部やルームミラー、インストルメントパネル等である。車室内カメラ104は、車室内のシートに着座する各乗員の顔等を撮像する。また、車室内カメラ104は、例えば、所定のタイミングで各乗員を繰り返し撮像する。車室内カメラ104は、乗員を撮像した画像のデータ(以下、第1画像データ)を生成し、生成した第1画像データをエージェント側制御部120に出力する。
マイク106は、車室内の音声を電気信号化し収音する音声入力装置である。マイク106は、収音した音声のデータ(以下、音声データ)をエージェント側制御部120に出力する。例えば、マイク106は、乗員が車室内のシートに着座したときの前方付近に設置される。例えば、マイク106は、マットランプ、ステアリングホイール、インストルメントパネル、またはシートの付近に設置される。マイク106は、車室内に複数設置されてよい。
スピーカ108は、例えば、車室内のシート付近または表示部110付近に設置される。スピーカ108は、エージェント側制御部120により出力される情報に基づいて音声を出力する。
表示部110は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイ等の表示装置を含む。表示部110は、エージェント側制御部120により出力される情報に基づいて画像を表示する。
入力部112は、例えば、ボタン、キーボードやマウス等のユーザインターフェースである。入力部112は、乗員の操作を受け付けて、受け付けた操作に応じた信号をエージェント側制御部120に出力する。入力部112は、表示部110と一体として構成されるタッチパネルであってもよい。
図3は、運転席から見た車室内の一例を示す図である。図示の例の車室内には、マイク106A~106Cと、スピーカ108A~108Cと、表示部110A~110Cとが設置される。マイク106Aは、例えば、ステアリングホイールに設けられ、主に運転者が発話した音声を収音する。マイク106Bは、例えば、助手席正面のインストルメントパネル(ダッシュボードまたはガーニッシュ)IPに設けられ、主に助手席の乗員が発話した音声を収音する。マイク106Cは、例えば、インストルメントパネルの中央(運転席と助手席との間)付近に設置される。
スピーカ108Aは、例えば、運転席側のドアの下部に設置され、スピーカ108Bは、例えば、助手席側のドアの下部に設置される。スピーカ108Cは、例えば、表示部110Cの付近、つまり、インストルメントパネルIPの中央付近に設置される。
表示部110Aは、例えば運転者が車外を視認する際の視線の先に虚像を表示させるHUD(Head-Up Display)装置である。HUD装置は、例えば、車両Mのフロントウインドシールド、或いはコンバイナーと呼ばれる光の透過性を有する透明な部材に光を投光することで、乗員に虚像を視認させる装置である。乗員は、主に運転者であるが、運転者以外の乗員であってもよい。
表示部110Bは、運転席(ステアリングホイールに最も近い座席)の正面付近のインストルメントパネルIPに設けられ、乗員がステアリングホイールの間隙から、或いはステアリングホイール越しに視認可能な位置に設置される。表示部110Bは、例えば、LCDや有機EL表示装置等である。表示部110Bには、例えば、車両Mの速度、エンジン回転数、燃料残量、ラジエータ水温、走行距離、その他の情報の画像が表示される。
表示部110Cは、インストルメントパネルIPの中央付近に設置される。表示部110Cは、例えば、表示部110Bと同様に、LCDや有機EL表示装置等である。表示部110Cは、テレビ番組や映画等のコンテンツを表示する。
なお、車両Mには、更に、後部座席付近にマイクとスピーカが設けられてよい。図4は、車両Mを上から見た車室内の一例を示す図である。車室内には、図3で例示したマイクスピーカに加えて、更に、マイク106D、106Eと、スピーカ108D、108Eとが設置されてよい。
マイク106Dは、例えば、助手席ST2の後方に設置された後部座席ST3の付近(例えば、助手席ST2の後面)に設けられ、主に、後部座席ST3に着座する乗員が発話した音声を収音する。マイク106Eは、例えば、運転席ST1の後方に設置された後部座席ST4の付近(例えば、運転席ST1の後面)に設けられ、主に、後部座席ST4に着座する乗員が発話した音声を収音する。
スピーカ108Dは、例えば、後部座席ST3側のドアの下部に設置され、スピーカ108Eは、例えば、後部座席ST4側のドアの下部に設置される。
なお、図1に例示した車両Mは、図3または図4に例示するように、乗員である運転手が操作可能なステアリングホイールを備える車両であるものとして説明したがこれに限られない。例えば、車両Mは、ルーフがない、すなわち車室がない(またはその明確な区分けがない)車両であってもよい。また、図3または図4の例では、車両Mを運転操作する運転手が座る運転席と、その他の運転操作をしない乗員が座る助手席や後部座席とが一つの室内にあるものとして説明しているがこれに限られない。また、図3または図4の例では、車両Mが、ステアリングホイールを備える車両であるものとして説明しているがこれに限られない。例えば、車両Mは、ステアリングホイールのような運転操作機器が設けられていない自動運転車両であってもよい。自動運転車両とは、例えば、乗員の操作に依らずに車両の操舵または加減速のうち一方または双方を制御して運転制御を実行することである。
図2の説明に戻り、車両センサ114は、車両Mの向きを検出する方位センサや、車両Mの速度を検出する車速センサ、車両Mの加速度を検出する加速度センサ、車両Mの鉛直軸回りの角速度を検出するヨーレートセンサ、操舵トルクを検出するトルクセンサ等を含む。車両センサ114は、検出した方位や速度、加速度等を含むデータをエージェント側制御部120に出力する。
GNSS受信機116は、GPS(Global Positioning System)衛星等のGNSS衛星から受信した電波に基づいて、車両Mの位置を検出する。GNSS受信機116によって検出される位置は、例えば、緯度および経度によって表される絶対座標であってよい。GNSS受信機116は、検出した車両Mの位置を示すデータ(以下、位置データ)をエージェント側制御部120に出力する。
車外カメラ118は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車外カメラ118は、車両Mの任意の箇所に取り付けられる。前方を撮像する場合、車外カメラ118は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、車外カメラ118は、リアウインドシールド上部やバックドア等に取り付けられる。側方を撮像する場合、車外カメラ118は、ドアミラー等に取り付けられる。車外カメラ118は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。車外カメラ118は、ステレオカメラであってもよい。また、車外カメラ118は、車両Mの水平方向に関して全方位(360°)を撮影可能な全方位カメラでもよい。車外カメラ118は、車両Mの周囲を撮像した画像のデータ(以下、第2画像データ)を生成し、生成した第2画像データをエージェント側制御部120に出力する。
エージェント側制御部120は、例えば、取得部122と、音声合成部124と、出力制御部126と、通信制御部128とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の単一または複数のプロセッサ(コンピュータ)がプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めエージェント側記憶部150(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでエージェント側記憶部150にインストールされてもよい。出力制御部126と、スピーカ108と、表示部110とを組み合わせたものが「情報提供部」の一例である。
エージェント側記憶部150は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。エージェント側記憶部150には、例えば、プロセッサによって参照されるプログラム等が格納される。
取得部122は、車室内カメラ104から第1画像データを取得したり、車外カメラ118から第2画像データを取得したりする。また、取得部122は、マイク106から音声データを取得したり、車両センサ114から車両Mの方位や速度等のデータを取得したり、GNSS受信機116から車両Mの位置データを取得したりする。
音声合成部124は、エージェント側通信部102がサーバ装置200から受信したデータ(後述するエージェントデータ)に音声制御内容が含まれる場合に、音声制御として指示された音声データに基づいて、人工的な合成音声(以下、エージェント音声と称する)を生成する。
出力制御部126は、音声合成部124によってエージェント音声が生成されると、そのエージェント音声をスピーカ108に出力させる。また、出力制御部126は、エージェントデータに画像制御内容が含まれる場合に、画像制御として指示された画像データを表示部110に表示させる。また、出力制御部126は、音声データの認識結果(フレーズ等のテキストデータ)の画像を表示部110に表示させてもよい。また、出力制御部126は、エージェントデータに機器制御内容が含まれる場合に、対象の車載機器(例えば、車両内の空調設備、車内灯)に対する制御指示を出力してもよい。また、出力制御部126は、車両Mに対して走行に関する各種の制御指示(例えば、加減速、停止、右左折等)を出力してもよい。
通信制御部128は、エージェント側通信部102を介して、取得部122によって取得された音声データおよび位置データをサーバ装置200に送信する。また、通信制御部128は、エージェント側通信部102を介して、取得部122によって取得された第1画像データ、第2画像データ、方位や速度等のデータをサーバ装置200に送信してもよい。
[サーバ装置の構成]
図5は、第1の実施形態に係るサーバ装置200の構成の一例を示す図である。第1の実施形態に係るサーバ装置200は、例えば、サーバ側通信部202と、サーバ側制御部210と、サーバ側記憶部230とを備える。
サーバ側通信部202は、NIC等の通信インターフェースを含む。サーバ側通信部202は、ネットワークNWを介して各車両Mに搭載されたエージェント装置100等と通信する。
サーバ側制御部210は、例えば、取得部212と、発話区間抽出部214と、音声認識部216と、判定部218と、推定部220と、エージェントデータ生成部222と、通信制御部224とを備える。これらの構成要素は、例えば、CPUやGPU等の単一または複数のプロセッサ(コンピュータ)がプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めサーバ側記憶部230(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでサーバ側記憶部230にインストールされてもよい。音声認識部216は、「認識部」の一例である。エージェントデータ生成部222は、「生成部」の一例である。
サーバ側記憶部230は、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。サーバ側記憶部230には、例えば、プロセッサによって参照されるプログラムのほかに、不明確情報232、回答情報234、地図情報236、パーソナルプロファイル(プロファイル情報の一例)238等が格納される。
図6は、不明確情報232の内容の一例を示す図である。不明確情報232には、例えば、音声認識部216による乗員の発話内容の認識において、その語句のみでは、発話内容全体の位置が不明確になり易い語句が含まれる。語句には、例えば、フレーズやワード(単語)、センテンス(文章)が含まれる。図6の例において、不明確情報232には、「この」、「その」、「あの」等の指示語が含まれる。指示語には、例えば、事物に関する指示語(例えば、これ、それ、あれ)や場所に関する指示語(例えば、ここ、そこ、あそこ)、方向に関する指示語(例えば、こっち、そっち、あっち)が含まれる。
図7は、回答情報234の内容の一例を示す図である。回答情報234には、例えば、意味情報に、エージェント側制御部120に実行させる制御内容が対応付けられている。意味情報とは、例えば、音声認識部216により発話内容全体から認識される意味である。回答情報234の制御内容には、例えば、車載機器に対する機器制御(起動、停止)に関する情報や、エージェント音声の出力制御、表示部110に表示させる画像制御等が含まれる。また、制御内容には、地図情報236から取得した情報やネットワークNWを介して接続された外部装置から取得した情報に基づく制御内容が含まれてよい。なお、図7に示す「***」は、意味情報または回答(音声や画面表示)に対応する文字、数値、記号等に置き換わることを意味する文字列である。
地図情報236は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。また、地図情報236には、道路情報、交通規制情報が含まれる。また、地図情報236は、POI(Point Of Interest)情報が含まれてもよい。POI情報には、例えば、地物に関する情報が含まれる。地物に関する情報には、例えば、地物の属性(ジャンル)、地物の名称、地物の特徴情報、地物に基づく案内情報、地物の画像が含まれる。地物には、天然物や人工物にかかわらず、地上にある全ての物が含まれる。例えば、地物には、例えば、ランドマークや観光エリア(例えば、山、滝、湖)、建築物(例えば、寺院、橋、ビル、家屋、店舗)、テーマパークやショッピングモール等の商業施設が含まれる。また、地物には、信号機や標識、中央分離帯、フェンス、ガードレール、ポール、電柱、停止している移動体(車両)、走行中の移動体、歩行中の歩行者、その他の物体が含まれてよい。地物の特徴情報には、例えば、地物の色や形状、大きさに関する情報が含まれる。地物の案内情報には、例えば、施設や店舗の詳細情報やキャンペーン情報等が含まれる。また、地物の案内情報には、音声情報が含まれてよい。地図情報236に含まれる各種情報は、位置座標等により対応付けられている。地図情報236は、サーバ側通信部202を用いて外部装置にアクセスすることにより、随時、アップデートされてよい。
パーソナルプロファイル238は、例えば、乗員を識別する識別情報である乗員IDに、趣味や嗜好に関する情報が対応付けられている。また、パーソナルプロファイルは、例えば、乗員の氏名、性別、年齢等の個人情報や、エージェントシステム1の使用履歴が含まれる。エージェントシステム1の使用履歴には、例えば、音声履歴や走行履歴、回答情報履歴、車両Mの乗員数や搭乗者に関する情報が含まれる。パーソナルプロファイル238は、乗員により設定されてもよく、エージェントシステム1の使用履歴を用いた機械学習に基づいてサーバ装置200が設定してもよい。
取得部212は、サーバ側通信部202を介して、エージェント装置100から、音声データおよび位置データを取得する。また、取得部212は、サーバ側通信部202を介して第1画像データおよび第2画像データ、方位や速度等のデータを取得してもよい。
発話区間抽出部214は、取得部122によって取得された音声データから、乗員が発話している期間(以下、発話区間と称する)を抽出する。例えば、発話区間抽出部214は、零交差法を利用して、音声データに含まれる音声信号の振幅に基づいて発話区間を抽出してよい。また、発話区間抽出部214は、混合ガウス分布モデル(GMM;Gaussian mixture model)に基づいて、音声データから発話区間を抽出してもよいし、発話区間特有の音声信号をテンプレート化したデータベースとテンプレートマッチング処理を行うことで、音声データから発話区間を抽出してもよい。
音声認識部216は、発話区間抽出部214によって抽出された発話区間ごとに音声データを認識し、認識した音声データをテキスト化することで、発話内容を含むテキストデータを生成する。例えば、音声認識部216は、発話区間の音声信号を、低周波数や高周波数等の複数の周波数帯に分離し、分類した各音声信号をフーリエ変換することで、スペクトログラムを生成する。音声認識部216は、生成したスペクトログラムを、再帰的ニューラルネットワークに入力することで、スペクトログラムから文字列を得る。再帰的ニューラルネットワークは、例えば、学習用の音声から生成したスペクトログラムに対して、その学習用の音声に対応した既知の文字列が教師ラベルとして対応付けられた教師データを利用することで、予め学習されていてよい。そして、音声認識部216は、再帰的ニューラルネットワークから得た文字列のデータを、テキストデータとして出力する。
また、音声認識部216は、自然言語のテキストデータの構文解析を行って、テキストデータを形態素に分け、各形態素からテキストデータに含まれる文言を認識する。なお、音声認識部テキストデータとして文字列のデータを出力する際、又は、図示しない記憶部に記憶された音声認識用情報(辞書)に基づいて構文解析の際もしくは各形態素から認識する際に、発言内容が認識できない音声データは不明確情報とされる。
判定部218は、音声認識部216により認識されたテキストデータに不明確な文言が含まれるか否かを判定する。不明確な文言には、例えば、その文言によって乗員の発言内容全体の意味が不明確になりやすい文言や、発言内容が認識できない文言が含まれる。例えば、判定部218は、音声認識部216により認識されたテキストデータに含まれる文言と、サーバ側記憶部230に記憶された不明確情報232とを照合し、テキストデータに含まれる文言の中に、不明確情報と合致する文言が含まれる場合に、テキストデータに不明確な文言が含まれると判定し、不明確情報と合致しない場合に、テキストデータに不明確文言が含まれないと判定する。
推定部220は、判定部218によりテキストデータに不明確な文言が含まれると判定された場合、その文言の対象の地物を推定する。推定部220の機能の詳細については、後述する。
音声認識部216は、判定部218によりテキストデータに含まれる文言の中に、不明確情報232に含まれる文言と合致する文言が含まれないと判定された場合、テキストデータの内容に基づいて発話内容全体の意味を認識する。また、音声認識部216は、判定部218によりテキストデータに含まれる文言の中に、不明確情報232に含まれる文言と合致する文言が含まれる判定された場合、テキストデータの内容と、推定部220による推定結果とに基づいて、発話内容全体の意味を認識する。
エージェントデータ生成部222は、音声認識部216により認識された発話内容の意味に基づいて、回答情報234の意味情報を参照し、合致する意味情報に対応付けられた制御内容を取得する。なお、認識結果として、「エアコンをつけて」、「エアコンの電源を入れてください」等の意味が認識された場合、エージェントデータ生成部222は、上述の意味を標準文字情報「エアコンの起動」や、標準コマンド情報「TURN_AC_ON」等に置き換える。これにより、発話内容の要求に文字揺らぎがあった場合にも要求にあった制御内容を取得し易くすることができる。
また、エージェントデータ生成部222は、取得した制御内容(例えば、機器制御、音声制御、または表示制御のうち少なくとも一つ)に対応する処理を実行させるためのエージェントデータを生成する。
通信制御部224は、エージェントデータ生成部222により生成されたエージェントデータを、サーバ側通信部202を介して車両Mに送信する。これにより、車両Mは、エージェント側制御部120によって、エージェントデータに対応する制御が実行される。
[推定部]
次に、推定部220の機能の詳細について説明する。図8は、推定部220の処理について説明するための図である。図8の例において、車両Mは、図示された車線L1、L2のうち、車線L1に沿って走行しているものとし、車両Mの周辺には物体OB1~OB4が存在するものとする。図9は、図8に示す走行の場面における車室内の様子を説明するための図である。図9の例において、乗員Pは、車両Mを運転しているものとする。
例えば、乗員Pが、車線L1を走行中に「あのビルは何?」と発話した場合、音声認識部216により発話内容の認識処理が実行される。判定部218は、音声認識部216により認識されたテキストデータに含まれる文言の中に、不明確情報232に含まれる文言と合致する文言が含まれるか否かを判定する。上記の例では、「あの」が不明確情報232の文言と合致する。そのため、判定部218は、発話内容に、発話内容に不明確な文言が含まれると判定する。推定部220は、発話内容に不明確な文言が含まれると判定された場合に、第1画像データに対する解析処理を行い、乗員Pの視線方向(第1方向)を取得する。視線方向とは、例えば、乗員Pの顔の向きまたは目の向きのうち一方または双方により導出される方向である。
例えば、推定部220は、第1画像データに対して、テンプレートマッチング等の解析処理を行って、第1画像データから乗員Pの顔の向きまたは目の向きのうち一方または双方を検出する。例えば、推定部220は、第1画像データから頭部の輪郭情報を抽出し、抽出した輪郭領域に含まれる各部位(目や鼻、口)の配置情報に基づいて、予め決められたテンプレートとのマッチングを行い、顔の向きを導出する。また、推定部220は、第1画像データに含まれる乗員Pの目における基準点と動点との位置関係から目の向きを検出する。例えば、基準点が目頭である場合、動点は虹彩である。また、基準点が角膜反射領域である場合、動点は瞳孔である。また、推定部220は、推定された視線の向きに対応付けて、乗員が注視している位置や、視界領域を推定してもよい。視界領域とは、注視位置を中心とした所定の範囲内の領域である。図9の例において、推定部220は顔の向きおよび目の向きに基づいて、乗員Pは矢印A1の方向(進行方向の左前方)を向いていると推定する。
また、推定部220は、第1方向を推定するのに代えて(または加えて)、第1画像データに含まれる乗員が指し示す方向(第2方向)を取得してもよい。この場合、推定部220は、第1画像データに対してテンプレートマッチング等の解析処理を行って、乗員Pの指先や、乗員Pが把持する物体、または乗員Pのジェスチャーによって指し示す方向を第2方向として推定する。
また、推定部220は、上述した第1画像データにより第1方向を推定するのに代えて(または加えて)、乗員Pからの音声の指向性に基づいて第1方向を推定してもよい。この場合、推定部220は、例えば、複数のマイク106A~106Eのうちから選択される複数のマイクのそれぞれから取得される音声に基づいて第1方向を推定する。
図10は、音声データにより第1方向を推定することについて説明するための図である。例えば、乗員Pが、車線L1を走行中に「あのビルは何?」と発話した場合、推定部220は、複数のマイク106A~106Eのそれぞれから取得される音声の強さ(例えば、音圧レベル)のピーク値や、各マイク間のピークとなった時間差情報(例えば、時間のずれ)を導出する。そして、推定部220は、各マイク間での時間のずれの大きさに基づいて、乗員Pの口が向いている方向を推定し、その方向を第1方向として推定する。
なお、推定部220は、複数のマイク106A~106Eのうち、車室内の前方に設置された複数のマイク106A~106Cを用いて第1方向を推定してもよい。また、推定部220は、ピーク値が最も大きいマイクを基準とし、そのマイクからの距離が近い順に所定数のマイクから得られる音声のピーク値および時間差情報を用いて第1方向を推定してもよい。また、マイク106に複数の音が集音された場合には、推定部220は、周波数帯に基づくフィルタリングを行って乗員Pからの音声のピーク値を抽出してもよい。
図10の例において、マイク106A~106Cにおける音圧レベルのピーク値と、時間差情報との関係において、マイク106Cのピーク値の大きさが他のピーク値よりも大きく、マイク106Cとマイク106Aとのピーク値の時間差がマイク106Cとマイク106Bとのピーク値の時間差よりも短いものとする。この場合、推定部220は、矢印A2の方向(進行方向の左前方)を乗員Pの口が向いている方向と推定する。また、推定部220は、上述した矢印A1および矢印A2の方向を推定した場合に、両方の方向を合わせて第1方向を推定してもよい。これにより、より精度よく第1方向を取得することができる。
次に、推定部220は、推定された第1方向または第2方向に存在する地物を推定する。例えば、推定部220は、車両Mの位置データ(図8に示す位置P1)に基づいて、地図情報236を参照し、車両Mの現在位置の周辺に存在するPOI情報を取得する。そして、推定部220は、取得したPOI情報に基づいて、車両Mの正面方向に対する第1方向または第2方向に存在する地物に関する情報を取得する。図8の例において、第1方向(矢印A1の方向)が推定されている場合、推定部220は、車両Mの現在位置P1に基づき「あのビル」が物体OB2であると推定する。これにより、音声認識部216は、「あのビルは何?」という発話内容全体の意味を「物体OB2は何ですか?」という意味として認識する。
これにより、エージェントデータ生成部222は、「物体OB2は何ですか?」という意味情報に基づいて回答情報234を参照し、意味情報に対応付けられた制御内容に基づいて、音声データや画像をエージェントデータとして生成する。そして、エージェントデータ生成部222は、生成したデータを車両Mのエージェント装置100に送信する。これにより、「あのビルは何?」という乗員Pの問い合わせに対して、例えば、「AAAビルです。」等の合成音声がスピーカ108から出力されたり、AAAビルに関する画像が表示部110に表示される。
[推定部の変形例]
例えば、推定部220は、上述した位置データに加えて車両Mの方位や速度等の情報をエージェント装置100から取得し、取得した方や速度等の情報も含めて、第1方向または第2方向に対応する地物を推定してもよい。また、推定部220は、上述した第1方向および第2方向のそれぞれに対応する地物を推定してもよい。また、推定部220は、第1方向と第2方向とを合わせて1つの方向を設定し、設定した方向に対応する地物を推定してもよい。
また、推定部220は、乗員Pの発話内容に、地物の特徴情報が含まれる場合に、その特徴情報に基づいて、不明確な文言に対応する地物の推定を行ってもよい。例えば、乗員Pが「あの茶色い屋根のお店は何?」と発話した場合、推定部220は、不明確な文言と判定される「あの」に続く文言である「茶色」、「屋根」等を特徴情報として推定し、第2画像データに含まれる周辺画像から特徴情報との類似度が高い地物を推定する。また、推定部220は、地図情報236を参照し、車両Mの位置P1から第1方向および第2方向に存在する地物に関する情報を取得し、更に地物の特徴情報から茶色い屋根の地物を抽出する。これにより、発話内容に含まれる特徴情報に基づいて、不明確な文言に対応する地物を、より正確に推定することができる。
また、推定部220は、乗員Pの視線方向(第1方向)または乗員Pが指し示す方向(第2方向)を推定してから変化がない状態が第1所定時間以上継続している場合に、その方向に存在する地物に関する情報をサーバ側記憶部230に記憶させる。上述の「変化がない場合」には、所定範囲内の変化が含まれてよい。そして、視線方向または指し示す方向が変化した後、第2所定時間(例えば、数秒程度)以内に取得した乗員Pからの音声データに不明確な文言が含まれる場合、推定部220は、サーバ側記憶部230に記憶された地物を、その文言に対応する地物として推定する。これにより、例えば、乗員Pが、図8に示す物体OB4を第1所定時間以上眺めた後に、「さっきのビルは何?」と発話した場合に、「さっきのビル」が乗員Pの視線が長く留まっていた物体OB4であると推定することができる。したがって、音声認識部216は、さまざまな場面において不明確な文言に対する地物を推定することができ、発話内容全体の意味を、より正確に認識することができる。
また、推定部220は、第1方向または第2方向に存在する地物の候補が、複数存在する場合、サーバ側記憶部230に記憶されたパーソナルプロファイル238を参照し、複数の地物候補のうち乗員Pとの関連性の高い一以上の地物を選択してもよい。この場合、推定部220は、第1画像データに含まれる乗員Pの顔の特徴情報から乗員Pを特定したり、乗車時に乗員Pの乗員IDや名前を、マイク106または入力部112により入力させることで乗員Pを特定する。そして、推定部220は、特定された乗員Pに関するパーソナルプロファイル238に基づいて、乗員Pの趣味や嗜好に合った地物を選択したり、過去に乗員Pが訪問したことがある地物を選択する。
図11は、パーソナルプロファイル238に基づいて地物を選択することについて説明するための図である。図11の例において、乗員Pが「あの茶色い壁のお店は何?」と発話したとする。推定部220は、車両Mの位置データと、第1方向または第2方向とに基づいて、不明確な文言である「あの」に対する地物候補として「BBBパスタ(イタリアンレストラン)」、「CCC書店」、「DDDシューズ(靴屋)」を取得する。次に、推定部220は、乗員Pの乗員ID「0001」に基づいてパーソナルプロファイル238を参照し、乗員ID「0001」に対応付けられた趣味および嗜好情報を取得する。
図11の例において、乗員Pの趣味は「外食」、「読書」であり、乗員Pの嗜好は「イタリアン」である。したがって、推定部220は、不明確な文言である「あの」に対応する地物として、乗員Pの趣味や嗜好と関連性の高いBBBパスタ(イタリアンレストラン)が選択される。このように、乗員Pとの関連性の高い地物を推定することで、より正確に発話内容の意味を認識することができる。
また、推定部220は、パーソナルプロファイル238に基づいて地物の優先度を設定してもよい。図11の例において、推定部220は、乗員Pとの関連性が最も高い「BBBパスタ」の優先度を他の地物よりも高く設定する。また、推定部220は、次に乗員Pとの関連性が高い「CCC書店」の優先度を、「DDDシューズ(靴屋)」よりも高く設定する。これにより、複数の候補を乗員Pに提示する場合であっても、優先度に基づく順番で乗員Pに提示することができる。
また、推定部220は、地物候補の優先度を推定する場合に、車両Mに搭載されたカーナビゲーション装置(不図示)により設定された目的地や、車両Mの走行履歴に基づいて予測した行動予測に基づいて、それぞれの地物の優先度を推定してもよい。例えば、過去の走行履歴から同じ時間帯に食事に行く場合が多い場合、推定部220は、地物候補のうち、レストランに関する店舗の優先度を高くする。
[処理フロー]
次に、第1の実施形態に係るエージェントシステム1の処理(プロセス)の流れについてフローチャートを用いて説明する。なお、以下では、エージェント装置100の処理と、サーバ装置200との処理を分けて説明するものとする。また、以下に示す処理の流れは、所定のタイミングで繰り返し実行されてよい。所定のタイミングとは、例えば、音声データからエージェント装置を起動させる特定ワード(例えば、ウェイクアップワード)が抽出されたタイミングや、車両Mに搭載される各種スイッチのうち、エージェント装置100を起動させるスイッチの選択を受け付けたタイミング等である。
図12は、第1の実施形態に係るエージェント装置100の一連の処理の流れを示すフローチャートである。まず、エージェント側制御部120の取得部122は、マイク106によって収集される乗員の音声データを取得する(ステップS100)。次に、取得部122は、車室内カメラ104により撮像された第1画像データ、および車外カメラ118により撮像された第2画像データを取得する(ステップS102)。次に、通信制御部128は、エージェント側通信部102を介して、音声データ、第1画像データ、第2画像データ、および車両Mの位置データをサーバ装置200に送信する(ステップS104)。
次に、エージェント側通信部102は、サーバ装置200から音声データに対応するエージェントデータを受信し(ステップS106)。出力制御部126は、受信したエージェントデータに基づく情報をスピーカ108または表示部110を用いて出力させることで、乗員に情報の提供を行う(ステップS108)。これにより、本フローチャートの処理は、終了する。なお、ステップS108の処理において、出力制御部126は、エージェントデータに基づいて、車載機器の制御を行ってもよい。
図13は、第1の実施形態に係るサーバ装置200の一例の処理の流れを示すフローチャートである。まず、サーバ側通信部202は、エージェント装置100から音声データ、第1画像データ、第2画像データ、および位置データを取得する(ステップS120)。次に、発話区間抽出部214は、音声データに含まれる発話区間を抽出する(ステップS122)。次に、音声認識部216は、抽出された発話区間における音声データを認識する(ステップS124)。次に、判定部218は、音声データに不明確な文言が含まれるか否かを判定する(ステップS126)。音声データに不明確な文言が含まれると判定された場合、推定部220は、第1画像データに基づいて乗員の視線方向(第1方向)または乗員が指し示す方向(第2方向)を推定する(ステップS128)。次に、推定部220は、第2画像データに基づいて第1方向または第2方向に存在する物体を、不明確な文言に対応する地物として推定する(ステップS130)。
次に、音声認識部216は、推定部220により推定された地物に関する情報に基づいて発話内容全体の意味を認識する(ステップS132)。また、ステップS126の処理において、音声データに不明確な文言が含まれないと判定された場合、発話内容全体の意味を認識する(ステップS134)。
ステップS132またはステップS134の処理後、エージェントデータ生成部222は、発話内容全体の意味に基づくエージェントデータを生成する(ステップS136)。次に、サーバ側制御部210の通信制御部224は、サーバ側通信部202を介して、エージェントデータをエージェント装置100に送信する(ステップS138)。これにより、本フローチャートの処理は、終了する。
以上説明した第1の実施形態によれば、ユーザ(乗員)の発話内容を、より正確に認識することができる。具体的には、第1の実施形態によれば、乗員の発話内容に不明確な文言が含まれる場合に、乗員の視線方向や乗員が指し示す方向に基づいて不明な文言に対応する地物を推定し、推定した地物を含めて発話内容全体の意味を、より正確に認識することができる。したがって、例えば、乗員が、車外の地物に対して「あの」、「この」のような直感的な文言を含む発話をした場合であっても、より適切な情報を乗員に提供することができる。
<第2の実施形態>
上述した第1の実施形態では、車両Mに搭載されたエージェント装置100と、サーバ装置200とが互いに異なる装置であるものとして説明したがこれに限定されるものではない。例えば、エージェント機能に係るサーバ装置200の構成要素は、エージェント装置100の構成要素に含まれてもよい。この場合、サーバ装置200は、エージェント装置100のエージェント側制御部120によって仮想的に実現される仮想マシンとして機能させてもよい。以下、サーバ装置200の構成要素を含むエージェント装置100Aを第2の実施形態として説明する。この場合、エージェント装置100Aが「エージェントシステム」の一例である。なお、第2の実施形態において、上述した第1の実施形態と同様の構成要素については、同様の符号を付するものとし、ここでの具体的な説明は省略する。
図14は、第2の実施形態に係るエージェント装置100Aの一例を示す図である。エージェント装置100Aは、例えば、エージェント側通信部102と、車室内カメラ104と、マイク106と、スピーカ108と、表示部110と、入力部112と、車両センサ114と、GNSS受信部116と、エージェント側制御部120Aと、エージェント側記憶部150Aとを備える。エージェント側制御部120Aは、例えば、取得部122と、音声合成部124と、出力制御部126と、通信制御部128と、発話区間抽出部214Aと、音声認識部216Aと、判定部218Aと、推定部220Aと、エージェントデータ生成部222Aとを備える。
また、エージェント側記憶部150Aは、例えば、プロセッサによって参照されるプログラムのほかに、不明確情報232A、回答情報234A、地図情報236A、パーソナルプロファイル238A等が格納される。不明確情報232A、回答情報234A、および地図情報236Aは、サーバ装置200から取得した最新の情報によって更新されてもよい。また、パーソナルプロファイル238Aには、車両Mに乗車する乗員に対応するパーソナルプロファイル238Aが格納される。
[処理フロー]
図15は、第2の実施形態に係るエージェント装置100Aの一連の処理の流れを示すフローチャートである。また、以下に示す処理の流れは、第1の実施形態における処理の流れと同様に所定のタイミングで繰り返し実行されてよい。まず、エージェント側制御部120の取得部122は、マイク106によって収集される乗員の音声データを取得する(ステップS200)。次に、発話区間抽出部214Aは、取得した音声データの発話区間を抽出する(ステップS202)。次に、音声認識部216Aは、抽出された発話区間の音声データを認識する(ステップS204)。
次に、判定部218Aは、音声データに不明確な文言が含まれるか否かを判定する(ステップS206)。音声データに不明確な文言が含まれると判定された場合、取得部122は、第1画像データを取得する(ステップS208)。次に、推定部220Aは、取得された第1画像データに基づいて、第1方向または第2方向を推定する(ステップS210)。次に、取得部122は、第2画像データを取得する(ステップS212)。次に、推定部220Aは、取得された第2画像データおよび車両Mの位置データに基づいて、第1方向または第2方向に存在する物体を不明確な文言に対応する地物として推定する(ステップS214)。次に、音声認識部216Aは、推定された地物に関する情報に基づいて、発話内容全体の意味を把握する(ステップS216)。
また、ステップS206の処理において、音声データに不明確な文言が含まれないと判定された場合、音声認識部216Aは、音声データから発話内容全体の意味を認識する(ステップS218)。
ステップS216またはステップS218の処理後、エージェントデータ生成部222Aは、発話内容全体の意味に基づくエージェントデータを生成する(ステップS220)。出力制御部126Aは、エージェントデータに基づく情報をスピーカ108または表示部110を用いて出力させることで、乗員に情報の提供を行う(ステップS222)。これにより、本フローチャートの処理は、終了する。なお、ステップS222の処理において、出力制御部126は、エージェントデータに基づいて、車載機器の制御を行ってもよい。
以上説明した第2の実施形態によれば、第1の実施形態と同様の効果を奏する他、乗員からの音声を取得するたびに、ネットワークNWを介してサーバ装置200との通信を行う必要がないため、より迅速に発話内容を認識することができる。また、車両Mがサーバ装置200と通信できない状態であっても、エージェントデータを生成して、乗員に情報を提供することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、上述した実施形態では、一例として、移動体が車両であるものとして説明したがこれに限定されるものではない。例えば、移動体は、船舶や飛行物体等の他の移動体であってもよい。この場合、例えば、複数の遊覧船や複数の遊覧飛行機等のキャビン等にエージェント装置100が配設されていればよい。さらに、これらの移動体には、移動体を運転操作する操舵手がいれば、エージェント装置100が、運転操作をしない他の乗員(乗客)と音声対話を行うことで接客することができるため、キャビンアテンダントは乗客への他のサービスに注力することができる。また、エージェント装置100は、タクシーやバス等に配設されてもよい。この場合、エージェント装置100が乗客と音声対話を行うことで接客することができるため、それらの車両の運転手は運転操作に注力することができる。
1…エージェントシステム、100、100A…エージェント装置、102…エージェント側通信部、104…車室内カメラ、106…マイク、108…スピーカ、110…表示部、112…入力部、114…車両センサ、116…GNSS受信機、120,120A…エージェント側制御部、122…取得部、124…音声合成部、126…出力制御部、128…通信制御部、150、150A…エージェント側記憶部、200…サーバ装置、202…サーバ側通信部、210…サーバ側制御部、212…取得部、214、214A…発話区間抽出部、216、216A…音声認識部、218、218A…判定部、220、220A…推定部、222、222A…エージェントデータ生成部、224…通信制御部、230…サーバ側記憶部

Claims (13)

  1. 移動体の乗員の発話内容を含む音声を認識する認識部と、
    前記乗員を含む画像を取得する取得部と、
    前記認識部により認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された、発話内容が不明確となる文言を含む不明確情報とを照合し、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記取得部により取得された画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を推定し、推定した前記第1方向または前記第2方向に存在する地物を前記不明確となる文言に対応する地物として推定する推定部と、を備え、
    前記認識部は、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記推定部により推定された地物と、前記発話内容のうち前記不明確となる文言以外の発話内容とに基づいて、前記乗員の発話内容の全体の意味を認識する、
    エージェントシステム。
  2. 前記取得部は、複数のマイクのそれぞれにより収集された前記乗員の音声を取得し、
    前記推定部は、前記取得部により取得された複数のマイクのそれぞれから取得される音声に基づいて、前記第1方向を推定する、
    請求項1に記載のエージェントシステム。
  3. 前記推定部は、前記複数のマイクのそれぞれから取得される音声の強さのピーク値と、それぞれがピーク値となる時間差情報とに基づいて、前記第1方向を推定する、
    請求項2に記載のエージェントシステム。
  4. 前記推定部は、前記移動体の位置データと前記第1方向または前記第2方向とに基づいて、前記記憶部に記憶された地図情報から前記第1方向または前記第2方向に存在する地物を推定する、
    請求項1から3のうち何れか1項に記載のエージェントシステム。
  5. 前記推定部は、前記乗員の発話内容に含まれる特徴情報を取得し、取得した特徴情報に基づいて、前記第1方向または前記第2方向に存在する地物を推定する、
    請求項1から4のうち何れか1項に記載のエージェントシステム。
  6. 前記推定部は、
    前記第1方向または前記第2方向の変化がない状態が所定時間以上継続している場合に、前記第1方向または前記第2方向に存在する地物に関する情報を前記記憶部に記憶させ、
    前記乗員の発話内容に不明確な文言が含まれる場合に、前記記憶部に記憶された前記地物に関する情報の中から前記不明確な文言に対応する地物を推定する、
    請求項1から5のうち何れか1項に記載のエージェントシステム。
  7. 前記推定部は、前記第1方向または前記第2方向に存在する複数の地物候補が推定された場合に、前記記憶部に記憶された前記乗員に対するプロファイル情報に基づいて、前記複数の地物候補のうち一以上の地物を選択する、
    請求項1から6のうち何れか1項に記載のエージェントシステム。
  8. 前記推定部は、前記記憶部に記憶されたプロファイル情報に基づいて、前記複数の地物候補の優先度を設定する、
    請求項7に記載のエージェントシステム。
  9. 前記認識部により認識された発話内容に対応する情報を生成する生成部と、
    前記生成部により生成された情報を前記乗員に提供する情報提供部と、を更に備える、
    請求項1から8のうち何れか1項に記載のエージェントシステム。
  10. 移動体の乗員の発話内容を含む音声を認識する認識部と、
    前記乗員を含む画像を取得する取得部と、
    前記認識部により認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された、発話内容が不明確となる文言を含む不明確情報とを照合し、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記取得部により取得された画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を推定し、推定した前記第1方向または前記第2方向に存在する地物を前記不明確となる文言に対応する地物として推定する推定部と、を備え、
    前記認識部は、前記乗員の発話内容に不明確となる文言が含まれる場合に、前記推定部により推定された地物と、前記発話内容のうち前記不明確となる文言以外の発話内容とに基づいて、前記乗員の発話内容の全体の意味を認識しつつ、前記移動体に搭載された機器または前記移動体を制御する、
    情報処理装置。
  11. 前記情報処理装置は、前記移動体に搭載され、
    前記認識部により認識された発話内容に対応する情報を生成する生成部と、
    前記生成部により生成された情報を前記乗員に提供する情報提供部と、を更に備える、
    請求項10に記載の情報処理装置。
  12. 単一または複数のコンピュータが、
    移動体の乗員の発話内容を含む音声を認識するプロセスと、
    前記乗員を含む画像を取得するプロセスと、
    認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された発話内容が不明確となる文言を含む不明確情報とを照合するプロセスと、
    前記乗員の発話内容に不明確となる文言が含まれる場合に、前記画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を取得するプロセスと、
    取得した前記第1方向または前記第2方向に存在する地物を前記不明確となる文言に対応する地物として推定するプロセスと、
    前記乗員の発話内容に不明確となる文言が含まれる場合に、推定された地物と、前記発話内容のうち前記不明確となる文言以外の発話内容とに基づいて、前記乗員の発話内容の全体の意味を認識するプロセスとを有する、
    情報処理方法。
  13. 単一または複数のコンピュータにインストールされ、
    移動体の乗員の発話内容を含む音声を認識する処理と、
    前記乗員を含む画像を取得する処理と、
    認識された前記乗員の発話内容に含まれる文言と、記憶部に記憶された発話内容が不明確となる文言を含む不明確情報とを照合する処理と、
    前記乗員の発話内容に不明確となる文言が含まれる場合に、前記画像に基づいて前記乗員の視線方向である第1方向または前記乗員により指し示された第2方向を取得する処理と、
    取得された前記第1方向または前記第2方向に存在する地物を前記不明確となる文言に対応する地物として推定する処理と、
    前記乗員の発話内容に不明確となる文言が含まれる場合に、推定された地物と、前記発話内容のうち前記不明確となる文言以外の発話内容とに基づいて、前記乗員の発話内容の全体の意味を認識する処理とを含む、
    前記コンピュータに実行させるプログラム。
JP2019018971A 2019-02-05 2019-02-05 エージェントシステム、情報処理装置、情報処理方法、およびプログラム Active JP7250547B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019018971A JP7250547B2 (ja) 2019-02-05 2019-02-05 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
US16/779,700 US11508368B2 (en) 2019-02-05 2020-02-03 Agent system, and, information processing method
CN202010079363.4A CN111599356B (zh) 2019-02-05 2020-02-03 智能体***、信息处理装置、信息处理方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019018971A JP7250547B2 (ja) 2019-02-05 2019-02-05 エージェントシステム、情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020126166A JP2020126166A (ja) 2020-08-20
JP7250547B2 true JP7250547B2 (ja) 2023-04-03

Family

ID=71837807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019018971A Active JP7250547B2 (ja) 2019-02-05 2019-02-05 エージェントシステム、情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11508368B2 (ja)
JP (1) JP7250547B2 (ja)
CN (1) CN111599356B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11158335B1 (en) * 2019-03-28 2021-10-26 Amazon Technologies, Inc. Audio beam selection
CN113434620A (zh) * 2021-06-25 2021-09-24 阿波罗智联(北京)科技有限公司 显示方法、装置、设备、存储介质以及计算机程序产品
WO2023144573A1 (ja) * 2022-01-26 2023-08-03 日産自動車株式会社 音声認識方法及び音声認識装置
WO2023144574A1 (ja) * 2022-01-26 2023-08-03 日産自動車株式会社 音声認識方法及び音声認識装置
WO2023163047A1 (ja) * 2022-02-25 2023-08-31 パイオニア株式会社 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体
WO2024127692A1 (ja) * 2022-12-12 2024-06-20 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理用プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061184A (ja) 2001-08-14 2003-02-28 Sony Corp 情報処理装置および方法、情報生成装置および方法、記録媒体、並びにプログラム
JP2003106861A (ja) 2001-09-28 2003-04-09 Clarion Co Ltd ナビゲーション装置及び方法
JP2013011483A (ja) 2011-06-28 2013-01-17 Denso Corp 運転支援装置
JP2015041197A (ja) 2013-08-21 2015-03-02 三菱電機株式会社 表示制御装置
JP2017122640A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 情報制御装置
JP2017156954A (ja) 2016-03-01 2017-09-07 トヨタ自動車株式会社 自動運転システム
JP2017208056A (ja) 2016-05-17 2017-11-24 山内 和博 自動運転車

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6363156B1 (en) * 1998-11-18 2002-03-26 Lear Automotive Dearborn, Inc. Integrated communication system for a vehicle
JP5014662B2 (ja) 2006-04-13 2012-08-29 アルパイン株式会社 車載用音声認識装置及び音声認識方法
JP4747949B2 (ja) * 2006-05-25 2011-08-17 ヤマハ株式会社 音声会議装置
JP2008058409A (ja) * 2006-08-29 2008-03-13 Aisin Aw Co Ltd 音声認識方法及び音声認識装置
JP4976903B2 (ja) 2007-04-05 2012-07-18 本田技研工業株式会社 ロボット
JP5452158B2 (ja) * 2009-10-07 2014-03-26 株式会社日立製作所 音響監視システム、及び音声集音システム
KR102206383B1 (ko) * 2012-07-09 2021-01-22 엘지전자 주식회사 음성 인식 장치 및 그 방법
US9881610B2 (en) * 2014-11-13 2018-01-30 International Business Machines Corporation Speech recognition system adaptation based on non-acoustic attributes and face selection based on mouth motion using pixel intensities
EP3229128A4 (en) * 2014-12-02 2018-05-30 Sony Corporation Information processing device, information processing method, and program
JP2016181018A (ja) * 2015-03-23 2016-10-13 ソニー株式会社 情報処理システムおよび情報処理方法
EP3602544A4 (en) * 2017-03-23 2020-02-05 Joyson Safety Systems Acquisition LLC SYSTEM AND METHOD FOR CORRELATION OF MOUTH IMAGES WITH INPUT COMMANDS
DE102017213241A1 (de) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zur Steuerung eines Audiosystems eines Fahrzeugs
JP6965783B2 (ja) * 2018-02-13 2021-11-10 トヨタ自動車株式会社 音声提供方法および音声提供システム
KR102562227B1 (ko) * 2018-06-12 2023-08-02 현대자동차주식회사 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061184A (ja) 2001-08-14 2003-02-28 Sony Corp 情報処理装置および方法、情報生成装置および方法、記録媒体、並びにプログラム
JP2003106861A (ja) 2001-09-28 2003-04-09 Clarion Co Ltd ナビゲーション装置及び方法
JP2013011483A (ja) 2011-06-28 2013-01-17 Denso Corp 運転支援装置
JP2015041197A (ja) 2013-08-21 2015-03-02 三菱電機株式会社 表示制御装置
JP2017122640A (ja) 2016-01-07 2017-07-13 トヨタ自動車株式会社 情報制御装置
JP2017156954A (ja) 2016-03-01 2017-09-07 トヨタ自動車株式会社 自動運転システム
JP2017208056A (ja) 2016-05-17 2017-11-24 山内 和博 自動運転車

Also Published As

Publication number Publication date
US11508368B2 (en) 2022-11-22
CN111599356A (zh) 2020-08-28
US20200251108A1 (en) 2020-08-06
JP2020126166A (ja) 2020-08-20
CN111599356B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
JP7250547B2 (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
US11366513B2 (en) Systems and methods for user indication recognition
US11211033B2 (en) Agent device, method of controlling agent device, and storage medium for providing service based on vehicle occupant speech
JP7195161B2 (ja) 案内システム、案内方法、およびプログラム
US10994612B2 (en) Agent system, agent control method, and storage medium
US11176948B2 (en) Agent device, agent presentation method, and storage medium
JP2006189394A (ja) 車両用エージェント装置
WO2014057540A1 (ja) ナビゲーション装置およびナビゲーション用サーバ
US11450316B2 (en) Agent device, agent presenting method, and storage medium
US11380325B2 (en) Agent device, system, control method of agent device, and storage medium
WO2018230688A1 (ja) エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム
CN111750885A (zh) 控制装置、控制方法以及存储程序的存储介质
CN111746435B (zh) 信息提供装置、信息提供方法及存储介质
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
US20220208187A1 (en) Information processing device, information processing method, and storage medium
JP2020144285A (ja) エージェントシステム、情報処理装置、移動体搭載機器制御方法、及びプログラム
JP2020106997A (ja) 車載装置、通信システム
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
JP7254689B2 (ja) エージェントシステム、エージェント方法、及びプログラム
US20230311922A1 (en) Traffic safety support system
JP2020154993A (ja) ライドシェアシステム、情報処理方法、およびプログラム
CN112241677A (zh) 信息提供装置、信息提供方法及存储介质
JP2020166073A (ja) 音声インタフェイスシステム、制御方法及びプログラム
JP2020079865A (ja) 情報処理装置、エージェントシステム、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150