JP7405502B2 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP7405502B2
JP7405502B2 JP2018157827A JP2018157827A JP7405502B2 JP 7405502 B2 JP7405502 B2 JP 7405502B2 JP 2018157827 A JP2018157827 A JP 2018157827A JP 2018157827 A JP2018157827 A JP 2018157827A JP 7405502 B2 JP7405502 B2 JP 7405502B2
Authority
JP
Japan
Prior art keywords
information
content
user
information processing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157827A
Other languages
English (en)
Other versions
JP2020030776A (ja
Inventor
衣織 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018157827A priority Critical patent/JP7405502B2/ja
Publication of JP2020030776A publication Critical patent/JP2020030776A/ja
Application granted granted Critical
Publication of JP7405502B2 publication Critical patent/JP7405502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
従来、指向性を有するスピーカ等によりユーザへ種々の情報を提供する技術が提供されている。例えば、スピーカから出力した音声が、周辺に広がらずに各座席に別々の音声を聞かせることができるようにした車載用スピーカーシステムを提供する技術が提供されている。
特開2005-217807号公報
しかしながら、上記の従来技術では、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができるとは限らない。例えば、周辺に広がらずに各座席に別々の音声を聞かせるようにしただけでは、誰がどこに座っているかを考慮されていない場合、ユーザに適切な情報提供を行うことが難しい。
本願は、上記に鑑みてなされたものであって、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する取得部と、前記取得部により取得された前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定部と、を備えたことを特徴とする。
実施形態の一態様によれば、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図5は、実施形態に係るPOI情報記憶部の一例を示す図である。 図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。 図7は、実施形態に係る移動体情報記憶部の一例を示す図である。 図8は、実施形態に係るセンサ情報記憶部の一例を示す図である。 図9は、実施形態に係る情報処理の一例を示すフローチャートである。 図10は、実施形態に係る情報処理の一例を示す図である。 図11は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100が、自動車である移動体内における情報提供の対象となるユーザ(「対象ユーザ」ともいう)の位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカ(「出力対象スピーカ」ともいう)に決定する場合を示す。図1の例では、ユーザU1が運転する移動体C1に配置された指向性スピーカ20により、音声が出力される場合を示す。なお、ここでいうコンテンツには、エンターテインメントに関する音楽コンテンツや広告コンテンツ等に限らず、ユーザと通話する相手の音声等、種々のユーザに提供する種々の情報が含まれる。また、移動体は、自動車に限らず、例えば、複数人が内部空間に位置することが可能な移動体であれば、どのような移動体であってもよい。例えば、移動体は、バス、列車、飛行機、船等の種々の移動体であってもよい。
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、端末装置10と、指向性スピーカ20と、情報処理装置100とが含まれる。端末装置10と、指向性スピーカ20と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台の端末装置10や、複数台の指向性スピーカ20や、複数台の情報処理装置100が含まれてもよい。
端末装置10は、ユーザによって利用される端末装置(情報処理装置)である。端末装置10は、ユーザとともに移動可能であればどのような端末装置であってもよい。端末装置10は、指向性スピーカ20や情報処理装置100と通信可能な通信装置であってもよい。端末装置10は、例えば、スマートスピーカや、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
図1は、端末装置10がスマートスピーカである場合を示す。例えば、端末ID「TM1-1」により識別される端末装置10(端末装置TM1-1)は、図1に示すユーザU1の移動体C1に配置される端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。また、「移動体C*(*は任意の数値)」と記載した場合、その移動体は移動体ID「C*」により識別される移動体であることを示す。例えば、「移動体C1」と記載した場合、その移動体は移動体ID「C1」により識別される移動体である。
また、端末ID「TM1-1」により識別される端末装置10は、上記のように端末装置TM1-1と記載する場合がある。このように、各端末装置10を区別して説明する場合、「端末装置」の末尾に端末ID(TM1-1等)を付加した記載とする。各端末装置10について、特に区別なく説明する場合には、単に「端末装置10」と記載する。
また、端末装置10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。端末装置10は、種々のセンサを含むセンサ部を備える。また、端末装置10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、ユーザの位置を検知し、取得可能であるものとする。また、端末装置10は、通信を行っている基地局の位置情報や、Wi-Fi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、端末装置10は、マイク等の音を検知する音センサを有する。例えば、端末装置10は、音センサにより、端末装置10の周囲におけるユーザの発話を検知する。例えば、端末装置10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、端末装置10は、ユーザの発話に対して、処理を行う端末装置である。例えば、端末装置10は、ユーザの発話に限らず、端末装置10の周囲の環境音等を収集する。なお、端末装置10は、上記に限らず、種々のセンサを有してもよい。例えば、端末装置10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得するためのセンサ等の種々のセンサを有してもよい。そして、端末装置10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
また、端末装置10は、音声認識の機能を有してもよい。また、端末装置10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、端末装置10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
また、端末装置10は、画像センサ等を有してもよい。例えば、端末装置10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等の端末装置10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、端末装置10は、情報処理装置100に種々の情報等を送信する。例えば、端末装置10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。
指向性スピーカ20は、移動体に配置され、所定の方向に向けて音声を出力する音声出力装置である。例えば、指向性スピーカ20は、端末装置10や情報処理装置100等の外部装置との間で情報を送受信する通信機能を有する情報処理装置である。指向性スピーカ20は、音の可聴範囲を比較的狭い角度に限定することが可能な音声出力装置である。例えば、指向性スピーカ20は、高い指向性を有するスピーカであり、所望の方向に位置するユーザのみに向けて、音声を出力することができる。例えば、指向性スピーカ20は、超音波を用いることにより、高い指向性を持たせたスピーカであってもよい。例えば、指向性スピーカ20は、パラメトリック・スピーカであってもよい。なお、指向性スピーカ20は、所望のユーザのみに向けて、音声を出力することが可能であれば、どのような手段により実現されてもよい。なお、ここでいう「所望のユーザのみ」とは、主に所望の対象ユーザが音声を認識可能であることを意味し、対象ユーザ以外の他のユーザに一切の音声が認識されないことを意味するものではない。
図1は、移動体C1には、指向性スピーカDS1-1や指向性スピーカDS1-2を含む4つの指向性スピーカ20が配置される場合を示す。センサID「DS1-1」により識別される指向性スピーカ20は、上記のように指向性スピーカDS1-1と記載し、センサID「DS1-2」により識別される指向性スピーカ20は、上記のように指向性スピーカDS1-2と記載する場合がある。このように、各指向性スピーカ20を区別して説明する場合、「指向性スピーカ」の末尾にセンサID(DS1-1等)を付加した記載とする。各指向性スピーカ20について、特に区別なく説明する場合には、単に「指向性スピーカ20」と記載する。
図1の例では、移動体C1には、移動体C1の運転席に向けて音声を出力する指向性スピーカDS1-1、及び移動体C1の助手席に向けて音声を出力する指向性スピーカDS1-2が配置されることを示す。すなわち、移動体C1においては、指向性スピーカDS1-1により運転席に着座したユーザに向けて音声が出力され、指向性スピーカDS1-2により助手席に着座したユーザに向けて音声が出力されることを示す。また、移動体C1には、後部座席の右側に向けて音声を出力する指向性スピーカDS1-3や後部座席の左側に向けて音声を出力する指向性スピーカDS1-4も配置されるが、図1では、説明を簡単にするために、移動体C1の運転席及び助手席にユーザが着座した場合を一例として説明する。
図1に示すように、指向性スピーカDS1-1は、移動体C1の運転席に着座したユーザ(「運転者」ともいう)の位置に向けて音声が出力されるように設置されており、運転者のみに向けて音声を出力する。例えば、指向性スピーカDS1-1は、端末装置TM1-1や情報処理装置100からコンテンツに関する音声を受信し、受信した音声を移動体C1の運転席の頭部付近に向けて出力する。
また、図1に示すように、指向性スピーカDS1-2は、移動体C1の助手席に着座したユーザの位置に向けて音声が出力されるように設置されており、助手席に着座したユーザのみに向けて音声を出力する。例えば、指向性スピーカDS1-1は、端末装置TM1-1や情報処理装置100からコンテンツに関する音声を受信し、受信した音声を移動体C1の助手席に着座したユーザの頭部付近に向けて出力する。
情報処理装置100は、対象位置情報に基づいて、コンテンツの提供対象となるユーザ(対象ユーザ)の位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカに決定する情報処理装置である。すなわち、情報処理装置100は、対象ユーザに対してコンテンツに関する音声を出力させる出力対象スピーカを決定する決定装置である。また、情報処理装置100は、端末装置10や指向性スピーカ20に提供(配信)するコンテンツに関する音声を決定し、決定した音声を端末装置10や指向性スピーカ20に広告を提供(配信)する。
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から種々の情報を取得してもよい。
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、移動体C1の位置に基づいて対象ユーザを決定し、対象ユーザに応じたコンテンツに関する音声を対象ユーザに提供する提供処理の一例を示す図である。
図1の例では、マップ情報MP1に示す自動車である移動体C1がユーザU1を運転し、ユーザU1の子どもが助手席に乗車している場合を示す。また、図1では、移動体C1には、ユーザU1が利用する端末装置TM1-1が配置されている場合を示す。端末装置TM1-1は、車載用スマートスピーカであってもよい。端末装置TM1-1は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、端末装置TM1-1は、音センサにより移動体C1内におけるユーザU1やユーザU2の発話を検知し、情報処理装置100へ送信する。また、端末装置TM1-1は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC1-1等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC1-1」と記載した場合、その位置は位置情報LC1-1に対応する位置であることを示す。
そして、図1の例では、移動体C1の位置が位置LC1-1から位置LC1-2に移動する。例えば、ユーザU1の運転等により、移動体C1は、位置LC1-2に移動する。移動体C1に配置された端末装置TM1-1は、検知されたセンサ情報SN1-1を情報処理装置100へ送信する。端末装置TM1-1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、端末装置TM1-1は、移動体C1の内部を撮像した動画であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、センサ情報SN1-1には、移動体C1の運転席にユーザU1が着座し、移動体C1の運転席にユーザU1の子どもが着座し、移動体C1の後部座席には誰もいないことを示す情報が含まれるものとする。
例えば、端末装置TM1-1は、センサ情報SN1-1が検知された位置LC1-2を示す位置情報やセンサ情報SN1-1が日時dt1-1に検知されたことを示す日時情報をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の位置情報やセンサ情報SN1-1が検知された日時の情報をセンサ情報SN1-1とともに情報処理装置100に送信する。また、例えば、端末装置TM1-1は、センサ情報SN1-1の取得元が端末装置TM1-1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の端末ID等をセンサ情報SN1-1とともに情報処理装置100に送信する。なお、端末装置TM1-1は、センサ情報等を検知する毎にリアルタイムに、情報処理装置100にセンサ情報等の種々の情報を送信してもよいし、所定の間隔(例えば5分間隔など)で、情報処理装置100にセンサ情報等の種々の情報を送信してもよい。
これにより、情報処理装置100は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する(ステップS11)。図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-1の取得元は、端末装置TM1-1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、情報処理装置100は、センサ情報SN1-1が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。
動画であるセンサ情報SN1-1を取得した情報処理装置100は、センサ情報SN1-1を解析する(ステップS12)。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1内の各位置(「車内位置」ともいう)におけるユーザの着座を推定する。
情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の移動体情報記憶部124に示すように、センサ情報SN1-1に基づいて、移動体C1の各車内位置におけるユーザの着座有無を推定する。情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の各車内位置におけるユーザの着座有無を推定する。例えば、情報処理装置100は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席や助手席や後部座席にユーザが着座しているか否かを推定する。また、情報処理装置100は、種々の従来技術を適宜用いて、着座ユーザの属性情報を推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザの性別や年代等の属性情報を推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが大人であるか子供であるかを推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが例えば20代以上の大人であるか、例えば10代以下の子供であるかを推定する。
図1中の移動体情報記憶部124に示す「移動体ID」は、移動体を識別するための識別情報を示す。図1中の移動体情報記憶部124に示す「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。
図1中の移動体情報記憶部124に示す「車内位置情報」は、移動体内においてユーザが着座する位置に関する情報を示す。「車内位置情報」には、「車内位置#1(運転席)」や「車内位置#2(助手席)」といった項目が含まれる。「車内位置#1(運転席)」や「車内位置#2(助手席)」には、「車内位置ID」や「スピーカID」や「着座ユーザ」といった項目が含まれる。なお、図5の例では、「車内位置#1(運転席)」、「車内位置#2(助手席)」のみを図示するが、「車内位置#3(右後部座席)」や「車内位置#4(左後部座席)」等、対応する移動体においてユーザが着座する位置の数に応じた項目が含まれるものとする。
図1中の移動体情報記憶部124に示す「車内位置ID」は、対応する車内位置を識別する情報を示す。図1中の移動体情報記憶部124に示す「スピーカID」は、対応する車内位置に対応付けられた指向性スピーカを識別する情報を示す。図1中の移動体情報記憶部124に示す「着座ユーザ」は、対応する車内位置に着座しているユーザに関する情報を示す。
図1の例では、移動体ID「C1」により識別される移動体(移動体C1)は、搭載される端末装置が車載端末ID「TM1-1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置が端末装置TM1-1であることを示す。
また、移動体C1における運転席の位置であって、車内位置ID「CSP1-1」により識別される位置には、スピーカID「DS1-1」により識別される指向性スピーカ(指向性スピーカDS1-1)が対応付けられていることを示す。また、移動体C1における助手席の位置であって、車内位置ID「CSP1-2」により識別される位置には、スピーカID「DS1-2」により識別される指向性スピーカ(指向性スピーカDS1-2)が対応付けられていることを示す。
図1の例では、情報処理装置100は、センサ情報SN1-1に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における運転席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、運転席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。例えば、情報処理装置100は、人の認識に関する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の運転席にユーザが着座していると推定する。
例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であるユーザU1であると推定してもよい。
例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真等の画像情報を用いて、ユーザU1であると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真と、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域とを比較することにより、移動体C1の運転席の着座ユーザがユーザU1であると推定してもよい。
また、例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における助手席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。
例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。
例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもや大人の顔写真等の画像情報を用いて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもの顔写真と、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と子どもの顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された大人の顔写真と、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と大人の顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。なお、上記は一例であり、情報処理装置100は、着座ユーザが子供であるかの推定が可能であれば、どのような方法により、着座ユーザのユーザ属性の推定を行ってもよい。
また、情報処理装置100は、センサ情報SN1-1に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、情報処理装置100は、センサ情報SN1-1において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座していないと推定する。
なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、動画を解析し、車内位置におけるユーザの着座有無の推定を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から、動画(センサ情報)の解析した結果である、車内位置におけるユーザの着座有無の推定した結果を取得してもよい。
上記のような処理により、情報処理装置100は、図1中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、大人男性であるユーザU1であることを示す情報を取得する。また、情報処理装置100は、図1中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。
そして、情報処理装置100は、対象ユーザを決定する(ステップS13)。例えば、情報処理装置100は、移動体C1内に位置する複数のユーザのうち、運転者以外の乗車者を対象ユーザに決定する。図1の例では、情報処理装置100は、移動体C1の助手席に着座する子ども(「子供ユーザCU」とする)を対象ユーザに決定する。そして、情報処理装置100は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの位置(対象位置情報)が、移動体C1の助手席であることを示す情報を取得する。情報処理装置100は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの対象位置情報として、車内位置ID「CPS1-2」により識別される車内位置である移動体C1の助手席を示す情報を取得する。
なお、上記の対象ユーザの決定は一例であり、情報処理装置100は、種々の情報を適宜用いて対象ユーザを決定してもよい。例えば、出力するコンテンツに応じて対象ユーザを決定してもよい。例えば、ユーザU1を対象とするコンテンツの出力が要求される場合は、ユーザU1を対象ユーザとしてもよいが、この点については後述する。
そして、情報処理装置100は、コンテンツを決定する(ステップS14)。情報処理装置100は、移動体C1の位置やコンテンツの出力条件(単に「出力条件」ともいう)に基づいて、コンテンツを決定する。情報処理装置100は、対象とするユーザの属性やコンテンツの出力タイミングに関する出力条件に基づいて、コンテンツを決定する。図1の例では、情報処理装置100は、移動体C1の位置LC1-2や、コンテンツ情報記憶部123に示す各出力条件に基づいて、子供ユーザCUに提供するコンテンツを決定する。
図1中のコンテンツ情報記憶部123に示す「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、コンテンツを示す。「提供元ID」は、コンテンツの提供元を識別するための識別情報を示す。
図1中のコンテンツ情報記憶部123に示す「出力条件」は、コンテンツIDにより識別されるコンテンツの配信条件(出力条件)を示す。「出力条件」には、「ターゲットユーザ」、「タイミング」といった項目が含まれる。「ターゲットユーザ」は、コンテンツIDにより識別されるコンテンツを出力するターゲットとする対象(ユーザ)を示す。「ターゲットユーザ」は、コンテンツの出力対象となるユーザの属性を示す。「タイミング」は、コンテンツIDにより識別されるコンテンツを出力するタイミングを示す。「タイミング」は、範囲や時間帯等の種々のタイミング条件であってもよい。「タイミング」は、所定のPOIとの位置関係やコンテキスト等の種々のタイミング条件であってもよい。
図1に示す例では、コンテンツID「CD1」により識別されるコンテンツ(コンテンツCT1)は、そのコンテンツが「CT1」であることを示す。コンテンツCT1の広告主は、Aおもちゃ店である店舗SP1であることを示す。コンテンツCT1の対象に関する条件は、「子ども」であることを示す。すなわち、コンテンツCT1は、「子ども」をターゲット属性として出力されるコンテンツであることを示す。コンテンツCT1のタイミングに関する条件は、「範囲AR1(半径1km)」であることを示す。すなわち、コンテンツCT1は、Aおもちゃ店から「範囲AR1(半径1km)」に位置するタイミングを出力されるコンテンツであることを示す。
例えば、情報処理装置100は、出力条件に基づいてコンテンツを決定する。図1の例では、情報処理装置100は、対象やタイミングに関する出力条件を満たすコンテンツを、端末装置TM1-1に出力させるコンテンツに決定する。
情報処理装置100は、対象ユーザの属性が、出力条件のターゲットユーザに該当する場合、対象ユーザが出力条件のターゲットユーザを満たすと判定する。情報処理装置100は、対象ユーザの属性と、各コンテンツの出力条件「ターゲットユーザ」とを比較することにより、対象ユーザが出力条件のターゲットユーザを満たすかどうかを判定する。図1の例では、情報処理装置100は、対象ユーザが子どもである子供ユーザCUであるため、コンテンツCT1のターゲットユーザ「子ども」を満たすと判定する。
また、情報処理装置100は、移動体C1の位置に基づいて、コンテンツCT1の出力条件「タイミング」を満たすかを判定する。例えば、情報処理装置100は、移動体C1の位置LC1-2がコンテンツCT1のタイミング「範囲AR1」の領域内に位置する場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。例えば、情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1とに基づいて、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。例えば、情報処理装置100は、POI情報記憶部122(図5参照)からコンテンツCT1に関連するPOIである店舗SP1の所在地(位置LC2-1)を示す位置情報をPOI位置情報として取得する。情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1とを比較することにより、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。情報処理装置100は、移動体C1の位置LC1-2と店舗SP1の位置LC2-1との間の距離を算出することにより、コンテンツCT1のタイミングに関する出力条件を満たすかを判定する。この場合、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が範囲AR1の半径以下である場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。例えば、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が1km以内である場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。図1の例では、情報処理装置100は、移動体C1の位置LC1-2が範囲AR1内であるため、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。
上記のように、図1の例では、情報処理装置100は、コンテンツCT1が対象及びタイミングに関する出力条件を満たすと判定する。そのため、情報処理装置100は、子供ユーザCUに対して提供するコンテンツをコンテンツCT1に決定する。
そして、情報処理装置100は、コンテンツCT1を出力するスピーカを決定する(ステップS15)。例えば、情報処理装置100は、移動体C1の指向性スピーカ20のうち、子供ユーザCUの位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT1に関する音声を出力させる出力対象スピーカに決定する。図1の例では、情報処理装置100は、子供ユーザCUが着座している助手席に対応する指向性スピーカDS1-2を出力対象スピーカに決定する。そして、情報処理装置100は、コンテンツCT1を指向性スピーカDS1-2に提供する(ステップS16)。情報処理装置100は、コンテンツCT1を指向性スピーカDS1-2に送信(配信)する。なお、情報処理装置100は、端末装置TM1-1介して指向性スピーカDS1-2にコンテンツCT1を提供してもよい。
情報処理装置100からコンテンツCT1を受信した指向性スピーカDS1-2は、コンテンツCT1を出力する(ステップS17)。例えば、指向性スピーカDS1-2は、コンテンツCT1に関する音声を子供ユーザCUに向けて出力する。図1の例では、指向性スピーカDS1-2は、Aおもちゃ店である店舗SP1に関するコンテンツCT1を音声出力する。例えば、指向性スピーカDS1-2は、「Aおもちゃ店がこの先にあります」や「AAカード新発売」等のコンテンツCT1を音声出力する。なお、コンテンツCT1は、Aおもちゃ店である店舗SP1に関する広告であれば、どのような広告であってもよい。例えば、音声広告であるコンテンツCT1は、Aおもちゃ店をユーザに想起させる音声情報であればどのような音声情報であってもよい。例えば、コンテンツCT1は、Aおもちゃ店に対応するジングルやサウンドロゴ等の音声情報であってもよい。
このように、情報処理装置100は、移動体C1の位置や各コンテンツの出力条件に基づいて、対象ユーザに対して出力するコンテンツを決定することにより、ユーザに対して出力するコンテンツを適切に決定することができる。また、情報処理装置100は、移動体C1内における対象ユーザの着座位置に基づいて、出力対象スピーカを決定することにより、対象ユーザのみに向けてコンテンツを出力させることができる。これにより、情報処理装置100は、対象ユーザである子供ユーザCUに対応する指向性スピーカ20により、子供ユーザCUに対して適切な内容のコンテンツを出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
図1の例では、情報処理装置100は、移動体C1の助手席に対応する指向性スピーカDS1-2のみにコンテンツCT1を出力させることにより、移動体C1の運転席に音が届くことを抑制することができる。すなわち、情報処理装置100は、移動体C1の運転席に音が届くことを抑制するとともに、移動体C1の助手席には音が届くようにすることができるため、運転者の運転に対する注意を妨げることを抑制しつつ、運手者以外のユーザに適切にコンテンツを提供することができる。このように、情報処理装置100は、移動体の安全運転を保ちつつ、移動体内におけるコンテンツ提供を適切に実現することができる。
〔1-1.コンテンツ〕
図1の例では、情報処理装置100がAおもちゃ店に関する広告であるコンテンツCT1を提供するコンテンツに決定する場合を示したが、情報処理装置100は、種々のコンテンツを対象ユーザに提供してもよい。情報処理装置100は、子供が座っている場所(車内位置)に、エンタテイメント系の音楽コンテンツを提供してもよい。
〔1-2.運転者への出力〕
図1の例では、情報処理装置100が移動体C1の助手席に着座したユーザを対象ユーザに決定する場合を示したが、情報処理装置100は、種々の情報を適宜用いて対象ユーザを決定してもよい。例えば、出力するコンテンツに応じて対象ユーザを決定してもよい。例えば、情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得し、移動体の運転者に対してコンテンツを出力してもよい。
図1の例では、移動体C1の運転者であるユーザU1に所定のユーザ(ユーザX)から電話がかかってきた場合、情報処理装置100は、移動体C1の運転席の位置に対応する指向性スピーカDS1-1に、ユーザXの発話の音声を出力させてもよい。すなわち、情報処理装置100は、ユーザU1の通話先(ユーザX)の発話情報(コンテンツX)は、ユーザU1を対象とするコンテンツであるため、移動体C1の運転席の位置に対応する指向性スピーカDS1-1を、コンテンツXを出力する出力対象スピーカに決定する。そして、指向性スピーカDS1-1は、ユーザU1の通話先であるユーザXの発話情報(コンテンツX)をユーザU1のみに向けて出力する。
このように、通話先の発話情報を出力する出力対象スピーカを決定することにより、例えば、情報処理装置100は、家からお母さんが車に乗っているお父さんだけに話をしたい場合、同乗している子供ではなくお父さんに向けて聞きやすいように通知することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
上記のように、本願でいうコンテンツは、ユーザと通話する相手の音声等の種々の情報であってもよい。例えば、コンテンツは、電話等の手段により、音声対話における対象ユーザへの他のユーザの発話であってもよい。この点について、さらに図10を用いて、以下詳述する。図10は、実施形態に係る情報処理の一例を示す図である。具体的には、図10は、コンテンツが他のユーザの発話である場合の情報処理の一例を示す図である。なお、図10において、図1と同様の点については、適宜説明を省略する。
ここから、図10を用いて、情報処理の流れについて説明する。図10の例では、マップ情報MP5に示す自動車である移動体C1がユーザU1を運転し、ユーザU1の子どもが助手席に乗車している場合を示す。また、図10では、移動体C1には、ユーザU1が利用する端末装置TM1-1が配置されている場合を示す。図10では、端末装置TM1-1は、所定の音声対話機能により、ユーザに音声対話サービスに関するサービスを提供可能な端末であるものとする。なお、端末装置TM1-1は、ユーザU1が利用するスマートフォン等の携帯端末と、例えばBluetooth(登録商標)等の種々の従来の無線通信に関する技術により通信可能に接続されることにより、ユーザU1に音声対話サービスに関するサービスを提供可能な端末であってもよい。なお、端末装置TM1-1は、ユーザU1が音声対話を行うことができれば、どのような端末であってもよい。図10の例では、端末装置TM1-1が車載用スマートスピーカである場合を示すが、端末装置TM1-1は、ユーザU1が利用するスマートフォン等の携帯端末であってもよい。
まず、図10に示す住宅HM1に対応する位置にいるユーザU2が端末装置TM1-2を用いて、ユーザU1へ発信する(ステップS50)。例えば、ユーザU1及びユーザU2が居住する住宅HM1内に位置するユーザU2は、端末装置TM1-2を用いて、ユーザU1に電話をかける。例えば、情報処理装置100は、端末装置TM1-2から位置情報を取得し、取得した位置情報と、記憶部120(図3参照)に記憶されたユーザU1やユーザU2の自宅の位置を示す情報とを比較することにより、ユーザU2が住宅HM1に位置すると判定してもよい。例えば、情報処理装置100は、端末装置TM1-2から取得した位置が、ユーザU2の自宅の位置から所定の範囲内(例えば10m以内)である場合、ユーザU2が住宅HM1に位置すると判定してもよい。
また、図10の例では、端末装置TM1-1は、音声対話サービスにおいて端末装置TM1-1を特定する識別子である電話番号NM1が割り当てられているものとする。例えば、情報処理装置100は、端末装置TM1-1に電話番号NM1が割り当てられていることを示す割当情報を記憶部120(図3参照)に記憶し、記憶部120に記憶された割当情報を用いて、電話番号NM1から端末装置TM1-1を特定する。図1の例では、情報処理装置100は、ユーザU2が端末装置TM1-2に電話番号NM1を指定し発信した場合、ユーザU2が指定した電話番号NM1と記憶部の割当情報を記憶部120とを比較することにより、電話番号NM1から端末装置TM1-1を特定する。
そして、情報処理装置100は、ユーザ情報記憶部121(図4参照)に記憶された情報を用いて、電話番号NM1に対応する端末装置TM1-1に利用ユーザがユーザU1であると特定する。情報処理装置100は、電話番号NM1に対応する端末装置TM1-1と、ユーザ情報記憶部121(図4参照)に記憶された各ユーザの利用端末の情報とを比較することにより、電話番号NM1に対応する端末装置TM1-1に利用ユーザがユーザU1であると特定する。これにより、情報処理装置100は、ユーザU2の発信先がユーザU1であると特定する。すなわち、情報処理装置100は、ユーザU2の音声対話の相手先がユーザU1であると特定する。
なお、上記は一例であり、情報処理装置100は、電話等の音声対話サービスに関する種々の従来技術を適宜用いて音声対話の相手先を特定してもよい。また、情報処理装置100は、音声対話サービスに関するサービスを提供してもよいし、音声対話サービスを提供する外部のサービス提供装置から音声対話サービスに関する種々の情報を取得することにより、各種の処理を行ってもよい。
そして、図10の例では、ユーザU2から着信があったユーザU1は、その音声対話の要求を受け入れて、ユーザU2との音声対話を開始する。ユーザU1は、端末装置TM1-1に対して、ユーザU2からの音声対話の要求を受け入れる操作を行うことにより、ユーザU2との音声対話を開始する。また、図10の例では、ユーザU1とユーザU2との音声対話を開始後において、ユーザU2が発話を行い、情報処理装置100は、端末装置TM1-2からユーザU2の発話を示す音声情報を取得する。
図10の例では、情報処理装置100は、ユーザU2の発話であるコンテンツをコンテンツ情報記憶部123に追加する。図10に示す例では、情報処理装置100は、コンテンツID「CD5」により識別されるコンテンツ(コンテンツCT5)として、ユーザU2の発話をコンテンツ情報記憶部123に追加する。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5の提供元は、端末装置TM1-2を利用するユーザU2であることを示す。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5のターゲットユーザは、ユーザU1であることを示す。図10中のコンテンツ情報記憶部123に示すように、コンテンツCT5のタイミングに関する条件は、「提供元の発話」であることを示す。このように、コンテンツCT5は、提供元であるユーザU2の発話であり、ユーザU2の発話を取得したタイミングで出力されることを示す。すなわち、情報処理装置100は、ユーザU2の発話であるコンテンツCT5を取得した場合、リアルタイムに、ターゲットユーザであるユーザU1に提供することを示す。また、情報処理装置100は、ユーザU2が発話する度に、コンテンツCT5の内容をユーザU2の最新の発話に更新し、更新したコンテンツCT5をユーザU1に提供する。
なお、情報処理装置100は、ユーザU1とユーザU2との音声対話が終了した場合、コンテンツID「CD5」に対応する情報をコンテンツ情報記憶部123から削除してもよい。情報処理装置100は、ユーザU1とユーザU2のいずれかが音声対話を切断する操作を行った場合、コンテンツID「CD5」に対応する情報をコンテンツ情報記憶部123から削除してもよい。
移動体C1に配置された端末装置TM1-1は、検知されたセンサ情報SN1-5を情報処理装置100へ送信する。端末装置TM1-1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-5を情報処理装置100へ送信する。図10の例では、端末装置TM1-1は、移動体C1の内部を撮像した動画であるセンサ情報SN1-5を情報処理装置100へ送信する。図10の例では、センサ情報SN1-5には、移動体C1の運転席にユーザU1が着座し、移動体C1の運転席にユーザU1の子どもが着座し、移動体C1の後部座席には誰もいないことを示す情報が含まれるものとする。
例えば、端末装置TM1-1は、センサ情報SN1-5が検知された位置LC1-5を示す位置情報やセンサ情報SN1-5が日時dt1-5に検知されたことを示す日時情報をセンサ情報SN1-5に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の位置情報やセンサ情報SN1-5が検知された日時の情報をセンサ情報SN1-5とともに情報処理装置100に送信する。また、例えば、端末装置TM1-1は、センサ情報SN1-5の取得元が端末装置TM1-1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-5に対応付けて情報処理装置100に送信する。例えば、端末装置TM1-1は、端末装置TM1-1の端末ID等をセンサ情報SN1-5とともに情報処理装置100に送信する。
これにより、情報処理装置100は、センサ情報SN1-5や位置情報や日時情報や端末情報等を取得する(ステップS51)。図10の例では、情報処理装置100は、一覧情報SLST5に示すように、ログID「LG15」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-5の取得元は、端末装置TM1-1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-5を取得する。また、情報処理装置100は、センサ情報SN1-5が日時dt1-5において、位置LC1-5で取得(検知)されたことを示す情報を取得する。
動画であるセンサ情報SN1-5を取得した情報処理装置100は、センサ情報SN1-5を解析する(ステップS52)。図10の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-5を解析することにより、移動体C1内の各位置(車内位置)におけるユーザの着座を推定する。
図10の例では、情報処理装置100は、センサ情報SN1-5に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の顔認識に関する種々の従来技術を適宜用いて、移動体C1の運転席の着座ユーザがユーザU1であると推定する。図10の例では、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真等の画像情報を用いて、移動体C1の運転席の着座ユーザがユーザU1であると推定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶されたユーザU1の顔写真と、センサ情報SN1-5中の移動体C1の運転席の着座ユーザの顔領域とを比較することにより、移動体C1の運転席の着座ユーザがユーザU1であると推定する。
また、例えば、情報処理装置100は、センサ情報SN1-5において、移動体C1における助手席に対応する位置に、人の外形に対応する所定の物体が含まれる場合、助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、物体認識に関する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。例えば、情報処理装置100は、人の形状を認識する種々の従来技術を適宜用いて、移動体C1の助手席にユーザが着座していると推定する。
例えば、情報処理装置100は、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。また、例えば、情報処理装置100は、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。
例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもや大人の顔写真等の画像情報を用いて、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された子どもの顔写真と、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と子どもの顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された大人の顔写真と、センサ情報SN1-5中の移動体C1の助手席の着座ユーザの顔領域とを比較し、顔領域と大人の顔写真とは非類似であると判定することにより、移動体C1の助手席の着座ユーザが子どもであると推定してもよい。なお、上記は一例であり、情報処理装置100は、着座ユーザが子供であるかの推定が可能であれば、どのような方法により、着座ユーザのユーザ属性の推定を行ってもよい。
また、情報処理装置100は、センサ情報SN1-5に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、情報処理装置100は、センサ情報SN1-5において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座してないと推定する。
なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、動画を解析し、車内位置におけるユーザの着座有無の推定を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から、動画(センサ情報)の解析した結果である、車内位置におけるユーザの着座有無の推定した結果を取得してもよい。
上記のような処理により、情報処理装置100は、図10中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、ユーザU1であることを示す情報を取得する。また、情報処理装置100は、図10中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。
そして、情報処理装置100は、対象ユーザを決定する(ステップS53)。例えば、情報処理装置100は、ユーザU2の音声対話の相手先のユーザを対象ユーザに決定する。図10の例では、情報処理装置100は、ユーザU2の発信先であるユーザU1を対象ユーザに決定する。そして、情報処理装置100は、図10中の移動体情報記憶部124から、対象ユーザであるユーザU1の位置(対象位置情報)が、移動体C1の運転席であることを示す情報を取得する。情報処理装置100は、図10中の移動体情報記憶部124から、対象ユーザであるユーザU1の対象位置情報として、車内位置ID「CPS1-1」により識別される車内位置である移動体C1の運転席を示す情報を取得する。
そして、情報処理装置100は、コンテンツを決定する(ステップS54)。図10の例では、情報処理装置100は、ユーザU1とユーザU2とが音声対話中であるため、ユーザU2の発話を、ユーザU1に提供するコンテンツに決定する。すなわち、情報処理装置100は、図10中のコンテンツ情報記憶部123に示すコンテンツのうち、提供元が端末装置TM1-2(ユーザU2)であるコンテンツCT5を、ユーザU1に提供するコンテンツに決定する。
そして、情報処理装置100は、コンテンツCT5を出力するスピーカを決定する(ステップS55)。例えば、情報処理装置100は、移動体C1の指向性スピーカ20のうち、ユーザU1の位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT5に関する音声を出力させる出力対象スピーカに決定する。図10の例では、情報処理装置100は、ユーザU1が着座している運転席に対応する指向性スピーカDS1-1を出力対象スピーカに決定する。そして、情報処理装置100は、コンテンツCT5を指向性スピーカDS1-1に提供する(ステップS56)。情報処理装置100は、コンテンツCT5を指向性スピーカDS1-1に送信(配信)する。なお、情報処理装置100は、端末装置TM1-1介して指向性スピーカDS1-1にコンテンツCT5を提供してもよい。
情報処理装置100からコンテンツCT5を受信した指向性スピーカDS1-1は、コンテンツCT5を出力する(ステップS57)。例えば、指向性スピーカDS1-1は、コンテンツCT5に関する音声をユーザU1に向けて出力する。図10の例では、指向性スピーカDS1-1は、ユーザU2の発話であるコンテンツCT5を音声出力する。例えば、指向性スピーカDS1-1は、ユーザU2からユーザU1のみに伝達したい内容のコンテンツCT5を音声出力する。例えば、指向性スピーカDS1-1は、ユーザU2が子供ユーザCUには聞かれたくない内容のコンテンツCT5を音声出力する。
上記のように、情報処理装置100は、移動体C1外のユーザU2と移動体C1内のユーザU1との音声対話に対応するコンテンツを、移動体C1内の対象ユーザであるユーザU1のみに対して出力することにより、ユーザに対して適切にコンテンツを提供することができる。このように、情報処理装置100は、移動体C1内における対象ユーザの着座位置に基づいて、出力対象スピーカを決定することにより、対象ユーザのみに向けてコンテンツを出力させることができる。これにより、情報処理装置100は、対象ユーザであるユーザU1に対応する指向性スピーカ20により、ユーザU1に対して適切な内容のコンテンツを出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。図10の例では、情報処理装置100は、移動体C1の運転席に対応する指向性スピーカDS1-1のみにコンテンツCT5を出力させることにより、移動体C1の助手席等に音が届くことを抑制することができる。
〔1-3.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、端末装置10が出力対象スピーカの決定処理を行ってもよい。例えば、端末装置10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100と端末装置10とは一体であってもよい。この場合、情報処理システムには、コンテンツ配信サーバが含まれてもよい。そして、端末装置10である情報処理装置100は、コンテンツ配信サーバからコンテンツを取得し、決定した出力対象スピーカに、取得したコンテンツを出力させてもよい。また、端末装置10である情報処理装置100は、コンテンツを出力したことを示す情報等をコンテンツ配信サーバに送信してもよい。また、端末装置10である情報処理装置100は、センサにより検知されたセンサ情報やユーザの行動情報等の種々の情報をコンテンツ配信サーバに送信してもよい。
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10や指向性スピーカ20との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、POI情報記憶部122と、コンテンツ情報記憶部123と、移動体情報記憶部124と、センサ情報記憶部125とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「利用端末」、「興味」、「位置情報」といった項目が含まれる。また、「位置情報」には、「最新位置」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
「利用端末」は、ユーザにより利用される端末を示す。なお、図4に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。例えば、ユーザU3が、スマートフォンである端末装置TM1-3とは別に、スマートスピーカである端末装置TM1-30を利用する場合、ユーザU3に対応する「利用端末」は、「TM1-3」と「TM1-30」とが記憶されてもよい。
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。
また、「位置情報」中の「最新位置」は、対応するユーザについて最後に取得された位置情報を示す。なお、「最新位置」は、「LC1-2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。また、「位置情報」は「取得日時」の項目を有してもよい。例えば、「取得日時」は、最後に位置情報が取得された日時を示す。
図4の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。ユーザU1の利用端末は、スマートスピーカである端末装置TM1-1であることを示す。また、ユーザU1は経済に興味があることを示す。例えば、ユーザU1については、位置LC1-2に位置したことを示す位置情報が最後に取得された位置情報、すなわち最新の位置情報であることを示す。
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。
また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
(POI情報記憶部122)
実施形態に係るPOI情報記憶部122は、店舗(ストア)やランドマーク等のPOI(関心地点)に関する各種情報を記憶する。図5は、実施形態に係るPOI情報記憶部の一例を示す図である。例えば、POI情報記憶部122は、種々のPOIに関する情報を記憶する。図5に示すPOI情報記憶部122には、「POIID」、「名称」、「カテゴリ」、「所在地」といった項目が含まれる。
「POIID」は、POIを識別するための識別情報を示す。「名称」は、POIの具体的な名称を示す。例えば、「名称」は、「○○カフェX町店」のような屋号と店舗の場所を示す情報との組合せであってもよい。また、「カテゴリ」は、POIが属するカテゴリを示す。また、「所在地」は、POIが位置する場所を示す。なお、「所在地」は、「LC2-1」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。
図5の例では、POIID「SP1」により識別されるPOIは、名称「Aおもちゃ店」であり、カテゴリ「店舗(玩具量販)」に属するPOIであることを示す。また、Aおもちゃ店は、位置LC2-1に位置することを示す。
なお、POI情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(コンテンツ情報記憶部123)
実施形態に係るコンテンツ情報記憶部123は、広告や音楽等のコンテンツに関する各種情報を記憶する。図6は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図6に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「提供元ID」、「内容」、「条件(レベル)」といった項目を有する。
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、広告主やコンテンツ提供元(コンテンツプロバイダ)や代理店等から入稿されたコンテンツを示す。図6では、「コンテンツ」に「CT1」といった概念的な情報が格納される例を示したが、実際には、動画や音声または、これらの格納場所を示すファイルパス名などが格納される。また、「コンテンツ」には、静止画像や動画像やテキストデータやURL、または、これらの格納場所を示すファイルパス名などが格納されてもよい。以下では、「提供元」といった表記は、広告主やコンテンツプロバイダだけでなく代理店を含む概念であるものとする。
「提供元ID」は、提供元を識別するための識別情報を示す。なお、提供元は、入稿作業等を代理店に依頼する場合もある。そのため、「提供元」といった表記は、店舗等の事業者やコンテンツプロバイダだけでなく代理店を含む概念であるものとする。図6の例では、「提供元ID」として、POIIDやコンテンツプロバイダを識別する情報を記憶する場合を示す。
「出力条件」は、コンテンツIDにより識別されるコンテンツの配信条件(出力条件)を示す。「出力条件」には、「ターゲットユーザ」、「タイミング」といった項目が含まれる。「ターゲットユーザ」は、コンテンツIDにより識別されるコンテンツを出力するターゲットとなる対象(ユーザ)を示す。「ターゲットユーザ」は、コンテンツの出力対象となるユーザの属性を示す。「タイミング」は、コンテンツIDにより識別されるコンテンツを出力するタイミングを示す。「タイミング」は、範囲や時間帯等の種々のタイミング条件であってもよい。「タイミング」は、所定のPOIとの位置関係やコンテキスト等の種々のタイミング条件であってもよい。
図6に示す例では、コンテンツID「CD1」により識別されるコンテンツ(コンテンツCT1)は、そのコンテンツが「CT1」であることを示す。コンテンツCT1の広告主は、Aおもちゃ店である店舗SP1であることを示す。コンテンツCT1の対象に関する条件は、「子ども」であることを示す。すなわち、コンテンツCT1は、「子ども」をターゲット属性として出力されるコンテンツであることを示す。コンテンツCT1のタイミングに関する条件は、「範囲AR1(半径1km)」であることを示す。すなわち、コンテンツCT1は、Aおもちゃ店から「範囲AR1(半径1km)」に位置するタイミングを出力されるコンテンツであることを示す。
なお、コンテンツ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部123は、コンテンツが広告である場合、入札価格に関する情報等を記憶してもよい。例えば、コンテンツ情報記憶部123は、コンテンツの対象となる商品名やサービス名を示す情報を記憶してもよい。
(移動体情報記憶部124)
実施形態に係る移動体情報記憶部124は、移動体に関する各種情報を記憶する。図7は、実施形態に係る移動体情報記憶部の一例を示す図である。例えば、移動体情報記憶部124は、種々の移動体に関する情報を記憶する。図7に示す移動体情報記憶部124には、「移動体ID」、「車載端末ID」、「車内位置情報」といった項目が含まれる。
「移動体ID」は、移動体を識別するための識別情報を示す。「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。
「車内位置情報」は、移動体内においてユーザが着座する位置に関する情報を示す。「車内位置情報」には、「車内位置#1(運転席)」や「車内位置#2(助手席)」といった項目が含まれる。「車内位置#1(運転席)」や「車内位置#2(助手席)」には、「車内位置ID」や「スピーカID」や「着座ユーザ」といった項目が含まれる。なお、図5の例では、「車内位置#1(運転席)」、「車内位置#2(助手席)」のみを図示するが、「車内位置#3(右後部座席)」や「車内位置#4(左後部座席)」等、対応する移動体においてユーザが着座する位置の数に応じた項目が含まれるものとする。
「車内位置ID」は、対応する車内位置を識別する情報を示す。「スピーカID」は、対応する車内位置に対応付けられた指向性スピーカを識別する情報を示す。「スピーカID」は、対応する車内位置へ向けて音声を出力する指向性スピーカを識別する情報を示す。「着座ユーザ」は、対応する車内位置に着座しているユーザを示す。「着座ユーザ」は、対応する車内位置に着座しているユーザについて推定されるユーザ属性やユーザを識別する情報を示す。
図7の例では、移動体ID「C1」により識別される移動体(移動体C1)は、搭載される端末装置が車載端末ID「TM1-1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置が端末装置TM1-1であることを示す。
また、移動体C1における運転席の位置であって、車内位置ID「CSP1-1」により識別される位置には、スピーカID「DS1-1」により識別される指向性スピーカ(指向性スピーカDS1-1)が対応付けられていることを示す。また、移動体C1における運転席に着座するユーザ(着座ユーザ)は、大人男性であるユーザU1であることを示す。すなわち、移動体C1における運転席に着座するユーザU1に向けて、指向性スピーカDS1-1が音声を出力することを示す。
また、移動体C1における助手席の位置であって、車内位置ID「CSP1-2」により識別される位置には、スピーカID「DS1-2」により識別される指向性スピーカ(指向性スピーカDS1-2)が対応付けられていることを示す。また、移動体C1における助手席に着座するユーザ(着座ユーザ)は、子どもであることを示す。すなわち、移動体C1における助手席に着座する子どもに向けて、指向性スピーカDS1-2が音声を出力することを示す。
なお、移動体情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、移動体情報記憶部124は、項目「登録番号」を有してもよい。この場合、例えば「登録番号」は、移動体の具体的な登録番号を示す。例えば、「登録番号」は、自動車等の移動体に取り付けられた自動車登録番号標(ナンバープレート)に表示される番号であってもよい。例えば、「登録番号」は、「品川500 たXX-XX」のような文字や数字等の記号を組合せたものであってもよい。また、例えば、移動体情報記憶部124には、視線方向に対応するユーザの視線が通る緯度経度の一覧情報(リスト)が格納されてもよい。また、移動体情報記憶部124は、移動体を所有(利用)するユーザを識別する情報を、移動体に対応付けて記憶してもよい。
(センサ情報記憶部125)
実施形態に係るセンサ情報記憶部125は、センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部125は、センサにより検知されたセンサ情報を記憶する。図8は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部125は、各ユーザが利用する端末装置により検知されたセンサ情報を記憶する。図8に示すセンサ情報記憶部125には、「ログID」、「取得元」、「種別」、「センサ情報」、「日時」、「位置」といった項目が含まれる。
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「取得元」は、センサ情報を検知した端末装置を示す。また、「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図8では「センサ情報」に「SN1-1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。
「日時」は、センサ情報が検知された日時を示す。「日時」には、「dt1-1」等のように抽象的に図示するが、「2018年8月9日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月9日22時31分」や「2018年8月9日22時30-31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC1-2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報であってもよい。
図8の例では、ログID「LG11」により識別される履歴情報(ログLG11)におけるセンサ情報SN1-1の取得元は、ID「TM1-1」により識別される端末装置であることを示す。すなわち、ログLG11のセンサ情報SN1-1は、端末装置TM1-1により検知されたことを示す。ログLG11のセンサ情報SN1-1は、種別「画像」である動画像情報であることを示す。また、ログLG11のセンサ情報SN1-1は、日時dt1-1において、位置LC1-2で取得(検知)されたことを示す。
なお、センサ情報記憶部125は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、端末装置10や情報提供装置等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等から各種情報を取得する。例えば、取得部131は、指向性スピーカ20から各種情報を取得してもよい。取得部131は、端末装置10からセンサ情報等の各種情報を取得する。取得部131は、端末装置10から動画像の画像情報を取得する。
取得部131は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体内に位置する複数のユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。
取得部131は、所定の移動体の位置を示す移動***置情報を取得する。取得部131は、コンテンツに関連するPOIの位置を示すPOI位置情報を取得する。取得部131は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。
取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得する。取得部131は、所定の移動体内を撮像した画像情報である移動体内画像を取得する。
取得部131は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。取得部131は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。取得部131は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報を取得する。
図1の例では、取得部131は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。取得部131は、センサ情報SN1-1の取得元は、端末装置TM1-1であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、取得部131は、センサ情報SN1-1が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。
取得部131は、図1中の移動体情報記憶部124に示すように、移動体C1における運転席の着座ユーザが、大人男性であるユーザU1であることを示す情報を取得する。また、取得部131は、図1中の移動体情報記憶部124に示すように、移動体C1における助手席の着座ユーザが、子どもであることを示す情報を取得する。
取得部131は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの位置(対象位置情報)が、移動体C1の助手席であることを示す情報を取得する。取得部131は、図1中の移動体情報記憶部124から、対象ユーザである子供ユーザCUの対象位置情報として、車内位置ID「CPS1-2」により識別される車内位置である移動体C1の助手席を示す情報を取得する。取得部131は、POI情報記憶部122(図5参照)からコンテンツCT1に関連するPOIである店舗SP1の所在地(位置LC2-1)を示す位置情報をPOI位置情報として取得する。
(推定部132)
推定部132は、各種情報を解析する。推定部132は、各種情報を推定する。推定部132は、各種情報を特定する。推定部132は、各種情報を抽出する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を解析する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を解析する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を推定する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を特定する。推定部132は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を抽出する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を解析する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
推定部132は、所定の移動体内における対象ユーザの位置を推定する。推定部132は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定する。
図1の例では、推定部132は、センサ情報SN1-1を解析する。推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1内の各車内位置におけるユーザの着座を推定する。
推定部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の移動体情報記憶部124に示すように、センサ情報SN1-1に基づいて、移動体C1の各車内位置におけるユーザの着座有無を推定する。推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の各車内位置におけるユーザの着座有無を推定する。例えば、推定部132は、特定物体認識等の物体認識に関する種々の従来技術を適宜用いて、移動体C1の運転席や助手席や後部座席にユーザが着座しているか否かを推定する。また、推定部132は、種々の従来技術を適宜用いて、着座ユーザの属性情報を推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザの性別や年代等の属性情報を推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが大人であるか子供であるかを推定する。例えば、推定部132は、人の顔認識に関する種々の従来技術を適宜用いて、着座ユーザが例えば20代以上の大人であるか、例えば10代以下の子供であるかを推定する。
図1の例では、推定部132は、センサ情報SN1-1に基づいて、移動体C1における運転席及び助手席にユーザが着座していると推定する。推定部132は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であると推定する。また、例えば、推定部132は、センサ情報SN1-1中の移動体C1の運転席の着座ユーザの顔領域の情報に基づいて、移動体C1の運転席の着座ユーザが大人男性であるユーザU1であると推定する。
推定部132は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定する。また、例えば、推定部132は、センサ情報SN1-1中の移動体C1の助手席の着座ユーザの顔領域の情報に基づいて、移動体C1の助手席の着座ユーザが子どもであると推定する。
推定部132は、センサ情報SN1-1に基づいて、移動体C1における後部座席には誰も着座していないと推定する。例えば、推定部132は、センサ情報SN1-1において、移動体C1における後部座席に対応する位置に、人の外形に対応する所定の物体が含まれない場合、後部座席にユーザが着座していないと推定する。
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を生成する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。決定部133は、決定部133により判定された各種情報に基づいて、種々の情報を決定する。決定部133は、決定部133により判定された各種情報に基づいて、種々の情報を生成する。
決定部133は、各種情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、ユーザ情報記憶部121や、POI情報記憶部122や、コンテンツ情報記憶部123や、移動体情報記憶部124や、センサ情報記憶部125等に基づいて、各種情報を判定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を判定する。決定部133は、決定部133により決定された各種情報に基づいて、種々の情報を判定する。
決定部133は、取得部131により取得された対象位置情報に基づいて、指向性を有する指向性スピーカであって、対象ユーザの位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する。決定部133は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定する。
決定部133は、対象ユーザに応じてコンテンツを決定する。決定部133は、対象ユーザの属性情報に基づいて、コンテンツを決定する。決定部133は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定する。決定部133は、推定部132により推定された対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定する。決定部133は、対象位置情報に基づいて、対象ユーザの位置に向けて音声を出力する指向性スピーカを、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカに決定する。
決定部133は、コンテンツに関する音声を出力するタイミングを決定する。決定部133は、移動***置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定する。決定部133は、移動***置情報とPOI位置情報とに基づいて、タイミングを決定する。決定部133は、移動***置情報とPOI位置情報との比較に基づいて、タイミングを決定する。決定部133は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定する。
図1の例では、決定部133は、対象ユーザを決定する。例えば、決定部133は、移動体C1内に位置する複数のユーザのうち、運転者以外の乗車者を対象ユーザに決定する。決定部133は、移動体C1の助手席に着座する子供ユーザCUを対象ユーザに決定する。
決定部133は、コンテンツを決定する。決定部133は、移動体C1の位置やコンテンツの出力条件に基づいて、コンテンツを決定する。決定部133は、移動体C1の位置LC1-2や、コンテンツ情報記憶部123に示す各出力条件に基づいて、子供ユーザCUに提供するコンテンツを決定する。決定部133は、対象とするユーザの属性やコンテンツの出力タイミングに関する出力条件に基づいてコンテンツを決定する。決定部133は、対象やタイミングに関する出力条件を満たすコンテンツを、端末装置TM1-1に出力させるコンテンツに決定する。
決定部133は、対象ユーザの属性が、出力条件のターゲットユーザに該当する場合、対象ユーザが出力条件のターゲットユーザを満たすと判定する。決定部133は、対象ユーザの属性と、各コンテンツの出力条件「ターゲットユーザ」とを比較することにより、対象ユーザが出力条件のターゲットユーザを満たすかどうかを判定する。決定部133は、対象ユーザが子どもである子供ユーザCUであるため、コンテンツCT1のターゲットユーザ「子ども」を満たすと判定する。
また、決定部133は、移動体C1の位置に基づいて、コンテンツCT1の出力条件「タイミング」を満たすかを判定する。例えば、決定部133は、移動体C1の位置LC1-2がコンテンツCT1のタイミング「範囲AR1」の領域内に位置する場合、コンテンツCT1のタイミングに関する出力条件を満たすと判定する。コンテンツCT1が対象及びタイミングに関する出力条件を満たすと判定する。そのため、決定部133は、子供ユーザCUに対して提供するコンテンツをコンテンツCT1に決定する。
決定部133は、コンテンツCT1を出力するスピーカを決定する。例えば、決定部133は、移動体C1の指向性スピーカ20のうち、子供ユーザCUの位置に向けて音声を出力する指向性スピーカ20を、コンテンツCT1に関する音声を出力させる出力対象スピーカに決定する。決定部133は、子供ユーザCUが着座している助手席に対応する指向性スピーカDS1-2を出力対象スピーカに決定する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、端末装置10等の外部の情報処理装置に各種情報を提供する。提供部134は、端末装置10に各種情報を送信する。提供部134は、端末装置10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により判定された各種情報に基づいて、種々のサービスを提供する。提供部134は、決定部133により判定された各種情報に基づいて、種々の情報を提供する。例えば、提供部134は、指向性スピーカ20に各種情報を提供する。例えば、提供部134は、端末装置10を介して指向性スピーカ20に各種情報を提供する。例えば、提供部134は、指向性スピーカ20に各種情報を送信する。例えば、提供部134は、端末装置10を介して指向性スピーカ20に各種情報を送信する。
提供部134は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する。図1の例では、提供部134は、コンテンツCT1を指向性スピーカDS1-2に提供する。提供部134は、コンテンツCT1を指向性スピーカDS1-2に送信(配信)する。提供部134は、端末装置TM1-1介して指向性スピーカDS1-2にコンテンツCT1を提供してもよい。
〔3.情報処理のフロー〕
次に、図9を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図9は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図9は、出力制御処理の一例を示すフローチャートである。
図9に示すように、情報処理装置100は、所定の移動体内における対象ユーザの対象位置情報を取得する(ステップS101)。そして、情報処理装置100は、対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定する(ステップS102)。そして、情報処理装置100は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する(ステップS103)。図1の例では、情報処理装置100は、出力対象スピーカとして決定した移動体C1の指向性スピーカDS1-2に、コンテンツCT1を提供することにより、移動体C1の助手席に座る子どもである対象ユーザに向けてコンテンツCT1を、指向性スピーカDS1-2により出力させる。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報を取得する。決定部133は、取得部131により取得された対象位置情報に基づいて、指向性を有する指向性スピーカであって、対象ユーザの位置に向けて音声を出力する指向性スピーカを、対象ユーザに対応するコンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する。
これにより、実施形態に係る情報処理装置100は、所定の移動体内における情報提供の対象となる対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体内に位置する複数のユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。決定部133は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定する。
これにより、実施形態に係る情報処理装置100は、出力対象スピーカのみにコンテンツに関する音声を出力させると決定することにより、移動体内の他のユーザへの音声出力を抑制するとともに、対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザに応じてコンテンツを決定する。
これにより、実施形態に係る情報処理装置100は、対象ユーザに応じてコンテンツを決定することにより、適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザの属性情報に基づいて、コンテンツを決定する。
これにより、実施形態に係る情報処理装置100は、対象ユーザの属性情報に基づいて、コンテンツを決定することにより、ユーザ属性に応じた適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定する。
これにより、実施形態に係る情報処理装置100は、対象ユーザを撮像した画像情報に基づいて推定された対象ユーザの属性情報に基づいて、コンテンツを決定することにより、ユーザ属性に応じた適切な内容のコンテンツをユーザに対して出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、コンテンツに関する音声を出力するタイミングを決定する。
これにより、実施形態に係る情報処理装置100は、コンテンツに関する音声を出力するタイミングを決定することにより、適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体の位置を示す移動***置情報を取得する。決定部133は、移動***置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定する。
これにより、実施形態に係る情報処理装置100は、所定の移動体の移動***置情報に基づいて、コンテンツに関する音声を出力するタイミングを決定することにより、移動体の位置に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、コンテンツに関連するPOIの位置を示すPOI位置情報を取得する。決定部133は、移動***置情報とPOI位置情報とに基づいて、タイミングを決定する。
これにより、実施形態に係る情報処理装置100は、移動***置情報とコンテンツに関連するPOIの位置を示すPOI位置情報とに基づいて、コンテンツに関する音声を出力するタイミングを決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、移動***置情報とPOI位置情報との比較に基づいて、タイミングを決定する。
これにより、実施形態に係る情報処理装置100は、移動***置情報とPOI位置情報との比較に基づいて、タイミングを決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定する。
これにより、実施形態に係る情報処理装置100は、移動体がPOIから所定の範囲内に位置した場合、コンテンツに関する音声を出力すると決定することにより、移動体とPOIとの位置関係に応じて適切なタイミングでユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報を取得する。
これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置するユーザのうち、対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカにより自動車内のユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報を取得する。
これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、自動車内に複数のユーザがいる場合であっても、適切な指向性スピーカにより対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報を取得する。
これにより、実施形態に係る情報処理装置100は、所定の移動体である自動車内に位置する複数のユーザのうち、運転者である対象ユーザの位置を示す対象位置情報に基づいて、対象ユーザに対応するコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、自動車内に複数のユーザがいる場合であっても、適切な指向性スピーカにより対象ユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100は、推定部132を有する。推定部132は、所定の移動体内における対象ユーザの位置を推定する。決定部133は、推定部132により推定された対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定する。
これにより、実施形態に係る情報処理装置100は、所定の移動体内における対象ユーザの位置を推定し、推定した対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体内を撮像した画像情報である移動体内画像を取得する。推定部132は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定する。
これにより、実施形態に係る情報処理装置100は、移動体内画像に基づいて、所定の移動体内における対象ユーザの位置を推定し、推定した対象ユーザの位置を示す対象位置情報に基づいて、出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供する。
これにより、実施形態に係る情報処理装置100は、出力対象スピーカによりコンテンツに関する音声を対象ユーザに提供することにより、適切な指向性スピーカによりユーザに対して音声を出力することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。決定部133は、対象位置情報に基づいて、対象ユーザの位置に向けて音声を出力する指向性スピーカを、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカに決定する。
これにより、実施形態に係る情報処理装置100は、所定の移動体外に位置する他のユーザの音声対話の相手先である対象ユーザの位置を示す対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体内外間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの対象位置情報を取得する。
これにより、実施形態に係る情報処理装置100は、所定の住宅内に位置する他のユーザの音声対話の相手先である対象ユーザの位置を示す対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体と住宅間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報を取得する。
これにより、実施形態に係る情報処理装置100は、他のユーザが利用する端末装置からの発信先に対応する対象ユーザの対象位置情報に基づいて、他のユーザの発話であるコンテンツに関する音声を出力させる出力対象スピーカを決定することにより、適切な指向性スピーカによりユーザに対して音声対話の相手の音声を出力することができる。これにより、情報処理装置100は、移動体内外間における音声対話に関するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体内における対象ユーザの位置に応じた適切な情報提供を可能にすることができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 POI情報記憶部
123 コンテンツ情報記憶部
124 移動体情報記憶部
125 センサ情報記憶部
130 制御部
131 取得部
132 推定部
133 決定部
134 提供部
10 端末装置
20 指向性スピーカ
N ネットワーク

Claims (15)

  1. コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部と、
    前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得部と、
    複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定部と、
    前記コンテンツを前記出力対象スピーカに送信する提供部と、
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、
    前記所定の移動体内に位置する複数のユーザのうち、前記対象ユーザの位置を示す前記対象位置情報を取得し、
    前記決定部は、
    前記出力対象スピーカのみに前記コンテンツに関する音声を出力させると決定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定部は、
    前記対象ユーザを撮像した画像情報に基づいて推定された前記対象ユーザの属性情報に基づいて、前記コンテンツを決定する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記決定部は、
    前記コンテンツに関する音声を出力するタイミングを決定する
    ことを特徴とする請求項1~のいずれか1項に記載の情報処理装置。
  5. 前記取得部は、
    前記所定の移動体の位置を示す移動***置情報を取得し、
    前記決定部は、
    前記移動***置情報に基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
    ことを特徴とする請求項に記載の情報処理装置。
  6. 前記取得部は、
    前記コンテンツに関連するPOIの位置を示すPOI位置情報を取得し、
    前記決定部は、
    前記移動***置情報と前記POI位置情報とに基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
    ことを特徴とする請求項に記載の情報処理装置。
  7. 前記決定部は、
    前記移動***置情報と前記POI位置情報との比較に基づいて、前記コンテンツに関する音声を出力するタイミングを決定する
    ことを特徴とする請求項に記載の情報処理装置。
  8. 前記決定部は、
    前記移動体が前記POIから所定の範囲内に位置した場合、前記コンテンツに関する音声を出力すると決定する
    ことを特徴とする請求項または請求項に記載の情報処理装置。
  9. 前記取得部は、
    前記所定の移動体である自動車内に位置するユーザのうち、前記対象ユーザの位置を示す前記対象位置情報を取得する
    ことを特徴とする請求項1~のいずれか1項に記載の情報処理装置。
  10. 前記取得部は、
    前記所定の移動体である自動車内に位置する複数のユーザのうち、運転者以外の乗車者である前記対象ユーザの位置を示す前記対象位置情報を取得する
    ことを特徴とする請求項に記載の情報処理装置。
  11. 前記取得部は、
    前記所定の移動体である自動車内に位置する複数のユーザのうち、運転者である前記対象ユーザの位置を示す前記対象位置情報を取得する
    ことを特徴とする請求項に記載の情報処理装置。
  12. 前記所定の移動体内における前記対象ユーザの位置を推定する推定部、
    をさらに備え、
    前記決定部は、
    前記推定部により推定された前記対象ユーザの位置を示す前記対象位置情報に基づいて、前記出力対象スピーカを決定する
    ことを特徴とする請求項1~11のいずれか1項に記載の情報処理装置。
  13. 前記取得部は、
    前記所定の移動体内を撮像した画像情報である移動体内画像を取得し、
    前記推定部は、
    前記移動体内画像に基づいて、前記所定の移動体内における前記対象ユーザの位置を推定する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部を備えたコンピュータが実行する情報処理方法であって、
    前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得工程と、
    複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定工程と、
    前記コンテンツを前記出力対象スピーカに送信する提供工程と、
    を含むことを特徴とする情報処理方法。
  15. コンテンツと前記コンテンツの出力条件であって、前記コンテンツの出力対象となる対象ユーザの属性を示す属性条件と、前記コンテンツを出力するタイミングを示すタイミング条件とからなる出力条件とを対応付けて記憶し、前記属性条件は前記対象ユーザの年齢に関する属性条件である場合を含み、前記タイミング条件は所定の移動体内における会話停止のタイミング条件である場合を含む、コンテンツ情報記憶部を備えたコンピュータに、
    前記コンテンツ情報記憶部に記憶された情報と、所定の移動体内における前記対象ユーザの位置を示す対象位置情報と、前記対象ユーザの属性情報と、前記タイミング条件を判定するための情報とを取得する取得手順と、
    複数の前記コンテンツのうち、前記対象ユーザの属性情報が前記属性条件を満たし、かつ、前記タイミング条件を判定するための情報が前記タイミング条件を満たす場合に、前記出力条件に対応付けられたコンテンツを前記対象ユーザに提供するコンテンツに決定し、前記対象位置情報に基づいて、指向性を有する指向性スピーカであって、前記対象ユーザの位置に向けて音声を出力する指向性スピーカを、前記コンテンツに関する音声を出力させる指向性スピーカである出力対象スピーカに決定する決定手順と、
    前記コンテンツを前記出力対象スピーカに送信する提供手順と、
    を実行させることを特徴とする情報処理プログラム。
JP2018157827A 2018-08-24 2018-08-24 情報処理装置、情報処理方法、及び情報処理プログラム Active JP7405502B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157827A JP7405502B2 (ja) 2018-08-24 2018-08-24 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157827A JP7405502B2 (ja) 2018-08-24 2018-08-24 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020030776A JP2020030776A (ja) 2020-02-27
JP7405502B2 true JP7405502B2 (ja) 2023-12-26

Family

ID=69622638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157827A Active JP7405502B2 (ja) 2018-08-24 2018-08-24 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7405502B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232755A (ja) 2009-03-26 2010-10-14 Kddi Corp ハンズフリー通話装置、指向性調整方法、指向性調整プログラム
JP2010283506A (ja) 2009-06-03 2010-12-16 Mitsubishi Electric Corp 車載用音響処理装置
JP2017193207A (ja) 2016-04-18 2017-10-26 アイシン精機株式会社 車室内会話支援装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006014978A (ja) * 2004-07-02 2006-01-19 Matsushita Electric Ind Co Ltd 酸素富化機
JP5045302B2 (ja) * 2007-08-10 2012-10-10 株式会社デンソー 自動車用情報提供装置
JP7049803B2 (ja) * 2017-10-18 2022-04-07 株式会社デンソーテン 車載装置および音声出力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232755A (ja) 2009-03-26 2010-10-14 Kddi Corp ハンズフリー通話装置、指向性調整方法、指向性調整プログラム
JP2010283506A (ja) 2009-06-03 2010-12-16 Mitsubishi Electric Corp 車載用音響処理装置
JP2017193207A (ja) 2016-04-18 2017-10-26 アイシン精機株式会社 車室内会話支援装置

Also Published As

Publication number Publication date
JP2020030776A (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
US10652693B2 (en) Cognitive location and navigation services for custom applications
US10409860B2 (en) Methods and systems for searching utilizing acoustical context
KR102655342B1 (ko) 컨텍스트 인식 내비게이션 음성 어시스턴트
US11308175B2 (en) Method and apparatus for enhancing a geolocation database
JPWO2019049491A1 (ja) 情報処理装置および情報処理方法
JP7139904B2 (ja) 情報処理装置及び情報処理プログラム
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
US20170083933A1 (en) Information processing device, information processing method, and non-transitory computer readable storage medium
JP7267696B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7475808B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7405502B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7294506B2 (ja) 音声メッセージシステム、サーバ装置、情報処理方法、および、プログラム
JP7260263B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6267298B1 (ja) 提供装置、提供方法、提供プログラム、端末装置、出力方法、及び出力プログラム
JP6884605B2 (ja) 判定装置
JP7032265B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023169712A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6971205B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7027281B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6898064B2 (ja) 対話決定システム、対話決定方法、対話決定プログラム、及び端末装置
JP2015150441A (ja) データ処理用のシステム、及び、このシステムの操作方法
JP2018167737A (ja) 車両に積載され、車両に乗車しているユーザとコミュニケーションが可能な車載コミュニケーション装置、コミュニケーション方法及びプログラム
JP2020027389A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093268B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023057803A (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221202

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221206

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230127

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230131

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230228

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7405502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150