JPWO2020116002A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JPWO2020116002A1
JPWO2020116002A1 JP2020559746A JP2020559746A JPWO2020116002A1 JP WO2020116002 A1 JPWO2020116002 A1 JP WO2020116002A1 JP 2020559746 A JP2020559746 A JP 2020559746A JP 2020559746 A JP2020559746 A JP 2020559746A JP WO2020116002 A1 JPWO2020116002 A1 JP WO2020116002A1
Authority
JP
Japan
Prior art keywords
information
user
unit
relative
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020559746A
Other languages
English (en)
Inventor
真一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020116002A1 publication Critical patent/JPWO2020116002A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/54Presence management, e.g. monitoring or registration for receipt of user log-on information, or the connection status of the users
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換する変換部を備える、情報処理装置が提供される。

Description

本開示は、情報処理装置及び情報処理方法に関する。
従来、指示者による音声などの指示行為によって指定された指示対象物体と、当該指示者と、の間の距離を推定する技術が知られている。例えば、特許文献1には、指示者の音声などによる入力内容に含まれる「これ」又は「それ」等の指示詞に着目し、当該指示者から指示対象物までの距離情報に変換する技術が記載されている。
特開2009−26158号公報
一方、当該指示者の周囲に、当該指示者とは異なるユーザが存在する場合には、指示者から指示対象物までの距離に関する情報である距離情報は、当該ユーザにとって有益な情報となり得る。このため、上記の距離情報のような当該ユーザの周囲の状態に関する情報である周囲情報を、ユーザに認識させることが可能な技術が求められている。しかし、特許文献1に記載の技術は、指示詞が内包している一般的な距離感を距離情報に置き換える技術であるため、指示者とは異なるユーザに、上記の距離情報をわかりやすいかたちで認識させることについては、改良の余地がある。
そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、ユーザに、当該ユーザの周囲の状態に関する周囲情報を、ユーザにとってより理解しやすいかたちで提示することを可能とする、情報処理装置及び情報処理方法を提供することにある。
本開示によれば、センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換する変換部を備える、情報処理装置が提供される。
また、本開示によれば、センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換することを含む、情報処理方法が提供される。
本開示の第1の実施形態に係る情報処理システム1の構成を示す図である。 本開示の第1の実施形態に係る情報処理装置10及びサーバ20の構成を示すブロック図である。 ユーザ特性データベースDB1を示す図である。 本開示の第1の実施形態に係る認識部210の構成を示すブロック図である。 本開示の第1の実施形態に係るシチュエーションを示す図である。 本開示の第1の実施形態に係る情報処理システム1の処理例を示すフローチャート図である。 相対情報の生成処理を示すフローチャート図である。 相対情報の通知処理を示すフローチャート図である。 統合部216が生成した第2カップ405に関する対象物情報を説明するための図である。 第2カップ405の対象物情報と、変換部131が生成した相対情報とを示す図である。 出力部140が相対情報を出力する様子を示す図である。 本開示の第2の実施形態に係るシチュエーションを説明するための図である。 本開示の第2の実施形態に係る情報処理システム2の構成を示すブロック図である。 本開示の第2の実施形態に係る認識部230の構成を示すブロック図である。 本開示の第2の実施形態に係る情報処理システム2の処理を示すフローチャート図である。 指示語発話の判定処理を示すフローチャート図である。 本開示の第2の実施形態に係る情報処理装置11が相対情報を通知する様子を示す図である。 第1の応用例に係るシチュエーションを示す図である。 第2の応用例に係る持ち方ルールデータベースDB2を示す図である。 第2の応用例に係るシチュエーションを示す図である。 第3の応用例に係る情報処理システム3の構成を示す図である。 本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.情報処理システムの全体構成
1.2.情報処理装置及びサーバの構成
1.3.処理例
1.4.効果
2.第2の実施形態
2.1.情報処理装置及びサーバの構成
2.2.処理例
2.3.効果
3.応用例
3.1.第1の応用例
3.2.第2の応用例
3.3.第3の応用例
4.ハードウェア構成
5.補足
<1.第1の実施形態>
<<1.1.情報処理システムの全体構成>>
まず、図1を参照して、本開示の第1の実施形態に係る情報処理システム1の構成について説明する。図1は、本開示の第1の実施形態に係る情報処理システム1の構成を示す図である。情報処理システム1は、情報処理装置10とサーバ20とを備える。情報処理装置10とサーバ20とは、例えばネットワーク30により接続されている。本実施形態に係る情報処理装置10は、例えばユーザU1の首にかけられることにより、ユーザU1に装着される。なお、情報処理装置10とサーバ20とは、無線で接続されていてもよいし、有線で接続されていてもよい。
<<1.2.情報処理装置及びサーバの構成>>
次に、図2を参照して、情報処理装置10及びサーバ20の構成について、より詳細に説明する。図2は、本開示の第1の実施形態に係る情報処理システム1が備える情報処理装置10及びサーバ20の構成を示すブロック図である。
(情報処理装置)
情報処理装置10は、センサ部110からのセンサ情報に基づいて生成される、ユーザU1の周囲の状態に関する一次情報である周囲情報を、ユーザU1のユーザ特性に基づいて、当該ユーザ特性に応じた二次情報である相対情報に変換する機能を有する。当該機能は、情報処理装置10が備えるセンサ部110、記憶部120、処理部130、出力部140、及び通信部150が協働することにより実現される。以下、情報処理装置10が備える各機能部について説明する。
センサ部110は、ユーザU1の周囲の状態を様々な観点から検知する機能を有する。センサ部110は、例えば、周囲の状態を画像として取得する画像取得装置を備える。画像取得装置は、カメラ等の各種の公知の撮像装置であってもよい。また、センサ装置は、例えば、距離センサ(例えばTime Of Flight方式のセンサなど)、温度センサ、又は加速度センサ等の各種の公知のセンサのうちの少なくともいずれかを含む装置である。また、センサ部110は、さらに、例えばGPS(Global Positioning System)やGLONASS(Global Navigation Satellite System)などの測位衛星から測位信号を受信する受信機を備えてもよい。
センサ部110が検知した結果は、センサ情報として、通信部150に伝達され、ネットワーク30を介してサーバ20に送信される。サーバ20は、受信したセンサ情報を認識し、認識した結果をユーザの周囲の状態に関する一次情報である周囲情報として、ネットワーク30を介して、情報処理装置10に送信する。情報処理装置10に送信された周囲情報は、通信部150を介して、処理部130に伝達される。
記憶部120は、各種の情報を記憶する機能を有する。記憶部120が備える機能は、情報処理装置10に設けられたRAM(Random Access Memory)又はROM(Read Only Memory)等の各種の公知の記録装置により実現される。
記憶部120は、例えば、ユーザのユーザ特性を表すユーザ特性情報を記憶している。より具体的には、ユーザ特性情報は、ユーザ自身の状態又はユーザが所有する持ち物などに関する情報を含む。記憶部120が記憶しているユーザ特性情報は、必要に応じて、処理部130により参照される。ユーザ特性情報は、処理部130が周囲情報を相対情報に変換する際に用いられる。
なお、記憶部120は、情報処理装置10とは異なる、例えば、クラウド上の各種のサーバに設けられてもよい。この場合、記憶部120に記憶された情報は、ネットワーク30を介して通信部150に送信され、処理部130に伝達される。また、記憶部120は、一人分のユーザ特性を記憶してもよいし、複数人分のユーザ特性を記憶してもよい。記憶部120が複数人分のユーザ特性を記憶している場合には、情報処理装置10を使用するユーザに対応するユーザ特性が、必要に応じて処理部130により参照される。
ここで、ユーザ特性情報についてより詳細に説明する。ユーザ特性情報は、ユーザの特性に関する各種の情報である。ユーザ特性情報は、ユーザ自身の状態に関する状態情報を含む。状態情報は、ユーザの身体的特徴に関する情報である身体情報を含んでもよいし、ユーザの精神的な状態に関する情報を含んでもよい。身体情報は、例えば、ユーザの身長、体重、手長(手首のしわから中指の先までの長さ)、体温、歩幅、座高、又は年齢等の情報を含んでもよい。さらに、身体情報は、ユーザが有する特有の事情(例えば、色覚に関する障害又は視野狭窄障害等の各種の障害の有無)に関する情報を含んでもよい。
また、ユーザ特性情報は、ユーザが所有する持ち物に関する持ち物情報を含んでもよい。持ち物情報は、ユーザが、例えば自宅等に所有している各種の物品に関する情報である。例えば、持ち物情報は、ユーザが自宅等に所有している食器の大きさ、種類、色、材質、又は質感等に関する情報であってもよい。
第1の実施形態では、これらのユーザ特性に関する情報は、ユーザ特性データベースDB1として、記憶部120に記憶されている。図3を参照して、ユーザ特性データベースDB1について説明する。図3は、ユーザ特性データベースDB1のデータ構成の一例を示す図である。ユーザ特性データベースDB1には、例えば、ユーザU1AとユーザU1Bとの2人分のユーザ特性が格納されている。ここでは、例えば、ユーザU1Aは大人であり、ユーザU1Bは子供である。なお、ユーザ特性データベースDB1には、幼児又は高齢者のユーザに関するユーザ特性が記録されていてもよい。また、図3では、2人分のユーザ特性が格納されている場合について図示しているが、ユーザ特性データベースDB1は、1人分のユーザ特性のみが格納されていてもよいし、3人以上のユーザ特性が格納されていてもよい。また、ユーザ特性は、図3に示すように表の形式で記憶されてもよいし、その他のいかなる形式で記憶されてもよい。
図3に示すように、ユーザ特性データベースDB1には、ユーザU1AとユーザU1Bとについて、身体情報として、身長、体重、手長、体温、歩幅、座高、及び障害の有無が記録されている。さらに、ユーザ特性データベースDB1には、ユーザU1AとユーザU1Bとについて、持ち物情報として、各々が自宅等に所持している持ち物を表す情報が記録されている。なお、各持ち物の下に記載されたかっこ書きは、当該持ち物の材質を示している。後述する情報処理システム1の処理例で示すように、処理部130が、周囲情報を、これらのユーザ特性に基づいて、当該ユーザ特性に応じた相対情報に変換する。このため、ユーザU1は、ユーザ自身にとって、より理解しやすいかたちで、周囲情報を容易に認識することができる。
処理部130は、周囲情報を、ユーザ特性に基づいて、当該ユーザ特性に応じた相対情報に変換する機能を有する。また、処理部130は、センサ部110により検知された複数の検知対象物から、ユーザに通知される対象となる通知対象物を選択し、当該通知対象物に関する当該相対情報を出力部140に出力させる機能をさらに有することが好ましい。これらの機能は、処理部130が備える変換部131、選択部132、及び出力制御部133が協働することにより実現される。
変換部131は、周囲情報を、ユーザ特性に基づいて、当該ユーザ特性に応じた二次情報である相対情報に変換する。当該相対情報は、選択部132に伝達される。
周囲情報は、センサ部110により検知された物体から想起される状況(例えば、危険が迫っている等の状況)に関する情報を含んでもよい。また、周囲情報は、センサ部110により検知された検知対象物に関する情報である対象物情報を含んでもよい。検知対象物は、例えば、ユーザの周囲に存在し、センサ部110により検知される、家具、食器、又は人等のいかなる物体であってもよい。
変換部131は、対象物情報を、ユーザ特性に応じた相対情報に変換してもよい。例えば、対象物情報が、「プラスチックのティーカップがある。」という情報であるとする。このとき、ユーザ特性情報に、「自宅にプラスチックのティーカップがある。」という持ち物情報が含まれる場合には、変換部131は、当該対象物情報を、「自宅にあるティーカップと同質の質感のティーカップがある。」という相対情報に変換する。当該相対情報は、出力部140により出力されることにより、ユーザU1に通知される。これにより、ユーザU1は、対象物情報をユーザU1にとってより一層イメージしやすいかたちで把握することが可能となり、当該検知対象物に関する情報をより容易に認識できるようになる。
変換部131は、周囲情報を、ユーザU1の身体的特徴に関する身体情報に応じた相対情報に変換してもよい。例えば、身体情報に、「歩幅:78cm」という情報が含まれるとする。このとき、周囲情報に含まれる位置情報が、「4m先にカップが存在する。」という情報であるとする。この場合、4m÷78cm=約5(歩)であることから、変換部131は、当該位置情報を、「歩いて5歩先にカップが存在する。」という相対情報に変換する。このように、当該相対情報は、ユーザの身体情報に応じた情報となる。このため、当該相対情報が出力部140により出力されると、ユーザU1は、カップの位置をより理解しやすいかたちで認識することができる。
図2に戻って、情報処理装置10の構成について説明する。センサ部110により複数の検知対象物が検知されている場合には、選択部132は、検知された複数の検知対象物から、ユーザU1に通知される対象となる通知対象物を選択する。選択された検知対象物に関する相対情報は、出力制御部133に伝達される。
選択部132は、例えば、複数の検知対象物のうち、最も高い危険度を有する検知対象物を、通知対象物として選択してもよい。検知対象物の危険度は、例えば、サーバ20により推定されている場合がある。例えば、サーバ20は、複数の検知対象物のうち、最も温度が高い検知対象物を、最も高い危険度を有する検知対象物として推定してもよい。選択部132により選択された検知対象物に関する相対情報は、出力制御部133を介して、出力部140に出力される。このため、ユーザU1は、最も高い危険度を有する検知対象物に関する対象物情報を、より理解し易いかたちで認識することができる。
出力制御部133は、選択部132から伝達された相対情報を、出力部140に出力させる機能を有する。例えば、出力部140は、音声又は画像により、相対情報を出力する。出力部140が、音声により相対情報を出力する場合には、出力制御部133は、出力制御部133が有する公知の各種の音声合成機能により、例えば文字列のデータで表された相対情報を音声情報に変換し、当該音声情報を出力部140に伝達する。これにより、出力部140は、音声により相対情報を出力することができる。また、出力制御部133は、相対情報を文字列のデータで出力部140に伝達し、出力部140が文字を出力してもよい。
出力部140は、相対情報などの各種の情報を出力する機能を有する。出力部140は、スピーカー等の各種の公知の音声を出力する音声出力装置であってもよいし、モニターなどの各種の公知の画像を出力する画像出力装置であってもよい。出力部140が相対情報を出力することにより、ユーザU1は、相対情報を認識することができる。
通信部150は、各種の情報を送受信する機能を有する。より具体的には、通信部150は、ネットワーク30を介して、サーバ20と情報を送受信する。例えば、通信部150は、センサ部110からのセンサ情報をサーバ20に送信する。また、通信部150は、周囲情報をサーバ20から受信し、当該周囲情報を処理部130に伝達する。
(サーバ)
サーバ20は、センサ部110からのセンサ情報を受信し、受信したセンサ情報に基づいて、ユーザU1の周囲の状態に関する一次情報である周囲情報を生成する機能を有する。サーバ20が有する機能は、サーバ20が備える認識部210及び通信部220が協働することにより実現される。
認識部210は、センサ部110からのセンサ情報に基づいて、周囲情報を生成する機能を有する。図4を参照して、認識部210について、より詳細に説明する。図4は、本開示の第1の実施形態に係る認識部210の構成を示すブロック図である。図4に示すように、認識部210は、例えば、一般物体認識部211、温度認識部212、位置認識部213、危険度推定部214、行為推定部215、及び統合部216を備える。
一般物体認識部211は、センサ情報に含まれる、センサ部110が取得した画像情報に含まれる物体を、各種の公知の一般物体認識技術により認識する機能を有する。例えば、一般物体認識部211は、例えば、画像情報に含まれる、家具又は食器などの各々の物体についての、大きさ、形、質感、模様、又は当該物体の名前等を認識する。一般物体認識部211が認識した物体の各々は、検知対象物として認識されてもよい。一般物体認識部211が認識した結果は、統合部216に伝達される。また、一般物体認識部211が認識した結果は、認識部210が備える他の機能部に伝達されてもよい。
温度認識部212は、センサ部110が備える温度センサによる検知結果に基づいて、温度を認識する機能を有する。例えば、温度認識部212は、画像情報に含まれる検知対象物の各々の温度を認識することができる。温度認識部212が認識した結果は、危険度推定部214及び統合部216に伝達される。
位置認識部213は、センサ部110が備える測距センサ等の距離を検知するセンサによる検知結果に基づいて、ユーザU1の位置を基準とした、検知対象物の位置情報を認識する機能を有する。例えば、位置認識部213は、ユーザU1の位置を基準とした、ユーザU1と画像情報に含まれる物体の各々との位置関係を、位置情報として認識することができる。位置認識部213が認識した結果は、統合部216に伝達される。
危険度推定部214は、検知対象物の各々について、危険度を推定する機能を有する。危険度推定部214は、例えば、温度認識部212により認識された結果に基づいて、検知対象物が有する温度が高いほど、当該検知対象物の危険度が高いことを推定してもよい。また、危険度推定部214は、検知対象物の形状に応じて、危険度を推定してもよい。危険度推定部214は、ナイフのように、先の尖った形状を有する物体を、危険度が高い検知対象物として推定してもよい。また、危険度推定部214は、消費期限などから腐っていることが推測される食べ物、又は画像情報等から喧嘩して機嫌が悪くなっていることが推測されるペットを、危険度が高い検知対象物として推定してもよい。危険度推定部214が推定した結果は、統合部216に伝達される。
行為推定部215は、情報処理装置10を身に着けているユーザU1の行為を推定する機能を有する。例えば、行為推定部215は、センサ部110が備える加速度センサ等のユーザU1の行為を検知し得るセンサからのセンサ情報に基づいて、ユーザU1の行為を推定する。行為推定部215は、例えば、加速度センサからのセンサ情報に基づいて、ユーザU1による歩く行為又は止まる行為等の各種の行為を推定してもよい。また、行為推定部215は、センサ部110が備える画像取得装置からの画像情報に基づいて、ユーザU1のジェスチャ又は目線の動きなどのふるまいを推定してもよい。行為推定部215が推定した結果は、通信部220に伝達される。
統合部216は、認識部210が備える各機能部が認識又は推定した結果を統合し、当該統合した結果を周囲情報として生成する機能を有する。例えば、統合部216は、一般物体認識部211により認識された検知対象物について、温度認識部212により認識された温度、ユーザU1と当該検知対象物との位置関係、及び当該検知対象物の危険度に関する情報を統合することにより対象物情報を生成してもよい。統合部216は、複数の検知対象物に係る対象物情報をまとめた情報を、周囲情報として生成してもよい。統合部216により生成された周囲情報は、通信部220に伝達される。
以上、認識部210が備える各機能部について説明した。図2に戻って、サーバ20が備える通信部220について説明する。通信部220は、各種の情報を送受信する機能を有する。例えば、通信部220は、ネットワーク30を介して、情報処理装置10と各種の情報を送受信する。より具体的には、通信部220は、認識部210により生成された周囲情報を、ネットワーク30を介して、情報処理装置10が備える通信部150に送信する。また、通信部220は、センサ部110からのセンサ情報を受信する。
<<1.3.処理例>>
次に、第1の実施形態に係る情報処理システム1の処理例について、具体的に説明する。
まず、図5を参照して、第1の実施形態に係るシチュエーションについて説明する。図5は、第1の実施形態に係るシチュエーションを示す図である。図5に示すシチュエーションでは、以下のような状況が想定されている。すなわち、ユーザU1が、左奥の方向を向いており、首に情報処理装置10をかけている。また、ユーザU1の前方には、略長方形の台を有する第1テーブル401と、略円形の台を有する第2テーブル402とがある。また、第1テーブル401の上には、直方体状の第1置物403と、斜線が付された円柱状の第1カップ404とが置かれている。さらに、第2テーブル402の上には、円柱状の第2カップ405が置かれている。これらの第1テーブル401、第2テーブル402、第1置物403、第1カップ404、及び第2カップ405は、センサ部110により検知され、認識部210により検知対象物として認識される。以下、第1テーブル401、第2テーブル402、第1置物403、第1カップ404、及び第2カップ405をまとめて周囲物体とも称する。
以下、図6〜図8のフローチャート図を参照して、本開示の第1の実施形態に係る情報処理システム1の処理例について説明する。図6は、本開示の第1の実施形態に係る情報処理システム1の処理例を示すフローチャート図である。以下、図6のフローチャートに沿って、処理例を説明する。
まず、相対情報の生成処理が実施される(ステップS110)。より具体的には、ステップS110では、図7のフローチャートで示される相対情報の生成処理が実施される。図7は、相対情報の生成処理を示すフローチャート図である。以下、図7に示すフローチャートに沿って、相対情報の生成処理について説明する。
まず、センサ部110が、ユーザU1の周りの状態を検知する(ステップS111)。より具体的には、センサ部110が備える画像取得装置、温度センサ、又は測距センサ等の装置がユーザU1の周りの状態を検知する。例えば、画像取得装置は、ユーザU1の周りに存在する周囲物体を表す画像を撮像し、当該周囲物体が撮像された画像情報を取得する。また、温度センサは、周囲物体の各々及び当該周囲物体の地面又は壁等の温度を表す温度情報を取得する。さらに、測距センサは、ユーザU1と周囲物体の各々との間の距離を表す距離情報を取得する。これらのセンサ部110が備える装置が取得したセンサ情報は、通信部150に伝達され、ネットワーク30を介してサーバ20に送信され、通信部220を介して、認識部210に伝達される。このようにして、認識部210は、センサ部110からのセンサ情報を取得する。
次に、認識部210は、認識処理を実施する(ステップS112)。例えば、一般物体認識部211は、画像情報に基づいて、ユーザU1の周りに存在する周囲物体の大きさ、形状、質感又は物体名等を認識する。また、一般物体認識部211は、画像情報に含まれる、周囲物体の各々を検知対象物として認識する。
また、温度認識部212は、温度情報に基づいて、ユーザU1の周囲の温度を認識する。例えば、温度認識部212は、周囲物体の各々の温度を認識する。さらに、位置認識部213は、距離情報に基づいて、ユーザU1の周りに存在する周囲物体とユーザU1との間の位置関係について認識する。例えば、位置認識部213は、ユーザU1の位置を基準とした、周囲物体の各々の位置を認識する。
危険度推定部214は、周囲物体の各々についての危険度を推定する。危険度推定部214は、周囲物体の各々の温度に基づいて、当該周囲物体の各々の危険度を推定してもよい。第1の実施形態では、第2カップ405には熱い飲み物が入っているものとする。この場合、第2カップ405は、ユーザU1にとって、やけどをする危険性を有している。また、温度認識部212は、第2カップ405が高温になっていることを認識している。このため、危険度推定部214は、第2カップ405の危険度が高いことを推定してもよい。また、温度認識部212が、第2カップ405以外の周囲物体の温度が、室温程度であることを認識している場合には、危険度推定部214は、第2カップ405を除く周囲物体の危険度が低いことを推定してもよい。ここでは、危険度推定部214は、第2カップ405の危険度が高く、それ以外の周囲物体の危険度が低いことを推定する。
これらの、一般物体認識部211、温度認識部212、位置認識部213、及び危険度推定部214が認識又は推定した結果は、統合部216に伝達される。
次に、統合部216は、周囲情報を生成する(ステップS113)。より具体的には、統合部216は、一般物体認識部211、温度認識部212、位置認識部213、及び危険度推定部214が認識した結果を統合し、統合した結果を周囲情報として生成する。
ここで、第2カップ405に関する対象物情報について、図9を参照して説明する。図9は、統合部216が生成した第2カップ405に関する対象物情報を説明するための図である。図9には、ユーザU1と、第2テーブル402の上に置かれた第2カップ405とが示されている。第2カップ405に関する対象物情報は、図9に示す情報が含まれる。具体的には、第2カップ405に関する情報には、高さ12cm、温度85℃の第2カップ405が、ユーザU1の位置を基準として、ユーザU1の正面の方向から右に30°傾いた方向の4m先、高さ100cmの位置に存在していることを表す情報が含まれる。統合部216は、周囲物体の各々について、このような対象物情報を生成し、これらの対象物情報をまとめることにより、周囲情報を生成する。
統合部216により生成された周囲情報は、通信部220に伝達される。通信部220に伝達された周囲情報は、ネットワーク30を介して、情報処理装置10が備える通信部150に送信され、処理部130が備える変換部131に伝達される。
次に、変換部131が、周囲情報を、ユーザU1のユーザ特性に基づいて、当該ユーザ特性に応じた相対情報に変換する(ステップS114)。ユーザU1のユーザ特性は、記憶部120に記憶されている。変換部131は、記憶部120からユーザ特性を表すユーザ特性情報を取得する。ここでは、ユーザU1は、図3に示したユーザ特性データベースDB1のユーザU1Aが有するユーザ特性と同一のユーザ特性を有するものとする。従って、ユーザU1の身体的特徴に関する身体情報は、身長:175cm、体重:67kg、手長:17cm、体温:36.2℃、歩幅:78cm、及び座高:96cmという情報である。また、ユーザU1の持ち物に関する持ち物情報は、ユーザU1が自宅に、緑色で陶器のティーカップ及びピンクでプラスチックのコーヒーカップを持っていることを表す情報である。変換部131は、これらのユーザ特性情報に基づいて、周囲情報を相対情報に変換する。
ここで、図10を参照して、変換部131が生成した相対情報について説明する。図10は、第2カップ405の対象物情報と、変換部131が生成した相対情報とを示す図である。図10には、第2カップ405の対象物情報と、ユーザU1Aのユーザ特性に応じた相対情報と、ユーザU1Bのユーザ特性に応じた相対情報と、が示されている。ここで、変換部131が、第2カップ405についての対象物情報を、ユーザU1Aのユーザ特性に応じた相対情報に変換する例について説明する。
変換部131は、第2カップ405についての対象物情報に含まれる、方向、距離、高さ、大きさ、温度、形状、及び質感の各々の項目に係る情報を、ユーザU1Aのユーザ特性に基づいて、それぞれ「水平1時の方向」、「歩いて5歩先」、「腰くらいの高さ」、「手のひらほどの大きさ」、「持つと熱い危険な温度」、「家にあるコーヒーカップと形が似た」、「家にあるティーカップと同じような素材の質感」という情報に変換する。このように変換された情報に基づいて、変換部131は、例えば、第2カップ405についての対象物情報を、「1時方向に歩いて5歩先に、腰のあたりに第2カップ405が置かれています。」という相対情報に変換する。これにより、周囲情報に含まれる客観的な事象の集合が、ユーザ自身の身体的特徴やユーザ自身がイメージを想起しやすいもの等を基準とした、ユーザにとってイメージしやすい相対情報へと変換される。このため、ユーザU1は、周囲情報に含まれる客観的な事実を、より把握しやすくなる。なお、ここでは、方向、距離、及び高さに関する対象物情報を相対情報に変換したが、対象物情報に含まれる任意の項目の情報を相対情報に変換してもよい。また、変換部131は、対象物情報の全ての情報を相対情報に変換してもよいし、上記のように対象物情報の一部の情報を相対情報に変換してもよい。
また、変換部131は、周囲情報を、複数の相対情報に区分けして変換してもよい。例えば、変換部131は、第2カップ405に関する対象物情報を、位置相対情報、付属相対情報、及び危険相対情報の3つの相対情報に区分けして変換してもよい。ここで、位置相対情報は、ユーザU1と第2カップ405との間の位置関係に関する情報である。当該位置相対情報は、例えば、「第2カップ405が、1時の方向に歩いて5歩先に、腰のあたりに置かれている。」という情報であってもよい。また、付属相対情報は、第2カップ405の大きさ又は質感などの第2カップ405に付属する情報である。当該付属相対情報は、例えば、「第2カップ405が、掌ほどの大きさで、家にあるカップのような作りです。」という情報であってもよい。さらに、危険相対情報は、ユーザU1に危険を喚起する情報である。危険相対情報は、例えば、「第2カップ405は、持つと熱い温度になっているので注意ください。」又は「周囲にテーブルがあるので気つけてください。」等の意味を表す情報であってもよい。
変換部131は、周囲情報に含まれる第2カップ405以外の検知対象物の各々についての対象物情報も、相対情報に変換してもよい。変換部131により生成された、検知対象物の各々についての相対情報は、選択部132に伝達される。
以上のようにして、図7のフローチャートに示す相対情報の生成処理が終了する。つまり、図6に示すフローチャートにおけるステップS110の処理が終了する。
相対情報の生成処理が実施されると、次に、通知対象物の選択処理が実施される(ステップS120)。より具体的には、選択部132が、複数の検知対象物から、ユーザU1に通知される対象となる通知対象物を選択する。例えば、選択部132は、複数の検知対象物の各々の危険度に応じて、通知対象物を選択してもよい。第1の実施形態では、第2カップ405の温度が高温であるため、第2カップ405の危険度が高いと推定されている。一方、第2カップ405以外の検知対象物の温度は、室温程度であり、第2カップ以外の検知対象物の危険度は、第2カップ405の危険度に比べて低いと推定されている。この場合、選択部132は、危険度が高いと推定されている第2カップ405を通知対象物として選択してもよい。ここでは、選択部132が、第2カップ405を通知対象物として選択する。選択された第2カップ405に係る相対情報は、出力制御部133に伝達される。
次に、相対情報の通知処理が実施される(ステップS130)。より具体的には、図8に示す処理が実施される。上述のように、変換部131は、周囲情報を3つの相対情報に区分けして変換している。ステップS130における通知処理では、出力制御部133が、これらの3つの相対情報を段階的に出力部140が出力するように、出力部140を制御する。図8は、相対情報の通知処理を示すフローチャート図である。以下、図8に示すフローチャートに沿って、相対情報の通知処理について説明する。
まず、出力制御部133は、出力部140に位置相対情報を出力させる(ステップS131)。これにより、ユーザU1に、位置相対情報が通知される。より具体的には、出力制御部133は、位置相対情報を音声として出力部140に出力させる。
ここで、図11を参照して、出力部140が位置相対情報を出力する様子を説明する。図11は、出力部140が相対情報を出力する様子を示す図である。ユーザU1は、位置相対情報が通知される際に、破線で示されるユーザU1の場所に位置している。情報処理装置10が備える出力部140は、通知対象物である第2カップ405についての位置相対情報を出力する。より具体的には、出力部140は、「第2カップ405が、1時の方向に歩いて5歩先の、腰のあたりに置かれています。」という音声501を出力する。これにより、ユーザU1は、第2カップ405の位置を容易に認識することができる。
また、このとき、出力制御部133は、出力部140に、第2カップ405以外の検知対象物に関する情報を出力させてもよい。例えば、出力制御部133は、出力部140に、「また、0時の方向に歩いて3歩先の、胸のあたりに第1カップ404が置かれています。」という音声、又は、「また、11時の方向に歩いて1歩先の、胸のあたりに第1置物403が置かれています。」という音声を出力させてもよい。
次に、出力制御部133は、出力部140に付属相対情報を出力させる(ステップS132)。これにより、ユーザU1に付属相対情報が通知される。なお、第1の実施形態では、出力制御部133は、ユーザU1の行為に基づいて、これらの3つの相対情報を段階的に出力するように、出力部140を制御する。より具体的には、出力制御部133は、ユーザU1が所定の行為をした場合に、付属相対情報を出力部140に出力させる。ここでは、出力制御部133は、ユーザU1が第2カップ405の方向(およそ図11に示す矢印の方向)に歩き始めた場合に、付属相対情報を出力部140に出力させる。なお、ユーザU1が歩き始めたことは、情報処理装置10が備える加速度センサ等が検知した情報等のユーザU1の行為に関わるセンサ情報に基づいて、サーバ20が備える行為推定部215により推定される。行為推定部215による推定結果が、通信部220、ネットワーク30、及び通信部150を介して出力制御部133に伝達されると、出力制御部133は、付属相対情報を出力部140に出力させる。具体的には、出力部140は、ユーザU1が矢印の方向に歩いている途中で、「手のひらほどの大きさで、お持ちのカップのような作りです。」という音声502を出力する。これにより、ユーザU1は、第2カップ405の大きさや質感などの情報を容易にイメージすることができる。
次に、出力制御部133は、出力部140に危険相対情報を出力させる(ステップS133)。これにより、ユーザU1に、危険相対情報が通知される。より具体的には、出力部140は、「持つと熱い温度になっているのでご注意ください。周囲にテーブルがあるので、気を付けてください。」という音声503を出力する。これにより、ユーザU1は、第2カップ405が有する危険性を理解しやすいかたちで認識することができる。これにより、ユーザU1は、気を付けながら第2カップ405をそっと持つことができる。また、ユーザU1は、第2カップ405を不用意に触れることにより火傷等することが抑止される。
出力部140が、危険相対情報を出力すると、図8の処理は終了する。すると、図6に戻って、ステップS130の処理が終了し、図6に示す処理が終了する。以上、第1の実施形態に係る情報処理システム1の処理例について説明した。
ここでは、ユーザU1は、大人のユーザU1Aである例について説明した。ユーザU1が子供のユーザU1Bである場合には、変換部131は、周囲情報を、当該ユーザU1Bに応じた相対情報に変換する。具体的には、変換部131は、第2カップ405に関する対象物情報を、図10に示したユーザU1Bの相対情報に変換する。この場合にも、変換部131は、当該対象物情報を、位置相対情報、付属相対情報、及び危険相対情報の3つの相対情報に区分けして変換してもよい。例えば、変換部131は、第2カップ405の距離と高さに関する対象物情報を、「1時の方向に歩いて7歩先の、顔の前あたりに第2カップ405が置かれています。」という位置相対情報を生成してもよい。また、変換部131は、第2カップ405の大きさ又は形状に関する対象物情報を、「第2カップ405は、両手で持つほどの大きさで、家にあるジュース用のカップみたいな作りのカップです。」という付属相対情報を生成してもよい。さらに、変換部131は、第2カップ405の危険性に関する危険相対情報を、「持つと熱い温度になっているから気を付けてね!周囲に他のテーブルもあるよ!ゆっくり気を付けてね!」という危険相対情報に変換してもよい。このとき、変換部131は、ユーザU1Bが子供であるため、子供向けの語尾を有する危険相対情報に変換している。これらの位置相対情報、付属相対情報、及び危険相対情報は、図11を参照して説明したように、出力部140により段階的に出力されてもよい。
<<1.4.効果>>
第1の実施形態では、変換部131は、センサ部110からのセンサ情報に基づいて生成される周囲情報を、ユーザU1のユーザ特性に基づいて、当該ユーザ特性に応じた相対情報に変換する。当該相対情報は、出力部140からユーザU1に出力される。ユーザU1には、ユーザU1にとって理解しやすいかたちに変換された相対情報が提示されるため、ユーザU1は、周囲情報をイメージし易くなる。このため、ユーザU1は、より容易に周囲情報を認識することができるようになる。
また、第1の実施形態では、出力制御部133は、出力部140による相対情報の出力の推移に応じて、相対情報を出力するように、出力部140を制御する。例えば、出力制御部133は、出力部140に、位置相対情報を出力させた後に、付属相対情報を出力させ、その後、危険相対情報を出力する。このため、ユーザU1は、これまでの出力の推移を踏まえた上で、相対情報を認識することができる。このため、ユーザU1は、より容易に周囲情報を認識することができるようになる。
また、変換部131は、周囲情報を、ユーザU1と第2カップ405との間の距離に関する位置相対情報と、第2カップ405の状態に関する付属相対情報及び危険相対情報とに変換する。さらに、出力制御部133は、出力部140に、当該位置相対情報を出力させ(ステップS131)た後に、当該付属相対情報及び当該危険相対情報を出力させ(ステップS132、S133)る。周囲情報の中では、検出対象物の位置情報の重要性が高い場合がある。なぜなら、ユーザU1は、検知対象物の位置情報を把握することにより、当該検知対象物に近づいたり避けたりすることにより、当該検知対象物に対する行動をとりやすくなるからである。このため、ユーザU1は、不用意に検知対象物にぶつかったり、触れたりすることが抑止される。ユーザU1は、より安全に周囲情報を認識することができる。
また、選択部132は、複数の検知対象物から、危険度が最も高い検知対象物である第2カップ405を通知対象物として選択する。出力制御部133は、出力部140に第2カップ405についての相対情報を出力させる。これにより、ユーザU1は、ユーザU1の周りに存在する危険度の高い検知対象物をより容易に認識することができるようになる。
また、変換部131は、周囲情報を、ユーザU1の周囲に存在する危険に関する情報である危険相対情報に変換する。具体的には、変換部131は、第2カップ405に関する対象物情報を、「第2カップ405が、持つと熱い温度になっているので注意ください。」又は「周囲にテーブルがあるので気つけてください。」等の意味を表す危険相対情報に変換する。当該危険相対情報が出力されることにより、ユーザU1は、検知対象物である第2カップ405の危険性をより分かりやすいかたちで認識することができる。
<2.第2の実施形態>
次に、本開示の第2の実施形態について説明する。ここでは、第1の実施形態と異なる点を中心に説明し、第1の実施形態と重複する点については省略する。まず、第1の実施形態に係るシチュエーションと第2の実施形態に係るシチュエーションとの違いについて、図12を参照して説明する。図12は、第2の実施形態に係るシチュエーションを説明するための図である。
図12には、情報処理装置11を身に着けているユーザU2と、第3テーブル411と、第4テーブル412と、が存在する。さらに、第3テーブル411の上には、第2置物413及び斜線が付された第3カップ414が置かれており、第4テーブル412の上には、第4カップ415が置かれている。第1の実施形態に係るシチュエーションと、第2の実施形態に係るシチュエーションとで異なる点は、第2の実施形態に係るシチュエーションでは、情報処理装置11を身に着けているユーザU2と異なるユーザU3が存在している点である。ここでは、ユーザU3は、ユーザU2に向かって、「これ持っていって。」という音声511を発している。このとき、ユーザU2は、ユーザU3の方を見ていないと、音声511に含まれる指示語の「これ」が、第2置物413、第3カップ414、又は第4カップ415のいずれを指すかがわからない場合がある。このような場合であっても、本開示の第2の実施形態に係る情報処理システム2の処理により、ユーザU2は、ユーザU2にとって理解しやすいかたちで、「これ」がどれを指すのかを認識できるようになる。
<<2.1.情報処理装置及びサーバの構成>>
次に、図13を参照して、本開示の第2の実施形態に係る情報処理システム2の構成について説明する。図13は、本開示の第2の実施形態に係る情報処理システム2の構成を示すブロック図である。
第1の実施形態に係る情報処理装置10と、第2の実施形態に係る情報処理装置11とで異なる点は、情報処理装置11が備えるセンサ部111及び処理部135と、サーバ21が備える認識部230と、が有する機能である。以下、それぞれの機能部について説明する。なお、記憶部120は、第1の実施形態に係る記憶部120と同様に、図3に示したユーザ特性データベースDB1に示されるユーザ特性と同一のユーザ特性を記憶している。
まず、センサ部111は、第1の実施形態に係るセンサ部110と同様に、画像取得装置と、温度センサ又は測距センサ等を含むセンサ装置を備える。センサ部111は、第1の実施形態に係るセンサ部110が備えるこれらの装置に加えて、音取得装置を備える。音取得装置は、各種の物体から発生する音や、人間が発する音声等といった、各種の音波を取得する装置であり、例えば、マイクロフォン等で構成される。音取得装置は、例えば、ユーザU3の音声511を取得する。音取得装置が取得した音に関する情報は、音情報として、通信部150に伝達される。通信部150に伝達された音情報は、ネットワーク30を介して、サーバ21の通信部220に送信され、認識部230に伝達される。
次に、図14を参照して、サーバ21が備える認識部230について説明する。図14は、第2の実施形態に係る認識部230の構成を示すブロック図である。図14に示すように、第2の実施形態に係る認識部230は、第1の実施形態に係る認識部210と同様に、一般物体認識部234、温度認識部238、位置認識部239、及び行為推定部241を備える。これらの機能部が有する機能は、実質的に第1の実施形態に係る認識部210が備えるこれらの機能部に対応する機能部が備える機能と同一であるため、ここでは説明を省略する。以下、認識部230が備える音声区間検出部231、音声認識部232、自然言語処理部233、顔認識部235、視線認識部236、ジェスチャ認識部237、及び統合部242について説明する。
音声区間検出部231は、各種の公知の音声区間検出(VAD:Voice Activity Detection)技術を用いて、センサ部111が取得した音情報において、音声が含まれる区間である音声区間を検出する。例えば、音声区間検出部231は、音情報に含まれるユーザU3による「これ持っていって。」という音声511が発話されている区間を音声区間として検出する。音声区間検出部231により音声区間が検出されると、当該音声区間に係る音情報が音声認識部232に伝達される。
音声認識部232は、各種の公知の音声認識(Automatic Speech Recognition)技術を用いて、音声区間検出部231により音声であることが検出された音声区間に係る音情報について音声認識する。例えば、音声認識部232は、音声認識した結果を、文字列のデータで表された文字情報として出力する。例えば、音声認識部232は、ユーザU3による音声511の情報を「これ持っていって。」という文字情報に変換する。音声認識部232により生成された文字情報は、自然言語処理部233に伝達される。
自然言語処理部233は、各種の公知の自然言語処理技術を用いて、音声認識部232により生成された文字情報に含まれる自然言語を処理する。より具体的には、自然言語処理部233は、文字情報に対して、形態素解析、構文解析、文脈解析、又は意味解析等を行ってもよい。例えば、自然言語処理部233は、文字情報を形態素解析することにより、当該文字情報に「あれ」又は「これ」等の指示語が含まれているか否かを判定してもよい。例えば、ユーザU3の音声511に係る文字情報「これ持っていって。」には、「これ」という指示語が含まれる。このため、自然言語処理部233は、ユーザU3の音声511に係る文字情報に指示語が含まれていることを判定する。自然言語処理部233が処理した結果は、統合部242に伝達される。
顔認識部235は、各種の公知の顔認識技術に基づいて、センサ部111が備える画像取得装置が取得した画像情報に含まれる人の顔を認識する。例えば、顔認識部235は、画像情報に含まれるユーザU3の顔を認識する。顔認識部235が認識した結果は、視線認識部236及び統合部242に伝達される。
視線認識部236は、顔認識部235が認識した結果に基づいて、人の視線を認識する。例えば、視線認識部236は、顔認識部235により認識されたユーザU3の視線を認識する。これにより、ユーザU3が、何を見ているのかが認識される。第2の実施形態では、ユーザU3が、第2カップ405を見ていることが認識される。視線認識部236が認識した結果は、統合部242に伝達される。
ジェスチャ認識部237は、センサ部111が備える画像取得装置が取得した画像情報に含まれるジェスチャを認識する。図12を参照して、具体例を説明する。図12に示すユーザU3は、第4カップ415の方向に指をさしているものとする。ジェスチャ認識部237は、画像情報に基づいて、ユーザU3による指をさすジェスチャを認識する。ジェスチャ認識部237が認識した結果は、統合部242に伝達される。
統合部242は、自然言語処理部233、一般物体認識部234、顔認識部235、視線認識部236、ジェスチャ認識部237、温度認識部238、位置認識部239、及び危険度推定部240が認識又は推定した結果を統合する。ここでは、第1の実施形態におけるユーザU1と第2カップ405との位置関係と、第2の実施形態におけるユーザU2と第4カップ415との位置関係は同一である。また、第1の実施形態に係る第2カップ405と、第2の実施形態に係る第4カップ415と、は実質的に同一のカップである。このため、統合部242は、図9を用いて説明した第2カップ405の対象物情報と実質的に同一の、第4カップ415に関する第1の情報を生成する。第2の実施形態では、統合部242は、第1の情報に加えて、自然言語処理部233、顔認識部235、視線認識部236、及びジェスチャ認識部237が認識した結果を統合する。上述のように、ユーザU3の視線が第4カップ415の方向に向いていることと、ユーザU3が「これを持っていって。」という音声511を発していることと、が認識されている。このため、統合部242は、「これ」という指示語が、第4カップ415を指していることを表す第2の情報を生成する。統合部242は、第1の情報と第2の情報とを統合することにより、第4カップ415に関する対象物情報を生成する。当該対象物情報は、通信部220に伝達され、ネットワーク30を介して、情報処理装置11が備える通信部220に送信され、選択部137に伝達される。
図13に戻って、第2の実施形態に係る情報処理装置11が備える処理部135について説明する。第2の実施形態に係る処理部135では、選択部137が行う処理が、第1の実施形態に係る処理部130が備える選択部132が行う処理と異なる。具体的には、選択部137は、周囲情報に含まれる指示語に関する情報に基づいて、通知対象物を選択する。第2の実施形態では、周囲情報には、ユーザU3による音声511に含まれる「これ」という指示語が、第4カップ415を指すことを表す情報が含まれる。このため、選択部137は、第4カップ415を通知対象物として選択する。選択部137は、第4カップ415に関する相対情報を変換部136から取得しており、当該相対情報を出力制御部138に伝達する。当該相対情報は、出力部140に伝達され、出力部140により音声として出力される。例えば、出力部140は、「第4カップ415が、1時の方向に歩いて5歩先の、腰のあたりに置かれています。」という音声を出力する。これにより、ユーザU2は、ユーザU3が「これ持っていって。」と言っているときにユーザU3を見ていなかったとしても、「これ」が第4カップ415であることを理解し易いかたちで認識することができる。
また、第2の実施形態では、変換部136は、ユーザU3の行為をきっかけとして、周囲情報を相対情報に変換する。ユーザU3による行為は、ユーザU2に周囲情報を知らせる意図を有する場合がある。このため、変換部136が、ユーザU3の行為をきっかけとして、周囲情報を相対情報に変換することにより、ユーザU2は、ユーザU3がユーザU2に知らせようとする周囲情報について、より容易に認識し易くなる。より具体的には、以下の処理例の説明で示すように、変換部136は、ユーザU3の発話をきっかけとして、周囲情報を相対情報に変換する。
<<2.2.処理例>>
次に、図15を参照して、第2の実施形態に係る情報処理システム2の処理例について、より詳細に説明する。図15は、第2の実施形態に係る情報処理システム2の処理を示すフローチャート図である。以下、図15のフローチャートに沿って、情報処理システム2の処理を説明する。
まず、指示語発話の判定処理が実施される(ステップS100)。より具体的には、図16に示す処理が実施される。図16は、指示語発話の判定処理を示すフローチャート図である。以下、図16に沿って、指示語発話の判定処理について説明する。
まず、音声区間検出部231が、ユーザU2の周りに生ずる音に音声区間があるか否かを判定する(ステップS101)。音声区間があると判定された場合(ステップS101:Yes)、ステップS102に進む。一方、音声区間が無いと判定された場合(ステップS101:No)、再度ステップS101の処理が実施される。ここでは、音声区間検出部231が、ユーザU3による「これ持っていって。」という音声511を音声区間として認識し、音声区間があることを判定する。
次に、音声認識部232が、ステップS101において認識された音声区間に含まれる音声511について、音声認識をする(ステップS102)。具体的には、音声認識部232は、音声511を、「これ持っていって。」という文字情報に変換し、当該文字情報を自然言語処理部233に伝達する。
次に、自然言語処理部233は、音声認識部232から伝達された音声認識の結果について、形態素解析する(ステップS103)。より具体的には、自然言語処理部233は、「これ持っていって。」という文字情報を、言語がもつ最小の単位に分割する。例えば、自然言語処理部233は、「これ持っていって。」という文字情報を、「これ・持っ・て・いっ・て。」という情報に変換する。
次に、自然言語処理部233は、ステップS103の解析結果に指示語が含まれるか否かを判定する(ステップS104)。指示語が含まれると判定された場合(ステップS104:Yes)、ステップS105に進む。一方、指示語が含まれないと判定された場合(ステップS104:No)、ステップS101に戻る。ここでは、ユーザU3の音声511に係る文字情報には、「これ」という指示語が含まれるため、自然言語処理部233は、ステップS103の解析結果に指示語が含まれることを判定する。
ステップS104において、ステップS103の解析結果に指示語が含まれると判定されると、自然言語処理部233は、指示語発話があったことを判定する(ステップS105)。判定された結果は、統合部242に伝達される。
次に、統合部242は、検知対象物と指示語とを対応付ける(ステップS106)。より具体的には、統合部242は、ユーザU3の目線やジェスチャ等の行為、又は指示語(例えば、「あれ」又は「これ」等)に基づいて、指示語がどの検知対象物を指しているのかを認識し、指示語が指す検知対象物と当該指示語とを対応付ける。ここでは、統合部242は、ユーザU3の目線に基づいて、ユーザU3の音声511に含まれる「これ」という指示語と、検知対象物である第4カップ415とを対応付ける。
ステップS106の処理が終了すると、図16に示す処理が終了する。すると、図15のフローチャートに戻って、ステップS100の処理が終了する。
次に、相対情報の生成処理が実施される(ステップS115)。相対情報の生成処理について、図7に示すフローチャートを参照して説明する。ステップS111及びS112の処理は、第1の実施形態におけるステップS111及びS112の処理と実質的に同一であるため、ここでは説明を省略する。
ステップS112の処理が終了すると、統合部242は、周囲情報を生成する(ステップS113)。より具体的には、統合部242は、上述した第1の情報と第2の情報とを統合することにより、第4カップ415に関する対象物情報を生成する。また、統合部242は、第4カップ415に関する対象物情報に加えて、第3テーブル411、第4テーブル412、第2置物413、及び第3カップ414に関する対象物情報を生成する。統合部242は、これらの対象物情報を統合することにより、周囲情報を生成する。生成された周囲情報は、通信部220に伝達され、ネットワーク30を介して情報処理装置11が備える通信部150に送信される。送信された周囲情報は、処理部135が備える変換部136に伝達される。
次に、変換部136は、周囲情報を、ユーザ特性に応じた相対情報に変換する(ステップS114)。第2の実施形態に係るステップS114の処理は、第1の実施形態に係るステップS114の処理と実質的に同一であるため、ここでは説明を省略する。以上、第2の実施形態に係る相対情報の生成処理(ステップS110)について説明した。
ステップS110が終了すると図15のフローチャートに戻って、選択部137は、通知対象物の選択処理を行う(ステップS121)。第2の実施形態では、選択部137は、複数の検知対象物のうち、指示語の対象となっている検知対象物を、通知対象物として選択する。ここでは、選択部137は、ユーザU3の音声511に含まれる「これ」が第4カップ415を指していることを表す情報を取得している。このため、選択部137は、第4カップ415を通知対象物として選択する。
次に、相対情報の通知処理が実施される(ステップS134)。より具体的には、第1の実施形態と同様に、図8のフローチャートに示す処理が実施される。ここで、図17を参照しながら、第2の実施形態に係る情報処理装置11による相対情報の通知処理を説明する。図17は、第2の実施形態に係る情報処理装置11が相対情報を通知する様子を示す図である。まず、出力部140は、「1時の方向に歩いて5歩先に、第2カップ405が、腰のあたりに置かれています。」という位置相対情報に相当する音声512を出力する(ステップS131)。さらに、ユーザU2が矢印の方向に歩き出すと、出力部140は、「第2カップ405の大きさは、手のひらほどの大きさで、お持ちのカップのような作りです。」という付属相対情報に相当する音声513を出力する(ステップS132)。さらに、出力部140は、「持つと熱い温度になっているのでご注意ください。周囲にテーブルがあるので気を付けてください。」という音声514を出力する(ステップS133)。これにより、ユーザU2は、ユーザU3による発話に含まれる「これ」が第4カップ415であることを、ユーザU2にとって理解しやすいかたちで認識することができる。
相対情報の通知処理が実施されると、図15に示す処理が終了する。以上、第2の実施形態に係る情報処理システム2による処理について説明した。
なお、ここでは、ユーザU2が、大人であるユーザU1Aのユーザ特性を有している場合について説明した。しかし、ユーザU2が、子供であるユーザU1Bのユーザ特性を有している場合には、第1の実施形態で説明したように、変換部136は、第2カップ405に関する対象物情報を、子供であるユーザU1Bのユーザ特性に応じた相対情報に変換する。
また、ユーザU2が、特有の事情(例えば、身体的な障害等)を有している場合がある。例えば、ユーザU2が、色覚の障害を有しており、すべての物が青っぽく見えてしまう場合がある。この場合、記憶部120には、ユーザ特性として、上記のような色覚の障害を有していることが記憶されていてもよい。例えば、図12に示したシチュエーションで、第4カップ415の色が、青色であるとする。このとき、ユーザU3が、「この青いものを持っていって。」という音声511を発話したとする。この場合、ユーザU2には、すべての物が青っぽく見えるため、どれがユーザU3が言う「この青いもの」であるのかがわからない場合がある。
この場合にも、変換部136は、第2カップ405に関する対象物情報を、ユーザU2のユーザ特性に応じた相対情報に変換する。例えば、変換部136は、当該対象物情報を、位置相対情報として、「1時の方向に歩いて5歩先に、腰のあたりに青いものが置かれています。」と情報を生成する。当該情報を表す音声は、出力部140により出力される。当該音声には、「青いもの」という表現が含まれているため、色覚に障害のあるユーザU2であっても、ユーザU3の音声511に含まれる「青いもの」がどれであるのかを容易に認識することができる。
このように、第2の実施形態に係る情報処理システム2によれば、上述のように身体的な障害などの特有の事情を有するユーザであっても、当該ユーザにとって周囲情報をより理解しやすいかたちで認識することができる。上の例では、ユーザが、色覚の障害を有している場合について説明したが、これに限らず、ユーザが、視野の縁の方から、又は、不規則に欠けて狭くなる視野狭窄の障害を有している場合にも、第2の実施形態に係る情報処理システム2は、当該ユーザが、容易に周囲情報を理解し易いかたちで認識することができるように、相対情報を出力することができる。
<<2.3.効果>>
第2の実施形態では、ユーザU2の周りに生ずる音に音声区間があるか否かが判定される(ステップS101)。音声区間があることが判定された場合(ステップS101:Yes)に、その後のステップS115の処理において、変換部136は、周囲情報を相対情報に変換する。つまり、変換部136は、ユーザU3の発話をきっかけとして、周囲情報を相対情報に変換する。これにより、ユーザU2は、ユーザU3が発話によりユーザU2に知らせようとする周囲情報について、より容易に認識することができる。
また、第2の実施形態に係る情報処理装置11によれば、発話をしたユーザU3にとっても利点がある。例えば、ユーザU3が発話したときに、ユーザU2が当該発話を聞いていたか否かを、ユーザU3が判断できない場合がある。また、ユーザU3がユーザU2に指示したい内容をユーザU2に正確に伝えることが手間である場合もある。これらのような場合であっても、ユーザU3は、例えば、視線を検知対象物に向けるだけで、指示語を含む発話を行っても、指示語の対象となる検知対象物を見ていない(又は見ることができない)ユーザU2に対して、指示することができる。一般的に、人は指示語を含む発話をすることが多いが、第2の実施形態に係る情報処理装置11によれば、ユーザU3は、指示語を含む発話により容易に他のユーザに指示することができる。さらに、ユーザU2は、指示語の対象となる検知対象物を見ていなくても(又は見ることができなくても)、発話したユーザU3が指示した検知対象物を認識することができる。この結果、ユーザU2は、自分がとるべき行動について、より容易に認識することができるようになる。
また、第2の実施形態では、音声区間に係る音声に指示語が含まれるか否かが判定される(ステップS104)。指示語が含まれることが判定されると(ステップS104:Yes)、その後のステップS115の処理において、変換部136は、周囲情報を相対情報に変換する。つまり、変換部136は、指示語が含まれるユーザU3の発話をきっかけとして、周囲情報を相対情報に変換する。例えば、「あれ」又は「これ」等の指示語は、当該指示語の対象となる検知対象物とユーザU3との間の距離に応じて使い分けられるのが一般的である。より具体的には、「あれ」という指示語は、「これ」という指示語よりも遠い物体を指す場合に用いられる。このため、ユーザU3の発話に指示語が含まれる場合には、ユーザU3が指している検知対象物がより明確になるため、当該検知対象物がより正確に認識されるようになる。このため、ユーザU2は、当該検知対象物についての対象物情報をより正確に認識できるようになる。
<3.応用例>
以下、本開示の実施形態の応用例について説明する。
<<3.1.第1の応用例>>
図18を参照して、第1の応用例について説明する。図18は、第1の応用例に係るシチュエーションを示す図である。第1の応用例に係るシチュエーションでは、ユーザU4が、ユーザU5の方に向かって歩こうとしている。ユーザU4は、第2の実施形態に係る情報処理装置11と実質的に同一の情報処理装置11を身に着けている。また、図18には図示しないが、情報処理装置11には、第2の実施形態に係るサーバ21と実質的に同等のサーバ21がネットワークを介して接続され、情報処理装置11とサーバ21とで情報処理システム2を構成している。
ユーザU4は、破線で示す第1経路523を通って、ユーザU5が居る位置まで移動しようとしている。しかし、第1経路523の途中の右手には、棚421が置かれており、当該棚421の最上段の上には、積み重ねられた本422が不安定な状態で置かれている。このとき、ユーザU5が、ユーザU4に向かって「そこ危ないよ。」という音声521を発する。
このとき、認識部230は、音声521に含まれる「そこ」という指示語が、本422を指すことを認識する。また、変換部136は、本422に関する対象物情報を、相対情報に変換する。さらに、選択部137は、本422を通知対象物として選択する。この結果、出力部140は、本422に関する相対情報を出力する。
このとき、情報処理装置11は、例えば、「2時の方向に歩いて5歩先の、頭の上あたりに物が置かれています。」という音声522を出力する。これにより、ユーザU4は、棚421の付近を通過する第1経路523を通ると、頭のあたりに物があるという情報を容易に認識することができる。これにより、ユーザU4は、第1経路523を通ると、頭に本がぶつかる可能性があることを、理解しやすいかたちで認識することができる。このため、ユーザU4は、頭に当該物がぶつかることを避けるために、棚421及び本422から少し離れた経路を通過する第2経路524を通ってユーザU5に向かうことができる。この結果、ユーザU4が本422にぶつかることが抑止される。このように、第1の応用例によれば、情報処理装置11は、ユーザU5に危険を回避するための情報を通知することができる。特に、情報処理装置11は、視覚情報に基づいて危険性を判断することが難しい場合のあるユーザ(例えば、視覚障害等の特有の事情を有するユーザ、幼児又は高齢のユーザ等)に対しても、危険を回避するための情報を通知することができる。つまり、情報処理装置11は、かかるユーザに対しても、危険を回避するための行動を提示することが可能である。
ここでは、ユーザU5が危険を喚起する対象となる物体が、棚421に積み上げられた本422である例について説明した。これに限らず、例えば、危険を喚起する対象となる物体が、自動で床を移動しながら掃除する、ひざ下程度高さを有するお掃除ロボットであってもよい。この場合には、情報処理装置11は、例えば、相対情報として、「2時の方向に5歩あるくと、足元あたりに動くものがあります。」という情報を、音声522として出力する。これにより、ユーザU4は、足元あたりの低い位置にものが存在することを理解しやすいかたちで認識することができる。この結果、ユーザU4は、お掃除ロボットにぶつからないように移動することができ、当該お掃除ロボットにぶつかる危険が抑止される。なお、ユーザU5による「そこ危ないよ。」という音声521が無い場合には、認識部230が、画像情報から当該お掃除ロボットが危険度の高い検知対象物であることを認識し、選択部137が、当該お掃除ロボットに関する相対情報を出力制御部138に伝達してもよい。この場合であっても、出力部140からお掃除ロボットに関する相対情報が出力されるため、ユーザは、当該お掃除ロボットにぶつからないように移動することができる。
<<3.2.第2の応用例>>
第2の応用例では、ユーザは、第1の実施形態に係る情報処理装置10が備える構成と実質的に同一の構成を備える情報処理装置10を装着している。また、当該情報処理装置10は、ネットワーク30により、サーバ20に接続され、当該情報処理装置10とサーバ20とで情報処理システム1を構成している。第1の実施形態と第2の応用例とで異なる点は、第2の応用例では、情報処理装置10が備える記憶部120が、ユーザ特性情報として、持ち方ルールデータベースDB2を記憶している点である。持ち方ルールデータベースDB2とは、物体の条件に応じて、当該物体の持ち方のルールを規定したデータベースである。図19を参照して、持ち方ルールデータベースDB2について説明する。
図19は、第2の応用例に係る持ち方ルールデータベースDB2を示す図である。図19に示すように、持ち方ルールデータベースDB2は、物体の条件と、当該物体の持ち方ルールとを対応付けるデータベースである。例えば、番号1に係る物体の条件は、「コップの素材が紙であるとき」である。素材が紙のコップに力を入れて持つと、当該コップがつぶれてしまう可能性がある。そこで、番号1に係る物体の条件では、当該物体の持ち方ルールは、「力を入れずにそっとコップを持つ」というルールである。出力部140が、当該ルールに応じた相対情報を出力することにより、ユーザは、コップの持ち方を理解し易いかたちで認識することができる。このため、ユーザは、コップに力を入れずにそっと持つようになり、コップを持ったときに当該コップがつぶれてしまうことが抑止される。
また、番号2に係る物体の条件は、「コップから湯気が出ているとき」である。コップから湯気が出ているときは、当該コップに高温の飲み物等が入っており、当該コップが熱くなっている場合がある。この場合、コップの真ん中を持つと、当該コップを持つユーザの手が火傷をしてしまう可能性がある。そこで、番号2に係る持ち方の条件では、持ち方ルールは、「コップの上側を持つ」というルールである。出力部140が、当該ルールに応じた相対情報を出力することにより、ユーザは、コップの上側を持つようになり、当該ユーザが火傷などをすることが抑止される。さらに、番号3に係る物体の条件は、「容器の形状がサラダボールの形状であるとき」である。容器にはサラダが入っており、片手で持ってしまうと、当該容器が傾き、当該サラダがこぼれてしまう可能性がある。そこで、番号3に係る物体の条件では、持ち方ルールは、「当該容器を片手では持たずに両手で持つ」というルールである。当該ルールに応じた相対情報が出力部140から出力されることにより、ユーザは容器を両手で持つようになり、当該容器からサラダがこぼれてしまうことが抑止される。このように、第2の応用例に係る情報処理装置11は、持ち方ルールデータベースDB2に規定された持ち方ルールに応じた相対情報を出力するため、ユーザは、物体をどのように持つべきかを認識することができる。
なお、持ち方ルールは、普段の家庭内の生活の中における、ユーザの所作を学習することにより生成されてもよい。また、当該ユーザの所作を学習することにより生成された持ち方に関する情報が、構築済みの持ち方のルールデータベースに追加されてもよい。例えば、ユーザが、サラダボールの形状を有する容器の下側を両手で持っていた場合には、番号3の「容器を片手では持たずに両手で持つ」というルールが持ち方ルールデータベースDB2に追加されてもよい。
次に、図20を参照して、第2の応用例に係る情報処理システム1が相対情報を出力する様子について説明する。図20は、第2の応用例に係るシチュエーションを示す図である。ユーザU6は、情報処理装置10を首に装着している。また、ユーザU6の前方には、第5テーブル431と第6テーブル432とが置かれている。また、第5テーブル431の上には、第3置物433と斜線が付された第5カップ434とが置かれている。また、第6テーブル432の上には、コップ435が置かれている。コップ435には、熱いお湯が入っており、コップ435から湯気436が出ているものとする。
ここで、図6のフローチャートを参照して、第2の応用例に係る情報処理システム1の処理について説明する。なお、第1の実施形態で説明した情報処理システム1と実質的に同一の処理については、ここでは省略する。
まず、相対情報の生成処理が実施される(ステップS110)。相対情報の生成処理について、図7のフローチャートを参照して説明する。まず、センサ部110が、ユーザU6の周囲の状態を検知する(ステップS111)。このとき、センサ部110は、コップ435と、コップ435から出ている湯気436とを画像情報として取得する。
次に、認識部210が、認識処理を実施する(ステップS112)。このとき、一般物体認識部211が、画像情報に含まれるコップ435が紙の材質でできていることと、当該コップ435から湯気436が出ていることとを認識する。また、温度認識部212が、当該コップ435が高温であることを認識する。また、位置認識部213が、ユーザU6を基準とした、コップ435の位置情報を認識する。さらに、危険度推定部214が、当該コップ435が高温であることと、当該コップ435から湯気436が出ていることとに基づいて、当該コップ435の危険度が高いことを認識する。
次に、統合部216が、周囲情報を生成する(ステップS113)。より具体的には、統合部216は、一般物体認識部211が認識したコップ435の材質及び当該コップ435から湯気436が出ている情報、温度認識部212が認識した当該コップ435の温度の情報、位置認識部213が認識した当該コップ435の位置情報、及び危険度推定部214が推定した当該コップ435の危険度の情報が統合されることにより、コップ435に関する対象物情報が生成される。また、統合部216は、コップ435以外の検知対象物に対する対象物情報を生成し、これらの対象物情報を統合することにより周囲情報を生成する。
次に、変換部131が、周囲情報を相対情報に変換する(ステップS114)。ここでは、コップ435に関する対象物情報が、持ち方ルールデータベースDB2に基づいて、相対情報に変換される。例えば、変換部131は、コップ435に関する対象物情報を、「つぶれないように力を入れずにそっと上側を持ってください。」という、当該コップ435の持ち方を指示する持ち方相対情報に変換する。なお、変換部131は、第1の実施形態と同様に、コップ435に関する対象物情報を、当該持ち方相対情報に加えて、位置相対情報、付属相対情報、及び危険相対情報に変換してもよい。変換部131が、周囲情報を相対情報に変換すると、ステップS110の処理が終了する。
次に、選択部132が、通知対象物の選択処理を実施する(ステップS120)。ここでは、選択部132は、高温で湯気436が出ていることに基づいて危険度が高いことを推定されたコップ435を通知対象物として選択する。
次に、相対情報の通知処理が実施される(ステップS130)。このとき、情報処理装置10が備える出力部140は、持ち方相対情報として、「つぶれないように力を入れずにそっと上側を持ってください。」という音声531を出力する。するとユーザU6は、手533でコップ435の上側をもつというイメージ532をすることができる。このため、ユーザU6は、コップ435の上側を持つことにより、例えばコップ435の中間をもって火傷をするような危険が防止される。なお、出力部140は、第1の実施形態と同様に図8のフローチャートで示したように、位置相対情報、付属相対情報、及び危険相対情報を、第1の実施形態と同様の順番で出力してもよい。この場合、出力部140が持ち方相対情報を出力するタイミングは特に限定されないが、例えば、出力部140は、危険度相対情報を出力した後に、持ち方相対情報を出力してもよい。以上、第2の応用例に係る情報処理システム1の処理について説明した。
なお、ここでは、第6テーブル432の上に熱いコップ435が置かれている例について説明したが、これに限らず、第6テーブル432には、例えばサラダが入った容器であるサラダボールが置かれていてもよい。この場合、変換部136は、記憶部120に記憶された持ち方データベースDB2に規定された番号3の持ち方ルールに基づいて、持ち方相対情報を生成する。出力部140は、当該持ち方相対情報に相対する音声として、例えば、「片手で持たずに下側をもってください。」という音声を出力する。これにより、ユーザU6は、サラダボールの持ち方を理解しやすいかたちで認識することができる。この結果、ユーザU6は、サラダボールに入ったサラダをこぼさないように、サラダボールの下側を両手で持つことができる。
<<3.3.第3の応用例>>
第3の応用例では、第1及び第2の実施形態と異なり、センサ部180が情報処理装置12から独立している。図21を参照して、第3の応用例に係る情報処理システム3について説明する。図21は、第3の応用例に係る情報処理システム3の構成を示す図である。情報処理システム3は、情報処理装置12、入出力部13、及びサーバ21を備える。情報処理装置12、入出力部13、及びサーバ21は、相互にネットワーク30により接続されている。なお、第3の応用例に係るセンサ部180は、第1又は第2の実施形態に係るセンサ部が備える機能に加えて、各種の情報を送受信する機能も有している。また、第3の応用例に係る出力制御部133は、入出力部13が備える出力部140を制御する信号を通信部150に伝達する。伝達された当該信号は、ネットワーク30を介して、入出力部13が備える出力部140に送信される。これにより、出力部140から相対情報が出力される。
第3の応用例では、ユーザは、センサ部180及び出力部140を含む入出力部13のみを身に着ける。これにより、ユーザが身に着ける装置(入出力部13)が処理する量が最小限に抑えられる。なお、情報処理装置12が備える機能部と、サーバ21とが備える機能部とは、1つの装置にまとめて設けられてもよい。
<4.ハードウェア構成>
続いて、図22を参照しながら、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例について、詳細に説明する。図22は、本開示の一実施形態に係る情報処理システム1を構成する情報処理装置10のハードウェア構成の一例を示す機能ブロック図である。
本実施形態に係る情報処理システム1を構成する情報処理装置10は、主に、CPU701と、ROM702と、RAM703と、を備える。また、情報処理装置10は、更に、ホストバス704と、ブリッジ705と、外部バス706と、インタフェース707と、入力装置708と、出力装置709と、ストレージ装置710と、ドライブ712と、接続ポート714と、通信装置716とを備える。
CPU701は、演算処理装置及び制御装置として機能し、ROM702、RAM703、ストレージ装置710又はリムーバブル記録媒体713に記録された各種プログラムに従って、情報処理装置10内の動作全般又はその一部を制御する。ROM702は、CPU701が使用するプログラムや演算パラメータ等を記憶する。RAM703は、CPU701が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス704により相互に接続されている。例えば、図2に示す変換部131、選択部132、及び出力制御部133は、CPU701により構成され得る。
ホストバス704は、ブリッジ705を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス706に接続されている。また、外部バス706には、インタフェース707を介して、入力装置708、出力装置709、ストレージ装置710、ドライブ712、接続ポート714及び通信装置716が接続される。
入力装置708は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置708は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器715であってもよい。さらに、入力装置708は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU701に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置708を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置709は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置709は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置710は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置710は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置710は、CPU701が実行するプログラムや各種データ等を格納する。例えば、図2に示す記憶部120は、ストレージ装置710により構成され得る。
ドライブ712は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ712は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体713に記録されている情報を読み出して、RAM703に出力する。また、ドライブ712は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体713に記録を書き込むことも可能である。リムーバブル記録媒体713は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体713は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体713は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート714は、情報処理装置10に直接接続するためのポートである。接続ポート714の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート714の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート714に外部接続機器715を接続することで、情報処理装置10は、外部接続機器715から直接各種のデータを取得したり、外部接続機器715に各種のデータを提供したりする。
通信装置716は、例えば、通信網(ネットワーク)717に接続するための通信デバイス等で構成された通信インタフェースである。通信装置716は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置716は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置716は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置716に接続される通信網717は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システム1を構成する情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図22では図示しないが、情報処理システム1を構成する情報処理装置10に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システム1を構成する情報処理装置10の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
<5.補足>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、図2に示した情報処理装置10及びサーバ20の構成例は、図2に示した例に限られない。情報処理装置10が備えるセンサ部110又は出力部140以外の機能部の一部又は全部がサーバ20に設けられてもよいし、サーバ20が備える一部又は全部の機能部が情報処理装置10に設けられてもよい。また、図13に示した情報処理装置11とサーバ21の構成例、及び図21に示した情報処理装置12とサーバ21の構成例についても、図2と同様に、これらの図に示した例に限られず、適宜、各機能部が情報処理装置又はサーバに配置される。
また、第2の実施形態では、変換部136は、ユーザU3の行為をきっかけに、周囲情報を相対情報に変換した。これに限らず、変換部136は、情報処理装置11を身に着けているユーザU2の行為をきっかけに、周囲情報を相対情報に変換してもよい。例えば、ユーザU2が第4カップ415に近づく行為をきっかけに、周囲情報を相対情報に変換してもよい。この場合にも、出力部140は、位置相対情報、付属相対情報、及び危険相対情報を段階的に出力してもよい。これにより、ユーザU2が近づく検知対象物についての相対情報が出力されるため、ユーザU2は、ユーザU2により関係する周囲情報を認識することができる。
また、本開示の実施形態では、ユーザ特性のうち、ユーザ自身の状態に関する状態情報として、身体情報を用いられる例を主に説明した。これに限らず、状態情報として、ユーザの例えば精神的な状態等を表す情報を用いられてもよい。この場合、例えば危険度認識部がユーザの精神的な状態に応じて、検知対象物の危険度を推定する。例えば、ユーザの精神的な状態として、ユーザの欲しているもの(例えば、好みのもの等)に応じて、変換部は、周囲情報を相対情報に変換してもよい。また、選択部は、ユーザの精神的な状態に合致する検知対象物を通知対象物として選択してもよい。これにより、ユーザの精神的な状態に応じた(例えば、好みのものに関する)相対情報が出力されるため、ユーザにとってより理解しやすいかたちで、ユーザの精神的な状態に応じた(例えば、好みの物に関する)周囲情報が提示される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換する変換部
を備える、情報処理装置。
(2)
前記周囲情報は、前記センサ部により検知された検知対象物に関する対象物情報を含み、
前記変換部は、前記対象物情報を、前記検知対象物に応じた前記相対情報に変換する、
前記(1)に記載の情報処理装置。
(3)
前記周囲情報は、前記第1のユーザの位置を基準とした、前記検知対象物の位置情報を含み、
前記変換部は、前記位置情報を、前記第1のユーザと前記検知対象物との間の位置関係に関する前記相対情報に変換する、
前記(2)に記載の情報処理装置。
(4)
前記ユーザ特性は、前記第1のユーザ自身の状態に関する状態情報を含み、
前記変換部は、前記周囲情報を、前記状態情報に応じた前記相対情報に変換する、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記ユーザ特性は、前記状態情報として、前記第1のユーザの身体的特徴に関する情報である身体情報を含み、
前記変換部は、前記周囲情報を、前記身体情報に応じた前記相対情報に変換する、
前記(4)に記載の情報処理装置。
(6)
前記変換部は、前記センサ部により検知される、前記第1のユーザと異なる第2のユーザの行為をきっかけとして、前記周囲情報を前記相対情報に変換する、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記変換部は、前記第2のユーザの発話をきっかけとして、前記周囲情報を前記相対情報に変換する、
前記(6)に記載の情報処理装置。
(8)
前記変換部は、指示語が含まれる前記第2のユーザの発話をきっかけとして、前記周囲情報を前記相対情報に変換する、
前記(7)に記載の情報処理装置。
(9)
前記変換部は、前記センサ部により検知される前記第1のユーザの行為をきっかけとして、前記周囲情報を前記相対情報に変換する、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記相対情報を出力する出力部を制御する出力制御部を、更に備え、
前記出力制御部は、前記出力の推移に応じて、前記相対情報を出力するように前記出力部を制御する、
前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記変換部は、前記周囲情報を複数の前記相対情報に区分けして変換し、
前記出力制御部は、複数の前記相対情報を段階的に出力する、
前記(10)に記載の情報処理装置。
(12)
前記出力制御部は、前記第1のユーザの行為に基づいて、複数の前記相対情報を段階的に出力するように前記出力部を制御する、
前記(11)に記載の情報処理装置。
(13)
前記変換部は、前記周囲情報を、前記第1のユーザと前記センサ部により検知される検知対象物との間の距離に関する第1の相対情報と、前記検知対象物の状態に関する第2の相対情報とに変換し、
前記出力制御部は、前記第1の相対情報を出力した後に、前記第2の相対情報を出力するように、前記出力部を制御する、
前記(11)又は(12)に記載の情報処理装置。
(14)
前記出力制御部は、複数の検知対象物から、前記第1のユーザの周囲において、危険度が最も高い前記検知対象物についての相対情報を選択的に前記出力部に出力させる、
前記(10)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記変換部は、前記周囲情報を、前記第1のユーザの周囲における危険性に関する情報を含む、前記相対情報に変換する、
前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)
センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換することを含む、
情報処理方法。
10、11 情報処理装置
110、111、180 センサ部
120 記憶部
130、135 処理部
131、136 変換部
132、137 選択部
133、138 出力制御部
140 出力部
13 入出力部
20、21 サーバ
210、230 認識部

Claims (16)

  1. センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換する変換部
    を備える、情報処理装置。
  2. 前記周囲情報は、前記センサ部により検知された検知対象物に関する対象物情報を含み、
    前記変換部は、前記対象物情報を、前記検知対象物に応じた前記相対情報に変換する、
    請求項1に記載の情報処理装置。
  3. 前記周囲情報は、前記第1のユーザの位置を基準とした、前記検知対象物の位置情報を含み、
    前記変換部は、前記位置情報を、前記第1のユーザと前記検知対象物との間の位置関係に関する前記相対情報に変換する、
    請求項2に記載の情報処理装置。
  4. 前記ユーザ特性は、前記第1のユーザ自身の状態に関する状態情報を含み、
    前記変換部は、前記周囲情報を、前記状態情報に応じた前記相対情報に変換する、
    請求項1に記載の情報処理装置。
  5. 前記ユーザ特性は、前記状態情報として、前記第1のユーザの身体的特徴に関する情報である身体情報を含み、
    前記変換部は、前記周囲情報を、前記身体情報に応じた前記相対情報に変換する、
    請求項4に記載の情報処理装置。
  6. 前記変換部は、前記センサ部により検知される、前記第1のユーザと異なる第2のユーザの行為をきっかけとして、前記周囲情報を前記相対情報に変換する、
    請求項1に記載の情報処理装置。
  7. 前記変換部は、前記第2のユーザの発話をきっかけとして、前記周囲情報を前記相対情報に変換する、
    請求項6に記載の情報処理装置。
  8. 前記変換部は、指示語が含まれる前記第2のユーザの発話をきっかけとして、前記周囲情報を前記相対情報に変換する、
    請求項7に記載の情報処理装置。
  9. 前記変換部は、前記センサ部により検知される前記第1のユーザの行為をきっかけとして、前記周囲情報を前記相対情報に変換する、
    請求項1に記載の情報処理装置。
  10. 前記相対情報を出力する出力部を制御する出力制御部を、更に備え、
    前記出力制御部は、前記出力の推移に応じて、前記相対情報を出力するように前記出力部を制御する、
    請求項1に記載の情報処理装置。
  11. 前記変換部は、前記周囲情報を複数の前記相対情報に区分けして変換し、
    前記出力制御部は、複数の前記相対情報を段階的に出力する、
    請求項10に記載の情報処理装置。
  12. 前記出力制御部は、前記第1のユーザの行為に基づいて、複数の前記相対情報を段階的に出力するように前記出力部を制御する、
    請求項11に記載の情報処理装置。
  13. 前記変換部は、前記周囲情報を、前記第1のユーザと前記センサ部により検知される検知対象物との間の距離に関する第1の相対情報と、前記検知対象物の状態に関する第2の相対情報とに変換し、
    前記出力制御部は、前記第1の相対情報を出力した後に、前記第2の相対情報を出力するように、前記出力部を制御する、
    請求項11に記載の情報処理装置。
  14. 前記出力制御部は、複数の検知対象物から、前記第1のユーザの周囲において、危険度が最も高い前記検知対象物についての相対情報を選択的に前記出力部に出力させる、
    請求項10に記載の情報処理装置。
  15. 前記変換部は、前記周囲情報を、前記第1のユーザの周囲における危険性に関する情報を含む、前記相対情報に変換する、
    請求項1に記載の情報処理装置。
  16. センサ部からのセンサ情報に基づいて生成される、第1のユーザの周囲の状態に関する一次情報である周囲情報を、前記第1のユーザのユーザ特性に基づいて、前記ユーザ特性に応じた二次情報である相対情報に変換することを含む、
    情報処理方法。
JP2020559746A 2018-12-04 2019-09-27 情報処理装置及び情報処理方法 Pending JPWO2020116002A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018227298 2018-12-04
JP2018227298 2018-12-04
PCT/JP2019/038072 WO2020116002A1 (ja) 2018-12-04 2019-09-27 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JPWO2020116002A1 true JPWO2020116002A1 (ja) 2021-11-04

Family

ID=70973747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559746A Pending JPWO2020116002A1 (ja) 2018-12-04 2019-09-27 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US20210392193A1 (ja)
EP (1) EP3893086A4 (ja)
JP (1) JPWO2020116002A1 (ja)
WO (1) WO2020116002A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020148978A1 (ja) * 2019-01-15 2020-07-23 ソニー株式会社 情報処理装置及び情報処理方法
KR20210067539A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 정보 처리 방법 및 정보 처리 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143892A (ja) * 2003-11-17 2005-06-09 Yazaki Corp 歩行支援装置
JP2007272534A (ja) * 2006-03-31 2007-10-18 Advanced Telecommunication Research Institute International 省略語補完装置、省略語補完方法、及びプログラム
JP2009026158A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 対象物指定装置、対象物指定方法およびコンピュータプログラム
JP2011071809A (ja) * 2009-09-28 2011-04-07 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
US20160034042A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
US20170323158A1 (en) * 2016-05-03 2017-11-09 John C. Gordon Identification of Objects in a Scene Using Gaze Tracking Techniques
US20180293980A1 (en) * 2017-04-05 2018-10-11 Kumar Narasimhan Dwarakanath Visually impaired augmented reality
US20190333496A1 (en) * 2016-11-14 2019-10-31 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Spatialized verbalization of visual scenes

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9411780B1 (en) * 2013-06-03 2016-08-09 Amazon Technologies, Inc. Employing device sensor data to determine user characteristics
US10521749B2 (en) * 2014-12-26 2019-12-31 Panasonic Intellectual Property Corporation Of America Risk information processing method and server device
US10154191B2 (en) * 2016-05-18 2018-12-11 Microsoft Technology Licensing, Llc Emotional/cognitive state-triggered recording
US10265218B2 (en) * 2016-08-08 2019-04-23 The Johns Hopkins University Object recognition and presentation for the visually impaired
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
US10360437B2 (en) * 2017-03-22 2019-07-23 T-Mobile Usa, Inc. Collision avoidance system for augmented reality environments
US11183167B2 (en) * 2017-03-24 2021-11-23 Sony Corporation Determining an output position of a subject in a notification based on attention acquisition difficulty

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143892A (ja) * 2003-11-17 2005-06-09 Yazaki Corp 歩行支援装置
JP2007272534A (ja) * 2006-03-31 2007-10-18 Advanced Telecommunication Research Institute International 省略語補完装置、省略語補完方法、及びプログラム
JP2009026158A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 対象物指定装置、対象物指定方法およびコンピュータプログラム
JP2011071809A (ja) * 2009-09-28 2011-04-07 Toshiba Corp テレビジョン受像装置及びテレビジョン受像方法
US20160034042A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
US20170323158A1 (en) * 2016-05-03 2017-11-09 John C. Gordon Identification of Objects in a Scene Using Gaze Tracking Techniques
US20190333496A1 (en) * 2016-11-14 2019-10-31 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Spatialized verbalization of visual scenes
US20180293980A1 (en) * 2017-04-05 2018-10-11 Kumar Narasimhan Dwarakanath Visually impaired augmented reality

Also Published As

Publication number Publication date
US20210392193A1 (en) 2021-12-16
EP3893086A1 (en) 2021-10-13
WO2020116002A1 (ja) 2020-06-11
EP3893086A4 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
US11763580B2 (en) Information processing apparatus, information processing method, and program
JP6791120B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016181670A1 (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2020116002A1 (ja) 情報処理装置及び情報処理方法
WO2016088410A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019204451A (ja) 体力測定方法、活動支援方法、プログラム及び体力測定システム
JP6572629B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2021128350A (ja) 情報処理システム、情報処理方法、および記録媒体
JP6347347B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
US20180197564A1 (en) Information processing apparatus, information processing method, and program
US20200234187A1 (en) Information processing apparatus, information processing method, and program
WO2022009504A1 (ja) 情報検索装置
JPWO2018061346A1 (ja) 情報処理装置
JP6992800B2 (ja) 情報処理装置および情報処理方法
JP2021051458A (ja) 情報処理システム、情報処理装置、方法およびプログラム
WO2019026396A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6340626B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
US11270682B2 (en) Information processing device and information processing method for presentation of word-of-mouth information
US10627897B2 (en) Head mounted display, display control device, processing method, display method, and storage medium
WO2020013007A1 (ja) 制御装置、制御方法、及びプログラム
JP2022097293A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR20210116838A (ko) 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240130