JP2024039193A - 情報処理装置、プログラム、および情報処理方法 - Google Patents

情報処理装置、プログラム、および情報処理方法 Download PDF

Info

Publication number
JP2024039193A
JP2024039193A JP2022143559A JP2022143559A JP2024039193A JP 2024039193 A JP2024039193 A JP 2024039193A JP 2022143559 A JP2022143559 A JP 2022143559A JP 2022143559 A JP2022143559 A JP 2022143559A JP 2024039193 A JP2024039193 A JP 2024039193A
Authority
JP
Japan
Prior art keywords
unit
information processing
processing device
sound
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022143559A
Other languages
English (en)
Inventor
彬任 桑原
Akito Kuwabara
真一 吉村
Shinichi Yoshimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2022143559A priority Critical patent/JP2024039193A/ja
Priority to PCT/JP2023/027195 priority patent/WO2024053271A1/ja
Publication of JP2024039193A publication Critical patent/JP2024039193A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】センシングデータに基づく周辺環境の変化の検出において、ユーザの利便性をさらに向上させる。【解決手段】センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、プログラム、および情報処理方法に関する。
ユーザがヘッドホン等の音再生装置を用いて音楽等のコンテンツを楽しむ際に、センシングデータに基づいて、センサ部またはセンサ部を含み構成された音再生装置を装着しているユーザの周辺状況の変化を検出し、検出結果に応じてコンテンツの出力を制御する技術が知られている。例えば、特許文献1には、ユーザがヘッドホンで音楽を聴いている際に、マイクロフォンで当該ユーザの発話が検出されると、再生音の音像定位を任意の位置に移動させる技術が開示されている。
特開2011-097268号公報
上記技術のように、センシングデータに基づき周辺環境の変化を検出する技術において、ユーザの利便性のさらなる向上が望まれる。
そこで、本開示では、センシングデータに基づく周辺環境の変化の検出において、ユーザの利便性をさらに向上させることが可能な、新規かつ改良された技術を提案する。
上記課題を解決するために、本開示のある観点によれば、センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータを、センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、として機能させるための、プログラムが提供される。
また、本開示によれば、センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得することと、前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始することと、を含む、コンピュータにより実行される情報処理方法が提供される。
本開示の一実施形態による情報処理システムの概要を説明するための説明図である。 第一の実施形態による情報処理装置10の構成例を説明するためのブロック図である。 イメージセンサ部110の機能構成例を説明するブロック図である。 音差分処理部1501による、情報処理装置10の周辺環境の音の変化の判断結果取得処理を説明するための流れ図である。 音差分処理部1501による差分の算出について説明するための概念図である。 第一の実施形態による情報処理装置10の動作例を説明するためのフローチャートである。 第一の実施形態によるイメージセンサ部110の動作例を説明するためのフローチャートである。 第二の実施形態による情報処理装置11の構成例を説明するためのブロック図である。 第二の実施形態によるイメージセンサ部111の構成例を説明するためのブロック図である。 第二の実施形態による情報処理装置11の動作例を説明するためのフローチャートである。 第二の実施形態によるイメージセンサ部111の動作例を説明するためのフローチャートである。 第三の実施形態による情報処理装置12の構成例を説明するためのブロック図である。 第三の実施形態によるイメージセンサ部112の構成例を説明するためのブロック図である。 第三の実施形態による情報処理装置12の動作例を説明するためのフローチャートである。 第三の実施形態によるイメージセンサ部122の動作例を説明するためのフローチャートである。 第四の実施形態の概要を説明するための説明図である。 第四の実施形態による情報処理装置13の構成例を説明するためのブロック図である。 第四の実施形態によるイメージセンサ部110の設置位置の一例を説明するための説明図である。 第四の実施形態によるイメージセンサ部110の設置位置の他の一例を説明するための説明図である。 第四の実施形態によるイメージセンサ部110の設置位置の他の一例を説明するための説明図である。 第四の実施形態による情報処理装置13の動作例を説明するためのフローチャートである。 第四の実施形態によるイメージセンサ部110の動作例を説明するためのフローチャートである。 ハードウェア構成90の一例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.概要
2.第一の実施形態
2-1.構成例
2-2.動作
3.第二の実施形態
3-1.構成例
3-2.動作
4.第三の実施形態
4-1.構成例
4-2.動作
5.第四の実施形態
5-1.構成例
5-2.動作
6.ハードウェア構成
7.補足
<1.概要>
本開示は、センシングデータに基づきユーザの周辺環境の変化を検出する技術に関する。以下では、本開示の好適な適用先として、ヘッドホンまたはHMD(Head Mounted Display)等の、ユーザが装着して音楽等のコンテンツを聴取することが可能な音再生装置を利用しているユーザの周辺環境の変化を、センシングデータに基づいて検出する例を主に説明する。
(課題の整理)
ヘッドホンまたはHMD等の頭部装着型の情報処理装置を装着しているユーザは、当該情報処理装置で音楽等のコンテンツ音を聴取していると、ユーザの周辺で発生した音に気付きにくい。また、ヘッドホンを装着して音楽等のコンテンツ再生音を聴いているユーザが他のユーザに話しかけようとすると、コンテンツ再生音が再生されたままでは、自身の音声と他のユーザの音声が聞こえづらい。そのため、ユーザには、音楽等のコンテンツの一時停止操作、または、ヘッドホンを外す等の動作を行う手間が生じる。そこで、このような不都合を解消するための様々な技術が検討されている。
例えば、上記で説明したように、特許文献1には、マイクロフォンで検出された音に基づき、周辺環境の音の変化を検出し、コンテンツ再生音の音像定位を任意の位置に移動させる技術が開示されている。
また、他の一例として、イヤホンの左右のそれぞれが有する人感センサによって、他のユーザの接近を検知し、ユーザへ通知する技術も行われている。または、他の一例として、超音波センサを用いて、イヤホンから所定の距離内に入った動体を検知し、動体が検知されるとコンテンツ再生音の消音等の方法でユーザに報知する技術も行われている。
しかし、上述のように、人感センサまたは超音波センサを用いて周辺環境の変化を検出する方法では、検出された物体または動体が、ユーザに話しかけるために接近してきた他のユーザであるのか、または、単にユーザの側を通り過ぎただけの物体または他のユーザであるのかが区別されない。
また、上述のように、周辺環境の音の変化に基づいてコンテンツ再生音の出力を制御する方法では、ユーザUが咳をした音、または、ユーザUの独り言の音等の、他のユーザへの話しかけまたは会話ではない音が発生した場合にも、コンテンツ再生音の音像定位の移動の処理が行われる場合があった。
そこで、本開示による情報処理システムは、センシングデータに基づく周辺環境の変化の検出において、ユーザの利便性をさらに向上させることが可能な技術を提供することを目的とする。より具体的に、情報処理装置10は、情報処理装置10の周辺の音および周辺の画像の2種類のセンシングデータを用いて、情報処理装置10の周辺に位置するユーザと、他のユーザとの間での話しかけまたは会話の有無を認識する。
図1は、本開示の一実施形態による情報処理システムの概要を説明するための説明図である。図1に示したように、本開示による情報処理システムは、情報処理装置10を含む。
情報処理装置10は、音を再生することが可能な情報処理装置である。図1に示した例では、情報処理装置10はヘッドホンである。情報処理装置10は、イメージセンサ部110およびマイクロフォン120を備える。
情報処理装置10は、音楽等のユーザの所望のコンテンツを出力する機能を有する。図1に示した例では、情報処理装置10は、音楽等の音コンテンツを出力する。情報処理装置10は、図1に図示しない、スマートフォン、タブレット型端末、またはPC(Personal Computer)等の任意のユーザ利用端末と有線または無線接続により通信を行い、コンテンツの再生、停止、または早送り等の操作指示を受信してもよい。
イメージセンサ部110は、情報処理装置10の周辺環境の画像を取得する機能を有する。例えば、イメージセンサ部110は、情報処理装置10に接近している他のユーザU2の画像を取得する。情報処理装置10は、当該画像を解析することにより、例えば情報処理装置10に接近している他のユーザU2を検出することが出来る。
マイクロフォン120は、情報処理装置10の周辺の音を検出する機能を有する。例えば、マイクロフォン120は、ユーザUに話しかけている、または、ユーザUと会話している他のユーザU2の音声を取得する。または、マイクロフォン120は、他のユーザU2に話かけている、または、他のユーザU2と会話しているユーザUの音声を取得することが出来る。
情報処理装置10は、マイクロフォン120により取得される周辺の音に基づいて、情報処理装置10の周辺環境の変化を検出する。さらに、情報処理装置10は、検出された周辺環境の変化が、所定の条件を満たすか否かの判断結果を取得する。所定の条件は、例えば、情報処理装置10の周辺の音が、所定の時間前と比較して、所定の閾値が示す差分以上に変化したことであってもよい。
より具体的には、例えば、他のユーザU2がユーザU1に話しかけたとする。情報処理装置10は、他のユーザU2がユーザU1に話しかけている音声をマイクロフォン120により取得する。情報処理装置10は、当該音声と、他のユーザU2がユーザU1に話しかける前の周辺の音との差分をとることにより、周辺の音が所定の閾値が示す差分以上に変化したことを検出する。すると、情報処理装置10は、周辺環境の変化が所定の条件を満たすと判断する。
また、情報処理装置10は、周辺環境の変化が所定の条件を満たす場合に、イメージセンサ部110により取得される情報処理装置10の周辺環境の画像、および、マイクロフォン120により取得される情報処理装置10の周辺の音を解析して、情報処理装置10の周辺環境の状況を認識する認識処理を行う。
例えば、情報処理装置10は、情報処理装置10の周辺環境の画像および情報処理装置10の周辺の音に基づいて、ユーザUと他のユーザとの間での話しかけ、または、会話の有無を認識してもよい。さらに、情報処理装置10は、認識結果に応じて、コンテンツの出力を制御してもよい。
例えば、情報処理装置10は、ユーザUと他のユーザとの間での話しかけが有ると認識すると、情報処理装置10が有するスピーカにおいて出力されるコンテンツ再生音を一時停止させてもよい。さらに、情報処理装置10は、話しかけが有ると認識すると、マイクロフォン120により取得される情報処理装置10の周辺の音(以下、外部音と称する)を、上記スピーカから出力させてもよい。
これにより、ユーザUが情報処理装置10を装着して音楽等のコンテンツを聞いている間に、ユーザU1または他のユーザU2がどちらかに話しかけたり、会話を継続したりしていることを認識することが出来る。さらに、ユーザUと他のユーザとの間での話しかけまたは会話が有ると認識されると、情報処理装置10から出力されるコンテンツ再生音が一時停止されるとともに、外部音が再生される。従って、ユーザUが、他のユーザから話しかけられていることに気付きやすくなる。また、ユーザUが、情報処理装置10を装着したままでも、他のユーザに話しかけたり、会話を行ったりしやすくなる。従って、ユーザの利便性が向上する。
また、情報処理装置10は、情報処理装置10の周辺の音が示す周辺環境の変化が、所定の条件を満たす場合にのみ、周辺環境の状況の認識処理を行う。これにより、情報処理装置10が、常に認識処理を行うような構成と比較して、消費電力を低減することが出来る。
以上、図1を参照して、本開示の一実施形態による情報処理システムの概要を説明した。続いて、図2~図7を参照して、本開示の情報処理システムの第一の実施形態を説明する。
<2.第一の実施形態>
<2-1.構成例>
まず、図2を参照して、第一の実施形態による情報処理装置10の構成例を説明する。図2は、第一の実施形態による情報処理装置10の構成例を説明するためのブロック図である。図2に示したように、情報処理装置10は、イメージセンサ部110、マイクロフォン120、スピーカ130、記憶部140、および、制御部150を有する。
(イメージセンサ部110)
イメージセンサ部110は、情報処理装置10の周辺環境を撮像する機能を有する。情報処理装置10は、複数のイメージセンサ部110を有していてもよい。ここで、図3は、イメージセンサ部110の機能構成例を説明するブロック図である。図3に示したように、イメージセンサ部110は、画素アレイ210およびイメージセンサ制御部220を有する。
画素アレイ210は、フォトダイオード等の受光素子によって構成され、光を検出すると電気信号を生成する機能を有する。画素アレイ210は、アレイ状に配置された複数の受光素子によって構成される。画素アレイ210は、情報処理装置10の周辺環境において反射した光を検出し、電気信号に変換することにより、情報処理装置10の周辺環境の画像を撮像する。
イメージセンサ制御部220は、イメージセンサ部110の動作全般を制御する機能を有する。このようなイメージセンサ制御部220は、画像縮小処理部2201、および、画像出力部2202としての機能を有する。
画像縮小処理部2201は、画素アレイ210から出力された電気信号に信号処理を行うことにより、画素アレイ210により取得された情報処理装置10の周辺環境の画像データの縮小処理を行う機能を有する。画像縮小処理部2201は、後述する情報処理装置10の認識部1503により行われる認識処理の入力データとして設定された画像サイズにあわせて、上記画像の縮小処理を行う。これにより、認識部1503の処理能力に応じて、認識部1503の認識処理の負荷を調整することが出来る。
なお、認識部1503により行われる認識処理の入力データとして設定された画像サイズに応じて、画素アレイ210により取得された画像データの縮小が不要である場合には、画像縮小処理部2201は上記画像の縮小処理を行わなくてもよい。この場合、イメージセンサ制御部220は、画像縮小処理部2201としての機能を有していなくてもよい。
画像出力部2202は、画像縮小処理部2201による縮小処理後の周辺環境の画像データを制御部150に出力する。または、画像出力部2202は、画像縮小処理部2201による縮小処理が行われない場合には、画素アレイ210により取得された周辺環境の画像データを、制御部150へ出力する。
以上、図3を参照して、イメージセンサ部110の構成例を説明した。
(マイクロフォン120)
マイクロフォン120は、情報処理装置10の周辺の音を取得する機能を有する。例えば、マイクロフォン120は、ユーザU1および他のユーザU2の音声の音データを取得する。情報処理装置10は、取得した周辺の音データを、制御部150へ出力する。
また、マイクロフォン120は、制御部150の制御に従い、所定時間長(例えば、数秒間)を有する時間区間において取得した音を、記憶部140の音メモリに記憶させる機能を有する。例えば、マイクロフォン120は、過去数秒分の周辺の音のデータを、音メモリに記憶させる。
(スピーカ130)
スピーカ130は、音を出力する機能を有する。スピーカ130は、骨伝導スピーカとして構成されてもよい。
(記憶部140)
記憶部140は制御部150の処理に用いられるプログラムおよび演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
(制御部150)
制御部150は、情報処理装置10の動作全般を制御する。このような制御部150は、音差分処理部1501、認識部1503、および、出力制御部1505としての機能を有する。
音差分処理部1501は、マイクロフォン120により所定時間長を有する第一の時間区間において取得された第一の音データと、マイクロフォン120により第一の時間区間と異なり上記所定時間長を有する第二の時間区間において取得された第二の音データと、に基づいて、情報処理装置10の周辺の音の変化が所定の条件を満たすか否かの判断結果を取得する。より詳細には、音差分処理部1501は、上記第一の音データと、第二の音データの差分が、所定の閾値を超えるかどうかを判断する。
ここで、図4および図5を参照して、音差分処理部1501による、音の変化が所定の条件を満たすか否かの判断結果取得の処理についてより具体的に説明する。
図4は、音差分処理部1501による、情報処理装置10の周辺環境の音の変化の判断結果取得処理を説明するための流れ図である。
図4に示したように、まず、マイクロフォン120により、情報処理装置10の周辺の音データが取得される。マイクロフォン120は、制御部150の制御に従って、現時点より過去に取得された、所定の時間長(例えば、数秒分)の情報処理装置10の周辺の音を、過去の音データとして記憶部140の音メモリに記憶させる。過去の音データは、第二の音データの一例である。
また、マイクロフォン120は、上記過去の音データと同じ所定の時間長分の、現在の情報処理装置10の周辺の音データ(例えば、現時点から過去数秒分の音データ)を、現在の音データとして音差分処理部1501に出力する。
音差分処理部1501は、マイクロフォン120および記憶部140のそれぞれから、過去の音データおよび現在の音データを取得して、過去の音データと現在の音データの差分を算出する。
図5は、音差分処理部1501による差分の算出について説明するための概念図である。図5に示した波形Wは、各音データの波形のイメージ図である。
波形W1は、過去の音データを表す。また、波形W2は、現在の音データを表す。音差分処理部1501は、波形W1と波形W2の音データの差分を算出する。波形W3は、音データの差分を表す。
また、音差分処理部1501は、波形W3が示す差分の絶対値を算出する。波形W4は、算出された差分の絶対値を表す。
さらに、音差分処理部1501は、差分の絶対値を積分し、積分値を算出する。算出された積分値は、前記差分を示す差分値の一例である。
音差分処理部1501は、算出された上記差分値が、所定の閾値を越えた場合に、情報処理装置10の周辺環境の変化が所定の条件を満たすと判断する。音差分処理部1501は、判断結果を制御部150に出力する。このような音差分処理部1501は、情報処理装置10の判断結果取得部の一例である。
または、音差分処理部1501は、算出された差分値を、制御部150に出力してもよい。この場合、制御部150が、当該差分値が所定の閾値を超えているかどうかを判断してもよい。
図4に戻って説明を続ける。制御部150は、音差分処理部1501から取得した判断結果に基づき、後述する認識部1503の認識処理を開始させる指示を出力するか否かを判定する。
図2に戻って情報処理装置10の構成例の説明を続ける。認識部1503は、音差分処理部1501または制御部150により、情報処理装置10の周辺環境の変化が所定の条件を満たすことを示す判断結果が取得されると、情報処理装置10の周辺環境の状況を認識する認識処理を開始する。
より具体的に、認識部1503は、マイクロフォン120により取得される情報処理装置10の周辺の音データと、イメージセンサ部110により取得される情報処理装置10の周辺環境の画像データを解析する。また、認識部1503は、解析結果に基づき、情報処理装置10の周辺環境の状況として、情報処理装置10の周辺に位置するユーザと他のユーザの間での話しかけまたは会話の有無を認識する。
認識部1503は、例えば、情報処理装置10の周辺の音データおよび情報処理装置10の周辺環境の画像データと、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話の有無の正解データと、を入力データとするニューラルネットワークを用いて、情報処理装置10の周辺の音データおよび周辺環境の画像データと、上記ユーザと他のユーザとの間での話しかけまたは会話の有無の関係を学習してもよい。また、認識部1503は、学習の結果得られたモデルを用いて、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話の有無を認識してもよい。
または、認識部1503は、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけが無い状態での、情報処理装置10の周辺の音データおよび情報処理装置10の周辺環境の画像データのみを入力データとするニューラルネットワークを用いて、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけが無い状態の情報処理装置10の周辺の音データおよび周辺環境の画像データを学習してもよい。この場合、認識部1503は、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話が有る状態の情報処理装置10の周辺の音データおよび情報処理装置10の周辺環境の画像データが入力された場合に、情報処理装置10の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話を検出してもよい。
このとき、認識部1503は、上記入力データとして、画像縮小処理が行われた状態の周辺環境の画像データを用いてもよい。これにより、認識部1503による認識処理の負荷を低減することが可能である。
出力制御部1505は、認識部1503により情報処理装置10の周辺のユーザと他のユーザとの間での話しかけまたは会話が有ると認識されると、スピーカ130により出力されるコンテンツの出力を制御する機能を有する。
例えば、出力制御部1505は、認識部1503により話しかけまたは会話が有ると認識されると、スピーカ130により出力されていたコンテンツ再生音を一時停止させる処理を行ってもよい。または、コンテンツの出力の制御の他の一例として、出力制御部1505は、情報処理装置10の外部音をスピーカ130に出力させてもよい。または、コンテンツの出力の制御の他の一例として、出力制御部1505は、スピーカ130により出力されるコンテンツ再生音の音量を低減させる処理、または、コンテンツ音の音像定位を変化させる処理を行ってもよい。
さらに、情報処理装置10は、図2に図示しない、連続または断続した振動を発生させることが可能なバイブレータ(振動機)を備えていてもよい。この場合、出力制御部1505は、コンテンツの出力の制御の他の一例として、当該バイブレータに振動を発生させる制御を行ってもよい。または、情報処理装置10が任意のユーザ利用端末と通信接続されており、かつ、当該ユーザ利用端末にバイブレータ機能が有る場合には、出力制御部1505は、コンテンツの出力の制御の他の一例として、当該ユーザ利用端末を振動させる制御を行ってもよい。
このように、認識部1503によりユーザ間での話しかけまたは会話が有ると認識された場合に出力制御部1505がコンテンツの出力の制御を行うことで、ユーザU1は、情報処理装置10でコンテンツ再生音を聞いている場合でも、周囲から話しかけられていることに気付きやすくなる。また、ユーザU1が周囲に話しかける、または、他のユーザと会話を行う間に、コンテンツ再生音の停止操作または情報処理装置10を頭部から外す動作を行う手間が省略される。従って、ユーザの利便性が向上する。
以上、図2~図6を参照して、第一の実施形態による情報処理装置10の構成例を説明した。続いて、図6を参照して、第一の実施形態による情報処理装置10の動作例を説明する。
<2-2.動作>
図6は、第一の実施形態による情報処理装置10の動作例を説明するためのフローチャートである。まず、情報処理装置10の音差分処理部1501が、マイクロフォン120および記憶部140のそれぞれから、過去の音データおよび現在の音データを取得する(S101)。
次いで、音差分処理部1501が、過去の音データと現在の音データの差分値を算出する(S103)。
算出された差分値が所定の閾値を越えていない場合(S105/NO)、情報処理装置10は、S101に戻って一連の処理を繰り返す。
算出された差分値が所定の閾値を越えている場合(S105/YES)、制御部150は、認識部1503に、情報処理装置10の周辺環境の状況の認識処理を開始する指示を出力する(S105)。認識部1503は、認識処理を行う(S111)。
認識部1503により、情報処理装置10の周辺のユーザと他のユーザの間での話しかけ、または、会話が有ると認識されなかった場合(S113/NO)、出力制御部1505は、スピーカ130に外部音を出力させる処理である、外部音取り込み機能をOFFにし(S119)、S101に戻って一連の処理を繰り返す。
認識部1503により、情報処理装置10の周辺のユーザと他のユーザの間での話しかけ、または、会話が有ると認識された場合(S113/YES)、出力制御部1505は、外部音取り込み機能をONにする(S115)。
情報処理装置10の一連の処理を終了する終了操作が行われた場合(S117/YES)、情報処理装置10は処理を終了する。情報処理装置10は、一連の処理を終了する終了操作が行われるまで、S101~S119の処理を繰り返す(S117/NO)。
以上、図6を参照して、第一の実施形態による情報処理装置10の動作例を説明した。続いて、図7を参照して、第一の実施形態によるイメージセンサ部110の動作例を説明する。
図7は、第一の実施形態によるイメージセンサ部110の動作例を説明するためのフローチャートである。図7のフローチャートに示した動作は、図6のフローチャートに示した動作の開始と同時に開始され、並列して実行される。
まず、イメージセンサ部110の画素アレイ210は、情報処理装置10の周辺環境の画像データの取得を開始する(S201)。画素アレイ210は、制御部150から、認識部1503による周辺環境の状況の認識処理を開始する指示が出力されるまで、周辺環境の画像データの取得を継続する(S203/NO)。
制御部150から、認識部1503による周辺環境の状況の認識処理を開始する指示が出力されると(S203/YES)、イメージセンサ部110の画像縮小処理部2201は、画素アレイ210により取得された周辺環境の画像データを、所定の解像度に縮小する処理を行う(S205)。
画像出力部2202は、画像縮小処理部2201により縮小処理が行われた周辺環境の画像データを、認識部1503に出力する(S207)。
イメージセンサ部110の一連の処理を終了する終了操作が行われた場合(S209/YES)、イメージセンサ部110は処理を終了する。イメージセンサ部110は、一連の処理を終了する終了操作が行われるまで、S201~S209の処理を繰り返す(S209/NO)。
以上、図7を参照して、第一の実施形態によるイメージセンサ部110の動作例を説明した。続いて、図8~図11を参照して、本開示の第二の実施形態による情報処理システムについて説明する。
<3.第二の実施形態>
第二の実施形態では、イメージセンサ部111のイメージセンサ制御部221が、情報処理装置11の周辺環境の状況を認識する認識処理を行う。まず、図8および図9を参照して、第二の実施形態による情報処理装置11の構成例を説明する。
<3-1.構成例>
図8は、第二の実施形態による情報処理装置11の構成例を説明するためのブロック図である。図8に示したように、情報処理装置11は、イメージセンサ部111、マイクロフォン120、スピーカ130、記憶部140、および、制御部151を有する。なお、マイクロフォン120、スピーカ130、および、記憶部140は、上記で図2を参照して説明した通りであるので、ここでの重複する説明を省略する。
イメージセンサ部111は、第一の実施形態によるイメージセンサ部110と同様に、情報処理装置10の周辺環境の画像を取得する機能を有する。さらに、イメージセンサ部111は、第一の実施形態における認識部1503、および、出力制御部1505に相当する機能を有する。
図9は、第二の実施形態によるイメージセンサ部111の構成例を説明するためのブロック図である。図9に示したように、イメージセンサ部111は、画素アレイ210およびイメージセンサ制御部221を有する。
画素アレイ210は、第一の実施形態による画素アレイ210に相当する機能を有する。
イメージセンサ制御部221は、第一の実施形態によるイメージセンサ制御部220と同様に、画像縮小処理部2201、および、画像出力部2202としての機能を有する。さらに、第二の実施形態によるイメージセンサ制御部221は、認識部2203および出力制御部2204としての機能を有する。
認識部2203は、第一の実施形態による認識部1503に相当する機能を有する。画像出力部2202は、情報処理装置10の音差分処理部1501により、認識処理を開始する指示が出力されると、画像出力部2202から出力される情報処理装置10の周辺環境の画像データと、情報処理装置11の120により取得される情報処理装置10の周辺の音データに基づいて、情報処理装置10の周辺環境の状況を認識する認識処理を行う。認識部2203は、認識処理の結果を出力制御部2204に出力する。
出力制御部2204は、第一の実施形態による出力制御部1505に相当する機能を有する。出力制御部2204は、認識部2203による周辺環境の状況の認識結果に応じて、スピーカ130から出力されるコンテンツを制御する。
(制御部151)
図8に戻って、情報処理装置11の構成例の説明を続ける。制御部151は、情報処理装置11の動作全般を制御する機能を有する。このような情報処理装置11は、音差分処理部1501としての機能を有する。音差分処理部1501は、上記で図2を参照して説明した通りであるので、ここでの重複する説明を省略する。
以上、図8および図9を参照して、第二の実施形態による情報処理装置11の構成例を説明した。
<3-2.動作>
図10は、第二の実施形態による情報処理装置11の動作例を説明するためのフローチャートである。なお、図10において、S101、S103、S107、およびS117は、上記で図6を参照して説明した通りであるので、ここでの重複する説明を省略する。
S101~S103の処理が行われたのち、情報処理装置11の音差分処理部1501は、算出された差分値が所定の閾値を超えているか否かを判定する。差分値が所定の閾値を超えていない場合(S301/NO)、情報処理装置11は、S101~S301の処理を繰り返す。
差分値が所定の閾値を超えている場合(S301/YES)、制御部151は、イメージセンサ部111へ、認識処理を開始する指示を出力する(S107)。次いで、S117の処理が行われる(S117)。
以上、図10を参照して、第二の実施形態による情報処理装置11の動作例を説明した。続いて、図11を参照して、第二の実施形態によるイメージセンサ部111の動作例を説明する。
図11は、第二の実施形態によるイメージセンサ部111の動作例を説明するためのフローチャートである。なお、図11において、S201、S205、S207、およびS209は、上記で図7を参照して説明した通りであるので、ここでの重複する説明を省略する。
S201の処理に次いで、イメージセンサ部111の画像縮小処理部2201は、情報処理装置10の制御部151により、認識処理を開始する指示が出力されたか否かを判定する。認識処理を開始する指示が出力されていない場合(S403/NO)、S201~S403の処理を繰り返す。
認識処理を開始する指示が出力された場合(S403/YES)、S205~S207の処理が行われる。次いで、イメージセンサ部111の認識部2203が、周辺環境の状況を認識する認識処理を行う(S409)。
認識部2203により、情報処理装置10の周辺のユーザと他のユーザの間での話しかけ、または、会話が有ると認識されなかった場合(S413/NO)、出力制御部2204は、外部音取り込み機能をOFFにするための制御信号を出力し(S417)、S201に戻って一連の処理を繰り返す。
認識部2203により、情報処理装置10の周辺のユーザと他のユーザの間での話しかけ、または、会話が有ると認識された場合(S413/YES)、出力制御部2204は、外部音取り込み機能をONにするための制御信号を出力する(S415)。次いで、S209の処理が行われる。
以上、図11を参照して、第二の実施形態によるイメージセンサ部111の動作例を説明した。続いて、図12~図15を参照して、本開示の第三の実施形態による情報処理システムについて説明する。
<4.第三の実施形態>
第三の実施形態では、第一の実施形態において認識部1503が行っていた、情報処理装置10の周辺環境の状況の認識処理が、後述する情報処理装置12の制御部152と、イメージセンサ部112のイメージセンサ制御部122とに分担して実施される。
<4-1.構成例>
図12は、第三の実施形態による情報処理装置12の構成例を説明するためのブロック図である。図12に示したように、情報処理装置12は、イメージセンサ部112、マイクロフォン120、スピーカ130、記憶部140、および、制御部152を有する。なお、マイクロフォン120、スピーカ130、および、記憶部140は、上記で図2を参照して説明した通りであるので、ここでの重複する説明を省略する。
イメージセンサ部112は、第一の実施形態によるイメージセンサ部110と同様に、情報処理装置12の周辺環境の画像を取得する機能を有する。さらに、イメージセンサ部112は、情報処理装置12の周辺環境の画像を解析して画像認識を行う機能を有する。
また、イメージセンサ部112は、後述する音認識処理部1506により出力される情報処理装置12の周辺の音の解析結果と、イメージセンサ部112による周辺環境の画像の解析結果に基づいて、情報処理装置12の周辺環境の状況を推定する機能を有する。情報処理装置12は、例えば、情報処理装置12に障害物が接近していることを推定し、スピーカ130に、ユーザへの通知等を出力させる。
図13は、第三の実施形態によるイメージセンサ部112の構成例を説明するためのブロック図である。図13に示したように、イメージセンサ部112は、画素アレイ210およびイメージセンサ制御部222を有する。
画素アレイ210は、第一の実施形態による画素アレイ210に相当する機能を有する。
イメージセンサ制御部222は、第一の実施形態によるイメージセンサ制御部220と同様に、画像縮小処理部2201、および、画像出力部2202としての機能を有する。さらに、第三の実施形態によるイメージセンサ制御部222は、画像認識処理部2205としての機能を新たに有する。
画像認識処理部2205は、情報処理装置12の音認識処理部1506により認識処理を開始する指示が出力されると、画像出力部2202から出力される情報処理装置12の周辺環境の画像データを解析することにより、画像認識を行う機能を有する。例えば、画像出力部2202は、機械学習により予め学習済みのモデルを用いて、情報処理装置12に接近する障害物と推定される移動体を認識してもよい。画像認識処理部2205は、画像の解析結果(画像認識処理の結果)を後述する周辺環境推定部1507に出力する。
(制御部152)
図12に戻って、情報処理装置12の構成例の説明を続ける。制御部152は、情報処理装置12の動作全般を制御する機能を有する。このような情報処理装置12は、音差分処理部1501、および、音認識処理部1506としての機能を有する。音差分処理部1501は、上記で図2を参照して説明した通りであるので、ここでの重複する説明を省略する。
音認識処理部1506は、情報処理装置12の周辺の音を解析することにより、音認識を行う機能を有する。例えば、音認識処理部1506は、機械学習により予め学習済みのモデルを用いて、情報処理装置12の周辺の音から、情報処理装置12に接近する障害物と推定される移動体を認識してもよい。音認識処理部1506は、音の解析結果(音認識処理の結果)を周辺環境推定部1507に出力する。
周辺環境推定部1507は、画像出力部2202による情報処理装置12の周辺環境の画像データの解析結果と、音認識処理部1506による情報処理装置12の周辺の音データの解析結果に基づいて、情報処理装置12の周辺環境の状況を推定する、周辺環境推定処理を行う機能を有する。より詳細には、周辺環境推定部1507は、情報処理装置12に障害物と推定される移動物体が接近していることを推定してもよい。このような周辺環境推定部1507は、情報処理装置12の認識部の一例である。
例えば、周辺環境推定部1507は、人または車などの、音を発する移動物体が情報処理装置12に接近していることを推定してもよい。
周辺環境推定部1507は、音認識処理部1506による音の解析結果と、画像認識処理部2205による画像解析結果を入力データとするニューラルネットワークを用いて、上記音の解析結果、上記画像解析結果、および、周辺環境の状況を示す正解データの関係を学習してもよい。周辺環境推定部1507は、学習済みのモデルを用いて、周辺環境の状況を推定してもよい。
または、周辺環境の状況の推定処理として、周辺環境推定部1507は、音認識処理部1506による音の解析結果と、画像認識処理部2205による画像解析結果に応じて、ルールベースの推定処理を行ってもよい。例えば、周辺環境推定部1507は、音の解析結果および画像解析結果のいずれもが同一の周辺環境の状況を示す認識結果である場合に、当該認識結果を情報処理装置12の周辺環境の状況の推定結果としてもよい。
また、周辺環境推定部1507は、周辺環境推定処理の結果に応じて、スピーカ130から出力されるコンテンツを制御する機能を有する。例えば、周辺環境推定部1507は、スピーカ130から、障害物の接近をユーザに知らせる通知メッセージを出力する制御を行ってもよい。または、周辺環境推定部1507は、スピーカ130から出力されるコンテンツ再生音の一時停止、コンテンツ再生音の音量の低減、または、コンテンツ再生音の音像定位の変化の、いずれか一つ以上の制御を行ってもよい。
以上、図12および図13を参照して、第三の実施形態による情報処理装置12の構成例を説明した。
<4-2.動作>
図14は、第三の実施形態による情報処理装置12の動作例を説明するためのフローチャートである。なお、図14において、S101、S103、S105、およびS107は、上記で図6を参照して説明した通りであるので、ここでの重複する説明を省略する。
S101~S105の処理が行われたのち、情報処理装置12の音差分処理部1501により、算出された差分値が、所定の閾値を超えている場合(S507/YES)、制御部151は、画像認識処理部2205および音認識処理部1506へ、認識処理を開始する指示を出力する(S507)。次いで、音認識処理部1506が、音認識処理を行う(S511)。
次いで、周辺環境推定部1507は、イメージセンサ部112の画像認識処理部2205による画像認識処理結果を取得する(S513)。周辺環境推定部1507は、周辺環境推定処理を行う(S515)。
周辺環境推定部1507は、推定した周辺環境の状況から、外部音取り込み機能を起動するか否かを決定する(S517)。周辺環境推定部1507は、外部音取り込み機能を起動すると決定しなかった場合(S517/NO)、周辺環境推定部1507は、外部音取り込み機能をOFFにするための制御信号を生成する(S525)。また、周辺環境推定部1507は、スピーカ130に、音楽等のコンテンツを再生させる(S527)。
周辺環境推定部1507は、外部音取り込み機能を起動すると決定した場合(S517/YES)、周辺環境推定部1507は、外部音取り込み機能をONにする(S519)。また、周辺環境推定部1507は、ユーザに対する音声メッセージをスピーカ130に再生させる(S521)。
次いで、情報処理装置12の一連の処理を終了する終了操作が行われた場合(S523/YES)、情報処理装置12は処理を終了する。12は、一連の処理を終了する終了操作が行われるまで、S101~S523の処理を繰り返す(S523/NO)。
以上、図14を参照して、第三の実施形態による情報処理装置12の動作例を説明した。続いて、図15を参照して、第三の実施形態によるイメージセンサ部122の動作例を説明する。
図15は、第三の実施形態によるイメージセンサ部122の動作例を説明するためのフローチャートである。なお、図15において、S201~S207は、上記で図7を参照して説明した通りであるので、ここでの重複する説明を省略する。
S207の処理に次いで、イメージセンサ部122の画像認識処理部2205は、画像認識処理を行う(S609)。画像認識処理部2205は、画像認識処理結果を、周辺環境推定部1507に出力する(S611)。
次いで、イメージセンサ部112の一連の処理を終了する終了操作が行われた場合(S613/YES)、イメージセンサ部112は処理を終了する。情報処理装置12は、一連の処理を終了する終了操作が行われるまで、S201~S613の処理を繰り返す(S613/NO)。
以上、図15を参照して、第三の実施形態によるイメージセンサ部122の動作例を説明した。続いて、図16~図22を参照して、本開示の第四の実施形態による情報処理システムについて説明する。
<5.第四の実施形態>
第四の実施形態では、本開示の適用先が、HMDである例を説明する。図16は、第四の実施形態の概要を説明するための説明図である。
図16に示した情報処理装置13は、ユーザU1の頭部に装着されているHMDである。画面Dは、情報処理装置13のディスプレイに表示される画面例を示す。第四の実施形態による情報処理装置13は、ユーザU1の周辺環境の状況の認識結果に応じて、情報処理装置13のコンテンツ再生音およびコンテンツ画像の表示を一時停止する。このとき、情報処理装置13は、情報処理装置13の周辺の音を出力する。また、情報処理装置13は、情報処理装置13の周辺の画像データをディスプレイに表示させる。
図16の左側に示したように、情報処理装置13は、VR(Virtual Reality)技術、またはAR(Augmented Reality)技術を利用した、3次元の仮想空間の画像である画面D1を表示することが出来る。また、情報処理装置13は、画面D1の表示と同期されたコンテンツ音を出力する。
ユーザU1は、情報処理装置13を装着してVRまたはARのコンテンツを体験している間、目と耳がふさがれているような状態になるため、ユーザU1の周囲の状況を把握しづらい。情報処理装置13を実現するHMDによっては、ユーザの操作に基づき、HMDの周囲を撮像する外向きカメラで取得された周囲の映像を表示する機能を備えている場合があるが、周囲の映像が表示されるためにはユーザによる能動的な動作が求められる。このため、情報処理装置13を装着してVRまたはARのコンテンツを体験している間、ユーザU1は、他のユーザからの自身への話しかけ、または、他のユーザまたはペット等の接近などの周囲の状況を察知し難い。そのため、ユーザU1が、他のユーザおよびペット等に衝突してしまうなどの状況が発生し得る。
そこで、本開示の第四の実施形態による情報処理装置13によれば、情報処理装置13の周辺環境の状況として、ユーザU1と他のユーザとの間での話しかけまたは会話の有無、および、ユーザU1の周囲の人またはペット等の接近が認識される。情報処理装置13は、認識結果に応じて、情報処理装置13に出力されるコンテンツを制御する。これにより、情報処理装置13を装着しているユーザU1の利便性が向上する。
<5-1.構成例>
図17は、第四の実施形態による情報処理装置13の構成例を説明するためのブロック図である。図17に示したように、情報処理装置13は、イメージセンサ部110、マイクロフォン120、スピーカ130、記憶部140、制御部150、および、映像出力部162を有する。なお、イメージセンサ部110、マイクロフォン120、スピーカ130、記憶部140、および制御部150は、上記で図2を参照して説明した通りであるので、ここでの重複する説明を省略する。
(映像出力部162)
映像出力部162は、ユーザの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像および右眼用画像を表示する機能を有する。映像出力部162の画面は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、映像出力部162は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。
映像出力部162は、制御部150の制御に従って、イメージセンサ部110により取得される情報処理装置13の周辺環境の画像データを表示する。
なお、第四の実施形態によるイメージセンサ部110は、情報処理装置13の周囲360度方向の画像を取得できる位置に配置される。また、情報処理装置13は、複数のイメージセンサ部110を備えていてよい。
図18は、第四の実施形態によるイメージセンサ部110の設置位置の一例を説明するための説明図である。図18の外観図V1は、情報処理装置13を斜め後方からみた斜視図である。イメージセンサ部110は、例えば、情報処理装置13Aの後方部分の位置P1に設置されてもよい。この場合、イメージセンサ部110は、魚眼レンズを備え、情報処理装置13Aを装着するユーザU1の後方全体を撮像してもよい。
また、図19は、第四の実施形態によるイメージセンサ部110の設置位置の他の一例を説明するための説明図である。図19の外観図V2は、情報処理装置13Aを前方からみた正面図である。イメージセンサ部110は、位置P1に加え、位置P2の位置に設置されてもよい。この場合、イメージセンサ部110は、魚眼レンズを含んで構成され、情報処理装置13Aを装着するユーザU1の前方全体を撮像してもよい。
また、図20は、第四の実施形態によるイメージセンサ部110の設置位置の他の一例を説明するための説明図である。図20の外観図V3は、情報処理装置13B前方からみた正面図である。図20に示した例では、情報処理装置13Bは、情報処理装置13Bの前面の四方の位置P4~位置P6の各々に1ずつ設置されてもよい。この場合、情報処理装置13Bは、計4つのイメージセンサ部110を備えていてもよい。これにより、情報処理装置13Aを装着するユーザU1の前方全体が撮像され得る。
以上、図17~図20を参照して、第四の実施形態による情報処理装置13の構成例を説明した。続いて、図21および図22を参照して、第四の実施形態による情報処理装置13の動作例を説明する。
<5-2.動作>
図21は、第四の実施形態による情報処理装置13の動作例を説明するためのフローチャートである。なお、図21において、S101~S107の処理は、上記で図6を参照して説明した通りであるので、ここでの重複する説明を省略する。
まず、S101~S107の処理が行われる。S107において、情報処理装置13の制御部150により認識処理の開始指示が出力されると、情報処理装置13の認識部1503は、周辺環境の状況の認識処理を行う(S711)。例えば、認識部1503は、周辺環境の状況として、他のユーザまたはペット等が情報処理装置13に接近していることを認識してもよい。さらに、認識部1503は、認識結果に基づいて、情報処理装置13のスピーカ130および映像出力部162のそれぞれに、外部音取り込みとコンテンツ音声の停止、および、周辺映像の表示を行わせる制御が必要か否かを推定してもよい(S713)。
S713において、上記制御が必要と判定されなかった場合(S713/NO)、出力制御部1505は、外部音取り込み機能をOFFにするための制御信号を生成する(S723)。また、出力制御部1505は、映像出力部162に、仮想空間の画像等のコンテンツ映像を表示させる(S725)。さらに、出力制御部1505は、スピーカ130に、コンテンツ音声を再生させる(S727)。次いで、情報処理装置13は、S101に戻って、S101~S727の処理を繰り返す。
S713において、上記制御が必要と判定された場合(S713/YES)、出力制御部1505は、外部音取り込み機能をONにするための制御信号を生成する(S715)。また、出力制御部1505は、映像出力部162に、情報処理装置13の周辺環境の映像を表示させる(S717)。さらに、出力制御部1505は、スピーカ130に、コンテンツ音声の再生を停止させる(S719)。
次いで、情報処理装置13の一連の処理を終了する終了操作が行われた場合(S721/YES)、情報処理装置13は処理を終了する。情報処理装置13は、一連の処理を終了する終了操作が行われるまで、S101~S727の処理を繰り返す(S721/NO)。
以上、図21を参照して、第四の実施形態による情報処理装置13の動作例を説明した。続いて、図22を参照して、第四の実施形態によるイメージセンサ部110の動作例を説明する。
図22は、第四の実施形態によるイメージセンサ部110の動作例を説明するためのフローチャートである。なお、図15において、S201~S207は、上記で図7を参照して説明した通りであるので、ここでの重複する説明を省略する。
S207の処理に次いで、イメージセンサ部110のイメージセンサ制御部221は、情報処理装置13の認識部1503により、周辺映像の表示が必要と推定されたか否かの判定を行う(S808)。周辺映像の表示が必要と推定されなかった場合(S808/NO)、情報処理装置13は、S201~S808の処理を繰り返す。
周辺映像の表示が必要と推定された場合(S808/YES)、画像出力部2202は、イメージセンサ制御部221の制御に従って、画素アレイ210により取得された情報処理装置13の周辺環境の画像データを映像出力部162に出力する(S809)。
次いで、イメージセンサ部111の一連の処理を終了する終了操作が行われた場合(S811/YES)、イメージセンサ部111は処理を終了する。イメージセンサ部111は、一連の処理を終了する終了操作が行われるまで、S201~S811の処理を繰り返す(S811/NO)。
以上、図22を参照して、第四の実施形態によるイメージセンサ部110の動作例を説明した。
<6.ハードウェア構成>
以上、本開示の実施形態を説明した。上述した、情報処理装置10の周辺環境の変化が所定の条件を満たすか否かの判断結果の取得、情報処理装置10の周辺の音および周辺環境の画像データに基づく周辺環境の状況の認識処理、認識結果に基づくコンテンツ出力の制御、などの情報処理は、ソフトウェアと、ハードウェアとの協働により実現される。以下、情報処理装置10に適用され得るハードウェア構成例を説明する。
図23は、ハードウェア構成90の一例を示したブロック図である。なお、以下に説明するハードウェア構成90のハードウェア構成例は、情報処理装置10のハードウェア構成の一例に過ぎない。したがって、情報処理装置10は、それぞれ、必ずしも図23に示したハードウェア構成の全部を有している必要はない。また、情報処理装置10の中に、図23に示したハードウェア構成の一部が存在しなくてもよい。さらに、情報処理装置11、情報処理装置12、および情報処理装置13についても、以下に説明するハードウェア構成90が適用され得る。
図23に示すように、ハードウェア構成90は、CPU901、ROM(Read Only Memory)903、およびRAM905を含む。また、ハードウェア構成90は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。ハードウェア構成90は、CPU901に代えて、またはこれとともに、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、ハードウェア構成90内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムおよび演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムまたは/および、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
CPU901がROM903、RAM905、およびソフトウェアと協働することにより、例えば、制御部150、および、イメージセンサ制御部220の機能が実現され得る。
入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線またはその他の電波を利用したリモートコントロール装置であってもよいし、ハードウェア構成90の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、ハードウェア構成90に対して各種のデータを入力したり処理動作を指示したりする。
また、入力装置915は、撮像装置、およびセンサを含んでもよい。撮像装置は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサは、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサは、例えばハードウェア構成90の筐体の姿勢など、ハードウェア構成90自体の状態に関する情報、または、ハードウェア構成90の周辺の明るさまたは騒音など、ハードウェア構成90の周辺環境に関する情報を取得する。また、センサは、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、ハードウェア構成90の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくする照明装置などを含んでもよい。
ストレージ装置919は、ハードウェア構成90の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムまたは各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、ハードウェア構成90に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器をハードウェア構成90に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、ハードウェア構成90と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、ローカルネットワーク、または、無線通信の基地局との通信ネットワークに接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットまたは他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるローカルネットワークまたは基地局との通信ネットワークは、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
<7.補足>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、判断結果取得部の一例としての音差分処理部1501が、判断結果取得処理として、周辺の音の変化が所定の閾値が示す差分以上に変化したことを検出した場合に、情報処理装置10の周辺環境の変化が所定の条件を満たすと判断するとした。より具体的には、音差分処理部1501が、現在の音データと過去の音データとの差分を算出し、算出された差分を示す差分値が所定の閾値を超える場合に、所定の条件が満たされたと判断するとした。しかし、本技術は係る例に限定されない。例えば、情報処理装置10の制御部150が、イメージセンサ部110により取得された情報処理装置10の周辺環境の画像データを用いて、周辺環境の変化が所定の条件を満たすか否かの判断結果を取得してもよい。
例えば、制御部150は、現在の周辺環境の画像データと、過去の周辺環境の画像データの差分を検出してもよい。制御部150は、画像データ上で差分が検出された領域が、所定の閾値が示す範囲を超える場合に、周辺環境の状況が所定の条件を満たすと判断してもよい。これにより、例えば情報処理装置10に他のユーザが接近している場合等の周辺環境の変化が検出され得る。
なお、上記のように、制御部150が周辺環境の画像データを用いて判断結果取得処理を行う場合には、情報処理装置10を装着しているユーザの頭部の動きによる周辺環境の画像データの変化を考慮することが望ましい。例えば、情報処理装置10は、情報処理装置10の加速度および角速度を検出することが可能な加速度センサおよび加速度センサ、またはIMUを備えていてもよい。制御部150は、情報処理装置10の加速度および角速度に基づきユーザの頭部の位置および姿勢を算出するヘッドトラッキングを行ってもよい。制御部150は、ヘッドトラッキングの結果に基づいて、判断結果取得処理によって検出される周辺環境の画像データの変化がユーザの頭部の動きによって生じたものである場合には、周辺環境の変化が所定の条件を満たさないと判断してもよい。これにより、イメージセンサ部110により取得される周辺環境の画像データによっても、情報処理装置10の周辺環境の変化が所定の条件を満たすか否かの判断が行われ得る。
また、上記のように制御部150が周辺環境の画像データを用いて判断結果取得処理を行う場合には、画像縮小処理部2201および認識部1503は次のような処理を行ってもよい。具体的には、画像縮小処理部2201は、制御部150から認識処理を開始する指示が出力された場合、画素アレイ210により取得される周辺環境の画像データから、制御部150により上記差分が検出された領域を切り出す処理を行ってもよい。さらに、画像縮小処理部2201は、切り出された領域の画像データを所定の解像度に縮小する処理を行ってもよい。認識部1503は、縮小処理が行われた、切り出された領域の画像データを入力データとして、認識処理を行ってもよい。これにより、認識部1503の認識処理において、情報処理装置10の周辺のユーザと他のユーザの間での話しかけまたは会話の有無の検出精度が向上し得る。
また、上記実施形態では、イメージセンサ部110およびマイクロフォン120が、情報処理装置10と同一体として構成される例を説明した。しかし、本技術は係る例に限定されない。例えば、イメージセンサ部110およびマイクロフォン120は、情報処理装置10と別体として構成されてもよい。この場合、イメージセンサ部110は、ユーザの周辺環境を俯瞰的に撮像可能な位置に設置されることが望ましい。
また、上記ではユーザと他のユーザが同一空間に存在することが想定されたが、ユーザと他のユーザは別空間に存在していてもよい。例えば、ユーザが存在する空間には、他のユーザの映像および音声を出力する出力装置が配置されており、情報処理装置10は、当該出力装置を介する話しかけ、および会話の有無を認識してもよい。当該出力装置は、据え置き式の装置であってもよいし、他のユーザによる遠隔操作に従って移動可能な装置であってもよい。
また、本実施形態による情報処理装置10、およびイメージセンサ部111の動作の処理におけるステップは、必ずしも説明図として記載された順序に沿って時系列に処理する必要はない。例えば、情報処理装置10およびイメージセンサ部111の動作の処理における各ステップは、説明図として記載した順序と異なる順序で処理されてもよく、並列的に処理されてもよい。
また、上述した情報処理装置10およびイメージセンサ部111に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、本実施形態による情報処理システムの機能を発揮させるための1以上のコンピュータプログラムも作成可能である。また、当該1以上のコンピュータプログラムを記憶させた、コンピュータが読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、
前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、
を備える、情報処理装置。
(2)
前記センサ部は、当該センサ部の周辺の音を検出し、
前記判断結果取得部は、前記音の変化が前記所定の条件を満たすか否かの判断結果を取得する、
前記(1)に記載の情報処理装置。
(3)
前記判断結果取得部は、前記センサ部により所定時間長を有する第一の時間区間において取得された第一の音データと、前記センサ部により前記第一の時間区間と異なり前記所定時間長を有する第二の時間区間において取得された第二の音データと、に基づいて、前記音の変化が前記所定の条件を満たすか否かの判断結果を取得する、
前記(2)に記載の情報処理装置。
(4)
前記判断結果取得部は、前記第一の音データと、前記第二の音データとの差分を算出し、
前記所定の条件は、算出された前記差分を示す差分値が、所定の閾値を超えることである、
前記(3)に記載の情報処理装置。
(5)
前記認識部は、前記センシングデータとして、前記センサ部から前記音データを取得し、
前記音データを解析して前記周辺環境の状況を認識する処理を行う、
前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記センサ部は、前記センシングデータとして、当該センサ部の周辺環境の画像データを取得し、
前記認識部は、前記音データおよび前記画像データを解析して前記周辺環境の状況を認識する処理を行う、
前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記認識部は、前記音データおよび前記画像データの各々の解析結果に基づき、前記周辺環境の状況として、前記センサ部の周辺に位置するユーザと他のユーザの間での話しかけまたは会話の有無を認識する、
前記(6)に記載の情報処理装置。
(8)
前記認識部は、前記センサ部により取得される前記音データまたは前記センサ部により取得される前記画像データの少なくともいずれかまたは両方と、前記センサ部の周辺に位置するユーザと他のユーザとの間での話しかけの有無の正解データと、を入力データとするニューラルネットワークを用いて、前記音データまたは前記画像データの少なくともいずれかまたは両方および前記ユーザと前記他のユーザとの間での話しかけまたは会話の有無の関係を学習し、
学習の結果得られたモデルを用いて、前記センサ部の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話の有無を認識する、
前記(6)または(7)に記載の情報処理装置。
(9)
前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、音出力部により出力されるコンテンツ再生音を一時停止させる処理を行う、出力制御部をさらに備える、前記(7)または(8)に記載の情報処理装置。
(10)
前記出力制御部は、前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、前記センサ部により取得される前記センサ部の周辺の前記音データを前記音出力部に出力させる、
前記(7)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、音出力部により出力されるコンテンツ再生音の音量を低減させる処理、または、前記コンテンツ再生音の音像定位を変化させる処理、のいずれかまたは両方を行う、出力制御部をさらに備える、前記(7)または(8)に記載の情報処理装置。
(12)
前記認識部は、前記周辺環境の状況として、前記センサ部に接近する障害物の有無を認識する、
前記(6)に記載の情報処理装置。
(13)
前記認識部により前記センサ部に接近する障害物が有ると認識されると、音出力部により出力されるコンテンツ再生音を一時停止させるとともに、前記音出力部にユーザへの通知音を出力させる制御を行う出力制御部をさらに備える、
前記(12)に記載の情報処理装置。
(14)
前記出力制御部は、前記認識部により前記センサ部に接近する障害物が有ると認識されると、前記センサ部により取得される前記センサ部の周辺の前記音データを前記音出力部に出力させる、
前記(13)に記載の情報処理装置。
(15)
前記出力制御部は、前記認識部により前記センサ部に接近する障害物が有ると認識されると、画像出力部により出力されるコンテンツ画像の表示を一時停止させるとともに、前記センサ部により取得される当該センサ部の周辺の画像データを前記画像出力部に表示させる、
前記(14)に記載の情報処理装置。
(16)
前記センサ部により取得された前記第二の音データを記憶する記憶部をさらに備える、前記(3)~(15)のいずれか一項に記載の情報処理装置。
(17)
コンピュータを、
センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、
前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、
として機能させるための、プログラム。
(18)
センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得することと、
前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始することと、
を含む、コンピュータにより実行される情報処理方法。
10 情報処理装置
110 イメージセンサ部
120 マイクロフォン
130 スピーカ
140 記憶部
150 制御部
1501 音差分処理部
1503 認識部
1505 出力制御部
1506 音認識処理部
1507 周辺環境推定部
210 画素アレイ
220 イメージセンサ制御部
2201 画像縮小処理部
2202 画像出力部
2203 認識部
2204 出力制御部
2205 画像認識処理部

Claims (18)

  1. センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、
    前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、
    を備える、情報処理装置。
  2. 前記センサ部は、当該センサ部の周辺の音を検出し、
    前記判断結果取得部は、前記音の変化が前記所定の条件を満たすか否かの判断結果を取得する、
    請求項1に記載の情報処理装置。
  3. 前記判断結果取得部は、前記センサ部により所定時間長を有する第一の時間区間において取得された第一の音データと、前記センサ部により前記第一の時間区間と異なり前記所定時間長を有する第二の時間区間において取得された第二の音データと、に基づいて、前記音の変化が前記所定の条件を満たすか否かの判断結果を取得する、
    請求項2に記載の情報処理装置。
  4. 前記判断結果取得部は、前記第一の音データと、前記第二の音データとの差分を算出し、
    前記所定の条件は、算出された前記差分を示す差分値が、所定の閾値を超えることである、
    請求項3に記載の情報処理装置。
  5. 前記認識部は、前記センシングデータとして、前記センサ部から前記音データを取得し、
    前記音データを解析して前記周辺環境の状況を認識する処理を行う、
    請求項4に記載の情報処理装置。
  6. 前記センサ部は、前記センシングデータとして、当該センサ部の周辺環境の画像データを取得し、
    前記認識部は、前記音データおよび前記画像データを解析して前記周辺環境の状況を認識する処理を行う、
    請求項5に記載の情報処理装置。
  7. 前記認識部は、前記音データおよび前記画像データの各々の解析結果に基づき、前記周辺環境の状況として、前記センサ部の周辺に位置するユーザと他のユーザの間での話しかけまたは会話の有無を認識する、
    請求項6に記載の情報処理装置。
  8. 前記認識部は、前記センサ部により取得される前記音データまたは前記センサ部により取得される前記画像データの少なくともいずれかまたは両方と、前記センサ部の周辺に位置するユーザと他のユーザとの間での話しかけの有無の正解データと、を入力データとするニューラルネットワークを用いて、前記音データまたは前記画像データの少なくともいずれかまたは両方および前記ユーザと前記他のユーザとの間での話しかけまたは会話の有無の関係を学習し、
    学習の結果得られたモデルを用いて、前記センサ部の周辺に位置するユーザと他のユーザとの間での話しかけまたは会話の有無を認識する、
    請求項7に記載の情報処理装置。
  9. 前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、音出力部により出力されるコンテンツ再生音を一時停止させる処理を行う、出力制御部をさらに備える、請求項7に記載の情報処理装置。
  10. 前記出力制御部は、前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、前記センサ部により取得される前記センサ部の周辺の前記音データを前記音出力部に出力させる、
    請求項9に記載の情報処理装置。
  11. 前記認識部により前記ユーザと前記他のユーザとの間での話しかけまたは会話が有ると認識されると、音出力部により出力されるコンテンツ再生音の音量を低減させる処理、または、前記コンテンツ再生音の音像定位を変化させる処理、のいずれかまたは両方を行う、出力制御部をさらに備える、請求項7に記載の情報処理装置。
  12. 前記認識部は、前記周辺環境の状況として、前記センサ部に接近する障害物の有無を認識する、
    請求項6に記載の情報処理装置。
  13. 前記認識部により前記センサ部に接近する障害物が有ると認識されると、音出力部により出力されるコンテンツ再生音を一時停止させるとともに、前記音出力部にユーザへの通知音を出力させる制御を行う出力制御部をさらに備える、
    請求項12に記載の情報処理装置。
  14. 前記出力制御部は、前記認識部により前記センサ部に接近する障害物が有ると認識されると、前記センサ部により取得される前記センサ部の周辺の前記音データを前記音出力部に出力させる、
    請求項13に記載の情報処理装置。
  15. 前記出力制御部は、前記認識部により前記センサ部に接近する障害物が有ると認識されると、画像出力部により出力されるコンテンツ画像の表示を一時停止させるとともに、前記センサ部により取得される当該センサ部の周辺の画像データを前記画像出力部に表示させる、
    請求項14に記載の情報処理装置。
  16. 前記センサ部により取得された前記第二の音データを記憶する記憶部をさらに備える、請求項3に記載の情報処理装置。
  17. コンピュータを、
    センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得する判断結果取得部と、
    前記判断結果取得部により前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始する認識部と、
    として機能させるための、プログラム。
  18. センサ部により取得されたセンシングデータが示す前記センサ部の周辺環境の変化が所定の条件を満たすか否かの判断結果を取得することと、
    前記所定の条件が満たされたことを示す判断結果が取得されたことに基づき、前記センサ部の前記周辺環境の状況を認識する認識処理を開始することと、
    を含む、コンピュータにより実行される情報処理方法。
JP2022143559A 2022-09-09 2022-09-09 情報処理装置、プログラム、および情報処理方法 Pending JP2024039193A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022143559A JP2024039193A (ja) 2022-09-09 2022-09-09 情報処理装置、プログラム、および情報処理方法
PCT/JP2023/027195 WO2024053271A1 (ja) 2022-09-09 2023-07-25 情報処理装置、プログラム、および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022143559A JP2024039193A (ja) 2022-09-09 2022-09-09 情報処理装置、プログラム、および情報処理方法

Publications (1)

Publication Number Publication Date
JP2024039193A true JP2024039193A (ja) 2024-03-22

Family

ID=90192383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022143559A Pending JP2024039193A (ja) 2022-09-09 2022-09-09 情報処理装置、プログラム、および情報処理方法

Country Status (2)

Country Link
JP (1) JP2024039193A (ja)
WO (1) WO2024053271A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4050693B2 (ja) * 2003-12-22 2008-02-20 株式会社エネルギア・コミュニケーションズ 告知放送システム、告知放送方法、および、この方法に用いられる情報端末
JP6094027B2 (ja) * 2011-12-20 2017-03-15 株式会社ニコン 電子機器
JP6373653B2 (ja) * 2013-06-25 2018-08-15 東芝ライフスタイル株式会社 冷蔵庫
JP5851544B2 (ja) * 2014-03-28 2016-02-03 ソフトバンク株式会社 非透過型ヘッドマウントディスプレイ及びプログラム
JP2017026661A (ja) * 2015-07-16 2017-02-02 富士ゼロックス株式会社 コマンド管理装置および画像形成装置
JP2019197497A (ja) * 2018-05-11 2019-11-14 Necパーソナルコンピュータ株式会社 ヘッドマウントディスプレイシステム、通知制御装置、通知制御方法、及びプログラム
JP2022105941A (ja) * 2021-01-05 2022-07-15 菱洋エレクトロ株式会社 触覚刺激を与える身体装着具

Also Published As

Publication number Publication date
WO2024053271A1 (ja) 2024-03-14

Similar Documents

Publication Publication Date Title
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
EP2981070B1 (en) Information processing device, notification state control method, and program
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP4512830B2 (ja) コミュニケーションロボット
US20230305530A1 (en) Information processing apparatus, information processing method and program
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
US20200269421A1 (en) Information processing device, information processing method, and program
WO2022228068A1 (zh) 电子设备的图像获取方法、装置、***及电子设备
JP2012175136A (ja) カメラシステムおよびその制御方法
CN108683790B (zh) 语音处理方法及相关产品
JP6627775B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019040005A (ja) 読み上げシステム及び読み上げ方法
JP6969577B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114432565A (zh) 空想意识信息恢复***
WO2021149441A1 (ja) 情報処理装置および情報処理方法
WO2024053271A1 (ja) 情報処理装置、プログラム、および情報処理方法
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US11037519B2 (en) Display device having display based on detection value, program, and method of controlling device
JP2023111925A (ja) ヘッドマウント情報処理装置およびヘッドマウント情報処理装置の制御方法
US20200241656A1 (en) Information processing apparatus, information processing method, and program
CN109361727A (zh) 信息共享方法、装置、存储介质及穿戴式设备
US11372473B2 (en) Information processing apparatus and information processing method
JPWO2020158440A1 (ja) 情報処理装置、情報処理方法、及びプログラムを記載した記録媒体
WO2019187593A1 (ja) 情報処理装置、情報処理方法およびプログラム