JP2013162285A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2013162285A
JP2013162285A JP2012021888A JP2012021888A JP2013162285A JP 2013162285 A JP2013162285 A JP 2013162285A JP 2012021888 A JP2012021888 A JP 2012021888A JP 2012021888 A JP2012021888 A JP 2012021888A JP 2013162285 A JP2013162285 A JP 2013162285A
Authority
JP
Japan
Prior art keywords
information
virtual
information processing
user
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012021888A
Other languages
English (en)
Other versions
JP6065370B2 (ja
Inventor
Yusuke Miyazawa
悠介 宮沢
Yasuyuki Koga
康之 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012021888A priority Critical patent/JP6065370B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to BR112014018417A priority patent/BR112014018417A8/pt
Priority to EP19167470.4A priority patent/EP3525486B1/en
Priority to PCT/JP2013/000350 priority patent/WO2013114831A1/en
Priority to EP13707453.0A priority patent/EP2810454A1/en
Priority to KR1020147020638A priority patent/KR20140128306A/ko
Priority to RU2014131105A priority patent/RU2014131105A/ru
Priority to CN201380006727.4A priority patent/CN104067633B/zh
Priority to US14/357,245 priority patent/US9898863B2/en
Publication of JP2013162285A publication Critical patent/JP2013162285A/ja
Application granted granted Critical
Publication of JP6065370B2 publication Critical patent/JP6065370B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想オブジェクトに関する音声の定位情報を仮想オブジェクトの位置に基づいて生成することができる情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】情報処理装置は、空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、を有する。
【選択図】図5

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、ユーザが得られる情報は、増大している。このため、ユーザが必要な情報を如何に抽出するか、どのようにユーザに情報を提供するかが重要となってきている。そこで、音声を用いた情報の提示が提案されている。例えば特許文献1には、指向性を有する音声により、ユーザに情報を提供する情報処理装置が記載されている。ユーザは、この情報処理装置から提供された複数の音声に対して、顔の向きを用いていずれかの音声を選択することができる。
また一方、現実の画像に付加的な情報を重畳してユーザに呈示する、拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、例えばテキスト、アイコンまたはアニメーションなど、さまざまな形態の仮想オブジェクトとして可視化される。
特開2008−92193号公報
しかし、AR技術の分野において音声を用いた情報の提供についてはほとんど論じられてこなかった。そこで、本開示では、仮想オブジェクトに関する音声の定位情報を仮想オブジェクトの位置に基づいて生成することのできる、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、上記仮想位置に基づいて、上記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、を有する、情報処理装置が提供される。
また本開示によれば、空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得することと、上記仮想位置に基づいて、上記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成することと、を含む情報処理方法が提供される。
また本開示によれば、コンピュータを、空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、上記仮想位置に基づいて、上記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、を有する情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、仮想オブジェクトに関する音声の定位情報を仮想オブジェクトの位置に基づいて生成することができる。
本開示の一実施形態に係る情報処理装置により提供されるユーザ体験の概要を示す説明図である。 同実施形態に係る情報処理装置が提供するビジュアルマーカの一例を示す説明図である。 同実施形態に係る情報処理装置が提供するビジュアルマーカの他の一例を示す説明図である。 同実施形態に係る情報処理装置に対する操作の一例を示す説明図である。 同実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。 同実施形態に係る情報処理装置の情報提示動作の一例を示すフローチャートである。 同実施形態に係る情報処理装置の2次情報及び音声提示動作の一例を示すフローチャートである。 同実施形態に係る情報処理装置においてユーザが1次情報の選択操作をせず情報が通り過ぎる場合の定位情報の生成例を示す説明図である。 同実施形態に係る情報処理装置においてユーザが1次情報の選択操作をした場合の定位情報の生成例を示す説明図である。 同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第1の状態における定位情報の生成例を示す説明図である。 同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第2の状態における定位情報の生成例を示す説明図である。 同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第3の状態における定位情報の生成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.構成例
2−1.機能構成例
2−2.ハードウェア構成例
3.動作例
4.定位情報の生成
<1.概要>
まず図1〜図4を参照しながら、本開示の一実施形態に係る情報処理装置の提供するユーザ体験の概要について説明する。図1は、本開示の一実施形態に係る情報処理装置により提供されるユーザ体験の概要を示す説明図である。図2は、同実施形態に係る情報処理装置が提供するビジュアルマーカの一例を示す説明図である。図3は、同実施形態に係る情報処理装置が提供するビジュアルマーカの他の一例を示す説明図である。図4は、同実施形態に係る情報処理装置に対する操作の一例を示す説明図である。
本開示の一実施形態に係る情報処理装置10は、実空間内に存在する実オブジェクトに関連づけられる情報を視覚情報及び音声情報により提供することができる。以下視覚情報は、ビジュアルマーカMv又は仮想オブジェクトともいわれる。また音声情報は、サウンドマーカMsともいわれる。例えば情報処理装置10は、実オブジェクトの位置に基づいてビジュアルマーカMvの位置を決定することができる。また情報処理装置10は、ビジュアルマーカMvの位置に基づいてサウンドマーカMsの音源位置を決定することができる。例えば情報処理装置10は、撮像された映像中の実オブジェクトの位置にビジュアルマーカMvを重畳表示することができる。また情報処理装置10は、撮像された映像中の実オブジェクトの位置から聞こえてくるようにサウンドマーカMsの音源位置を決定することができる(図1)。なお、図1はイメージであり、実際にはサウンドマーカMsは視覚的に見ることができなくてよい。音声によりサウンドマーカMsは提供される。また情報処理装置10は、ユーザの周りの実オブジェクトに関連づけられる情報から、ユーザの嗜好又は目的等に応じてフィルタリングされた情報をユーザに提供することができる。
図2を参照すると、ビジュアルマーカMvの一例が示される。ビジュアルマーカMvは、例えばカメラにより撮像された映像に重畳して表示されることによりユーザに提供される。また、HMD(Head Mounted Display)を用いてビジュアルマーカMvが提供されてもよい。例えば、フィルタリングされた情報は、まずビジュアルマーカMvの1次情報Mv1により提供されてよい。例えば1次情報Mv1は、その位置に対応づけられた情報があることと、この情報の概要をユーザに知らせる程度の粒度の情報であってよい。ユーザがこの1次情報Mv1に対して何ら操作を行わなかった場合には、情報は通り過ぎていく。
一方、表示された1次情報Mv1に対して、ユーザが選択操作を行った場合には、より詳細な情報がユーザに提供されてよい。例えば選択操作に応じて、1次情報Mv1よりも詳細な情報が含まれる2次情報Mv2が表示されてよい。またこの2次情報Mv2の表示と共に、サウンドマーカMsが提供されてよい。このサウンドマーカMsは、指向性を有する音声として提供されることが望ましい。サウンドマーカMsの音源位置は、ビジュアルマーカMvの位置とユーザ位置との位置関係に基づいて決定されてよい。これによりユーザは、サウンドマーカMsの聞こえてくる方向からビジュアルマーカMvの位置を知ることができる。
また視野外の情報を提供する場合の例が図3に示される。情報処理装置10は、ビジュアルマーカMvの1次情報Mv1を表示領域の端に表示させることができる。この視野外の位置に関連する情報の1次情報Mv1に対する選択操作が検出されると、情報処理装置10は、2次情報Mv2を表示領域の端に表示させるとともに、サウンドマーカMsを出力することができる。
なお、ここで2次情報Mv2及びサウンドマーカMsにより情報を取得するための選択操作は、情報処理装置10の種類に依存する。例えば情報処理装置10がHMDであるときには、ユーザの顔の向きにより操作が行われてよい。また情報処理装置10が携帯電話である場合には、同様にユーザの顔向きにより操作が行われてよく、或いは、タッチセンサ又はボタンなどにより操作が行われてもよい。図4には、ユーザの顔向きによる操作の一例が示される。例えば情報処理装置10は、ユーザの顔向きに基づいて、うなずく動作が検知されると、特定の情報の取得操作と判断することができる。また情報処理装置10は、ユーザの顔向きに基づいて、首を振る動作が検知されると、特定の情報の選択に対するキャンセル操作と判断することができる。
なお、ここでは街中の看板に関連づけられた店舗情報が提供される例について示したが、本技術はかかる例に限定されない。例えば、危険回避のために本技術が用いられてもよい。ヘッドフォンで音楽を聴きながらジョギングやサイクリングをする人が増加している。このような状況においては、周囲の音が聞こえづらいために車両の接近に気づかず事故が起こる可能性が高まってしまう。そこで、ユーザの近くに車両が接近したとき、サウンドマーカMsとして仮想のエンジン音、ビジュアルマーカMvとして車両の画像を表示することによって、音楽を聴いている最中であっても危険を回避することができる。以下、このようなユーザ体験を実現するための情報処理装置10について詳述していく。
<2.構成例>
ここでは、本開示の一実施形態にかかる情報処理装置10の構成について説明する。まずは図5を参照しながら情報処理装置10の機能構成例について説明し、次に図6を参照しながら情報処理装置10のハードウェア構成例について説明する。図5は、同実施形態に係る情報処理装置の機能構成を示すブロック図である。図6は、同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
[2−1.機能構成例]
図5を参照すると、本開示の一実施形態にかかる情報処理装置10は、操作部105と、操作情報取得部110と、表示部115と、表示制御部120と、音声出力部125と、音声出力制御部130とを主に有する。
(操作部105)
操作部105は、ユーザが所望の操作をするための入力信号を生成する機能を有する。操作部105は、例えばタッチパネル、マウス、キーボード、ボタン、マイク、スイッチ、レバー、及び各種センサなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成及び出力する入力制御回路などから構成されてよい。例えば操作部105は、センサにより検出されるユーザの顔向きに基づいた入力信号を生成及び出力することができる。また操作部105は、例えばユーザがタッチセンサに対して行う操作を検出して当該操作に基づいて入力信号を生成及び出力することができる。
(操作情報取得部110)
操作情報取得部110は、ユーザにより入力された操作情報を取得する機能を有する。例えば操作情報取得部110は、操作部105から出力された入力信号を操作情報として取得することができる。情報処理装置10は、操作情報取得部110により取得された操作情報に基づいて動作することができる。
(表示部115)
表示部115は、出力装置の一例であり、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。またこの表示部115は、HMDであってもよい。表示部115は、表示制御部120の制御に従って動作することができる。
(表示制御部120)
表示制御部120は、ユーザに提供する表示画面の内容を制御する機能を有する。例えば表示制御部120は、光学透過型のHMD上にビジュアルマーカMvを表示させることができる。或いは表示制御部120は、ユーザの視界を撮像した映像の上にビジュアルマーカMvを重畳させた映像を、ビデオ透過型のHMDに表示させることができる。また表示制御部120は、操作情報取得部110により取得された操作情報に基づいて、表示画面の内容を制御することができる。例えば表示制御部120は、ビジュアルマーカMvの1次情報Mv1に対する選択操作が取得されると、この1次情報に対応する2次情報Mv2を表示画面に表示させることができる。なお、表示制御部120は、空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの位置(以下、仮想位置と称する)を取得する取得部の一例である。
(音声出力部125)
音声出力部125は、音声信号を出力する機能を有する。音声出力部125は、例えばスピーカであってよい。また音声出力部125は、ヘッドホンなどの音声出力装置に音声信号を出力する出力端子であってもよい。音声出力部125は、音声出力制御部130の制御に従って動作することができる。なお、ここで用いられる音声出力装置は、音の定位情報に従って立体音響を出力することができる。
(音声出力制御部130)
音声出力制御部130は、ユーザに対する音声の出力を制御する機能を有する。また音声出力制御部130は、音源位置を示す定位情報を生成する定位情報生成部の一例である。音声出力制御部130は、例えば仮想位置に基づいて、仮想オブジェクトに関連する、例えば仮想オブジェクトが関連づけられた実オブジェクトと同一の実オブジェクトに関連づけられた、音声情報の音源位置を示す定位情報を生成することができる。この音声出力制御部130は、ユーザ位置及び仮想位置の間の距離に基づいて定位情報を生成してもよい。
具体的には音声出力制御部130は、ユーザ位置及び仮想位置の間の距離が所定の閾値以上である場合には、音源位置を仮想位置よりもユーザの正面に近づけることができる。また音声出力制御部130は、ユーザ位置及び仮想位置の間の距離が所定の閾値より小さくなると、音源位置をユーザの正面側から仮想位置に近づく方向に移動させることができる。人間が音声の方向を認識する能力は、正面の所定領域の方が側面よりも高い傾向がある。このため、人間は例えば右側に静止している音声の方向を認識するよりも正面に静止している音声の方向を認識する方が容易い。また人間は静止している音声よりも音源位置が動いている音声の方が音声の方向を認識しやすい傾向がある。このため、例えば仮想位置とユーザの位置との間に所定以上の距離がある場合には、音源位置がユーザから見て斜め前にあったとしても、人間はその音源位置の差異を認識することができない可能性が高い。このため、仮想位置とユーザの位置との間に所定以上の距離がある場合には、音源位置をユーザの正面側とし、ユーザが仮想位置に近づくと、音源位置をユーザの正面側から仮想位置に近づける方向に移動させることにより、ユーザはより仮想位置の方向を認識しやすくなる。
また音声出力制御部130は、ユーザの顔向きの変化に応じて音源位置を変化させることができる。このとき、仮想オブジェクトの位置がユーザの正面の所定領域に位置するときは、音源位置を仮想位置とすることが望ましい。音声出力制御部130は、生成した定位情報に従ってサウンドマーカMsを出力させることができる。
以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU(Central Processing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROM(Read Only Memory)やRAM(Random Access Memory)などの記憶媒体から制御プログラムを読出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。以下、情報処理装置10のハードウェア構成の一例が示される。
なお、上述のような本実施形態に係る情報処理装置10の各機能を実現するためのコンピュータプログラムを作成し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
[2−2.ハードウェア構成例]
次に、図6を参照しながら、情報処理装置10のハードウェア構成例について説明する。情報処理装置10は、CPU150と、RAM155と、不揮発性メモリ160と、表示デバイス165と、顔向き検出デバイス170と、音像定位オーディオデバイス175とを有することができる。
(CPU150)
CPU150は、例えば演算処理装置又は制御装置として機能し、RAM155、又は不揮発性メモリ160などに記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御することができる。
(RAM155)
RAM155は、CPU150に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化するパラメータ等を一時記憶することができる。
(不揮発性メモリ160)
不揮発性メモリ160は、電源を供給しなくても記憶を保持する記憶装置である。不揮発性メモリ160は、例えば補助記憶装置又は長期保管用ストレージとして用いられてよい。不揮発性メモリ160は、例えばROM(Read Only Memory)、フラッシュメモリなどの半導体メモリであってよい。また不揮発性メモリ160は、HDD(Hard Disk Drive)などの磁気記憶装置、光ディスクなどであってよい。
(表示デバイス165)
表示デバイス165は、例えばHMDなどの表示機能を有する装置であってよい。或いは表示デバイス165は、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。
(顔向き検出デバイス170)
顔向き検出デバイス170は、ユーザの顔向きを検出する機能を有する。顔向き検出デバイス170は、例えば3軸加速度センサを有するHMDであってもよい。この場合には、表示デバイス165と顔向き検出デバイス170とは同一の装置を指す。
(音像定位オーディオデバイス175)
音像定位オーディオデバイス175は、音像定位することのできるオーディオデバイスである。音像定位オーディオデバイス175は、定位情報に従って、指向性を有する音声を出力することができる。
<3.動作例>
次に、図7及び図8を参照しながら、本開示の一実施形態に係る情報処理装置10の動作例について説明する。図7は、同実施形態に係る情報処理装置の情報提示動作の一例を示すフローチャートである。図8は、同実施形態に係る情報処理装置の2次情報及び音声提示動作の一例を示すフローチャートである。
まず図7を参照すると、表示制御部120は、情報を提示中であるか否かを判断する(S100)。そして、ステップS100において情報を提示中ではないと判断されたとき、表示制御部120は、提示する情報が一定領域内に存在するかを判断する(S105)。ステップS105の判断において、提示する情報が一定領域内に存在すると判断された場合には、表示制御部120は、ビジュアルマーカMvの一次情報Mv1を提示する(S110)。
一方、ステップS100の判断において、情報を提示中であると判断された場合、表示制御部120は、1次情報Mv1を提示中であるか否かを判断する(S115)。そして、ステップS115において1次情報を提示中ではないと判断された場合(つまり2次情報を提示中)には、次に操作情報取得部110によりくびふりが認識されたか否かが判断される(S140)。そして、ステップS140の判断においてくびふりが認識されていない場合には、次に(2次情報を提示し初めてから)一定時間が経過したか否かが判断される(S145)。そして、一定時間が経過した場合、或いはくびふりが人認識された場合には、表示制御部120及び音声出力制御部130は、情報の提示を終了する(S150)。
一方、ステップS115の判断において1次情報が提示中であると判断された場合には、次に操作情報取得部110によりうなずきが認識されたか否かが判断される(S120)。そして、ステップS120の判断によりうなずきが認識されたと判断された場合には、表示制御部120及び音声出力制御部130は、2次情報及び音声情報をユーザに提示する(S125)。一方、ステップS120の判断においてうなずきが認識されなかった場合には、次に(1次情報を提示し始めてから)一定時間が経過したか否かが判断される(S130)。そして、ステップS130の判断において一定時間が経過したと判断された場合には、表示制御部120は、1次情報の提示を終了する(S135)。
なお、ここでステップS125に示された2次情報及び音声情報の提示動作について、図8を用いて詳述する。
図8を参照すると、まず表示制御部120は、ビジュアルマーカMvの2次情報Mv2の表示位置を決定する(S200)。ここで2次情報Mv2は、1次情報Mv1よりも詳細な情報を含む。
次にビジュアルマーカMvの表示位置に基づいてサウンドマーカMsの定位情報が生成される。この定位情報の生成については、後に詳述されるが、サウンドマーカMsの音源位置は、ビジュアルマーカMvの位置に基づいて決定される。
そして表示制御部120はビジュアルマーカMvを表示し、音声出力制御部130は、サウンドマーカMsを定位情報に基づいて出力させる(S210)。
<4.定位情報の生成>
次に、図9〜図13を参照しながら、定位情報の生成について詳述する。図9は、同実施形態に係る情報処理装置においてユーザが1次情報の選択操作をせず情報が通り過ぎる場合の定位情報の生成例を示す説明図である。図10は、同実施形態に係る情報処理装置においてユーザが1次情報の選択操作をした場合の定位情報の生成例を示す説明図である。図11は、同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第1の状態における定位情報の生成例を示す説明図である。図12は、同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第2の状態における定位情報の生成例を示す説明図である。図13は、同実施形態に係る情報処理装置において、ユーザが顔向きを変化させた場合の第3の状態における定位情報の生成例を示す説明図である。
上述したとおり、サウンドマーカMsの音源位置は、ビジュアルマーカMvの位置に基づいて決定される。ビジュアルマーカMvの方向から音が聞こえてくるようにするには、単純にビジュアルマーカMvの位置をサウンドマーカMsの音源位置としてもよい。しかし、人間の聴覚には様々な特性がある。そこで、人間の聴覚の特性に合わせて、人間が音声の方向及び距離を認識しやすいように音源位置が決定されることが望ましい。以下、複数の例を挙げながらサウンドマーカMsの音源位置について考えてみる。
まず図9の例を参照すると、実オブジェクトがユーザの斜め前方から側面を通り過ぎて行く場合を考える。このとき、時刻t0においては、実オブジェクトがユーザの可視領域内に存在するため、実オブジェクトの位置にビジュアルマーカMvを表示させる。その後時刻t1においては、実オブジェクトがユーザの可視領域外の位置となる。そこで、このときビジュアルマーカMvは可視領域の端(表示画面の端)に表示される。そして実オブジェクトの位置がユーザの概ね真横になるまでビジュアルマーカMvは可視領域の端に表示される。
このとき、サウンドマーカMsの音源位置は、ビジュアルマーカMv及びユーザの間の距離が所定の閾値(ここではユーザを中心とする仮想半径R)となるまでは、ビジュアルマーカMvの位置よりもユーザの正面側とすることができる。また、ビジュアルマーカMv及びユーザの間の距離が所定の閾値より小さくなると、サウンドマーカMsの音源位置は、ユーザ位置を中心として仮想半径Rの円周上を移動する軌跡を描いてよい。例えばサウンドマーカMsの音源位置は、ユーザの真後ろとなるまで上記円周上を回転された後遠ざかってよい。
上述の通り、人間は正面に近い所定領域に対する音の分解能は高い。一方、側方における音の分解能が低い。このため、図9の例においてビジュアルマーカMvの位置に合わせて斜めに音源位置が近づいてくるよりも、正面に近い所定領域内でまっすぐ音源位置が近づいてくる方が音源位置との距離感を把握しやすい。また、仮想半径Rの円周に沿って回転させることで、音が通り過ぎて行く感覚がより認識されやすい。
次に図10の例を参照すると、1次情報に対してユーザが選択操作を行った場合の例が示される。このとき時刻t0においては、実オブジェクトがユーザの可視領域内に存在するため、実オブジェクトの位置にビジュアルマーカMvを表示させる。ここでユーザがビジュアルマーカMvに対する選択操作を行うと、時刻t1,t2とビジュアルマーカMvがユーザの正面に表示されるように移動する。そしてその後t3においてビジュアルマーカMvは可視領域外に消えていく。
このときサウンドマーカMsの音源位置は、t0においてはビジュアルマーカMvの位置よりもユーザの正面側であってよい。そしてサウンドマーカMsの音源位置は、ユーザ及びビジュアルマーカMvの間の距離が所定の閾値Rとなるまでまっすぐユーザに近づく。その後、ビジュアルマーカMvがユーザの正面に表示されるのに伴って、サウンドマーカMsの音源位置は一度ユーザの正面に移動する。その後、ビジュアルマーカMvが可視領域外に消えていくのに伴い、サウンドマーカMsの音源位置は、ユーザを中心として半径Rの円周上を回転しながらユーザから遠ざかっていく。
次に図11から図13を参照しながら、ユーザの顔向きが変化する場合の、サウンドマーカMsの音源位置について考えてみる。例えばユーザの顔向きに対して、実オブジェクトt0が右斜め前に位置するとする。すると、図11に示されるように、サウンドマーカMsの音源位置は、実オブジェクトよりもユーザの正面側に位置してよい。この状態でユーザが顔向きを右に変化させたとする。するとこのとき(t1)、図12に示されるように、サウンドマーカMsの音源位置は、実オブジェクトに近づくように変化してよい。またさらにユーザの正面がユーザの顔向きとなるまでユーザが顔向きを変化させると、サウンドマーカMsの音源位置は、実オブジェクトの位置とされてよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、1次情報に対する操作が検出されると2次情報を提示する構成としたが、本技術はかかる例に限定されない。例えば、詳細な情報が最初から提示されてもよい。或いは、さらに複数の段階で情報が提示されてもよい。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、
前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、
を備える、情報処理装置。
(2)
前記定位情報生成部は、ユーザ位置及び前記仮想位置の間の距離に基づいて、前記定位情報を生成する、
前記(1)に記載の情報処理装置。
(3)
前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が所定の閾値以上である場合には、前記音源位置を前記仮想位置よりも前記ユーザの正面に近づける、
前記(2)に記載の情報処理装置。
(4)
前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が前記閾値より小さくなると、前記音源位置を前記ユーザの正面側から前記実オブジェクトの方向に移動させる、
前記(3)に記載の情報処理装置。
(5)
前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が前記閾値より小さくなると、前記閾値を半径とし前記ユーザ位置を中心とする円周に沿って前記音源位置を移動させる、
前記(4)に記載の情報処理装置。
(6)
前記定位情報生成部は、前記仮想位置が前記ユーザの正面方向の所定領域に位置するときは、前記仮想位置を前記音源位置とする、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
ユーザの顔向きを検出する向き検出部、
をさらに備え、
前記定位情報生成部は、前記顔向きに基づいて前記定位情報を生成する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記仮想位置に前記仮想オブジェクトを表示させる表示制御部、
をさらに備える、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
表示された前記仮想オブジェクトを選択する選択操作が検出されると、前記定位情報に基づいて前記音声情報を出力させる音声出力制御部、
をさらに備える、
前記(8)に記載の情報処理装置。
(10)
前記表示制御部は、前記仮想位置に前記仮想オブジェクトの一次情報を表示させ、前記仮想オブジェクトを選択する選択操作が検出されると、前記仮想オブジェクトの二次情報を表示させる、
前記(8)または(9)のいずれかに記載の情報処理装置。
(11)
前記選択操作は、ユーザの顔向きに基づいて検出される、
前記(9)または(10)のいずれかに記載の情報処理装置。
(12)
空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得することと、
前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成することと、
を含む、情報処理方法。
(13)
コンピュータを、
空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、
前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、
を備える、情報処理装置として機能させるためのプログラム。
100 情報処理装置
105 操作部
110 操作情報取得部
115 表示部
120 表示制御部
125 音声出力部
130 音声出力制御部

Claims (13)

  1. 空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、
    前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、
    を備える、情報処理装置。
  2. 前記定位情報生成部は、ユーザ位置及び前記仮想位置の間の距離に基づいて、前記定位情報を生成する、
    請求項1に記載の情報処理装置。
  3. 前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が所定の閾値以上である場合には、前記音源位置を前記仮想位置よりも前記ユーザの正面に近づける、
    請求項2に記載の情報処理装置。
  4. 前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が前記閾値より小さくなると、前記音源位置を前記ユーザの正面側から前記実オブジェクトの方向に移動させる、
    請求項3に記載の情報処理装置。
  5. 前記定位情報生成部は、前記ユーザ位置及び前記仮想位置の間の距離が前記閾値より小さくなると、前記閾値を半径とし前記ユーザ位置を中心とする円周に沿って前記音源位置を移動させる、
    請求項4に記載の情報処理装置。
  6. 前記定位情報生成部は、前記仮想位置が前記ユーザの正面方向の所定領域に位置するときは、前記仮想位置を前記音源位置とする、
    請求項1に記載の情報処理装置。
  7. ユーザの顔向きを検出する向き検出部、
    をさらに備え、
    前記定位情報生成部は、前記顔向きに基づいて前記定位情報を生成する、
    請求項1に記載の情報処理装置。
  8. 前記仮想位置に前記仮想オブジェクトを表示させる表示制御部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  9. 表示された前記仮想オブジェクトを選択する選択操作が検出されると、前記定位情報に基づいて前記音声情報を出力させる音声出力制御部、
    をさらに備える、
    請求項8に記載の情報処理装置。
  10. 前記表示制御部は、前記仮想位置に前記仮想オブジェクトの一次情報を表示させ、前記仮想オブジェクトを選択する選択操作が検出されると、前記仮想オブジェクトの二次情報を表示させる、
    請求項8に記載の情報処理装置。
  11. 前記選択操作は、ユーザの顔向きに基づいて検出される、
    請求項9に記載の情報処理装置。
  12. 空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得することと、
    前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成することと、
    を含む、情報処理方法。
  13. コンピュータを、
    空間内に存在する実オブジェクトの位置に基づいて決定される仮想オブジェクトの仮想位置を取得する取得部と、
    前記仮想位置に基づいて、前記仮想オブジェクトに関連する音声情報の音源位置を示す定位情報を生成する定位情報生成部と、
    を備える、情報処理装置として機能させるためのプログラム。
JP2012021888A 2012-02-03 2012-02-03 情報処理装置、情報処理方法、及びプログラム Active JP6065370B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2012021888A JP6065370B2 (ja) 2012-02-03 2012-02-03 情報処理装置、情報処理方法、及びプログラム
EP19167470.4A EP3525486B1 (en) 2012-02-03 2013-01-24 Information processing device, information processing method, and program
PCT/JP2013/000350 WO2013114831A1 (en) 2012-02-03 2013-01-24 Information processing device, information processing method, and program
EP13707453.0A EP2810454A1 (en) 2012-02-03 2013-01-24 Information processing device, information processing method, and program
BR112014018417A BR112014018417A8 (pt) 2012-02-03 2013-01-24 Aparelho e método de processamento de informação, e, mídia legível pro computador não temporária
KR1020147020638A KR20140128306A (ko) 2012-02-03 2013-01-24 정보 처리 장치, 정보 처리 방법, 및 프로그램
RU2014131105A RU2014131105A (ru) 2012-02-03 2013-01-24 Устройство обработки информации, способ обработки информации и программа
CN201380006727.4A CN104067633B (zh) 2012-02-03 2013-01-24 信息处理设备和信息处理方法
US14/357,245 US9898863B2 (en) 2012-02-03 2013-01-24 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012021888A JP6065370B2 (ja) 2012-02-03 2012-02-03 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013162285A true JP2013162285A (ja) 2013-08-19
JP6065370B2 JP6065370B2 (ja) 2017-01-25

Family

ID=47790416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012021888A Active JP6065370B2 (ja) 2012-02-03 2012-02-03 情報処理装置、情報処理方法、及びプログラム

Country Status (8)

Country Link
US (1) US9898863B2 (ja)
EP (2) EP3525486B1 (ja)
JP (1) JP6065370B2 (ja)
KR (1) KR20140128306A (ja)
CN (1) CN104067633B (ja)
BR (1) BR112014018417A8 (ja)
RU (1) RU2014131105A (ja)
WO (1) WO2013114831A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046103A (ja) * 2013-08-29 2015-03-12 シャープ株式会社 対話型インタフェース及び情報処理装置
JP2015087419A (ja) * 2013-10-28 2015-05-07 大日本印刷株式会社 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム
WO2015068587A1 (ja) * 2013-11-05 2015-05-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP2016035631A (ja) * 2014-08-01 2016-03-17 株式会社Nttドコモ メニュー選択装置及びメニュー選択方法
JP2016130985A (ja) * 2015-01-15 2016-07-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6207691B1 (ja) * 2016-08-12 2017-10-04 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6223533B1 (ja) * 2016-11-30 2017-11-01 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2017208821A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 音響処理装置および方法、並びにプログラム
WO2018066191A1 (ja) * 2016-10-07 2018-04-12 ソニー株式会社 サーバ、クライアント端末、制御方法、および記憶媒体
US10303435B2 (en) 2015-01-15 2019-05-28 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
WO2019230567A1 (ja) * 2018-05-30 2019-12-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および音発生方法
JP2020509492A (ja) * 2017-02-28 2020-03-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実デバイスにおける仮想および実オブジェクトの記録
WO2020090456A1 (ja) * 2018-10-29 2020-05-07 ソニー株式会社 信号処理装置、信号処理方法、および、プログラム
JP2020198001A (ja) * 2019-06-04 2020-12-10 三菱電機株式会社 作業支援システム、作業支援方法及びプログラム
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
JP7473676B2 (ja) 2020-03-31 2024-04-23 北京字節跳動網絡技術有限公司 オーディオ処理方法、装置、可読媒体及び電子機器

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201430385A (zh) * 2013-01-31 2014-08-01 Hon Hai Prec Ind Co Ltd 眼鏡播放裝置
JP6377935B2 (ja) 2014-03-31 2018-08-22 株式会社東芝 音響制御装置、電子機器及び音響制御方法
US10026226B1 (en) * 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US10930038B2 (en) * 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US12008697B2 (en) 2014-06-10 2024-06-11 Ripple, Inc. Of Delaware Dynamic location based digital element
CN104113786A (zh) * 2014-06-26 2014-10-22 小米科技有限责任公司 信息获取方法及装置
DE102014009302A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US9570113B2 (en) 2014-07-03 2017-02-14 Gopro, Inc. Automatic generation of video and directional audio from spherical content
KR20160014418A (ko) 2014-07-29 2016-02-11 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 방법
CN107003135B (zh) * 2014-12-09 2020-04-21 旭化成株式会社 位置方位检测装置以及位置方位检测程序
US10085107B2 (en) * 2015-03-04 2018-09-25 Sharp Kabushiki Kaisha Sound signal reproduction device, sound signal reproduction method, program, and recording medium
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
CN106535059B (zh) * 2015-09-14 2018-05-08 ***通信集团公司 重建立体声的方法和音箱及位置信息处理方法和拾音器
PL3500908T3 (pl) * 2016-11-11 2020-11-02 Telefonaktiebolaget Lm Ericsson (Publ) Obsługa aplikacji oprogramowania rzeczywistości rozszerzonej
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CN106604200A (zh) * 2017-01-19 2017-04-26 浪潮(苏州)金融技术服务有限公司 一种音频数据处理方法和装置
KR101916380B1 (ko) * 2017-04-05 2019-01-30 주식회사 에스큐그리고 영상 정보에 기반하여 가상 스피커를 재생하기 위한 음원 재생 장치
US10251011B2 (en) 2017-04-24 2019-04-02 Intel Corporation Augmented reality virtual reality ray tracing sensory enhancement system, apparatus and method
KR20200034710A (ko) * 2017-07-31 2020-03-31 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11146905B2 (en) * 2017-09-29 2021-10-12 Apple Inc. 3D audio rendering using volumetric audio rendering and scripted audio level-of-detail
WO2019081747A1 (en) * 2017-10-26 2019-05-02 Sony Semiconductor Solutions Corporation CAP DETERMINATION DEVICE AND METHOD, DEVICE, AND RENDERING METHOD
EP3477466A1 (en) * 2017-10-31 2019-05-01 Nokia Technologies Oy Provision of virtual reality content
CN108579084A (zh) * 2018-04-27 2018-09-28 腾讯科技(深圳)有限公司 虚拟环境中的信息显示方法、装置、设备及存储介质
CN108744516B (zh) * 2018-05-29 2020-09-29 腾讯科技(深圳)有限公司 获取定位信息的方法和装置、存储介质及电子装置
CN108854069B (zh) 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
US11182965B2 (en) 2019-05-01 2021-11-23 At&T Intellectual Property I, L.P. Extended reality markers for enhancing social engagement
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
CN116325808B (zh) 2020-03-02 2023-12-22 奇跃公司 沉浸式音频平台
US11263787B2 (en) * 2020-03-05 2022-03-01 Rivian Ip Holdings, Llc Augmented reality detection for locating autonomous vehicles
US11269667B2 (en) * 2020-07-16 2022-03-08 Lenovo (Singapore) Pte. Ltd. Techniques to switch between different types of virtual assistance based on threshold being met
JP2022110509A (ja) * 2021-01-18 2022-07-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2024063463A1 (ko) * 2022-09-23 2024-03-28 삼성전자주식회사 디스플레이를 통해 보여지는 객체와 관련된 오디오 신호를 조절하기 위한 전자 장치 및 그 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100203933A1 (en) * 2007-05-31 2010-08-12 Sony Computer Entertainment Europe Limited Entertainment system and method
US20110304701A1 (en) * 2010-06-11 2011-12-15 Nintendo Co., Ltd. Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method
JP2012022667A (ja) * 2010-06-14 2012-02-02 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8900330D0 (en) * 1989-01-07 1990-04-25 British Aerospace Binaural display apparatus
FR2744871B1 (fr) * 1996-02-13 1998-03-06 Sextant Avionique Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
WO2001055833A1 (en) * 2000-01-28 2001-08-02 Lake Technology Limited Spatialized audio system for use in a geographical environment
US7443283B2 (en) * 2004-02-19 2008-10-28 Massachusetts Institute Of Technology Methods and apparatus for connecting an intimate group by exchanging awareness cues and text, voice instant messages, and two-way voice communications
CN101268715B (zh) * 2005-11-02 2012-04-18 雅马哈株式会社 电话会议装置
JP4837512B2 (ja) 2006-09-29 2011-12-14 独立行政法人科学技術振興機構 音源選択装置
JP2008151766A (ja) * 2006-11-22 2008-07-03 Matsushita Electric Ind Co Ltd 立体音響制御装置及び立体音響制御方法
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
DE102009050667A1 (de) * 2009-10-26 2011-04-28 Siemens Aktiengesellschaft System zur Notifikation verorteter Information
KR100962552B1 (ko) * 2010-01-20 2010-06-11 (주)테슬라시스템 촬영된 영상에 음원 정보를 표시하는 카메라 시스템
JP2012021888A (ja) 2010-07-14 2012-02-02 Terumo Corp 女性体温計
KR101285391B1 (ko) * 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100203933A1 (en) * 2007-05-31 2010-08-12 Sony Computer Entertainment Europe Limited Entertainment system and method
JP2010527722A (ja) * 2007-05-31 2010-08-19 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド エンタテインメントシステム及び方法
US20110304701A1 (en) * 2010-06-11 2011-12-15 Nintendo Co., Ltd. Computer-Readable Storage Medium, Image Display Apparatus, Image Display System, and Image Display Method
JP2012022667A (ja) * 2010-06-14 2012-02-02 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015046103A (ja) * 2013-08-29 2015-03-12 シャープ株式会社 対話型インタフェース及び情報処理装置
JP2015087419A (ja) * 2013-10-28 2015-05-07 大日本印刷株式会社 映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラム
KR102343578B1 (ko) * 2013-11-05 2021-12-28 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
CN105745602B (zh) * 2013-11-05 2020-07-14 索尼公司 信息处理装置、信息处理方法和程序
CN105745602A (zh) * 2013-11-05 2016-07-06 索尼公司 信息处理装置、信息处理方法和程序
KR20160079788A (ko) * 2013-11-05 2016-07-06 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JPWO2015068587A1 (ja) * 2013-11-05 2017-03-09 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10303421B2 (en) 2013-11-05 2019-05-28 Sony Corporation Display control device and display control method for indicating a position outside a display region
US10599382B2 (en) 2013-11-05 2020-03-24 Sony Corporation Information processing device and information processing method for indicating a position outside a display region
WO2015068587A1 (ja) * 2013-11-05 2015-05-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US11068227B2 (en) 2013-11-05 2021-07-20 Sony Corporation Information processing device and information processing method for indicating a position outside a display region
US9851936B2 (en) 2013-11-05 2017-12-26 Sony Corporation Information processing to indicate a position outside a display region
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP2016035631A (ja) * 2014-08-01 2016-03-17 株式会社Nttドコモ メニュー選択装置及びメニュー選択方法
JP2016130985A (ja) * 2015-01-15 2016-07-21 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US10303435B2 (en) 2015-01-15 2019-05-28 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
US11812222B2 (en) 2016-02-04 2023-11-07 Magic Leap, Inc. Technique for directing audio in augmented reality system
WO2017208821A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 音響処理装置および方法、並びにプログラム
JPWO2017208821A1 (ja) * 2016-05-30 2019-03-28 ソニー株式会社 音響処理装置および方法、並びにプログラム
RU2735095C2 (ru) * 2016-05-30 2020-10-28 Сони Корпорейшн Устройство и способ аудиообработки, и программа
CN109314833A (zh) * 2016-05-30 2019-02-05 索尼公司 音频处理装置和音频处理方法以及程序
CN109314833B (zh) * 2016-05-30 2021-08-10 索尼公司 音频处理装置和音频处理方法以及程序
US10708707B2 (en) 2016-05-30 2020-07-07 Sony Corporation Audio processing apparatus and method and program
JP2018026048A (ja) * 2016-08-12 2018-02-15 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6207691B1 (ja) * 2016-08-12 2017-10-04 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
US11825012B2 (en) 2016-10-07 2023-11-21 Sony Group Corporation Server, client terminal, control method, and storage medium
JP6992761B2 (ja) 2016-10-07 2022-01-13 ソニーグループ株式会社 サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム
US11283915B2 (en) 2016-10-07 2022-03-22 Sony Corporation Server, client terminal, control method, and storage medium
JPWO2018066191A1 (ja) * 2016-10-07 2019-07-18 ソニー株式会社 サーバ、クライアント端末、制御方法、および記憶媒体
WO2018066191A1 (ja) * 2016-10-07 2018-04-12 ソニー株式会社 サーバ、クライアント端末、制御方法、および記憶媒体
JP6223533B1 (ja) * 2016-11-30 2017-11-01 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
US10504296B2 (en) 2016-11-30 2019-12-10 Colopl, Inc. Information processing method and system for executing the information processing method
JP2018088946A (ja) * 2016-11-30 2018-06-14 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
US11669298B2 (en) 2017-02-28 2023-06-06 Magic Leap, Inc. Virtual and real object recording in mixed reality device
JP2020509492A (ja) * 2017-02-28 2020-03-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実デバイスにおける仮想および実オブジェクトの記録
JP2022009049A (ja) * 2017-02-28 2022-01-14 マジック リープ, インコーポレイテッド 複合現実デバイスにおける仮想および実オブジェクトの記録
JP7275227B2 (ja) 2017-02-28 2023-05-17 マジック リープ, インコーポレイテッド 複合現実デバイスにおける仮想および実オブジェクトの記録
US11194543B2 (en) 2017-02-28 2021-12-07 Magic Leap, Inc. Virtual and real object recording in mixed reality device
US11337025B2 (en) 2018-05-30 2022-05-17 Sony Ineractive Entertainment Inc. Information processing apparatus and sound generation method
JP2019208185A (ja) * 2018-05-30 2019-12-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および音発生方法
WO2019230567A1 (ja) * 2018-05-30 2019-12-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および音発生方法
WO2020090456A1 (ja) * 2018-10-29 2020-05-07 ソニー株式会社 信号処理装置、信号処理方法、および、プログラム
JP2020198001A (ja) * 2019-06-04 2020-12-10 三菱電機株式会社 作業支援システム、作業支援方法及びプログラム
JP7473676B2 (ja) 2020-03-31 2024-04-23 北京字節跳動網絡技術有限公司 オーディオ処理方法、装置、可読媒体及び電子機器

Also Published As

Publication number Publication date
WO2013114831A1 (en) 2013-08-08
JP6065370B2 (ja) 2017-01-25
BR112014018417A2 (ja) 2017-06-20
RU2014131105A (ru) 2016-02-10
BR112014018417A8 (pt) 2017-07-11
EP2810454A1 (en) 2014-12-10
CN104067633A (zh) 2014-09-24
US9898863B2 (en) 2018-02-20
CN104067633B (zh) 2017-10-13
EP3525486B1 (en) 2021-11-10
US20140300636A1 (en) 2014-10-09
EP3525486A1 (en) 2019-08-14
KR20140128306A (ko) 2014-11-05

Similar Documents

Publication Publication Date Title
JP6065370B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10126823B2 (en) In-vehicle gesture interactive spatial audio system
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
US10412379B2 (en) Image display apparatus having live view mode and virtual reality mode and operating method thereof
KR102357633B1 (ko) 대화 감지
KR102475873B1 (ko) 시야 밖 증강 현실 영상의 표시
JP5821307B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9826297B2 (en) Accessory device that provides sensor input to a media device
WO2017092332A1 (zh) 一种渲染图像的处理方法及装置
WO2017221492A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102443214B1 (ko) 영상처리장치 및 그 제어방법
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
JP2017062598A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017052880A1 (en) Augmented reality with off-screen motion sensing
JP6575518B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP2013254338A (ja) 映像生成システム、映像生成装置、映像生成方法及びコンピュータプログラム
US10200606B2 (en) Image processing apparatus and control method of the same
US20200302761A1 (en) Indicator modes
US20230027060A1 (en) Display system and method
JP2007318188A (ja) 音像提示方法および音像提示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R151 Written notification of patent or utility model registration

Ref document number: 6065370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250