JP2010147529A - 情報処理システムおよび情報処理方法 - Google Patents

情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP2010147529A
JP2010147529A JP2008319316A JP2008319316A JP2010147529A JP 2010147529 A JP2010147529 A JP 2010147529A JP 2008319316 A JP2008319316 A JP 2008319316A JP 2008319316 A JP2008319316 A JP 2008319316A JP 2010147529 A JP2010147529 A JP 2010147529A
Authority
JP
Japan
Prior art keywords
display
listener
information processing
head
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008319316A
Other languages
English (en)
Other versions
JP4849121B2 (ja
Inventor
Homare Kon
誉 今
Yuji Yamada
裕司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008319316A priority Critical patent/JP4849121B2/ja
Priority to US12/634,999 priority patent/US8644531B2/en
Priority to EP09252762A priority patent/EP2200349B1/en
Priority to AT09252762T priority patent/ATE515899T1/de
Priority to CN200910259228.1A priority patent/CN101784004B/zh
Publication of JP2010147529A publication Critical patent/JP2010147529A/ja
Application granted granted Critical
Publication of JP4849121B2 publication Critical patent/JP4849121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Television Signal Processing For Recording (AREA)
  • Stereophonic Arrangements (AREA)

Abstract

【課題】手元にある携帯型のディスプレイ装置で画像を見ながら、イヤホンやヘッドホンによって音声を聴く場合に、当該ディスプレイ装置を移動または回転させたとき、映画館で座席を移動して映画を鑑賞するときのような臨場感が得られるように音像定位を制御する。
【解決手段】リスナーがディスプレイ11を初期状態から、X軸プラス方向に距離Dxだけ移動させ、Y軸マイナス方向に距離Dyだけ移動させた場合、仮想シアターのような仮想視聴空間においてリスナーが前方左側に移動したときのような音像定位処理を実行する。
【選択図】図6

Description

この発明は、ディスプレイ上に画像を表示し、イヤホンまたはヘッドホンによって音声を出力する情報処理システム、および、この情報処理システムでの情報処理方法に関する。
携帯型のディスプレイ装置で動画などの画像を見ながら、イヤホンやヘッドホンによって音楽などの音声を聴くことが多くなっている。
また、下記の特許文献1や特許文献2には、イヤホンやヘッドホンによって音楽を聴く場合に、リスナー頭部の回転を検出し、その検出結果に応じて音像定位を制御して、リスナー頭外の定められた位置に音像を定位させることが示されている。
また、下記の特許文献3には、映像および音声を再生する場合に、ディスプレイ画面上の所定位置に音像を定位させることが示されている。
上に挙げた先行技術文献は、以下の通りである。
特開平9−70094号公報 特開平11−205892号公報 特開平9−93700号公報
しかしながら、上記の従来の音像定位方法では、ディスプレイ装置が固定的に常設されることが前提とされているため、携帯電話端末などに代表される携帯型のディスプレイ装置で画像を見ながら、イヤホンやヘッドホンによって音声を聴く場合、当該ディスプレイの状態の変化とは無関係に音像が所定位置に固定的に定位されてしまう。
具体的には、イヤホンやヘッドホンを装着したリスナーが携帯電話端末などのディスプレイ装置を、リスナー自身に近づけても、逆にリスナー自身から遠ざけても、あるいはリスナー自身に対して傾けても、当該音声の音像が定位される位置は変わらない。このため、例えば、映画館において、前の方の座席で映画を鑑賞した場合、逆に後ろの方の座席で映画を鑑賞した場合、あるいはスクリーンに対して斜めの方向で映画を鑑賞した場合に体感できるような臨場感は、携帯型のディスプレイ装置を用いて音声を聴く場合には得られない。
そこで、この発明は、手元にある携帯型のディスプレイ装置で画像を見ながら、イヤホンやヘッドホンによって音声を聴く場合に、当該ディスプレイ装置を移動または回転させたとき、映画館で座席を移動して映画を鑑賞するときのような臨場感が得られるように音像定位の制御を行うものである。
第1の発明の情報処理システムは、
ディスプレイと、
このディスプレイの移動または回転を検出するためのディスプレイ用センサと、
イヤホン装置またはヘッドホン装置であるトランスデューサ装置と、
このトランスデューサ装置を装着して音声を聴取するリスナーの頭外の位置に音像を定位させるように音声信号を処理する音声処理部と、
上記ディスプレイ用センサの出力を演算して、上記ディスプレイの移動方向および移動距離、または回転方向および回転角を算出し、その算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を想定された仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御する演算制御部と、
を備えるものである。
第2の発明の情報処理システムは、
上記の第1の発明の情報処理システムにおいて、
上記トランスデューサ装置に取り付けられた、リスナー頭部の移動または回転を検出するためのトランスデューサ用センサを備え、
上記演算制御部は、上記ディスプレイ用センサの出力、および上記トランスデューサ用センサの出力を演算して、上記ディスプレイの移動方向および移動距離、または回転方向および回転角、および上記リスナー頭部の移動方向および移動距離、または回転方向および回転角を算出し、その算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を上記仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御するものである。
上記の構成の、この発明の情報処理システムでは、リスナーがディスプレイを、自身に近づけ、逆に自身から遠ざけ、あるいは自身に対して傾けたとき、仮想視聴空間において、自身が画像表示面に近づき、逆に画像表示面から遠ざかり、あるいは画像表示面の左側または右側に移動して画像表示面に対して斜めの方向に位置するように、音像が定位される。
したがって、音像定位についても、映画館で座席を移動して映画を鑑賞するときのような臨場感が得られる。
また、多くの音楽ソースは前方のスピーカがメインとされているので、ディスプレイを近づけることによって音量が上がり、ディスプレイを遠ざけることによって音量が下がって、結果的に、キーやスイッチなどの操作手段によらないボリューム調整インタフェースとして機能させることもできる。
以上のように、この発明によれば、手元にある携帯型のディスプレイ装置で画像を見ながら、イヤホンやヘッドホンによって音声を聴く場合に、ディスプレイ装置を移動または回転させたとき、音像定位についても、映画館で座席を移動して映画を鑑賞するときのような臨場感を得ることができる。
[1.第1の実施形態:図1〜図13]
第1の実施形態として、リスナーが自身は移動も回転もせず、ディスプレイのみを移動または回転させる場合を示す。
(1−1.システム構成:図1〜図4)
<1−1−1.システムの外観構成:図1>
図1に、第1の実施形態の情報処理システムの一例の外観構成を示す。
この例の情報処理システム100は、情報処理装置10およびイヤホン装置50によって構成される。
情報処理装置10は、動画などの画像、および音楽などの音声を再生できるもので、外観的には、液晶ディスプレイや有機ELディスプレイなどのディスプレイ11、および操作キーや操作ダイヤルなどからなる操作部12を備える。
イヤホン装置50は、左イヤホン部60および右イヤホン部70を備え、コード55の一端側の分岐されたコード部分56および57が左イヤホン部60および右イヤホン部70に接続される。
図1では省略しているが、コード55の他端側にはプラグが取り付けられ、そのプラグが情報処理装置10に設けられたジャックに挿入されることによって、イヤホン装置50が情報処理装置10に有線接続される。
<1−1−2.システムの接続機能構成:図2>
図2に、この場合の情報処理装置10の接続機能構成を示す。
情報処理装置10は、バス14に、上記の操作部12のほかに、CPU15、ROM16、RAM17および不揮発メモリ19が接続される。
CPU:Central Processing Unit,
ROM:Read Only Memory,
RAM:Random Access Memory,である。
ROM16には、CPU15が実行すべき各種のプログラムや必要な固定データが、あらかじめ書き込まれる。RAM17は、CPU15のワークエリアなどとして機能するものである。
CPU15、ROM16およびRAM17は、後述のディスプレイ11の移動および回転に係る演算およびその演算結果による音像定位処理の制御を行う演算制御部21を構成する。
不揮発メモリ19は、情報処理装置10に内蔵された、または情報処理装置10に装着されるもので、これには、動画などの画像データや音楽などの音声データなどが記録される。
さらに、バス14には、画像処理部22および音声処理部24が接続される。ただし、画像処理部22および音声処理部24は、それぞれ、CPU15、ROM16およびRAM17を含んで構成される。
画像処理部22は、不揮発メモリ19から読み出された動画などの画像データを、圧縮されているものについては伸長した上で、アナログ画像信号に変換する。
音声処理部24は、不揮発メモリ19から読み出された音楽などの音声データに対して、圧縮されているものについては伸長した上で、後述のような音像定位処理を行う。
画像処理部22からの画像信号は、駆動回路部23でディスプレイ駆動信号に変換されて、ディスプレイ11に供給される。
音声処理部24からの左右のデジタル音声データは、DAC25および26でアナログ音声信号に変換される。その変換後の左右の音声信号は、音声増幅回路27および28で増幅されて、イヤホン装置50の左右のトランスデューサ61および71に供給される。
DAC:Digital to Analog Converter,である。
トランスデューサ61および71は、それぞれ音楽などの音声信号を音響に変換するものである。
さらに、この例では、情報処理装置10に、ディスプレイ11の移動、すなわち情報処理装置10の移動を検出するための加速度センサ31、および、ディスプレイ11の回転、すなわち情報処理装置10の回転を検出するためのジャイロセンサ32、を設ける。
具体的に、加速度センサ31は、後述の基準面内の互いに直交する2つの軸(X軸およびY軸)の方向の移動の加速度を検出するものとし、ジャイロセンサ32は、その基準面に垂直な軸(Z軸)の回りの回転の角速度を検出するものとする。
加速度センサ31およびジャイロセンサ32の出力信号は、それぞれ、ADC33および34でサンプリングされ、デジタルデータに変換されて、バス14に取り込まれる。
ADC:Analog to Digital Converter,である。
<1−1−3.仮想視聴空間:図3>
情報処理装置10では、ディスプレイ11上に画像を表示し、イヤホン装置50によって音声を出力するに当たって、仮想シアターのような仮想視聴空間を想定する。図3に、仮想視聴空間の一例を示す。
この例の仮想視聴空間1は、基準面(図3の紙面に平行な面)上で見て長方形の空間で、リスナーから見て前方側に、画像表示面2、センターのスピーカ3および左右のスピーカ4,5が設置され、左右の側方の前方寄りの位置に、スピーカ6,7が設置されたものである。
ただし、この例のスピーカ数およびスピーカ配置位置は一例であって、スピーカ数およびスピーカ配置位置は任意に設定することができる。
画像表示面2は、スクリーンとして投射によって、またはディスプレイとして、画像が表示される面である。
位置Poは、仮想視聴空間1の中心位置であり、リスナー頭部9の実線で示す状態は、リスナー頭部9が位置Poにおいて画像表示面2に正対している状態である。
リスナーが位置Poから位置Pfに移動することは、実際のシアターで前方側の席に移動することに相当し、位置Poから位置Pbに移動することは、実際のシアターで後方側の席に移動することに相当する。
リスナーが位置Poから位置Plに移動することは、実際のシアターで左側の席に移動することに相当し、位置Poから位置Prに移動することは、実際のシアターで右側の席に移動することに相当する。
この仮想視聴空間1の左右方向をX軸方向、前後方向をY軸方向、基準面(図3の紙面に平行な面)に垂直な方向をZ軸方向とする。
<1−1−4.音像定位処理:図4>
図4に、図3のように仮想視聴空間1が想定された場合の情報処理装置10の音声処理部24の音像定位処理に係る構成の一例を示す。
音声信号SC,SL,SR,SEおよびSFは、それぞれ、図3に示した仮想視聴空間1に設置された仮想のスピーカ3,4,5,6および7から出力されるチャンネルの、圧縮されているデータについては伸長した後のデジタル音声データである。
音声信号SCは、デジタルフィルタ43Lおよび43Rに供給され、音声信号SLは、デジタルフィルタ44Lおよび44Rに供給され、音声信号SRは、デジタルフィルタ45Lおよび45Rに供給される。
音声信号SEは、デジタルフィルタ46Lおよび46Rに供給され、音声信号SFは、デジタルフィルタ47Lおよび47Rに供給される。
デジタルフィルタ43Lは、スピーカ3の位置からリスナー頭部9の左耳に至る伝達関数HCLを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ43Rは、スピーカ3の位置からリスナー頭部9の右耳に至る伝達関数HCRを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ44Lは、スピーカ4の位置からリスナー頭部9の左耳に至る伝達関数HLLを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ44Rは、スピーカ4の位置からリスナー頭部9の右耳に至る伝達関数HLRを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ45Lは、スピーカ5の位置からリスナー頭部9の左耳に至る伝達関数HRLを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ45Rは、スピーカ5の位置からリスナー頭部9の右耳に至る伝達関数HRRを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ46Lは、スピーカ6の位置からリスナー頭部9の左耳に至る伝達関数HELを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ46Rは、スピーカ6の位置からリスナー頭部9の右耳に至る伝達関数HERを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ47Lは、スピーカ7の位置からリスナー頭部9の左耳に至る伝達関数HFLを時間領域に変換したインパルス応答を畳み込むフィルタである。
デジタルフィルタ47Rは、スピーカ7の位置からリスナー頭部9の右耳に至る伝達関数HFRを時間領域に変換したインパルス応答を畳み込むフィルタである。
加算回路41で、デジタルフィルタ43L,44L,45L,46Lおよび47Lの出力の音声信号が加算される。加算回路42で、デジタルフィルタ43R,44R,45R,46Rおよび47Rの出力の音声信号が加算される。
加算回路41の出力の音声信号は、図2に示したDAC25でアナログ音声信号に変換される。その変換後の音声信号が、左音声信号として、音声増幅回路27で増幅されて、トランスデューサ61に供給される。
加算回路42の出力の音声信号は、図2に示したDAC26でアナログ音声信号に変換される。その変換後の音声信号が、右音声信号として、音声増幅回路28で増幅されて、トランスデューサ71に供給される。
(1−2.情報処理方法:図5〜図13)
第1の実施形態では、ディスプレイ11を移動または回転させたとき、その移動後または回転後のディスプレイ11とリスナー頭部との位置関係を仮想視聴空間1での画像表示面2とリスナー頭部との位置関係に写像するように、音像定位を制御する。
<1−2−1.初期状態:図5>
このように音像定位を制御するためには、初期状態の設定が必要である。
図5に、実際の視聴空間の初期状態設定時の状態の一例を示す。
リスナーは、情報処理システム100によって画像および音声を視聴するとき、自身に対してディスプレイ11が或る位置および或る方向にある状態で、操作部12での操作によって情報処理装置10に初期状態を設定させる。
図5は、リスナーが、自身の正面側の自身の頭部9の位置Hoに対して或る距離Loを隔てた位置Doにディスプレイ11が存在するように情報処理装置10を手に持ち、ディスプレイ11を自身に正対させた状態で、設定操作をした場合である。
このとき、情報処理装置10は、ディスプレイ11の画面左右方向に延長してディスプレイ11の画面と所定角度で交差する面を基準面とし、この基準面上の画面左右方向をX軸方向、これに垂直な方向をY軸方向、基準面に垂直な方向をZ軸方向とする。
図2に示した加速度センサ31は、このX軸方向およびY軸方向の移動の加速度を検出し、ジャイロセンサ32は、Z軸方向の回転の角速度を検出する。
ディスプレイ11とリスナー頭部9との初期距離Loは、任意であるが、一般に人がディスプレイを手に持ってディスプレイ画面を見るときの距離としては30cm程度である。
この初期状態は、図3に示したようにリスナーが仮想視聴空間1内の所定位置、例えば中心位置Poの席で、映画などの画像および音声を視聴する状態とする。
そのため、ディスプレイ11とリスナー頭部9との位置関係が初期状態とされた状態にあるときには、リスナーが仮想音源のスピーカ3〜7に対して図3に示すような位置Poおよび方向で音声を聴取するように、音像定位を制御する。
<1−2−2.ディスプレイを移動させた場合:図6および図7>
第1の実施形態の第1の方法は、リスナーがディスプレイ11を、上記のX軸方向またはY軸方向に移動させた場合である。
図6に、リスナーがディスプレイ11を、上記の初期状態から、参照符号11mで示すように、X軸方向にはX軸プラス方向に距離Dxだけ移動させ、Y軸方向にはY軸マイナス方向に距離Dyだけ移動させた場合を示す。
X軸プラス方向は、画面右方向であり、X軸マイナス方向は、画面左方向であり、Y軸プラス方向は、リスナー頭部9から遠ざかる方向であり、Y軸マイナス方向は、リスナー頭部9に近づく方向である。
位置Doは、ディスプレイ11の初期位置であり、位置Dmは、ディスプレイ11の移動後の位置である。
距離Lmは、ディスプレイ11の移動後のディスプレイ11とリスナー頭部9との距離であり、初期距離Loが30cmなどというように設定されれば、図6中の式(1)によって算出することができる。
情報処理装置10の演算制御部21は、加速度センサ31の2軸の出力の、X軸方向およびY軸方向の加速度を、それぞれ2回積分して、ディスプレイ11のX軸方向の移動距離DxおよびY軸方向の移動距離Dyを算出する。
さらに、情報処理装置10の演算制御部21は、移動後のディスプレイ11とリスナー頭部9との位置関係が仮想視聴空間1での画像表示面2とリスナー頭部9との位置関係に写像されるように、音像定位の処理パラメータを選択決定する。
写像変換のために、一つの方法として、X軸方向の変換率およびY軸方向の変換率を、それぞれKとして、距離Qx,Qyとして、Qx=K・Dx,Qy=K・Dy,を算出する。
仮想視聴空間1の範囲や、画像表示面2と中心位置Poとの距離は、実際の視聴空間でリスナーの腕を最大に伸ばせる範囲や、実際の視聴空間での上記の距離Loに比べて、十分に大きいので、変換率Kは1より大きくする。
実際の視聴空間でディスプレイ11が、X軸プラス方向に距離Dxだけ移動し、Y軸マイナス方向に距離Dyだけ移動したことは、仮想視聴空間1ではリスナー頭部9が、X軸マイナス方向に距離Qxだけ移動し、Y軸プラス方向に距離Qyだけ移動したことに相当する。
そのため、図7に示すように、仮想視聴空間1でのリスナー頭部9の位置Pmとして、中心位置Poから、X軸マイナス方向に距離Qxだけ移動し、Y軸プラス方向に距離Qyだけ移動した位置を算出する。
位置Pmは、仮想視聴空間1の画像表示面2から見ると、Y軸マイナス方向に対して時計方向に、図6中の式(2)で表される角度αだけ回転した方向である。
別の方法として、上記の距離Lmと角度αとから、仮想視聴空間1でのリスナー頭部9の位置Pmを算出することもできる。
すなわち、この場合、画像表示面2から見て、Y軸マイナス方向に対して時計方向に角度αだけ回転した方向に、画像表示面2の左右方向の中心から、上記の距離Lmに変換率Kを乗じた距離lmだけ離れた点を、仮想視聴空間1でのリスナー頭部9の位置Pmとして算出する。
変換率Kは、仮想視聴空間1のX軸方向(左右方向)の幅Cx、またはY軸方向(前後方向)の奥行きCyを考慮して決定することもできる。
例えば、人の腕の長さを50cmとし、実際の視聴空間ではディスプレイ11とリスナー頭部9との距離Lmが最大で50cmになるとする。
この距離Lmの最大値をLmmaxとすると、奥行きCyを考慮した場合としては、
lm:Lm=Cy:Lmmax ‥‥‥(5)
すなわち、
lm=Cy×Lm/Lmmax ‥‥‥(6)
とする。
また、幅Cxを考慮した場合としては、
lm:Lm=Cx/2:Lmmax ‥(7)
すなわち、
lm=Cx×Lm/2×Lmmax ‥(8)
とする。
<1−2−3.ディスプレイを回転させた場合:図8および図9>
第1の実施形態の第2の方法は、リスナーがディスプレイ11を、上記のZ軸の回りに回転させた場合である。
図8に、リスナーがディスプレイ11を、図5に示した初期状態に対して、参照符号11rで示すように、上記の位置Doを回転中心としてZ軸の回りに、上方(紙面の手前側)から見て反時計方向に角度φだけ回転させた場合を示す。
情報処理装置10の演算制御部21は、ジャイロセンサ32の出力の、Z軸の回りの回転の角速度を積分して、回転角φを算出する。
さらに、情報処理装置10の演算制御部21は、回転後のディスプレイ11とリスナー頭部9との位置関係が仮想視聴空間1での画像表示面2とリスナー頭部9との位置関係に写像されるように、音像定位の処理パラメータを選択決定する。
具体的に、実際の視聴空間でディスプレイ11が反時計方向に角度φだけ回転したことは、仮想視聴空間1ではリスナー頭部9が時計方向に角度φだけ回転したことに相当する。
そのため、この場合、図9に示すように、画像表示面2から見て、Y軸マイナス方向に対して時計方向に角度φだけ回転した方向に、画像表示面2の左右方向の中心から、上記の距離Loに変換率Kを乗じた距離loだけ離れた点を、仮想視聴空間1でのリスナー頭部9の位置Pmとして算出する。
リスナー頭部9の向きは、画像表示面2の左右方向の中心を向く方向とする。
<1−2−4.ディスプレイを移動かつ回転させた場合:図10および図11>
第1の実施形態の第3の方法は、リスナーがディスプレイ11を、移動かつ回転させた場合である。
一例として、図10に、リスナーがディスプレイ11を、図5に示した初期状態から、参照符号11mrで示すように、X軸プラス方向に距離Dx、Y軸マイナス方向に距離Dy、移動させるとともに、Z軸の回りに、反時計方向に角度φだけ回転させた場合を示す。
すなわち、この例は、ディスプレイ11を、図6に示したように移動させ、かつ図8に示したように回転させた場合である。
この場合、図11に示すように、画像表示面2から見て、Y軸マイナス方向に対して時計方向に角度β(=φ+α)だけ回転した方向に、画像表示面2の左右方向の中心から距離lm(=K×Lm)だけ離れた点を、仮想視聴空間1でのリスナー頭部9の位置Pmとして算出する。
<1−2−5.演算制御の処理:図12および図13>
図12に、第1の実施形態で情報処理装置10の演算制御部21が実行する一連の処理の一例を示す。
この例では、まずステップ111で、上記のようにリスナーの操作に基づいて初期状態を設定する。
次に、ステップ112で、加速度センサ31の2軸の出力信号、およびジャイロセンサ32の出力信号を、サンプリングし、デジタルデータに変換して、ディスプレイ11のX軸方向およびY軸方向の移動の加速度を示すデータ、およびディスプレイ11のZ軸の回りの回転の角速度を示すデータを得る。
次に、ステップ113で、図13の式(11)、式(12)および式(13)によって、ディスプレイ11のX軸方向の移動距離Dx、Y軸方向の移動距離Dy、およびZ軸の回りの回転角φを算出する。
次に、ステップ114で、その算出結果をもとに、図4に示したデジタルフィルタ43L,43R,44L,44R,45L,45R,46L,46R,47Lおよび47Rのフィルタ係数を決定する。
次に、ステップ115で、音声処理部24において、その決定されたフィルタ係数によって音像定位処理を実行する。
次に、ステップ116で、一連の処理を終了するか否かを判断し、リスナーの終了操作などによって一連の処理を終了する場合を除いて、ステップ116からステップ112に戻って、ステップ112〜115の処理を繰り返す。
[2.第2の実施形態:図14〜図19]
第2の実施形態として、第1の実施形態のようにディスプレイを移動または回転させるだけでなく、リスナー自身も移動または回転する場合を示す。
(2−1.システム構成:図14および図15)
第2の実施形態でも、例えば、図1に示したように、情報処理システム100は情報処理装置10およびイヤホン装置50によって構成される。
情報処理装置10が外観的にディスプレイ11および操作部12を備えることも、第1の実施形態と同じである。
さらに、第2の実施形態では、イヤホン装置50は、リスナー頭部の移動または回転を検出できるセンサが取り付けられたものとして構成する。図14に、その一例を示す。
左イヤホン部60は、インナーフレーム62の一端側に、上記のトランスデューサ61およびグリル63が取り付けられ、他端側に、コードブッシング64が取り付けられる。
左イヤホン部60の耳から出る部分には、加速度センサ65、ジャイロセンサ66およびハウジング67が取り付けられる。左イヤホン部60の耳の中に入る部分には、イヤピース69が取り付けられる。
右イヤホン部70は、左イヤホン部60と同様に、インナーフレーム72の一端側に、上記のトランスデューサ71およびグリル73が取り付けられ、他端側に、コードブッシング74が取り付けられる。
右イヤホン部70の耳から出る部分には、ハウジング77が取り付けられる。右イヤホン部70の耳の中に入る部分には、イヤピース79が取り付けられる。
加速度センサ65は、後述の基準面内の互いに直交する2つの軸(X軸およびY軸)の方向の移動の加速度を検出するものとし、ジャイロセンサ66は、その基準面に垂直な軸(Z軸)の回りの回転の角速度を検出するものとする。
情報処理装置10は、図15に示すように、第1の実施形態の場合の図2に示した構成に加えて、バス14に、イヤホン装置50の加速度センサ65およびジャイロセンサ66の出力信号をそれぞれデジタルデータに変換するADC35および36が接続される。
第2の実施形態でも、例えば、図3に示したような仮想視聴空間1を想定し、情報処理装置10の音声処理部24では、図4に示したような音像定位処理を実行する。
(2−2.情報処理方法:図16〜図19)
第2の実施形態でも、情報処理装置10は、リスナーの操作によって初期状態を設定する。初期状態は、例えば、図5に示した状態である。
第2の実施形態では、ディスプレイ11およびリスナー自身の移動または回転の組合せとして、
(a)ディスプレイ11を移動し、リスナー自身も頭部を移動する場合、
(b)ディスプレイ11を移動し、リスナー自身は頭部を回転させる場合、
(c)ディスプレイ11を回転させ、リスナー自身は頭部を移動する場合、
(d)ディスプレイ11を回転させ、リスナー自身も頭部を回転させる場合、
(e)ディスプレイ11を移動かつ回転させ、リスナー自身も頭部を移動かつ回転させる場合、
が存在する。
いずれの場合も、実際の視聴空間でのディスプレイ11とリスナー頭部9との位置関係を仮想視聴空間1での画像表示面2とリスナー頭部9との位置関係に写像するように、音像定位を制御する。
図16に、上記(e)の場合として、リスナーがディスプレイ11を移動かつ回転させるとともに、リスナー自身が頭部を移動かつ回転させた場合を示す。
具体的に、ディスプレイ11は、図10に示したように移動かつ回転させ、リスナー頭部9は、X軸プラス方向に距離Hxだけ移動させ、Y軸マイナス方向に距離Hyだけ移動させ、Z軸の回りにディスプレイ11とは逆に時計方向に角度θだけ回転させた場合を示す。
位置Do、距離Lo、位置Dm、距離Dx、距離Dyおよび回転角φは、図5、図6、図8および図10に示したそれと同じである。
位置Hoは、この場合にはリスナー頭部9の初期位置であり、位置Hmは、リスナー頭部9の移動後の位置である。
ディスプレイ11のX軸方向の移動距離DxおよびY軸方向の移動距離Dyは、第1の実施形態でも示したように、加速度センサ31の2軸の出力の、X軸方向およびY軸方向の加速度を、それぞれ2回積分して算出する。
リスナー頭部9のX軸方向の移動距離HxおよびY軸方向の移動距離Hyは、加速度センサ65の2軸の出力の、X軸方向およびY軸方向の加速度を、それぞれ2回積分して算出する。
ディスプレイ11の回転角φは、第1の実施形態でも示したように、ジャイロセンサ32の出力の角速度を積分して算出する。
リスナー頭部9の回転角θは、ジャイロセンサ66の出力の角速度を積分して算出する。
ディスプレイ11およびリスナー頭部9の移動後のディスプレイ11とリスナー頭部9との距離Lmは、初期距離Loが30cmなどというように設定されれば、図16中の式(3)によって算出することができる。図16中の角度αは、図16中の式(4)で表される。
情報処理装置10の演算制御部21は、以上のような移動回転後のディスプレイ11とリスナー頭部9との位置関係が仮想視聴空間1での画像表示面2とリスナー頭部9との位置関係に写像されるように、音像定位の処理パラメータを選択決定する。
具体的に、実際の視聴空間でディスプレイ11が反時計方向に角度φだけ回転したことは、仮想視聴空間1ではリスナー頭部9が時計方向に角度φだけ回転したことに相当する。
さらに、実際の視聴空間でリスナー頭部9が時計方向に角度θだけ回転したことは、仮想視聴空間1でもリスナー頭部9が時計方向に角度θだけ回転したことに相当する。
そのため、この場合、図17に示すように、画像表示面2から見て、Y軸マイナス方向に対して時計方向に角度(φ+θ)だけ回転した方向に、画像表示面2の左右方向の中心から距離lm(=K×Lm)だけ離れた点を、仮想視聴空間1でのリスナー頭部9の位置Pmとして算出する。
リスナー頭部9の向きは、画像表示面2の左右方向の中心を向く方向とする。
図18に、第2の実施形態で情報処理装置10の演算制御部21が実行する一連の処理の一例を示す。
この例では、まずステップ121で、上記のようにリスナーの操作に基づいて初期状態を設定する。
次に、ステップ122で、加速度センサ31の2軸の出力信号、ジャイロセンサ32の出力信号、加速度センサ65の2軸の出力信号、ジャイロセンサ66の出力信号を、サンプリングし、デジタルデータに変換して、ディスプレイ11のX軸方向およびY軸方向の移動の加速度を示すデータ、ディスプレイ11のZ軸の回りの回転の角速度を示すデータ、リスナー頭部9のX軸方向およびY軸方向の移動の加速度を示すデータ、およびリスナー頭部9のZ軸の回りの回転の角速度を示すデータを得る。
次に、ステップ123で、図19の式(11)、式(12)および式(13)によって、ディスプレイ11のX軸方向の移動距離Dx、Y軸方向の移動距離Dy、およびZ軸の回りの回転角φを算出するとともに、図19の式(21)、式(22)および式(23)によって、リスナー頭部9のX軸方向の移動距離Hx、Y軸方向の移動距離Hy、およびZ軸の回りの回転角θを算出する。
次に、ステップ124で、その算出結果をもとに、図4に示したデジタルフィルタ43L,43R,44L,44R,45L,45R,46L,46R,47Lおよび47Rのフィルタ係数を決定する。
次に、ステップ125で、音声処理部24において、その決定されたフィルタ係数によって音像定位処理を実行する。
次に、ステップ126で、一連の処理を終了するか否かを判断し、リスナーの終了操作などによって一連の処理を終了する場合を除いて、ステップ126からステップ122に戻って、ステップ122〜125の処理を繰り返す。
[3.他の実施形態:図20]
図20に示すように、情報処理システム100を、ディスプレイ装置80、情報処理装置90およびイヤホン装置50によって構成してもよい。この場合、ディスプレイ装置80と情報処理装置90との接続、および情報処理装置90とイヤホン装置50との接続を、Bluetooth(登録商標)などの無線によって行うように構成すると、好適である。
情報処理装置90は、ホームサーバとして、ハードディスクなどに画像データや音楽データを蓄積し、画像処理、および上記の音像定位を含む音声処理を実行するものである。
ディスプレイ装置80は、ディスプレイ11および操作部12を備え、ディスプレイ11の移動を検出するための加速度センサや、ディスプレイ11の回転を検出するためのジャイロセンサなどを備え、センサの出力信号を情報処理装置90に送信するものとする。
イヤホン装置50は、回路装置部51に、バッテリー、無線通信モジュールおよびボリュームなどを設け、第2の実施形態のようにリスナー頭部の移動または回転に対応させる場合には、左イヤホン部60または右イヤホン部70に加速度センサやジャイロセンサなどを取り付ける。
なお、図1に示したように情報処理システム100を情報処理装置10およびイヤホン装置50によって構成する場合でも、情報処理装置10とイヤホン装置50との接続を無線によって行うように構成してもよい。
また、トランスデューサ装置としては、イヤホン装置に限らず、ヘッドホン装置でもよい。
この発明の情報処理システムの一例の外観構成を示す図である。 第1の実施形態の情報処理装置の接続機能構成を示す図である。 仮想視聴空間の一例を示す図である。 音像定位処理に係る構成の一例を示す図である。 初期状態設定時の状態の一例を示す図である。 第1の実施形態でディスプレイを移動させた場合の一例を示す図である。 図6の場合の仮想視聴空間でのリスナーの位置および向きを示す図である。 第1の実施形態でディスプレイを回転させた場合の一例を示す図である。 図8の場合の仮想視聴空間でのリスナーの位置および向きを示す図である。 第1の実施形態でディスプレイを移動かつ回転させた場合の一例を示す図である。 図10の場合の仮想視聴空間でのリスナーの位置および向きを示す図である。 第1の実施形態で情報処理装置の演算制御部が実行する一連の処理の一例を示す図である。 第1の実施形態での移動距離および回転角の算出の説明に供する図である。 第2の実施形態のイヤホン装置の一例を示す図である。 第2の実施形態の情報処理装置の接続機能構成の一例を示す図である。 第2の実施形態でディスプレイおよびリスナー頭部を移動かつ回転させた場合の一例を示す図である。 図16の場合の仮想視聴空間でのリスナーの位置および向きを示す図である。 第2の実施形態で情報処理装置の演算制御部が実行する一連の処理の一例を示す図である。 第2の実施形態での移動距離および回転角の算出の説明に供する図である。 この発明の情報処理システムの他の例を示す図である。
符号の説明
主要部については図中に記述したので、ここでは省略する。

Claims (6)

  1. ディスプレイと、
    このディスプレイの移動または回転を検出するためのディスプレイ用センサと、
    イヤホン装置またはヘッドホン装置であるトランスデューサ装置と、
    このトランスデューサ装置を装着して音声を聴取するリスナーの頭外の位置に音像を定位させるように音声信号を処理する音声処理部と、
    上記ディスプレイ用センサの出力を演算して、上記ディスプレイの移動方向および移動距離、または回転方向および回転角を算出し、その算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を想定された仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御する演算制御部と、
    を備える情報処理システム。
  2. 請求項1の情報処理システムにおいて、
    上記トランスデューサ装置に取り付けられた、リスナー頭部の移動または回転を検出するためのトランスデューサ用センサを備え、
    上記演算制御部は、上記ディスプレイ用センサの出力、および上記トランスデューサ用センサの出力を演算して、上記ディスプレイの移動方向および移動距離、または回転方向および回転角、および上記リスナー頭部の移動方向および移動距離、または回転方向および回転角を算出し、その算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を上記仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御する情報処理システム。
  3. 請求項1の情報処理システムにおいて、
    当該情報処理システムは、上記ディスプレイ、上記ディスプレイ用センサ、上記音声処理部および上記演算制御部を備える情報処理装置と、上記トランスデューサ装置とによって構成された情報処理システム。
  4. 請求項1の情報処理システムにおいて、
    当該情報処理システムは、上記ディスプレイおよび上記ディスプレイ用センサを備えるディスプレイ装置と、上記トランスデューサ装置と、上記音声処理部および上記演算制御部を備える情報処理装置とによって構成された情報処理システム。
  5. ディスプレイと、このディスプレイの移動または回転を検出するためのディスプレイ用センサと、イヤホン装置またはヘッドホン装置であるトランスデューサ装置と、このトランスデューサ装置を装着して音声を聴取するリスナーの頭外の位置に音像を定位させるように音声信号を処理する音声処理部とを備える情報処理システムが実行する情報処理方法として、
    上記ディスプレイ用センサの出力を演算して、上記ディスプレイの移動方向および移動距離、または回転方向および回転角を算出する演算工程と、
    その算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を想定された仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御する制御工程と、
    を備える情報処理方法。
  6. 請求項5の情報処理方法において、
    上記情報処理システムは、上記トランスデューサ装置に取り付けられた、リスナー頭部の移動または回転を検出するためのトランスデューサ用センサを備え、
    情報処理方法として、そのトランスデューサ用センサの出力を演算して、上記リスナー頭部の移動方向および移動距離、または回転方向および回転角を算出する演算工程を備え、
    上記制御工程では、上記それぞれの演算工程での算出結果に応じて、上記ディスプレイとリスナー頭部との位置関係を上記仮想視聴空間での画像表示面とリスナー頭部との位置関係に写像するように、上記音声処理部における音声処理を制御する情報処理方法。
JP2008319316A 2008-12-16 2008-12-16 情報処理システムおよび情報処理方法 Active JP4849121B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008319316A JP4849121B2 (ja) 2008-12-16 2008-12-16 情報処理システムおよび情報処理方法
US12/634,999 US8644531B2 (en) 2008-12-16 2009-12-10 Information processing system and information processing method
EP09252762A EP2200349B1 (en) 2008-12-16 2009-12-10 Information processing system and information processing method
AT09252762T ATE515899T1 (de) 2008-12-16 2009-12-10 Informationsverarbeitungssystem und informationsverarbeitungsverfahren
CN200910259228.1A CN101784004B (zh) 2008-12-16 2009-12-16 信息处理***和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008319316A JP4849121B2 (ja) 2008-12-16 2008-12-16 情報処理システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2010147529A true JP2010147529A (ja) 2010-07-01
JP4849121B2 JP4849121B2 (ja) 2012-01-11

Family

ID=42112209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008319316A Active JP4849121B2 (ja) 2008-12-16 2008-12-16 情報処理システムおよび情報処理方法

Country Status (5)

Country Link
US (1) US8644531B2 (ja)
EP (1) EP2200349B1 (ja)
JP (1) JP4849121B2 (ja)
CN (1) CN101784004B (ja)
AT (1) ATE515899T1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005526A (ja) * 2016-06-30 2018-01-11 株式会社リコー 情報処理装置、及びプログラム
US11438721B2 (en) 2018-09-28 2022-09-06 Jvckenwood Corporation Out-of-head localization system, filter generation device, method, and program

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332372B2 (en) * 2010-06-07 2016-05-03 International Business Machines Corporation Virtual spatial sound scape
US8587631B2 (en) * 2010-06-29 2013-11-19 Alcatel Lucent Facilitating communications using a portable communication device and directed sound output
US9237393B2 (en) * 2010-11-05 2016-01-12 Sony Corporation Headset with accelerometers to determine direction and movements of user head and method
US8183997B1 (en) * 2011-11-14 2012-05-22 Google Inc. Displaying sound indications on a wearable computing system
US10009706B2 (en) 2011-12-07 2018-06-26 Nokia Technologies Oy Apparatus and method of audio stabilizing
US9510126B2 (en) * 2012-01-11 2016-11-29 Sony Corporation Sound field control device, sound field control method, program, sound control system and server
JP6028357B2 (ja) * 2012-03-22 2016-11-16 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US9271103B2 (en) * 2012-03-29 2016-02-23 Intel Corporation Audio control based on orientation
US9420386B2 (en) * 2012-04-05 2016-08-16 Sivantos Pte. Ltd. Method for adjusting a hearing device apparatus and hearing device apparatus
CN103052018B (zh) * 2012-12-19 2014-10-22 武汉大学 一种声像距离信息恢复方法
CN103037301B (zh) * 2012-12-19 2014-11-05 武汉大学 一种声像距离信息恢复便携调整方法
JP2014143470A (ja) * 2013-01-22 2014-08-07 Sony Corp 情報処理装置、情報処理方法、及びプログラム
EP3515055A1 (en) * 2013-03-15 2019-07-24 Dolby Laboratories Licensing Corp. Normalization of soundfield orientations based on auditory scene analysis
JP2015027015A (ja) * 2013-07-29 2015-02-05 ソニー株式会社 情報提示装置及び情報処理システム
CN104581541A (zh) * 2014-12-26 2015-04-29 北京工业大学 一种可定位多媒体视听装置及其控制方法
CN106154231A (zh) * 2016-08-03 2016-11-23 厦门傅里叶电子有限公司 虚拟现实中声场定位的方法
US10089063B2 (en) * 2016-08-10 2018-10-02 Qualcomm Incorporated Multimedia device for processing spatialized audio based on movement
CN106375928A (zh) * 2016-11-24 2017-02-01 深圳市佳都实业发展有限公司 一种具备3d声场功能的主控广告机、从广告机及广告机阵列
US10277973B2 (en) 2017-03-31 2019-04-30 Apple Inc. Wireless ear bud system with pose detection
CN108958459A (zh) * 2017-05-19 2018-12-07 深圳市掌网科技股份有限公司 基于虚拟位置的显示方法和***
JP7342451B2 (ja) * 2019-06-27 2023-09-12 ヤマハ株式会社 音声処理装置および音声処理方法
CN110769351A (zh) * 2019-10-29 2020-02-07 歌尔科技有限公司 音频设备的控制方法、音频设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995022235A1 (fr) * 1994-02-14 1995-08-17 Sony Corporation Systeme de reproduction visuelle et sonore
JPH0970094A (ja) * 1995-08-31 1997-03-11 Sony Corp ヘッドホン装置
JPH0993700A (ja) * 1995-09-28 1997-04-04 Sony Corp 映像音声再生装置
JPH10230899A (ja) * 1997-02-24 1998-09-02 Motoya Takeyama 航空宇宙飛行機のマンマシンインターフェース
JP2002209300A (ja) * 2001-01-09 2002-07-26 Matsushita Electric Ind Co Ltd 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JP2006165845A (ja) * 2004-12-06 2006-06-22 Alpine Electronics Inc 映像音響装置
JP2006186904A (ja) * 2004-12-28 2006-07-13 Mitsumi Electric Co Ltd ヘッドセット装置
WO2006107074A1 (ja) * 2005-04-05 2006-10-12 Matsushita Electric Industrial Co., Ltd. 携帯端末装置
JP2006294032A (ja) * 2002-09-05 2006-10-26 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2006295313A (ja) * 2005-04-06 2006-10-26 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008219759A (ja) * 2007-03-07 2008-09-18 Navitime Japan Co Ltd 携帯型メディアコンテンツ再生システム、携帯型メディアコンテンツ再生装置およびメディアコンテンツ配信サーバ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09284676A (ja) * 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
JP3994296B2 (ja) 1998-01-19 2007-10-17 ソニー株式会社 オーディオ再生装置
GB2359177A (en) 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
JP3880561B2 (ja) 2002-09-05 2007-02-14 株式会社ソニー・コンピュータエンタテインメント 表示システム
CN101065990A (zh) * 2004-09-16 2007-10-31 松下电器产业株式会社 声像定位装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995022235A1 (fr) * 1994-02-14 1995-08-17 Sony Corporation Systeme de reproduction visuelle et sonore
JPH0970094A (ja) * 1995-08-31 1997-03-11 Sony Corp ヘッドホン装置
JPH0993700A (ja) * 1995-09-28 1997-04-04 Sony Corp 映像音声再生装置
JPH10230899A (ja) * 1997-02-24 1998-09-02 Motoya Takeyama 航空宇宙飛行機のマンマシンインターフェース
JP2002209300A (ja) * 2001-01-09 2002-07-26 Matsushita Electric Ind Co Ltd 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
JP2006294032A (ja) * 2002-09-05 2006-10-26 Sony Computer Entertainment Inc 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
JP2006165845A (ja) * 2004-12-06 2006-06-22 Alpine Electronics Inc 映像音響装置
JP2006186904A (ja) * 2004-12-28 2006-07-13 Mitsumi Electric Co Ltd ヘッドセット装置
WO2006107074A1 (ja) * 2005-04-05 2006-10-12 Matsushita Electric Industrial Co., Ltd. 携帯端末装置
JP2006295313A (ja) * 2005-04-06 2006-10-26 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2008219759A (ja) * 2007-03-07 2008-09-18 Navitime Japan Co Ltd 携帯型メディアコンテンツ再生システム、携帯型メディアコンテンツ再生装置およびメディアコンテンツ配信サーバ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005526A (ja) * 2016-06-30 2018-01-11 株式会社リコー 情報処理装置、及びプログラム
US11438721B2 (en) 2018-09-28 2022-09-06 Jvckenwood Corporation Out-of-head localization system, filter generation device, method, and program

Also Published As

Publication number Publication date
CN101784004B (zh) 2013-03-06
EP2200349B1 (en) 2011-07-06
US8644531B2 (en) 2014-02-04
ATE515899T1 (de) 2011-07-15
US20100150355A1 (en) 2010-06-17
EP2200349A1 (en) 2010-06-23
JP4849121B2 (ja) 2012-01-11
CN101784004A (zh) 2010-07-21

Similar Documents

Publication Publication Date Title
JP4849121B2 (ja) 情報処理システムおよび情報処理方法
US10397728B2 (en) Differential headtracking apparatus
US8472653B2 (en) Sound processing apparatus, sound image localized position adjustment method, video processing apparatus, and video processing method
JP5676487B2 (ja) モバイル用途のための頭部追跡
EP2839675B1 (en) Auto detection of headphone orientation
EP2942980A1 (en) Real-time control of an acoustic environment
US20130259244A1 (en) Hearing device with an inertial measurement unit
EP3599772B1 (en) Shape-shifting headphones
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
KR20150003528A (ko) 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
WO2016167007A1 (ja) 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
US20220417697A1 (en) Acoustic reproduction method, recording medium, and acoustic reproduction system
EP3599773A1 (en) Shape-shifting headphones for conveying information
CN105872928B (zh) 一种基于移动终端的虚拟环绕立体声生成的方法及***
KR100667001B1 (ko) 이중 스피커 핸드폰에서의 입체음향 청취 스위트 스폿 유지방법 및 그 장치
CN102568535A (zh) 互动式声音录放装置
CN115053534A (zh) 真无线立体声耳麦控制旋钮的磁感应
KR102613035B1 (ko) 위치보정 기능의 이어폰 및 이를 이용하는 녹음방법
JP7476672B2 (ja) 受聴装置、及び受聴方法
WO2022151336A1 (en) Techniques for around-the-ear transducers
JP2024056580A (ja) 情報処理装置及びその制御方法及びプログラム
CN115002613A (zh) 耳机
JP2020178272A (ja) 信号処理システム及び信号処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110920

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111003

R151 Written notification of patent or utility model registration

Ref document number: 4849121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250