JP2006128818A - 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア - Google Patents

立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア Download PDF

Info

Publication number
JP2006128818A
JP2006128818A JP2004311399A JP2004311399A JP2006128818A JP 2006128818 A JP2006128818 A JP 2006128818A JP 2004311399 A JP2004311399 A JP 2004311399A JP 2004311399 A JP2004311399 A JP 2004311399A JP 2006128818 A JP2006128818 A JP 2006128818A
Authority
JP
Japan
Prior art keywords
stereoscopic
data
position information
sound
recording medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004311399A
Other languages
English (en)
Inventor
Takayuki Sugawara
隆幸 菅原
Kunio Yamada
邦男 山田
Shinji Nakamura
伸司 中村
Akinari Suehiro
晃也 末廣
Sadahiro Yasura
定浩 安良
Takao Yamabe
孝朗 山辺
Katsumi Hasegawa
勝巳 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004311399A priority Critical patent/JP2006128818A/ja
Publication of JP2006128818A publication Critical patent/JP2006128818A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

【課題】 立体映像と立体音響のコンテンツの対応記録、再生ができる立体映像・立体音響対応記録・再生技術を提供する。
【解決手段】 所定の時間単位でオブジェクトの立***置情報をMPEGの規定のユーザーデータ領域若しくはプライベートストリーム、若しくは別領域の情報体を用いて記述し、所定の時間単位でオブジェクトの識別情報を立体映像データと音響データの双方のストリームの識別情報とリンクさせて記述し、立体映像データを音響データと共に記録メディアに記録する記録系と、記録メディアからオブジェクトの立***置情報を検出し、オブジェクトの識別情報を立体映像データと音響データの双方のストリームから検出し、映像のオブジェクトの識別情報に対応する音響データの音像の立体定位位置を前記オブジェクトの立***置になるように、スピーカレイを用いて音像位置制御を行う再生系で構成する。
【選択図】 図1

Description

本発明は、立体映像のオブジェクトの動きと立体音響を対応させて記録し、再生するための立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び映像音響記録メディアに関する。
従来、いくつかの方式で3D(立体)映像再生技術が提案されている。また3D(立体)音場に関する技術も、スピーカのないところから、あたかもその位置にスピーカがあるかのように音を定位させて再生する技術が提案されている。しかし、空間を表現できる立体映像技術で表示再現できるコンテンツの立体的な映像と空間音響の空間定位技術による音響とを連携させて再生することができないという問題点があった。
例えば、特開2000−17355号公報(特許文献1)には、本発明者から対象物体に関するステレオ画像の相対応する両画素点間を結ぶエピポーラ線の方向とその直交する方向に関して両方向にそれぞれ相対応する両画素点を含むように画面上の2次元探索を行って視差ベクトルを求め、対象物体までの距離を計算する方法が開示されている。
また、特開平7−236199公報(特許文献2)には、立体映像における左右の物体の動きは動きベクトルの検出によって自動的に検出し、これに応じた音場は主音声信号及び副音声信号によって駆動される主スピーカ及びサラウンドスピーカで立体的に再生をする方式が開示されている。しかしながら、動きベクトルはコンテンツの時間方向に関する物体の動きであり、3次元立体映像の奥行きの情報ではない。また、立体音場もこの従来技術では、単に幾つかのスピーカでのサラウンド感を用いて行うもので、空間での音の定位を行うものではない。
また、特開2001−306081公報(特許文献3)には、実時間でオーディオ空間の構成を制御する音楽空間構成制御装置に関する技術が開示されており、DirectXに存在する3次元音源を記述するパラメータを使い、定位、方向、ドップラーパラメータなどを用いて効果的なミュージックスペースを提供することが開示されている。しかしながら立体映像の空間である奥行きに関するパラメータは開示されておらず、その空間的映像と音響の同期再生も説明されていない。
このように、従来では、3次元の立体映像の奥行き方向の動きに対応して、音の定位技術を用いて映像と音響を連携させて再生することや、映像がディスプレイ表示域を超えてもそのコンテンツの音を音の定位技術を利用して再生して臨場感のある映像音響を再生するシステムは知られていない。
特開2000−17355号公報 特開平7−236199号公報 特開2001−306081号公報 NHK放送技術研究所、「3次元映像の基礎」、オーム社、1995年 イエンスブラウエルト著、「空間音響」、鹿島出版会、1985年 B. Javidi, F. Okano Editors, "Three−Dimensional Television, Video, and Display Technologies", Springer−Verlag (2002), P101〜P123
本発明は、立体映像と立体音響のコンテンツの対応記録ができる立体映像・立体音響対応記録技術を提供することを目的とする。
本発明はまた、オブジェクトの映像の3次元的位置と音響の3次元的定位を同期して再生することができる立体映像・立体音響対応再生技術を提供することを目的とする。
請求項1の発明の立体映像・立体音響対応記録プログラムは、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報として当該オブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成するステップと、前記オブジェクトの立***置情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせるステップと、前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録するステップとをコンピュータに実行させるものである。
請求項2の発明の立体映像・立体映像・立体音響対応再生プログラムは、立体映像データ及び音響データと共にこれらの再生時に自身を音源とする音響の立体定位制御を行うオブジェクトの立***置情報及び出現タイミングのリンク情報を記録している記録メディアから立体映像データ及び音響データを読み出して再生するステップと、前記記録メディアから前記オブジェクトの立***置情報を読み出すステップと、前記記録メディアから前記オブジェクトの立***置情報に対応する音響データを読み出すステップと、前記オブジェクトの立***置情報に対応する前記音響データの音像の立体定位位置を当該オブジェクトの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行うステップとをコンピュータに実行させるものである。
請求項3の発明の立体映像・立体音響対応記録装置は、所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報として当該オブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成する手段と、前記オブジェクトの立***置情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせる手段と、前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録する手段とを備えたものである。
請求項4の発明の立体映像・立体音響対応再生装置は、立体映像データ及び音響データと共にこれらの再生時に自身を音源とする音響の立体定位制御を行うオブジェクトの立***置情報及び出現タイミングのリンク情報を記録している記録メディアから立体映像データ及び音響データを読み出して再生する手段と、前記記録メディアから前記オブジェクトの立***置情報を読み出す手段と、前記記録メディアから前記オブジェクトの立***置情報に対応する音響データを読み出す手段と、前記オブジェクトの立***置情報に対応する前記音響データの音像の立体定位位置を当該オブジェクトの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行う手段とを備えたものである。
請求項5の発明の立体映像・立体音響対応記録メディアは、立体映像データと音響データを記録すると共に、所定の時間単位で作成した再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報を前記立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて記録したものである。
請求項6の発明の立体映像・立体音響対応記録プログラムは、所定の時間単位で、音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報としてそれぞれのオブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成するステップと、前記オブジェクトそれぞれに識別情報を設定するステップと、前記オブジェクトそれぞれの識別情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングにリンクさせるステップと、前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録するステップとをコンピュータに実行させるものである。
請求項7の発明の立体映像・立体音響対応再生プログラムは、立体映像データ及び音響データと共に、これらの再生時に音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報及び出現タイミングを示す情報を各オブジェクトの識別情報と対応させて記録している記録メディアから立体映像データ及び音響データを読み出して再生するステップと、前記記録メディアから映像に表示するオブジェクトと表示しないオブジェクトとの識別情報及び立***置情報を読み出すステップと、前記記録メディアからオブジェクトそれぞれの識別情報に対応する音響データを読み出すステップと、前記立体映像データのオブジェクトそれぞれの識別情報に対応する音響データの音像の立体定位位置を当該オブジェクトそれぞれの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行うステップとをコンピュータに実行させるものである。
請求項8の立体映像・立体音響対応記録装置は、所定の時間単位で、音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報としてそれぞれのオブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成する手段と、前記オブジェクトそれぞれに識別情報を設定する手段と、前記オブジェクトそれぞれの識別情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングにリンクさせる手段と、前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録する手段とを備えたものである。
請求項9の発明の立体映像・立体音響対応再生装置は、立体映像データ及び音響データと共に、これらの再生時に音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報及び出現タイミングを示す情報を各オブジェクトの識別情報と対応させて記録している記録メディアから立体映像データ及び音響データを読み出して再生する手段と、前記記録メディアから映像に表示するオブジェクトと表示しないオブジェクトとの識別情報及び立***置情報を読み出す手段と、前記記録メディアからオブジェクトそれぞれの識別情報に対応する音響データを読み出す手段と、前記立体映像データのオブジェクトそれぞれの識別情報に対応する音響データの音像の立体定位位置を当該オブジェクトそれぞれの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行う手段とを備えたものである。
請求項10の発明の立体映像・立体音響対応記録メディアは、立体映像データと音響データを記録すると共に、所定の時間単位で作成した、音源を再生すると共に映像を表示するオブジェクトと音源は再生するが映像は表示しないオブジェクトとの立***置情報及び識別情報を、当該オブジェクトそれぞれの立体映像データと音響データの双方のストリーム中の出現タイミングとリンクさせて記録したものである。
本発明によれば、記録系では、立体映像中のオブジェクトの立***置情報を所定の時間単位で作成し、立体映像データと音響データと共に記録メディアに記録することができる。
また本発明によれば、再生系側では、立体映像中のオブジェクトの立***置情報を検出して、その位置情報をもとにして、空間音響の空間的定位を正確に再生できる。また、オブジェクトの立***置情報をもとにして対応する音響データの音像の立体定位位置をオブジェクトの立***置になるように少なくとも2以上のスピーカを用いて音像位置制御することにより、立体映像中のオブジェクトの立***置と空間音響の空間的定位を正確に再生できる。
また本発明によれば、記録系では、映像に表示するオブジェクトと表示しないオブジェクトの立***置情報とオブジェクトの識別情報を所定の時間単位で作成し、立体映像データを音響データと共に記録メディアに記録することができる。
さらに本発明によれば、再生系側では、立体映像・立体音響対応再生プログラム及び再生装置では、映像に表示するオブジェクトと表示しないオブジェクトの立***置情報とオブジェクトの識別情報を検出し、そのオブジェクトの識別情報に対応する音響データの音像の立体定位位置を前記オブジェクトの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行い、立体映像中のオブジェクトの立***置と空間音響の空間的定位を正確に再生し、且つ、映像中からオブジェクトが消える(画面の外側へ移動する)ようなシーンの場合でも、例えばそのオブジェクトが移動していく延長線上の空間に音像位置を定位させるなど、より臨場感のある再生を行うことができる。
以下、本発明の実施の形態を図に基づいて詳説する。
(第1の実施の形態)図1は本発明の1つの実施の形態の立体映像・立体音響対応記録システムのブロック図であり、図2はそれを用いた対象物体の撮影態様を示している。本実施の形態の立体映像・立体音響対応記録システムは、立体映像データ記録系として、左右一対の撮像カメラA1、撮像カメラB2、視差ベクトル抽出器3、奥行き距離算出器4、オブジェクト解析器5、水平方向位置分析器6、垂直方向位置分析器7、奥行き方向位置分析器8、位置情報フォーマット器9、ビデオ圧縮器14を備えている。本システムはまた、音響データ記録系として、複数マイク群11、音源選択器12、オーディオ圧縮器13を備えている。また本システムは、これら両系の共通の要素としてCPU10、情報多重化器15、記録器16を備えている。
上記構成の立体映像・立体音響対応記録システムによる立体映像・立体音響対応記録動作について説明する。映像記録系は、左右一対の撮像カメラA1、B2により左画像Pl及び右画像Prを撮像し、撮像された対象物体の映像を視差ベクトル抽出器3に出力する。視差ベクトル抽出器3は、特開平9−33249号公報に開示されている相関関数などの評価関数に従って画素毎の対応付けを行う。ここで、2台の撮像カメラA1、撮像カメラB2はそれらの光軸が同一X−Z平面上に含まれるように配置されている。これが厳密に正しく配置される限り、対応点の探索はエピポーラ線である走査線上のみ行えばよいのであるが、実際には、走査線上に1画素分も誤差なく配置されていることはむしろ少ない。そこで、左画像Pl及び右画像Prは視差ベクトル抽出器3でエピポーラ線方向である水平方向と、ある程度の垂直方向の視差ベクトルサーチ計算を行う。
エピポーラ線方向の計算方法を、図3を参照して説明する。ここでは予め判別されている対応点、若しくは非常に判別しやすい特徴点が、左画像PlにはR点(Xl,Yl)に、右画像PrにはS点(Xr,Yr)に存在していたとする。この2点R、Sを直線で結ぶことによりエピポーラ線EPの方向が求められる。ここでは、エピポーラ線EPの方向はX軸方向線にほぼ平行であるから、基本的には水平の探索で求まる。例えば水平4画素垂直2画素の小ブロックの画素の差和や差の2乗和などを評価パラメータとして、最小値になる位置をXの位置で求める。カメラに垂直方向の設置誤差が考えられる場合には、エピポーラ線から角度θだけ傾斜していると仮定して水平探索範囲とTanθの積で計算される程度に垂直方向の探索範囲を拡大する。
設定された探索範囲内で探索を行い、結果として、例えば左画像上の点R(Xl,Yl)と右画像上の点S(Xr,Yr)が対応した場合、点R(Xl,Yl)における視差ベクトルをV(Xl−Xr,Yl−Yr)と表す。このような視差ベクトルを、左画像上の全てのマクロブロックについて求める。この処理を画面全体にわたって行い、最終的に選択された視差ベクトルVを奥行き距離計算器4に送出する。
奥行き距離算出器4は、視差ベクトルの大きさを計算し、例えば水平4画素垂直2画素の小ブロックと設定して探索して位置を求める。得られた水平位置、垂直位置、奥行き方向を(X、Y、Z)としてオブジェクト解析器5へ伝送する。オブジェクト解析器5では、小ブロックを画像1枚につき、左上から右下へラスター順番にならべて、X、Y、Xそれぞれを所定のビット数でフォーマット化する。例えば画像が水平720x480のNTSCクラスの解像度であれば、Xを10ビット、Yを9ビットとする。例えば画像が水平1920x1080のHDTVクラスの解像度であれば、Xを11ビット、Yを9ビットとする。
図4に720x480の場合のフォーマット例を示す。1フレームでこの構造を1つ伝送する。フレームレイヤには、1画面中の4x2のマクロブロックの数だけ、ラスター順番に、オブジェクトフラッグ1ビット、その後にオブジェクトのID7ビットその後に水平位置情報X、垂直位置情報Y、奥行き位置情報Zのデータが続く。
オブジェクトフラッグとは、この後説明するオブジェクトの中心に対応するマクロブロックに対して1、それ以外のマクロブロックには0を記述するもので、オブジェクトであるかないかを示すフラグともいえる。オブジェクトID情報もこの後説明するオブジェクトの識別ナンバーである。ここでは7ビットを用いるので、127種類のオブジェクトがフレーム内に定義することができる(0はオブジェクト領域外を占めることとする)。対応する音源情報とのリンク情報となる。
また、オブジェクトは必ずしも映像中に存在していないこともあるので、そのときには図4のESC情報を用いる。この構造には、はじめにNumOfObjectという8ビットで、後続するESCオブジェクトの個数と、ESCオブジェクトの中心(若しくはそれに順ずる)位置における水平位置、垂直位置、奥行き位置を記録する。また、オブジェクトのIDも記録する。これによって、映像中から消えて、例えば視聴者の後方を飛び回るようなオブジェクトでも、音像だけは後ろから聞こえるという特殊なシーンの再生も可能である。
これらのマクロブロックの情報はオブジェクト解析器5に伝送される。オブジェクト解析器5では画像データにラプラシアンオペレータなどを用いて微分し、オブジェクトの輪郭を抽出し、その大きい塊をひとつのオブジェクトと定義し、そのオブジェクトの領域を示す輪郭の情報を、水平方向位置分析器6、垂直方向位置分析器7、奥行き方向位置分析器8にそれぞれ伝送する。水平方向位置分析器6ではオブジェクトの領域における水平方向の最小値と最大値の和を1/2にした値を計算する。垂直方向位置分析器7では垂直方向の最小値と最大値の和を1/2にした値を計算する。奥行き方向位置分析器8ではオブジェクト輪郭情報から、その中心の位置に対応する水平4画素垂直2画素の小ブロックの視差ベクトルの大きさを計算する。ここでは中心の値を用いたが、オブジェクト画像の面積を考慮した重心を求めてもよい。
それぞれの計算された値は、位置情報フォーマット器9において、オブジェクトのX、Y、Zの位置情報として、オブジェクトの中心に対応するマクロブロックに対してオブジェクトフラッグを1、それ以外のマクロブロックには0を記述する。同様に次のオブジェクトを検出していくがオブジェクトに発生順番で1から127までのIDをふり、オブジェクトIDフィールドに記録する。オブジェクト領域以外のところは0を記述する。次のフレーム画像ではオブジェクトは動いている可能性があるので、もっとも近傍であって、オブジェクトの輪郭情報が特徴点(例えば四角形のものであれば角の数や、そのオブジェクトの内部の輝度、色差信号が8ビットデータ)で10%以内の僅差でほぼ似ているなどの情報や、時間的に隣り合うフレームであれば、検出されたオブジェクトがもっとも近いものである、などの複数の条件を満たしているものを同じオブジェクトとして認識し、オブジェクトID情報は、次のフレーム移行、同じオブジェクトと認識したものには同じID値を記録する。位置情報フォーマット器9はこのような図4のようなフォーマットをして、情報多重化器15に伝送すると同時に、CPU10へオブジェクトのX、Y、Zの位置情報を伝送する。
次に、オーディオ情報の記録方法について説明する。オーディオはカメラ1,2を中心に複数のマイク群11を全周囲に向けて設定する。すなわち、図5のようにカメラを中心にした球の表面を複数の指向性の高いマイクを用いて球面の法線方向に向ける。図5は概念的に示してあるが、このマイクは、中心をカメラ位置としてX、Y、Zの方向で3次元の座標を仮想的に設定し、その軸の方向6点とその間を補間できるようにマイクをなるべく多く設置している。ただしカメラレンズ方向(図5では+Z方向マイク)は、カメラの視野に入らないようにマイクの位置を工夫している。
位置情報フォーマット器9からは、CPU10へ、検出されたそれぞれのオブジェクトの位置情報が入力される。CPU10では、各オブジェクトの位置情報に対応した方向に向いているマイクの音源を記録するように、音源選択器12に選択信号を送信する。音源選択器12ではその指示信号に応じた複数のマイクからの音源を選択してその音源のマイクから伝送されたオーディオデータをオーディオ圧縮器13へ伝送する。その際、オブジェクトのIDが、位置情報フォーマット器9からCPU10と音源選択器12を経由してオーディオ圧縮器13にも伝送される。オブジェクトIDは後に述べるオーディオ圧縮器13においてオーディオ圧縮データに識別子情報をMPEG規格のDescriptorの打ち方を参照して記述されるのに利用される。
一方、カメラB2(若しくはカメラA1)の画像はビデオ圧縮器14に伝送される。ビデオ圧縮器14では、カメラからの2次元画像、位置情報フォーマット器9からの奥行き情報やオブジェクトID情報を入力し、MPEG規格の画像圧縮を行う。なお、奥行き情報やオブジェクトID情報は、MPEGの規定の中で互換性が取れるように、ユーザーデータ領域やプライベートストリームにて伝送し、またオブジェクトIDはMPEG規格で定義されているRegistration_Descriptorのadditional_identifier_infoを用いる。なお、他の方法として、(1)新規にPrivateのDescriptorを定義して、図19のようにObject_ID_descriptorを作成する、(2)Stream_IDのreserved data streamを用いて、MPEGで未定義の領域11111010〜11111110までを用いて設定する方法、(3)Stream_TypeとしてMPEGではUser PrivateなValueとされている0x80から0xFFまでの中の識別を使用する方法を採用することもできる。なお(2)におけるStream_IDはISO13818−1のPESパケットのシンタックスに定義されているものである。また、これ以外にも、MPEGで規定されているユーザーデータ領域のどこを使っても構わないし、AC3や他のオーディオ方式のシンタックスの中で許されているユーザーデータの領域部分に識別コードを入れる方法でも構わない。
音源選択器12からのオーディオデータはオーディオ圧縮器13においてMPEGのオーディオ圧縮(MPEG1オーディオ、MPEG2オーディオ、AAC、ドルビーAC3、ATRACなど)がなされる。
次にMPEGの規格に準拠しながら、付加情報を記録する方法を説明する。MPEG画像圧縮の規格では、ピクチャーレイヤ、GOPレイヤにそれぞれユーザーデータ領域が設定されている。これらはMPEGのシンタックスで映像音声とは関係ないデータを埋め込むことのできる所定のエリアとして設定されているuser_data、若しくはprivate_data_byte、若しくはユーザーが任意に設定できるprivate_streamなどのデータパケットに記録する。例えばMPEG1のビデオにおけるピクチャーレイヤは図17に示すようになっていて、スライスレイヤの手前で、user_data_start_codeを送った後にuser_dataを8ビット単位で記録することができるような仕組みが定義されている。また、MPEG2などの多重化トランスポートストリームのシステムレイヤにも図18のようにtransport_private_data_flagに1を立てることでprivate_dataが存在することを明示でき、データ長もトランスポートパケットをはみ出さないという制限のもとで、transport_private_data_lengthに設定したデータ長のprivate_dataを送信することができる。これ以外にも、MPEGシステムでユーザー固有のデータを記録する方法は、stream_idにprivate_streamを設定して専用のパケットを宣言することで送信するなど、仕組みは幾つか定義されており、本発明における奥行き情報やオブジェクトIDなどの図4の構造の情報は、これらの領域に、ピクチャー毎記録することができる。どの仕組みを用いてもかまわないが、本実施の形態では、MPEG1ビデオのuser_dataを用いている。
本実施の形態において、user_data_start_codeはスライスレイヤの手前で0x000001B2とMPEGでは定義されている。そのコードを送った後に、ユーザーデータエリア内で本発明の認証に用いる関数値の存在を示す、予め一意に識別可能なコードである例えば0x0f0f0f0f2417fdaaのコードを送信する。このコードは他のアプリケーションで、user_dataを使う場合に、識別する目的で記録するもので、コードの値は特に意味はない。そのコードの後に図4の1マクロブロック32ビット(4バイト)の構造を、MPEGの1ピクチャー毎にピクチャーレイヤにラスター順番に記録する。画素が720x480であれば720x480x4/(4x2)=17KBの情報量となる。これでは情報が大きい場合には、この情報を圧縮する。例えば奥行き情報は、隣り合うマクロブロックと同じがわずかの差しか存在しないことが多いので、変化していないときには4バイトのスキップするコード(例えばオール0の0x00000000)をセットすることで、スキップしている間のマクロブロックの情報を4バイトから1バイトへ減少させることができる。若しくはわずかの差の場合(例えば、プラスマイナスで1以下の場合など)には、0としてしまう。このほか、圧縮には上記のようなスキップ方法のほかに、差分をとってその変化だけを伝送するDPCM方式や、エントロピーを減少させる符号化など、どんな方法を使用してもよい。
以上の立体映像・立体音響対応記録システムによる立体映像・立体音響対応記録処理の手順を図6のフローチャートを参照して説明する。カメラA1及びカメラB2からの画像データ、及び複数マイク群11よりの音響データを所定の時間分入力し、記憶装置に記憶する(ステップS1)。次に画像の視差ベクトルを抽出する(ステップS2)。ここではエピポーラ線方向である水平方向とある程度の垂直方向との視差ベクトルサーチ計算を画像上の全てのマクロブロックについて求める。次にマクロブロックの奥行き距離の計算を行う。すなわち、視差ベクトルの大きさを計算する(ステップS3)。
次にオブジェクトが画像に存在しているかどうかを判定する(ステップS4)。これは画像データに簡単なラプラシアンオペレータなどを用いて微分し、オブジェクトの輪郭が存在しているかどうかを判定する。判定の結果YESであればオブジェクトの本格的な検出を行う(ステップS5)。すなわち、オブジェクト解析器では画像データにラプラシアンオペレータなどを用いて微分し、オブジェクトの輪郭を抽出して、その大きい塊をひとつのオブジェクトと定義してそのオブジェクトの領域を判定する。次に前記判定されたオブジェクトを抽出(定義)して、どのマクロブロックがそのオブジェクトに含まれているかを決定する(ステップS6)。次にオブジェクトの水平方向、垂直方向の位置情報を分析する(ステップS7)。この処理は、すでにマクロブロックごとに奥行き情報は求まっているので、オブジェクトの領域に掛かっているマクロブロックを指定して、その中心位置をオブジェクトの位置にする。次にオブジェクトIDと位置情報のフォーマッティングを行う(ステップS8)。すなわち、得られた水平位置、垂直位置、奥行き方向を(X、Y、Z)としての位置情報と、オブジェクトフラッグ、オブジェクトのIDを図4に示すフォーマットにする。次にオブジェクトの位置情報にリンクさせる音源を選択する(ステップS9)。
一方、ステップS4における判定がNOの場合は前のピクチャーなどのシーンでオブジェクトの動きを延長し、映像データ中に存在しないオブジェクトを表現するかどうかをステップS15において判定する。その判定がYESの場合には、ステップS7へ飛ぶ。NOの場合には、オブジェクトIDを0とした前述の位置情報のフォーマッティングを行う(ステップS16)。映像中に存在していないときには図4のESC情報を用いて、後続するESCオブジェクトの個数と、ESCオブジェクトの中心(若しくはそれに順ずる)位置における水平位置、垂直位置、奥行き位置、オブジェクトのIDを記録する。
次に、ビデオデータとオブジェクトとリンクした複数のオーディオデータを圧縮する(ステップS10)。次にオーディオストリームにリンクされたビデオオブジェクトのIDと同じ識別情報を記述する(ステップS11)。次にMPEGの多重化を行い(ステップS12)、所定の単位でメディアに記録、あるいは伝送する場合には伝送路特有のパケット化を行って伝送出力される(ステップS13)。次に入力画像データがまだあるかどうかを判定し(ステップS14)、ある場合(YES)にはステップS1へ飛ぶ。ない場合(NO)には、処理を終了する。
これにより、本実施の形態の立体映像・立体音響対応記録システムでは、所定の時間単位でオブジェクトの立***置情報をMPEGの規定のユーザーデータ領域若しくはプライベートストリーム、若しくは別領域の情報体を用いて記述し、所定の時間単位でオブジェクトの識別情報を立体映像データと音響データの双方のストリームの識別情報とリンクさせて記述することで、立体映像データを音響データと共に、記録メディアに記録することができる。
(第2の実施の形態)次に図7を用いて、CG(コンピュータ・グラフィックス)をベースにした本発明の第2の実施の形態の立体映像・立体音響対応記録システムについて説明する。CGでは、撮像のためのカメラやマイクを必要としないので、プログラムを実行することによってすべてCPU20の処理により立体映像、立体音響を作成する。そのためにCPU20の中に画像信号生成器21と音源信号生成器22があり、それぞれが専用のソフトにより起動される。CG画像データは基本的にはポリゴンなどの小サイズの画像に対し、位置の情報と奥行きの情報が予め備わっている。したがって、先に説明した4x2のマクロブロックの相当するポリゴンの部分の位置情報は容易に計算が可能である。また、オーディオのほうも、CG画像のオブジェクトの位置に所定の音源データをシンセサイザーにて作成し、その音源を用いることで容易に作成することが可能である。それぞれ、ビデオはビデオ圧縮器23に、オーディオはオーディオ圧縮器24に入力され、圧縮が施される。圧縮されたデータは先の図1のシステムと同様に位置情報フォーマット器25によってフォーマット化された情報と共に、情報多重化器26によって多重化され、記録器27によって記録メディア17に記録される。
これにより、本実施の形態の立体映像・立体音響対応記録システムでは、所定の時間単位でオブジェクトの立***置情報をMPEGの規定のユーザーデータ領域若しくはプライベートストリーム、若しくは別領域の情報体を用いて記述し、所定の時間単位でオブジェクトの識別情報を立体映像データと音響データの双方のストリームの識別情報とリンクさせて記述することで、立体映像データを音響データと共に記録メディアに記録することができる。
(第3の実施の形態)図8は、本発明の第3の実施の形態の立体映像・立体音響対応記録システムを示している。図1に示した第1の実施の形態及び図7に示した第2の実施の形態においては最終的な情報は記録メディア17に記録したが、本実施の形態のシステムでは、通信や放送特有のパケット化をして放送や通信網に伝送する。したがって、本実施の形態のシステムは通信(放送)用パケット化器18を備え、情報多重化器15からの立体映像データと立体音響データとの多重化データを通信(放送)用のパケットデータにパケット化し、通信網若しくは放送網に送出する。なお、本実施の形態のシステムでは、図1に示した第1の実施の形態のシステムと共通の機器要素に関しては共通の符号を付して示している。
本実施の形態のシステムによる立体映像・立体音響対応記録方法は、第1の実施の形態と同様に図6のフローチャートによる。これにより、本実施の形態のシステムでは、第1の実施の形態と同様に、所定の時間単位でオブジェクトの立***置情報をMPEGの規定のユーザーデータ領域若しくはプライベートストリーム、若しくは別領域の情報体を用いて記述し、所定の時間単位でオブジェクトの識別情報を立体映像データと音響データの双方のストリームの識別情報とリンクさせて記述することで、立体映像データを音響データと共に多重化し、パケット化して送信できる。
(第4の実施の形態)次に、上記実施の形態の立体映像・立体音響対応記録システムにより作成され、記録メディア17に記録された立体映像・立体音響対応記録情報を再生するための立体映像・立体音響対応再生システムについて、図9を用いて説明する。本実施の形態の再生システムは、再生器31、情報分離器32、ビデオ復号器33、位置情報取り出し器34、オーディオ復号器35、視野変換器36、立体画像表示器37、音源選択器38、音像位置制御器39、スピーカレイ40を備えている。
この立体映像・立体音響対応再生システムでは、記録メディア17より多重化されたデータを再生器31にて読み取り、情報分離化器32へ伝送する。情報分離器32では、ビデオ信号とオーディオ信号のパケットを分離し、ビデオ信号はビデオ復号器33に、オーディオ信号はオーディオ復号器35にそれぞれ伝送する。ビデオ復号器33ではビデオを復号すると同時に、ビデオのピクチャーレイヤのユーザーデータを位置情報取り出し器34に伝送する。位置情報取り出し器34ではユーザーデータから、図4のフォーマットで記録されている奥行き情報とオブジェクトの位置情報、及びオブジェクトID情報を取り出す。オブジェクトの位置情報、及びオブジェクトID情報は音源選択器38に伝送する。奥行き情報と復号したビデオ信号は視野変換器36に伝送する。視野変換器36では、奥行き情報と復号した2次元の画像から、立体画像表示器37の立体表示方式に応じた視差画像を生成する。この視差画像の生成に際して、CGにおける座標系の変換方法には視野変換方式を用いる。これは視点座標系への変換の式によって、視点を変えた画像を得るもので、奥行き情報があれば自由な視点で生成することができる。例えば、視点の座標を(x,y,z)、注視点の座標を(x,y,z)とする。また、視点と注視点間の距離を(x,y,z)とする。
Figure 2006128818
最初に平行移動により原点の位置を動かす。この変換をT1とする。変換T1は単に(−x,−y,−z)平行移動する変換である。次に回転により座標値の向きを変える。図10のように点Oから点O方向のベクトルは点Oからz軸のベクトルをまずα角だけy軸に回転させ、次にβ角だけx軸に回転させる。実際には点Oの座標値を動かすので回転方向が逆になる。
Figure 2006128818
となる。ここでαはOをxy平面に投影した足とOのなす角であるので、
Figure 2006128818
となる。またβはO間の長さ
Figure 2006128818
と、Of’間の長さyにより
Figure 2006128818
となる。
最後の変換はxy平面に対してz軸が手前になるような座標系から、xy平面に対して目の方向、つまり向こう側が正になるようにする変換Tを行う。これは単にz→−zにするだけである。これらT〜Tの4つの変換マトリクスを掛け合わせると視点座標の変換マトリクスは、
Figure 2006128818
となる。
これは、IP(Integral Photography:インテグラルフォトグラフィー、あるいはインテグラルイメージングともいう)では、複数のレンズアレイに対応した要素画像を、そのレンズ位置に対応したカメラで撮像したものを、画像の大きさと共に、前記の視点座標の変換マトリクスを用いて計算して生成する。このようにして生成した立体画像データを、立体画像表示器37に伝送し、立体画像再生を行う。なお、立体画像表示器37の立体表示方式にはパララックスバリアを用いた2眼式立体表示方式を採用することもできる。そしてその場合には、視距離によって設定できるαを上の式に代入し、βやγは0とすることで、右目用と左目用の視差を持つ画像を生成することができる。
ここで立体画像表示方式のうち、代表的なパララックスバリア方式とIP方式の説明をする。パララックスバリア方式は液晶によって実現することができる。図11のように、これは2枚の液晶パネル101,102を積層するもので、一方の液晶パネル101には細いスリット状の開口部があり、その裏側の液晶パネル102上に適当な間隔をおいて左(L)右(R)2眼分の画像を交互に配置し、所定の視点103L,103Rからこのスリット状の開口部を通して見た場合に右目、左目に分離された画像を知覚できるものである。これによって右目、左目に違う画像を入力させることができるので、立体画像として知覚することができる。なお、液晶パネル102上の画像を照らすためにバックライト104が設けてられている。
しかしながら、パララックスバリア方式の場合、目のピントは常に液晶のスクリーン上に合わされているにもかかわらず、像がこの位置とは違う場所に感じられることから、生理学的な不自然さを伴うことで、ユーザーが疲れやすい、映像酔いしやすいなどの問題点も指摘されており、近年は4つの立体視の生理的要因、輻輳調節矛盾(輻輳点とピントの合う位置の矛盾)(両眼視差=ある物体を見る際に、人間の左右の目はそれぞれ違った方向から見る2つの異なる像を捕らえている性質、ピント調節=見る対象からの距離の変化に「伴って水晶体の厚さをコントロールしてレンズの厚みを変えるような性質、輻輳=遠い、近いの変化で、眼球が内側に回転したり外側へ回転したりする動きを伴うという性質、運動視差=ユーザーが自分で動いたり見る角度を変えたりすることによる像の違いを見る性質)を満たすような方式も提案されている。その中でも有望なものとして、Lippmannが1908年に発表した方式がIP方式である。
IP方式は、2次元的に配列したレンズアレイ(フライアイレンズ、蝿の目レンズ、複眼レンズなどともいう)を利用して物体の奥行き情報を取得するものである。1990年代に入ると、従来の写真乾板による記録を電子技術で置き換えることにより、IP方式による動画を生成する技術が開発され、さらに、同文献の研究者の手により、屈折率分布レンズアレイ(GRINレンズアレイともいう)とハイビジョンカメラを用いて被写体を撮像して要素画像群を取得しながら、各画像を液晶ディスプレイにリアルタイムに伝送して表示し、フライアイレンズにより空間上に結像することに成功し、IP方式による3次元テレビジョン放送の実現可能性が示された(非特許文献3)。図12はこのIP方式の原理を説明したもので、図12Aのように撮影時に微小な要素レンズを多数並べたGRINレンズアレイ110を用い、このGRINレンズアレイ110の微小な要素レンズそれぞれの光を集光レンズ111で集光して微小カメラ112の1画素が1方向の光線の映像を撮影する。そして再生するときには、図12Bのようにカメラからの映像120をLCDのようなディスプレイ121で再現し、全部の微小カメラの1点ずつが集合して、全体として1方向から見た再生像をつくる。
微小レンズを2次元に並べたレンズアレイ122を用いることで水平垂直の運動視差を作り出すことが可能であり、水平方向に並べれば水平方向のみの視差を持たせることも可能である。本方式では複数のレンズを経由して見えた複数の要素画像を、この要素画像を奥行き情報をもとに視点変換して作成し、その要素画像を配列して、あたかも図12Aで撮像したかのようにLCD121へ要素画像配列を表示することで立体視再生を実現する。
一方、オーディオはオーディオ復号器35において、複数の音源の圧縮オーディオデータを復号したら、音源選択器38に伝送する。音源選択器38では、先に説明した位置情報取り出し器34からのオブジェクトの位置情報及びオブジェクトID情報を受信し、画像の中に存在しているオブジェクト位置情報に応じて、そのオブジェクトIDにリンクした前記復号された音源を選択し、選択された音源データとオブジェクト位置情報を対にして音像位置制御器39へ伝送する。音像位置制御器39では、後述するスピーカレイ40を用いた音像定位制御方式を用いて、それぞれの音源に対して、画像オブジェクトの位置に応じてそれにリンクしたオーディオ音源の定位を制御する。それぞれの音源に対して定位制御した結果の複数のスピーカに対応したオーディオデータは、それぞれ、1つのスピーカに対応する複数のオブジェクトの音源として得られる。これらはすべて線形加算し、ゲインを調節し、1つのスピーカから出力されるオーディオデータは1つにしてスピーカレイ40へ伝送する。スピーカレイ40は、伝送されたオーディオデータを出力する。
ここで音像定位制御方式の説明をする。ここではスピーカレイを用いて、空間上のある焦点付近の音圧を局所的に上昇させるようにスピーカレイの中心から焦点までの経路と、各スピーカから焦点までの経路との差に応じた遅延量を与えた再生信号により音像定位を実現する。図13を用いてその原理を説明する。まずスピーカを図13のようにアレイ状に組んでスピーカレイ40を構成する。1つ1つのスピーカに遅延回路131を設ける。そして上述した既知の方法で遅延回路131を用いて聴取位置近傍に焦点を結ぶように遅延を設定すると、聴取位置においてスピーカからの直接音よりも、焦点において発生する音圧成分が極めて高くなるように再生することが可能である。この原理を用いて連続的にリアルタイムで制御することで立体動画像のオブジェクトの位置にリンクして音像の定位を制御する。
これらの一連のデータ処理により、画像は立体画像として再生し、その中の画像のオブジェクトは、その立体的な動きにリンクした形で、オーディオデータの音源の位置を制御し、あたかもその立体視されている空間から該当オブジェクトの発する音が聞こえているかのように音像定位をして再生する。すなわち、図14のように、立体映像の映像120をLCD121を用いて再生し、それを例えばIP方式のレンズアレイ122を用いて要素画像から立体映像を構成し、その後に設定したスピーカレイ40にて、ディスプレイ121より前に出てきているように知覚される車や飛行機のような立体映像のオブジェクトにリンクした形でそのオブジェクトの音源があたかもそのオブジェクトの位置から聞こえて来るように音像定位をして再生する。
次に、本IP方式を用いた立体映像・立体音響対応再生システムによる再生処理を図15のフローチャートを用いて説明する。はじめに記録メディア17から、多重化されたデータを読み取る(ステップR1)。次にMPEG分離処理する(ステップR2)。分離した情報のうちのビデオデータはビデオデータ復号処理し、またオーディオデータはオーディオデータ復号処理する(ステップR3,R9)。次に復号したビデオデータのユーザーデータからオブジェクトIDと位置情報を分離する(ステップR4)。次に分離した情報から、マクロブロック毎の奥行き情報を検出する(ステップR5)。またオブジェクトのIDを検出する(ステップR6)。
一方、ステップR9において復号したオーディオデータから当該オーディオデータのストリームIDなどに記述したオブジェクトIDを検出する(ステップR10)。次に複数のオーディオオブジェクトのIDと、ビデオのIDとを照合して、ビデオのオブジェクトにリンクしたオーディオデータの音源の選択を行う(ステップR11)。
次に、ビデオは各マクロブロック内の画素に対して持つ奥行き情報を使用して、ビデオ画像の視野変換を行う(ステップR7)。これには、視点座標系への変換式によって視点を変えた画像を得る。次にIP方式によってビデオの立体表示を行う(ステップR8)。この立体表示方式には、パララックスバリアを用いた2眼式立体表示方式を用いることもできる。
一方、オーディオは選択したリンク関係が明確化された複数の音源それぞれに対して、音像位置制御器39で、例えばスピーカレイ40を用いた音像定位制御方式を用いて、それぞれの音源に対して、画像オブジェクトの位置に応じて、それにリンクしたオーディオ音源の定位を制御する(ステップR12)。次にスピーカレイ40でそれぞれの音源に対して定位制御した結果の複数のスピーカに対応したオーディオデータを線形加算し、またゲインを調節し、1つのスピーカから出力されるオーディオデータは1つにしてスピーカレイ40から出力する(ステップR13)。
このようにして本実施の形態の立体映像・立体音響対応再生システムでは、立体映像の映像120をLCD121を用いて再生し、それをIP方式のレンズアレイ122を用いて要素画像から立体映像を構成し、その後に設定したスピーカレイ40にて、ディスプレイ121より前に出てきているように知覚される車や飛行機のような立体映像のオブジェクトにリンクした形でそのオブジェクトの音源があたかもそのオブジェクトの位置から聞こえて来るように音像定位をして再生することができる。
(第5の実施の形態)
次に、本発明の第5の実施の形態の立体映像・立体音響対応再生システムについて、図16を用いて説明する。図9に示した第4の実施の形態の立体映像・立体音響対応再生システムでは、最終的な情報は記録メディア17から再生するものであったが、本実施の形態の再生システムは、通信や放送特有のパケット化がなされているパケット情報を受信して、図16のように通信(放送)用パケット解除器31′を経由して放送や通信網から立体映像・音響データのパケットを受信再生する。このパケット解除器31′によりパケット解除したデータは、図9における記録メディア17からの再生データと同じものであり、したがって情報分離化器32以降の構成要素、またその処理機能は図9に示した第4の実施の形態のものと共通である。
これにより、第5の実施の形態の立体映像・立体音響対応再生システムでも、通信網あるいは放送受信した立体映像の映像を、図14に示したLCD121を用いて再生し、それをIP方式のレンズアレイ122を用いて要素画像から立体映像を構成し、その後に設定したスピーカレイ40にて、ディスプレイ121より前に出てきているように知覚される車や飛行機のような立体映像のオブジェクトにリンクした形でそのオブジェクトの音源があたかもそのオブジェクトの位置から聞こえて来るように音像定位をして再生することができる。
なお、本発明は上記の実施の形態に限定されることはなく、次のような変形態様が可能である。上記実施の形態では、立体映像の方式はIP方式で説明したが、パララックスバリア方式、レンチキュラーレンズ方式、超多眼方式、偏向眼鏡を用いた2眼方式、アナグリフなど、立体知覚できる方式であればなんであってもよい。また音像位置制御方式は、音像定位制御方式としてスピーカレイ方式で説明したが、仮想音場空間を実現できる方式、例えばバイノーラル・トランスオーラル方式であっても、Kirchhoff−Helmhotz微分方程式に代表される波動音響理論を用いた音場制御法を用いる方式であってもよい。
また、記録メディアに立体映像・音響データを記録しなくても、通信、放送などあらゆる伝送メディアを経由してそれらのデータを送信することが可能で、その場合には、記録装置は伝送装置として使用することもできる。また再生装置は受信装置として使用することも可能である。
本発明の信号データを記録した記録メディアは、オブジェクトの位置情報とオブジェクトのID情報を記録してあるというメディア特有の効果があり、立体映像や立体音場を再生するシステムを好適に実現することができる。また、記録メディアにおける「メディア」という定義はデータを記録できるメディアという、狭義なメディアというものだけでなく、信号データを伝送するための電磁波、光などを含む。また、記録メディアに記録されている情報は、記録されていない状態での電子ファイルなどのデータ自身を含むものとする。
さらに、上記実施の形態では、映像の奥行き情報は1ピクチャー毎に記録するように説明したが、0.5秒程度ごとでも、1秒程度ごとでも構わない。その場合には、MPEGのGOPレイヤのユーザーデータを用いることで実現できる。オブジェクトのIDは8ビットであっても16ビットであっても構わない。また、オブジェクトとは映像の物体であっても領域であっても構わない。アルゴリズムによってはオブジェクトを検出するのに誤差を含むこともあるが、それは無視するものであってもよい。またさらに、領域は閉曲線で指定できなくてもよい。加えて、音の定位はあくまでもノーマルなステレオ再生よりもわずかでも定位の効果があれば、定位を制御したものと考えられる。
加えて、上記実施の形態では、奥行き情報やオブジェクトID情報はMPEGビデオのユーザーデータを用いて説明したが、MPEGシステムレイヤ規定のプライベートストリームで記録しても構わない。この場合、データはピクチャー毎、若しくは複数のGOP毎に時間に同期させることからPTS(Presentation Time Stamp)を用いて、画像や音響データと同期をとるので、MPEG規定のPrivate_stream_1の同期型のストリーム形式が望ましい。また、図4における情報は映像音響データとは別の領域、すなわち、MPEGのストリームとは別に、記録メディアの別のファイルとして、図4の構造をそのままで、符号化された映像音響データのプログラム毎に、名前をつけたファイルに記録してもよい。その場合は再生順番(=入力画像順番)のピクチャー(フィールド、若しくは画像)順番か、MPEGにおける符号化順番のピクチャー(フィールド、若しくは画像)順番で記録することも可能である。ファイル名はプログラムの識別が可能であれば番号でも、アスキー文字のものでもよい。またプログラムごとでも、幾つかのプログラムを組み合わせたプレイリスト毎でも、メディア全体を1つにした1ファイルであってもよい。
さらに、上記した装置の機能はプログラムによりコンピュータに実現させてもよい。そしてそのプログラムは、記録メディアに記録されたものをその記録メディアから読み取らせてコンピュータに取り込ませてもよいし、通信ネットワークを介して伝送されてきたものをコンピュータに取り込ませてもよい。
本発明の第1の実施の形態の立体映像・立体音響対応記録装置の機能ブロック図。 上記第1の実施の形態の立体映像・立体音響対応記録装置の主要部のブロック図。 一般的な2画面の視差を求めるためのエピポーラ拘束条件の説明図。 奥行き情報とオブジェクトID情報などのフォーマット説明図。 全周囲を収録するマイクの設置方法の説明図。 本発明の第1の実施の形態の立体映像・立体音響対応記録装置による立体映像・立体音響対応記録処理を示すフローチャート図。 本発明の第2の実施の形態の立体映像・立体音響対応記録装置を示すブロック図。 本発明の第3の実施の形態の立体映像・立体音響対応伝送装置を示すブロック図。 本発明の第4の実施の形態の立体映像・立体音響対応再生装置を示すブロック図。 一般的な視点変換の説明図。 一般的なパララックスバリア方式の説明図。 一般的なIP方式の説明図。(1) 一般的なIP方式の説明図。(2) 本発明の第4の実施の形態で使用するアレイスピーカの説明図。 上記第4の実施の形態によるスピーカアレイとIP立体映像方式のシステムのブロック図。 上記第4の実施の形態による立体映像・立体音響再生処理を示すフローチャート図。 本発明の第5の実施の形態の立体映像・立体音響対応再生システムを示すブロック図。 MPEGのビデオストリームビデオレイヤの説明図。 MPEGの多重化トランスポートストリームシステムレイヤを説明図。(1) MPEGの多重化トランスポートストリームシステムレイヤを説明図。(2) 本発明の第1の実施の形態で採用する新規なオブジェクトIDを記述するObject_ID_Descriptorを示す説明図。
符号の説明
1 カメラA
2 カメラB
3 視差ベクトル抽出器
4 奥行き距離算出器
5 オブジェクト解析器
6 水平方向位置分析器
7 垂直方向位置分析器
8 奥行き方向位置分析器
9 位置情報フォーマット器
10 CPU
11 複数マイク群
12 音源選択器
13 オーディオ圧縮器
14 ビデオ圧縮器
15 情報多重化器
16 記録器
17 記録メディア
31 再生器
32 情報分離器
33 ビデオ復号器
34 位置情報取り出し器
35 オーディオ復号器
36 視野変換器
37 立体画像表示器
38 音源選択器
39 音像位置制御器
40 スピーカレイ

Claims (10)

  1. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報として当該オブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成するステップと、
    前記オブジェクトの立***置情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせるステップと、
    前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録するステップとをコンピュータに実行させる立体映像・立体音響対応記録プログラム。
  2. 立体映像データ及び音響データと共にこれらの再生時に自身を音源とする音響の立体定位制御を行うオブジェクトの立***置情報及び出現タイミングのリンク情報を記録している記録メディアから立体映像データ及び音響データを読み出して再生するステップと、
    前記記録メディアから前記オブジェクトの立***置情報を読み出すステップと、
    前記記録メディアから前記オブジェクトの立***置情報に対応する音響データを読み出すステップと、
    前記オブジェクトの立***置情報に対応する前記音響データの音像の立体定位位置を当該オブジェクトの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行うステップとをコンピュータに実行させる立体映像・立体音響対応再生プログラム。
  3. 所定の時間単位で、再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報として当該オブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成する手段と、
    前記オブジェクトの立***置情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせる手段と、
    前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録する手段とを備えた立体映像・立体音響対応記録装置。
  4. 立体映像データ及び音響データと共にこれらの再生時に自身を音源とする音響の立体定位制御を行うオブジェクトの立***置情報及び出現タイミングのリンク情報を記録している記録メディアから立体映像データ及び音響データを読み出して再生する手段と、
    前記記録メディアから前記オブジェクトの立***置情報を読み出す手段と、
    前記記録メディアから前記オブジェクトの立***置情報に対応する音響データを読み出す手段と、
    前記オブジェクトの立***置情報に対応する前記音響データの音像の立体定位位置を当該オブジェクトの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行う手段とを備えた立体映像・立体音響対応再生装置。
  5. 立体映像データと音響データを記録すると共に、所定の時間単位で作成した再生時に自身を音源とする音響の立体定位制御を行おうとするオブジェクトの立***置情報を前記立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて記録した立体映像・立体音響対応記録メディア。
  6. 所定の時間単位で、音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報としてそれぞれのオブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成するステップと、
    前記オブジェクトそれぞれに識別情報を設定するステップと、
    前記オブジェクトそれぞれの識別情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングにリンクさせるステップと、
    前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録するステップとをコンピュータに実行させる立体映像・立体音響対応記録プログラム。
  7. 立体映像データ及び音響データと共に、これらの再生時に音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報及び出現タイミングを示す情報を各オブジェクトの識別情報と対応させて記録している記録メディアから立体映像データ及び音響データを読み出して再生するステップと、
    前記記録メディアから映像に表示するオブジェクトと表示しないオブジェクトとの識別情報及び立***置情報を読み出すステップと、
    前記記録メディアからオブジェクトそれぞれの識別情報に対応する音響データを読み出すステップと、
    前記立体映像データのオブジェクトそれぞれの識別情報に対応する音響データの音像の立体定位位置を当該オブジェクトそれぞれの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行うステップとをコンピュータに実行させる立体映像・立体音響対応再生プログラム。
  8. 所定の時間単位で、音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報としてそれぞれのオブジェクトの水平位置情報、垂直位置情報、奥行き位置情報を作成する手段と、
    前記オブジェクトそれぞれに識別情報を設定する手段と、
    前記オブジェクトそれぞれの識別情報を、立体映像データと音響データの双方のストリーム中の当該オブジェクトの出現タイミングにリンクさせる手段と、
    前記立体映像データ及び音響データを記録メディアに記録すると共に、前記オブジェクトの立***置情報を当該立体映像データ及び音響データの双方のストリーム中の当該オブジェクトの出現タイミングとリンクさせて当該記録メディアに記録する手段とを備えた立体映像・立体音響対応記録装置。
  9. 立体映像データ及び音響データと共に、これらの再生時に音源として再生すると共に映像に表示するオブジェクトと音源としては再生するが映像には表示しないオブジェクトとの立***置情報及び出現タイミングを示す情報を各オブジェクトの識別情報と対応させて記録している記録メディアから立体映像データ及び音響データを読み出して再生する手段と、
    前記記録メディアから映像に表示するオブジェクトと表示しないオブジェクトとの識別情報及び立***置情報を読み出す手段と、
    前記記録メディアからオブジェクトそれぞれの識別情報に対応する音響データを読み出す手段と、
    前記立体映像データのオブジェクトそれぞれの識別情報に対応する音響データの音像の立体定位位置を当該オブジェクトそれぞれの立***置になるように、少なくとも2以上のスピーカを用いて音像位置制御を行う手段とを備えた立体映像・立体音響対応再生装置。
  10. 立体映像データと音響データを記録すると共に、所定の時間単位で作成した、音源を再生すると共に映像を表示するオブジェクトと音源は再生するが映像は表示しないオブジェクトとの立***置情報及び識別情報を、当該オブジェクトそれぞれの立体映像データと音響データの双方のストリーム中の出現タイミングとリンクさせて記録した立体映像・立体音響対応記録メディア。

JP2004311399A 2004-10-26 2004-10-26 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア Pending JP2006128818A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004311399A JP2006128818A (ja) 2004-10-26 2004-10-26 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004311399A JP2006128818A (ja) 2004-10-26 2004-10-26 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア

Publications (1)

Publication Number Publication Date
JP2006128818A true JP2006128818A (ja) 2006-05-18

Family

ID=36723062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004311399A Pending JP2006128818A (ja) 2004-10-26 2004-10-26 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア

Country Status (1)

Country Link
JP (1) JP2006128818A (ja)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827119B1 (ko) 2006-12-13 2008-05-06 삼성전자주식회사 입체 영상 서비스 시스템 및 방법과 입체 영상 생성 장치 및 입체 영상 출력장치
US20090002481A1 (en) * 2007-06-26 2009-01-01 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
WO2010061791A1 (ja) * 2008-11-28 2010-06-03 シャープ株式会社 映像制御装置およびそれを備えた撮像装置、表示装置
JP2010199739A (ja) * 2009-02-23 2010-09-09 Fujifilm Corp 立体表示制御装置、立体表示システムおよび立体表示制御方法
EP2247116A2 (en) 2009-04-27 2010-11-03 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2011035784A (ja) * 2009-08-04 2011-02-17 Sharp Corp 立体映像・立体音響記録再生装置・システム及び方法
JP2011050009A (ja) * 2009-08-28 2011-03-10 Fujifilm Corp 画像記録装置及び方法
JP2011071685A (ja) * 2009-09-25 2011-04-07 Nec Corp 映像音響処理システム、映像音響処理方法及びプログラム
JP2011166430A (ja) * 2010-02-09 2011-08-25 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
JP2011527790A (ja) * 2008-07-09 2011-11-04 プライムセンス リミテッド 3次元マッピング用集積処理装置
US20120002828A1 (en) * 2010-06-30 2012-01-05 Sony Corporation Audio processing device, audio processing method, and program
JP2012533205A (ja) * 2009-07-09 2012-12-20 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置の画面サイズを利用した信号処理方法及び装置
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
WO2014010920A1 (ko) * 2012-07-09 2014-01-16 엘지전자 주식회사 인핸스드 3d 오디오/비디오 처리 장치 및 방법
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
WO2014084706A1 (es) * 2012-11-30 2014-06-05 López García Daniel Método de ubicación tridimensional de audio en tiempo real usando un mezclador paramétrico y predescomposición en bandas de frecuencia
EP2384009A3 (en) * 2010-04-29 2014-06-18 Lg Electronics Inc. Display device and method of outputting audio signal
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
WO2014199536A1 (ja) * 2013-06-10 2014-12-18 パナソニック株式会社 オーディオ再生装置及びその方法
JP2015011226A (ja) * 2013-06-28 2015-01-19 日本放送協会 付加情報挿入装置、付加情報抽出装置、付加情報挿入プログラム、及び付加情報抽出プログラム
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
JP2016029816A (ja) * 2010-05-26 2016-03-03 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
JP2016537903A (ja) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. バーチャルリアリティコンテンツのつなぎ合わせおよび認識
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
WO2017208821A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 音響処理装置および方法、並びにプログラム
CN114915812A (zh) * 2021-02-08 2022-08-16 华为技术有限公司 一种拼接屏音频的分配方法及其相关设备
WO2022220181A1 (ja) 2021-04-12 2022-10-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、及び、プログラム

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066084B2 (en) 2005-10-11 2015-06-23 Apple Inc. Method and system for object reconstruction
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
KR100827119B1 (ko) 2006-12-13 2008-05-06 삼성전자주식회사 입체 영상 서비스 시스템 및 방법과 입체 영상 생성 장치 및 입체 영상 출력장치
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US8471893B2 (en) * 2007-06-26 2013-06-25 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
US20090002481A1 (en) * 2007-06-26 2009-01-01 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
JP2014209375A (ja) * 2008-07-09 2014-11-06 プライムセンス リミテッド 3次元マッピング用集積処理装置
JP2011527790A (ja) * 2008-07-09 2011-11-04 プライムセンス リミテッド 3次元マッピング用集積処理装置
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
WO2010061791A1 (ja) * 2008-11-28 2010-06-03 シャープ株式会社 映像制御装置およびそれを備えた撮像装置、表示装置
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
JP2010199739A (ja) * 2009-02-23 2010-09-09 Fujifilm Corp 立体表示制御装置、立体表示システムおよび立体表示制御方法
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
EP3059948A1 (en) 2009-04-27 2016-08-24 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
US10523915B2 (en) 2009-04-27 2019-12-31 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
EP2247116A2 (en) 2009-04-27 2010-11-03 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2010258872A (ja) * 2009-04-27 2010-11-11 Mitsubishi Electric Corp 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
US9191645B2 (en) 2009-04-27 2015-11-17 Mitsubishi Electric Corporation Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium
JP2012533205A (ja) * 2009-07-09 2012-12-20 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置の画面サイズを利用した信号処理方法及び装置
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
JP2011035784A (ja) * 2009-08-04 2011-02-17 Sharp Corp 立体映像・立体音響記録再生装置・システム及び方法
JP2011050009A (ja) * 2009-08-28 2011-03-10 Fujifilm Corp 画像記録装置及び方法
US8553105B2 (en) 2009-08-28 2013-10-08 Fujifilm Corporation Audiovisual data recording device and method
JP2011071685A (ja) * 2009-09-25 2011-04-07 Nec Corp 映像音響処理システム、映像音響処理方法及びプログラム
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
JP2011166430A (ja) * 2010-02-09 2011-08-25 Nec Casio Mobile Communications Ltd 端末装置及びプログラム
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US8964010B2 (en) 2010-04-29 2015-02-24 Lg Electronics Inc. Display device and method of outputting audio signal
EP2384009A3 (en) * 2010-04-29 2014-06-18 Lg Electronics Inc. Display device and method of outputting audio signal
US9787968B2 (en) 2010-05-26 2017-10-10 Saturn Licensing Llc Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception system using audio compression data stream as a container of other information
JP2016029816A (ja) * 2010-05-26 2016-03-03 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9351092B2 (en) * 2010-06-30 2016-05-24 Sony Corporation Audio processing device, audio processing method, and program
US20120002828A1 (en) * 2010-06-30 2012-01-05 Sony Corporation Audio processing device, audio processing method, and program
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine
WO2014010920A1 (ko) * 2012-07-09 2014-01-16 엘지전자 주식회사 인핸스드 3d 오디오/비디오 처리 장치 및 방법
US9723287B2 (en) 2012-07-09 2017-08-01 Lg Electronics Inc. Enhanced 3D audio/video processing apparatus and method
WO2014084706A1 (es) * 2012-11-30 2014-06-05 López García Daniel Método de ubicación tridimensional de audio en tiempo real usando un mezclador paramétrico y predescomposición en bandas de frecuencia
CN105264914B (zh) * 2013-06-10 2017-03-22 株式会社索思未来 音频再生装置以及方法
JPWO2014199536A1 (ja) * 2013-06-10 2017-02-23 株式会社ソシオネクスト オーディオ再生装置及びその方法
CN106961647A (zh) * 2013-06-10 2017-07-18 株式会社索思未来 音频再生装置以及方法
JP6022685B2 (ja) * 2013-06-10 2016-11-09 株式会社ソシオネクスト オーディオ再生装置及びその方法
US9788120B2 (en) 2013-06-10 2017-10-10 Socionext Inc. Audio playback device and audio playback method
WO2014199536A1 (ja) * 2013-06-10 2014-12-18 パナソニック株式会社 オーディオ再生装置及びその方法
CN106961647B (zh) * 2013-06-10 2018-12-14 株式会社索思未来 音频再生装置以及方法
JP2015011226A (ja) * 2013-06-28 2015-01-19 日本放送協会 付加情報挿入装置、付加情報抽出装置、付加情報挿入プログラム、及び付加情報抽出プログラム
JP2016537903A (ja) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. バーチャルリアリティコンテンツのつなぎ合わせおよび認識
CN109314833A (zh) * 2016-05-30 2019-02-05 索尼公司 音频处理装置和音频处理方法以及程序
JPWO2017208821A1 (ja) * 2016-05-30 2019-03-28 ソニー株式会社 音響処理装置および方法、並びにプログラム
WO2017208821A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 音響処理装置および方法、並びにプログラム
US10708707B2 (en) 2016-05-30 2020-07-07 Sony Corporation Audio processing apparatus and method and program
RU2735095C2 (ru) * 2016-05-30 2020-10-28 Сони Корпорейшн Устройство и способ аудиообработки, и программа
CN109314833B (zh) * 2016-05-30 2021-08-10 索尼公司 音频处理装置和音频处理方法以及程序
CN114915812A (zh) * 2021-02-08 2022-08-16 华为技术有限公司 一种拼接屏音频的分配方法及其相关设备
CN114915812B (zh) * 2021-02-08 2023-08-22 华为技术有限公司 一种拼接屏音频的分配方法及其相关设备
WO2022220181A1 (ja) 2021-04-12 2022-10-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、及び、プログラム

Similar Documents

Publication Publication Date Title
JP2006128818A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP5519647B2 (ja) カメラ・パラメータを利用したステレオスコピック映像データ・ストリーム生成方法及びその装置、
KR102465227B1 (ko) 영상 음향 처리 장치 및 방법, 및 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체
JP4755565B2 (ja) 立体画像処理装置
JP5299214B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5328082B2 (ja) 映像送信及び受信方法と装置、及びその伝送ストリーム構造
US6583808B2 (en) Method and system for stereo videoconferencing
US8878836B2 (en) Method and apparatus for encoding datastream including additional information on multiview image and method and apparatus for decoding datastream by using the same
US20020191841A1 (en) Image processing method and apparatus
JP2006191357A (ja) 再生装置および再生プログラム
US20160344999A1 (en) SYSTEMS AND METHODs FOR PRODUCING PANORAMIC AND STEREOSCOPIC VIDEOS
CA2933704A1 (en) Systems and methods for producing panoramic and stereoscopic videos
JP2006270924A (ja) 映像データ処理装置、映像再生装置、映像データ処理方法、映像再生方法、これらの方法をコンピュータによって実行するためのプログラム並びに記録媒体
JP2006128816A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2009244502A (ja) 画像処理装置、画像表示装置、撮像装置及び画像処理方法
JP2008109267A (ja) 立体画像生成装置及び立体画像復号装置
US20120087571A1 (en) Method and apparatus for synchronizing 3-dimensional image
WO2012147354A1 (ja) 映像処理装置及び映像処理方法
JP2006352539A (ja) 広視野映像システム
JP2006140618A (ja) 3次元映像情報記録装置及びプログラム
JP6581241B2 (ja) 平板パネルにおける立体映像入力のためのハードウェアシステム
JP2004200814A (ja) 立体映像生成方法及び立体映像生成装置
WO2011024423A1 (ja) 立体映像表示制御装置及び立体映像撮像装置
US20230179756A1 (en) Information processing device, information processing method, and program
Nagao et al. Arena-style immersive live experience (ILE) services and systems: Highly realistic sensations for everyone in the world

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090512