JP2012530998A - 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ - Google Patents

相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ Download PDF

Info

Publication number
JP2012530998A
JP2012530998A JP2012517664A JP2012517664A JP2012530998A JP 2012530998 A JP2012530998 A JP 2012530998A JP 2012517664 A JP2012517664 A JP 2012517664A JP 2012517664 A JP2012517664 A JP 2012517664A JP 2012530998 A JP2012530998 A JP 2012530998A
Authority
JP
Japan
Prior art keywords
image
depth data
pixel separation
stereoscopic
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012517664A
Other languages
English (en)
Other versions
JP5584292B2 (ja
Inventor
ウェルシュ、リチャード・ジェイ
ラルフ、クリスチャン・ビー
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2012530998A publication Critical patent/JP2012530998A/ja
Application granted granted Critical
Publication of JP5584292B2 publication Critical patent/JP5584292B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

少なくとも1つのオブジェクトを、表示装置の立体画像中にレンダリングする技術を提供する。オブジェクトに対する視聴者の距離の関数としての知覚される奥行きデータを受け取る。この知覚される奥行きデータは正規化することができる。特定の表示装置に対するピクセル分離オフセットは、知覚される奥行きデータから計算する。オブジェクトの左右の目からの画像を、ピクセル分離オフセットと共に立体画像に挿入する。具体的に実施の形態において、オブジェクトとして、挿入すべきキャプション付けが含まれる。
【選択図】図1

Description

関連出願との相互参照
本願は、2009年6月24日に出願され、その全体が本願明細書において参照により援用されている米国特許仮出願第61/220,007号に基づく優先権を主張する。
本発明は、3次元(3D)画像化に関し、特に、奥行きを知覚できるようなオブジェクトの処理に関する。
2次元(2D)表示について、キャプション付け(例えば、字幕付け、クローズドキャプション付け、等)は、ビデオ再生装置、又は画像合成ソフトウェアにより適宜レンダリングすることができる。挿入した2Dキャプション付けは、オクルージョンにより、すでに存在する画像のフィーチャより前又は後ろにあるように見える。キャプション付けと共に与えられる補助データにより、単純な2D配置とスタイルを特定することができる。例えば、番組放送からのキャプション付け補助データは、ロールアップ、ポップアップ又はペイントオンのいずれかを指定することができる。ロールアップキャプション付けは、一般にスクリーンの下部に現れ、ポップアップキャプション付けは、スクリーンのどこにでも現れる。ペイントオンキャプション付けは、スクリーンの所定の固定ブロックを用いる。
これらの従来からある技術は、すでに存在する3D画像に適した技術ではない。3D空間におけるキャプション付けを勝手にレンダリングすることにより、バックグラウンド(例えば、すでに存在するフィーチャの後ろ)にキャプション付けが生じ、フォアグラウンド(例えば、すでに存在するフィーチャの前)にレンダリングされる結果となるか、又は、逆にフォアグラウンドにキャプション付けが生じ、バックグラウンドにレンダリングされる結果となる。言い換えれば、キャプション付けは、オクルージョンによりフィーチャの前に現れる一方、両目同士の視差により同じフィーチャの後ろに現れることがある。この矛盾により、3D画像における奥行の像を壊すと共に、視聴者に眼精疲労をもたらす。
このような落とし穴は、製造後工程で各3Dキャプション付けの挿入について目視分析を人為的に手作業で行うことにより回避することができる。これは、挿入したものそれぞれについて、人がその適正を確認するものであるといえる。容易に想像できるであろうが、この工程は時間がかかり、コスト高となり、人為的エラーを伴いがちである。人為的な目視分析は、記録済みのコンテントに対しては現実的でなく、生放送に対しては不可能である。
さらに、人為的な目視分析は具体的に大きさの決まった表示装置に対して行われ、しばしば、異なる表示装置に対して予期せぬ結果を生じることがある。知覚される奥行きはピクセル視差を伴って非線形であり、ピクセル視差は、ピクセル分離オフセット及び各表示装置ピクセル分解能の両方の関数となる。従って、同じピクセル分離オフセットを用いた場合であっても、挿入したキャプション付けが好ましくない位置に現れることがある。例えば、異なる表示装置上では、視聴者の目から逸脱してしまう無限遠を超えたところに、キャプション付けが現れることがある。左右の目に映る画像間のピクセル視差が、一般に大人では65ミリメータである、視聴者の眼間距離より大きいとき無限遠を超えてキャプション付けが現れる。予期せぬ結果として、視聴者の後ろのような、表示を行うことができない禁止位置が含まれる。
上記のとおり、自動的な及び/又は表示装置と独立した位置への、3Dキャプション付け、及び一般的な3Dオブジェクトの挿入は、従来の2D及び3D技術に多大な利益をもたらすことが分かる。
少なくとも1つのオブジェクトを表示装置に立体画像としてレンダリングする方法及び装置を提供する。立体画像は、別々に操作した又は1つに合成した2つの画像(右目画像及び左目画像)を含むことができる。1つの実施の形態において、この方法は、オブジェクトについて、視聴者の距離に対する割合として知覚される奥行きデータを受け取るステップを含む。特定の表示装置に対するピクセル分離オフセットがこの知覚される奥行きを用いて計算される。オブジェクトの(右目画像及び左目画像のような)第1及び第2の画像を、それぞれピクセル分離オフセットと共に立体画像に挿入する。
本発明の他の実施の形態において、少なくともキャプション部分について、視聴者の距離に対する割合としての奥行きデータを提供する。この奥行きデータは、好ましい知覚される奥行きを十分得るためにキャプションの第1の画像と第2の画像との間の適切なピクセル分離オフセットを定めるために用いられる。キャプションの第1の画像と第2の画像とを、定めたピクセル分離オフセットと共に、立体画像又は画像ビットストリームに挿入する。具体的な実施の形態において、与えられた奥行きデータを、表示する表示装置にあわせて正規化する(例えば、ミリメートルあたり1ピクセルの分解能、1メータの幅)。
本発明のさらに他の実施の形態において、立体画像にオブジェクトを挿入する方法を提供する。立体画像は(モバイルフォン、コンピュータ、テレビジョン、映写機等のような)第1の再生装置に直接又は間接に伝送される。少なくとも1つのオブジェクトについて、視聴者の距離に対する割合としての知覚される奥行きデータもこの第1の再生装置に伝送される。第1の再生装置は、知覚される奥行きデータから第1のピクセル分離オフセットを計算することができる。立体画像及び知覚される奥行きデータは、第2の再生装置に直接又は間接に伝送される。この第2の再生装置は、知覚される奥行きデータから第2の分離オフセットを計算することができる。第1の再生装置と第2の再生装置とが異なるスクリーン幅の寸法又はピクセル分離能を持つ場合、第1のピクセル分離オフセットは、第2のピクセル分離オフセットと等しくならない。
本発明の他の実施の形態における方法では、3D立体画像中にオブジェクトをレンダリングするために正規化された奥行きデータを生成する。この方法は、立体画像内のフィーチャを、例えば、区分化することにより識別することを含む。立体画像における(ピクセル分離オフセットのような)空間的オフセットはフィーチャに対して定められる。複数の空間的オフセットは、任意的に立体画像の視差マップを形成するために用いることができる。空間的オフセットは知覚される奥行きと相関関係があり、従って、3D空間におけるフィーチャの位置と占有する量を定めることができる。この方法はさらに、立体画像に挿入する立体的なオブジェクト画像のジオメトリを定めるステップを含む。1以上のオブジェクトの空間的オフセットを、占有された量部分を酒、及び、他の配置制限を満たすと共に、立体的なオブジェクト画像を3D空間に配置するために計算する。計算した1以上のオブジェクトの空間的オフセットの各々は、表示装置とは独立に正規化することができ、視聴者の距離に対する割合として、対応する知覚される奥行きとして表される。各知覚される奥行きのデータストリームを出力することができる。個別の実施の形態において、立体画像の奥行きマップは、さらに、知覚される奥行き、それに伴い、フィーチャの位置及び占有量をより正確に調整するために用いられる。
本発明の他の実施の形態において、出力信号を生成するための装置は、入力端子、出力端子、及び、この入力端子と出力端子とに接続された信号処理回路とを含んでいる。信号処理回路は、少なくとも1つのオブジェクトについて、視聴者の距離に対する割合として、知覚される奥行きのデータを受け取るように構成されている。信号処理回路は、少なくとも1つのオブジェクトの左目オブジェクト画像と右目オブジェクト画像とをそれぞれ立体画像の左目画像と右目画像に挿入する。左目オブジェクト画像と右目オブジェクト画像とはピクセル分離オフセット分だけずらされている。
本発明の他の実施の形態において、オブジェクトレンダリングのために奥行きのデータを生成するための装置は、入力端子、出力端子、及び、この入力端子と出力端子とに接続された信号処理回路とを含んでいる。信号処理回路は立体画像内のフィーチャを識別し、フィーチャの空間的オフセットを定めるように構成されている。空間的オフセットは、任意的に、信号処理回路によって視差マップを形成するために用いることができる。信号処理回路は、さらに、立体画像に挿入する立体的なオブジェクト画像のジオメトリを定め、占有する量及び他の配置制限を避ける一方で、3D空間における立体的なオブジェクト画像を配置するために1以上のオブジェクト空間的オフセットを計算するよう構成されている。計算した1以上のオブジェクトの空間的オフセットの各々は、表示装置とは独立に正規化することができ、視聴者の距離に対する割合として、対応する知覚される奥行きとして表される。各知覚される奥行きのデータストリームは、出力端子を通して出力することができる。
本発明の他の実施の形態として、命令のプログラムを記録する記憶媒体を提供する。プログラムは、出力を生成する方法を実施するために、表示装置により実行することができる。この方法は、少なくとも1つのオブジェクトについて、視聴者の距離に対する割合として、正規化された知覚される奥行きデータを受け取るステップを含んでいる。正規化された知覚される奥行きデータと表示寸法から表示装置に対するピクセル分離オフセットを計算する。少なくとも1つのオブジェクトの第1のオブジェクト画像と第2のオブジェクト画像とが立体画像の第1の画像と第2の画像とに挿入される。第1のオブジェクト画像と第2のオブジェクト画像とはピクセル分離オフセット分だけずらされる。表示装置は挿入されたオブジェクトと共に視覚的に立体画像を出力する。
本発明の種々の対象、特徴、及び利点は、以下の詳細な説明及び添付図により十分理解できるであろう。
本発明及びそれに伴う利点が容易に十分把握できると共に、添付図に関連させて以下の詳細な説明を参照することにより、本発明がよく理解できる。
本発明の実施の形態による3D位置調整レイアウトを示す。 画像視差、及び眼間距離の関係を一例として、三角法で示す。 本発明の実施の形態による、典型例として7メートル幅の表示に対するピクセル視差の関数として知覚される奥行きを示す。 本発明の実施の形態による正規化したスクリーンにたいする3D位置調整レイアウトを示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図である。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 本発明の実施の形態による3Dオブジェクトの配置の簡単化したフロー線図での典型的な結果出力を示す。 奥行きマップと、区分化した視差マップとの関連を示す。 奥行きマップと、区分化した視差マップとの関連を示す。 本発明の実施の形態による3Dプロジェクタシステムの簡単化したフロー線図を示す。
以下の説明と図面は本発明の説明のためのものであり、本発明を限定するものとして解釈すべきでない。多くの具体例を本発明を十分な理解のために記載する。しかし、いくつかの事例において、本発明の記載を不明確にすることを避けるために、よく知られた又は従来からあるものについては記載していない。本明細書中での1つの実施の形態を言及することは、必ずしも、その実施の形態だけを言及することではなく、いくつかあるうちの少なくとも1つであることを意味する。
図1は、本発明の実施の形態による3D位置調整システム100を示す。位置データは、オブジェクトを目的の3D画像にレンダリングするときにそのオブジェクトをどこに配置するかを定めるために用いられる。オブジェクトには、サブタイトルテキストクローズドキャプショニング、オンスクリーンインフォメーションバー、スクロールニュースティッカー、テレビジョンプログラムガイド、スコアボード、オンスクリーン再生装置制御(任意的に表示されたタッチスクリーンコントロール)、チャンネルロゴオーバーレイ、警告(heads−up)表示(HUD)情報又は他の図形オブジェクト。再生中に装置に依存させないために、パーセンテージ位置システムを用いる。3D空間における位置は、スクリーン幅(x軸)、スクリーン高さ(y軸)、及びスクリーンから視聴者までの距離(z軸)のパーセンテージとして表される。
例えば、2048ピクセル幅の画像中の、x軸上での左右の目の画像間での19ピクセルの正の視差を持つ立体的なオブジェクトは、画像幅の約0.927%(19/2048)を表す。その結果、例えば、立体的なオブジェクトはスクリーン平面の前に、視聴者とスクリーンとの中間に(例えば、スクリーン平面から視聴者までの距離の50%の所に)に現れる。従って、7メートル幅のスクリーンの場合、立体的なオブジェクトは、本発明の実施の形態において、スクリーン幅の0.927%、64.94ミリメータ(7メートル×0.927%)、即ち約27ピクセル(1998ピクセル水平幅と仮定)だけ分離することができる。この場合もやはり、結果として、図2Aの三角法的関係と図2B中の点201とで具体化される、視聴者とスクリーンとのほぼ中程に生じる立体的なオブジェクトとなる。一方、スクリーン幅の0.951%(19/1998)を意味する、7メートル幅のスクリーン上での正の19ピクセル視差では、図2B中の点203に示すような明らかにスクリーン平面により近いように奥行きが知覚されるような結果となる。
上記例示から分かるように、比率位置調整では、異なる装置に対して奥行きの割合が保持されたが、絶対ピクセル視差による調整では保持されなかった。表示装置の大きさとは無関係にz軸上での知覚される奥行きは一定に維持されることが望ましい。言い換えれば、異なる再生装置で見るときも、ピクセル視差が変わるかも知れないが、3D画像は一定にすべきである。実際には、1つの再生装置と他の再生装置とでは、ピクセル視差の変化は一般に非線形となる。
3D位置調整システム100において視聴者の距離が大きく変化するので、奥行きの知覚が再生装置に依存しないことは好都合なことである。例えば、視聴者の距離は、携帯用デバイス(例えば、携帯電話、携帯端末(PDA)、携帯メディアプレーヤー、アップルのビデオiPod、その他)に対して約15センチメートルから1メートルの範囲で変化する。視聴者の距離は、ラップトップコンピュータ、デスクトップコンピュータ、テレビジョン、及びアーケードゲームのディスプレーに対して約0.5メートルから約5メートルの範囲で変化する。公共の場において、映写機、スタジアムディスプレー、及び広告用掲示板に対して、視聴者の距離は、約3メートルから約100メートル又はそれ以上の範囲で変化する。再生装置は、必然的に、対象となる視聴者の距離に応じて表示サイズが大きく異なる。他の再生装置と比べて1つのスクリーン幅は、5倍、10倍、あるいは100倍以上になることがある。
本発明の1つの実施の形態によれば、z軸の位置調整値(奥行き)は、スクリーン平面からの視聴者の距離のパーセンテージZpvとして定めることができる。このように、奥行き調整値は、デバイスと無関係とすることができる。例えば、図1に戻って、+50%(点101)における第1のオブジェクトは、常に、スクリーン平面と視聴者との間の中間位置にて知覚される。0%(点103)及び−50%(点105)の第2及び第3のオブジェクトは、常に、第1のオブジェクトの距離のそれぞれ2倍の位置(スクリーン平面上)及び3倍の位置(スクリーン平面の後方)になる。他の再生装置と比較して別の再生装置に対しては、視聴者がスクリーン平面に近づくにつれて、オブジェクトは、絶対値で視聴者に近づくように見える。スクリーン平面から視聴者が遠ざかるにつれて、オブジェクトは、遠ざかるように見える。しかし、重要なことは、オブジェクトは視聴者の距離に対して、同じ割合の位置に見えることである。
特別な実施の形態において、Zpvを再生装置で用いることのできる値に変換するために、奥行き配置のために用いられる想定される表示装置の物理的なスクリーン幅wは既知であるか又は伝達されてくる。言い換えれば、再生装置は、少なくともx、y、Zpv、及びwの値として位置データを受け取る。受け取った情報に基づき、再生装置は、奥行きZpvを知覚できるように、それ自体の寸法に対するx軸上の適切なピクセル視差を計算する。
他の実施の形態において、ピクセル分離能が1ミリメートルとなる1000ピクセル幅のスクリーンのような、正規化した1メートルのスクリーン幅が用いられる。正規化することにより、オブジェクトに適切に奥行きを持たせるために再生装置はスクリーン幅を知るだけでよく、組み立てソフトウェアは(例えば、オブジェクトの奥行きを定めるために用いる物理的なスクリーンではなく)正規化したスクリーン幅を用いて実質的に変換させることができるという利点をもたらす。つまり、ws値は、アプリオリに知られているので伝達する必要がない。
当然のことながら、Zpvのこの数値表現では、特定の再生装置、基本的には小さく分解能の低い古い装置の能力を超える値が生み出されることがある。例えば、携帯電話のビデオ表示は26ミリメートル幅(又はそれ以下)の小ささとなることがあり、したがって、最大奥行きが+29%に制限される。最新の再生装置は、はるかに改善され、深い奥行きにレンダリングする能力があるが、このような装置でも視聴者の距離の+100%を達成することはできない。+100%の奥行きはほとんど求められることはないので、この制限は実質的に障害とはならない。視聴者に非常に近い場所のオブジェクトのピクセル視差では、視聴者がオブジェクトに焦点をあわせ1つに収束させることが難しくなる。
加えて、Zpvの数値表現、つまり視聴者の距離に対するパーセンテージでは、無限遠平面又はその向こう側での奥行きを適切に表現することができない。幸いにして視聴者の視線軸が平行になったときオブジェクトは無限遠にあるように見えるので、この欠点は解消される。したがって、無限遠平面は、ほぼ眼間距離を負にした値(大人で約−65ミリメートル)に定めることができる。正規化した1ピクセル/ミリメートのスクリーンでは、約−65ピクセルのピクセル分離オフセットを持たせることで無限遠平面を確立することができる。
図3に示すように正規化したスクリーンに3D位置調整レイアウト300を用いることで、再生装置でも合成装置でも、スクリーン幅に対するパーセントとしてのx、スクリーン高さに対するパーセントとしてのy、知覚する正規化した奥行きに対するパーセントとしてのzを与えることにより、キャプション付けのようなオブジェクトを3D画像に適切に挿入することができる。そして、正規化したピクセル分離オフセットSを、制限なしに、少なくとも以下のようにして計算することができる。
Figure 2012530998
正規化したピクセル分離オフセットにより、表示サイズ又は視聴者の距離とは独立に、視聴者の知覚される奥行き関して3D空間におけるオブジェクト位置調整が可能となる。再送装置は受け取った正規化したピクセル分離オフセット(S)を例えばビットストリーム中のメタデータとして用いることができ、それ自身のピクセルピッチの要素に合わせて調整することで装置のピクセル分離オフセット(S)を計算することができる。再送装置のピクセルピッチが、正規化したスクリーンの1ミリメートルではなく0.5ミリメートルであるならば、この場合、S=S/0.5となる。
図4は、例えば、本発明実施の形態による合成装置による、3Dオブジェクトの配置の簡単化したフロー線図400を示す。ステップ401で、すでに存在する立体画像、すなわちターゲット画像を受け取る。ステップ403で、例えば、各立体画像ペア(例えば左目画像及び右目画像)について区分化による解析を組み込むことができ、画像のフィーチャの位置と範囲が特定される。区分化による解析では、各フィーチャ(例えば、画像中にすでに存在するオブジェクト)を色で分割し、区分化したマップを形成するためにはっきりと異なる各領域の境界を定める。
次に、ステップ405で、このフィーチャの空間的オフセットを決定する。これは、左目画像の区分化したマップを右目画像と比較することにより行うことができる。左目画像及び右目画像の区分化したマップは類似しており、したがってフィーチャすなわちこのペアの内の1つのマップ中の区分化した形は、当然のことながらそれに対応するフィーチャの形と位置に必然的に関連している。ペアとなったマップは、比較され、ペア中のお互いに対応するフィーチャ同士のx軸空間的オフセットを定める。
このような空間的オフセットは任意的ステップ407で用いられ、リーガルマップに展開する。リーガルマップにより、オブジェクトの配置のために使用可能な3Dの量が定まる。すなわち、リーガルマップは、フィーチャにより占有されない量を示す。このリーガルマップは、ターゲット画像に配置すべきオブジェクトの残留期間全体にわたって動的に更新することができる。
ステップ409及び411で、配置すべきオブジェクトを受け取り境界を定めるジオメトリを決定する。簡単な場合は、以下に図5Fについて説明するように、オブジェクトジオメトリは、必要な間隔(例えば、ターゲット画像におけるオブジェクトとフィーチャとの間の最低距離)を持たせて全体のオブジェクトの周りの簡単なバウンディングボックス(bounding box)で定めることができる。複雑な場合は、オブジェクトジオメトリは1つのバウンディングボックスより細かい定義を必要とすることがある。例えば、オブジェクトジオメトリは、以下に図5Eについて説明するように、各文字ごとにバウンディングボックスにより特徴付けることができる。
次に、図4のステップ413で、オブジェクトは簡単な配置規則に従い3D量に配置され、配置規則は人の視覚系で眼精疲労を最小限にするよう設計することが望ましい。簡単な配置規則は、一般に以下の特性の内の1以上を有する。すなわち、元の画像におけるフィーチャとの衝突がないこと、オブジェクトは常に前方にあること(代替的にオブジェクトは常に後方にあること)、オブジェクトジオメトリは簡単であること、テキスト又はオブジェクトサイズであること、奥行きの最大値及び最小値であること、及び、静的な配置であることである。
簡単な配置規則は、基点と階層的選択肢のセットとすることができる。例えばオブジェクトをスクリーン平面の中央スクリーンにする簡単な配置規則は、
基点: 0:x=0 y=0 z=0
選択肢: 1:x=−20
2:x=+20
3:x<0
4:x>0
5:0<z≦50
5a:x<0
5b:x>0
6:エラー(Error)
位置x=0,y=0、z=0が不可能なら、20%左が望ましく、20%右、左の任意位置、右の任意位置、最大50%までの前方の任意位置がそれに続き、次いで、左に進み、そして最後に右に進む。このうちのどの位置も不可能である場合はエラーが返される。
ステップ415で、ステップ413に代わって、又は413に加えて、任意的に複合的配置規則が続く。複合的配置規則は、元の画像におけるフィーチャの動きに基づいて動かす動的な変化を伴うことができる。複合的配置規則では、一般に、単純なバウンディングボックス(bounding box)より厳密な定義が必要であり、従って複雑なオブジェクトジオメトリがしばしば用いられる。実際には、複合的配置において、オブジェクトジオメトリは、以下に説明するように図5Fに示したような複合的配置での優先傾向を満足するためにオブジェクトのモーフィングのために元のジオメトリとは異なることがある。
複合的配置は、以下の特性、すなわち動的規則、元の画像におけるオブジェクトの許容される衝突、許容されるオクルージョン、複雑なオブジェクトジオメトリ、および動的配置、の内の1つ以上を有するものとして一般化することができる。複合的配置は、(i)元の画像中のフィーチャの後ろから(ii)フィーチャの前にあちこち移動し視聴者に近づいてくるように見える動的なグラフィックオブジェクトである。この例では、動的なグラフィックオブジェクトは、動的な拡大縮小、回転、および移動を行い、オブジェクトジオメトリも動的となる。これはまず、その場面における元のフィーチャと衝突し、オクルードされ、元のフィーチャを避けオクルードする。
最後に、図4のステップ417で、オブジェクトの配置を反映する位置値を出力することができる。位置値はスクリーン幅に対するパーセント、スクリーン高さに対するパーセント、知覚される奥行きに対するパーセントで表される。知覚される奥行きに対するパーセントは、上演する表示装置にあわせて正規化することができる。特別な実施の形態において、上演する表示装置は、ピクセルあたり1ミリメートルの幅の分解能を持つ、1000ピクセル幅で正規化したスクリーンで特徴付けられる。
当然のことながら、ここに記載したフロー線図400は概説のためのものであり、したがって、種々の修正又は変更が当業者から提案されるであろう。代替的実施の形態において、フロー線図400に記載したステップ図4とは異なる順序とすることができ、ステップを追加することができ、及び/又はいくつかのステップを省略することができる。例えば、ステップ401及び409は、実際には、実質的に同時に、又は、逆の順序で実行することができる。このような修正及び変更は本明細書の範囲に含まれるものとする。
図5A〜5Fは、本発明の実施の形態による3Dオブジェクトの配置についての簡単化した上記フロー線図400の典型的な結果を示す。図5Aはステップ401で受け取ることができるすでに存在する立体画像の左目からの画像と右目からの画像を示す。ステップ403に記載した区分化したマップは図5Bに示され、二つの画像の分離視差を示すため図5Cで重ね合わせた。単純なジオメトリを用いる場合のステップ411に対応する、単純な境界線、1つのボックスとともに「テキストオブジェクト」を図5Dに示す。比較のために図5Eに、複合的オブジェクトジオメトリによる「テキストオブジェクト」を示し、ここでは、境界線が各文字について厳格に定義されている。ステップ415について、複合的配置と複合的ジオメトリの両方を用いた場合、図5Fに示すように、「テキストオブジェクト」を変形し、動き特性を表すことができる。
フロー線図400には示されていないが、合成装置による3Dオブジェクトの配置では、例えば、本発明の実施の形態に従い奥行きマップをさらに用いることができる。奥行きマップは、空間的オフセット分析によってオブジェクトの3D形状を正確に定めるので、特に複数視点の3D画像(例えば、ポリスコーピック(polyscopic)画像)に対して、すでに存在する画像におけるフィーチャの奥行きを奥行きマップによって精緻に決定することができる。図6Aは、図4Aの立体画像ペアの奥行きマップ600の一例である。奥行きマップ600はモノクロームであり奥行きが輝度で表されている。輝度が高いところは、視聴者に近づいてくる正のzであり、輝度が低いところは、視聴者から離れてゆく負のzである。奥行きマップは、画像の各部における測定した奥行きの精度を定める対応する「信頼度」値を含んでいる。奥行きマップ600はそれだけで、元の画像中に挿入したオブジェクトと元の画像中のフィーチャとの間の衝突を避ける可能性を改善するために、その信頼度値をオブジェクトの規則の要因とさせる。
図6Bは、奥行きマップによる区分分析を組み合わせて使用したものを示す。上述のように、奥行きマップ600では、改善された3D形状の決定をおこなう。しかし、区分視差マップにより、元の画像のフィーチャの知覚される奥行きがより正確に定まる。したがって、元の3D画像の品質の高い分析のために区分視差マップ及び区分奥行きマップの両方を組み合わせることは、好都合なことである。結果として、区分化された境界の内側に、奥行きマップにより形状が定められる。奥行きマップの信頼値が効率的に飛躍的に改善される。
本発明の他の実施の形態において、正規化した奥行きの技法は再生装置又は合成装置に適用され、快適な視覚奥行き範囲に、既存の立体画像を調整する。言い換えれば、スクリーン平面の前方及び後方へ可能な奥行きは、個々の好み(例えば、立体芸術家の好み、又は再生装置の最終ユーザーの好み)によるのみならず表示サイズに対して調整することが可能である。快適な視覚奥行き範囲が個々の好みによるにもかかわらず、合理的で概略的な規則が以下のように続く。
(i)非常に大きなスクリーン(例えば、シネマ/アイマックス)。前方のすべての奥行きが利用可能であり、無限遠がスクリーン平面となり正の最大奥行きが視聴者の距離の60%となる。
(ii)大きなスクリーン(例えば、シネマ)。スクリーン平面の前方の利用可能な奥行きが後方より大きい(例えば前方は約2/3の奥行き、後方は1/3奥行き)。
(iii)小さなスクリーン(例えば、テレビジョン、ホームシアター)。スクリーン平面の後方の利用可能な奥行きが前方より大きい(例えば前方は約1/3の奥行き、後方は2/3奥行き)。
(iv)非常に小さなスクリーン(例えば、携帯電話の表示、又は携帯テレビジョン)。スクリーンの前方には利用可能な正方向奥行きはなく、スクリーン平面のはるか後方に無限遠がある。
上記規則を説明するための一例として、元の立体画像が無限遠点Zni=−100を持っていて、最大正方向の奥行きがZ=−40(そのシーンでのトータル奥行きはZ=|Z−Zni|=60となる)であると仮定すると、無限遠点での修正した奥行き位置、Zciは以下のようになる。
(i)非常に大きなスクリーン。Zci=Zni+100、無限遠がスクリーン平面となり、最大でオブジェクトは視聴者の距離の60%までスクリーンから飛び出す。
(ii)大きなスクリーン。Zci=Zni+80、無限遠がスクリーン平面の後方20%となり、最大でオブジェクトは視聴者の距離の40%までスクリーンから飛び出す。
(iii)小さなスクリーンZci=Zni+60、無限遠がスクリーン平面の後方40%となり、最大でオブジェクトは視聴者の距離の20%までスクリーンから飛び出す。
(iv)非常に小さなスクリーン。Zci=Zni+40、無限遠がスクリーン平面の後方60%となり、オブジェクトはスクリーンから飛び出すことはない。
立体画像を調整する装置は、メタデータ中の正規化した奥行き値、画像を調整すべきであると表示したフラグ、及び、複数のあらかじめ定めたサイズ表示についての好ましいシフト調整について記述したメタデータの内の1つ以上を用いることができる。これらのあらかじめ定めたサイズに含まれない表示サイズについては、装置は最も近いあらかじめ定めたサイズを用いて中間的な調整シフト値を補間(例えば、重み付け比例配分、平均化、平均化と端数切捨て、又は、メタデータで特定した特別な重み付け)するか、あるいは、単純にもっとも近いあらかじめ定めたサイズに関連する値を用いることができる。このような調整技術を用いるとき、走査した左目画像及び右目画像の全体が提示されなければならない。走査を行うことは、調整するシフト値の極端な2つの点でシフト値を調整することができる(例えば、意図する再生装置の最大スクリーンと最小スクリーン)。
加えて、既存の立体画像の上述の調整は、立体画像キャプチャーにおける欠陥を修正するために用いることができる。例えば、収束型の撮影の場合、2つのカメラの画像化平面に相互に角度をもたせ、カメラを対象となるオブジェクトに収束させる。したがって収束点は、入力カメラの物理的な配置に依存するが、再生する場合のオブジェクトの視聴者からの距離は、スクリーン間での距離に依存する。収束は、相互に左右の画像を水平にシフトすることで、ポストプロダクションにおいて調整することができる。
本発明の他の実施の形態として、命令プログラムを記録した記憶媒体が提供される。この記憶媒体は、ランダムアクセスメモリー(RAM)、SDRAM、リードオンリーメモリー(ROM)、プログラマブルリードオンリーメモリー(PROM)、電気的消去可能プログラマブルリードオンリーメモリー(EEPROM)、フラッシュメモリー、光ディスク(例えば、CD−ROM、CD−RW、DVD、DVD−RW、ブルーレイディスク、ウルトラデンシティーオプティカル(UDO)ディスク、コンパクトディスク、その他)、磁気媒体(例えば、磁気テープ、フロッピィーディスク、ハードディスク、その他)、紙テープ(例えば、パンチカード)、ホログラフィックストレージ、及び分子メモリーの内の少なくとも1つとすることができる。プログラムは、表示装置で実行することができ、視覚的出力を生じさせる方法を実施する。この方法には、少なくとも1つのオブジェクトに対する視聴者の距離の部分として知覚される正規化した奥行きデータを受け取るステップが含まれる。ピクセル分離オフセットは、正規化した奥行きデータから、表示装置寸法に応じて計算する。この少なくとも1つのオブジェクトの1番目と2番目のオブジェクト画像は、立体画像の1番目と2番目の画像中に挿入される。この1番目と2番目のオブジェクト画像は、ピクセル分離オフセット分だけずらされる。表示装置は、挿入したオブジェクトと一緒に立体画像を視覚的に出力する。
図7は、本発明の実施の形態による、2台映写機システム700の概略図を示す。システム700による立体的な映写技術には、以下のいずれかを含むことができる。
(i)アナグリフ・・・左右の目のチャンネル画像分離が、2色、一般に一方の目には赤、他方の目にはシアン、のフィルターにて行われる。一方の目には第1のフィルター(例えば、赤色フィルター)、他方の目には第2のフィルター(例えば、シアンフィルター)を有するメガネ類が必要となる。
(ii)直線偏光・・・左右の目のチャンネル画像分離が、映写機で、垂直方向の直線偏光板を介して映写機で一方の目の画像をフィルターすることにより、水平方向の直線偏光板を介して他方の目の画像をフィルターすることにより行われる。一方の目には垂直方向の直線偏光板を、他方の目には水平方向の直線偏光板を有するメガネ類が必要となる。
(iii)円偏光・・・左右の目のチャンネル画像分離が、映写機で、垂直方向の左旋円偏光板を介して映写機で一方の目の画像をフィルターすることにより、水平方向の右旋円偏光板を介して他方の目の画像をフィルターすることにより行われる。一方の目には左旋円偏光板を、他方の目には右旋円偏光板を有するメガネ類が必要となる。
(iv)シャッターグラス・・・左右の目のチャンネル画像分離が、画像を時間多重化することにより行われる。映写機のフレームレートに同期させてレンズを電子的に開閉するシャッターグラスを有するメガネ類が必要となる。一般に、このシャッターグラスのタイミングを整えるために、無線信号又は赤外線信号が用いられる。
(v)スペクトル分離・・・左右の目のチャンネル画像分離が、映写機で、スペクトル的にフィルターすることにより行われる。左右の目の画像へのフィルターで、各々、赤、緑、及び青のスペクトル部分を通り、フルカラー画像となる。左目フィルターの帯域通過スペクトルは、右目フィルターの帯域通過スペクトルを補完するものとなる。映写機で用いられるものと同じ一般的スペクトル特性を持つフィルターを有するメガネ類が必要となる。
システム700において、ディスクドライブ701中に記録された(又は適切なネットワークから受け取った、又は、送信を受け取った)データから、左右の目のチャンネル画像をサーバー703により抽出、又はデコード、又は検索、又は再構築する。同様に、左右の目のチャンネル画像に挿入する立体的なオブジェクトと、それに対応する比例的な位置の値とは、ディスクドライブ701中に記録する(又は適切なネットワークから受け取る、又は、送信を受け取る)ことができる。サーバー703は、受け取った正規化された奥行きのような、1以上の比例的な位置の値に基づきオブジェクトのピクセル分離オフセットを計算し、そのようなオフセットを持たせてチャンネル画像にオブジェクトに挿入する。
挿入の後、左目及び右目のチャンネル画像は、左右のチャンネル映写機705及び707からスクリーン709に映写され、3Dグラス711を介して見られる。3D映写機システム700が、左右の目のチャンネルを分離するために直線偏光又は円偏光を用いる場合は、スクリーン709は偏光を保持する。スクリーン709として有効な偏光を保持するタイプのスクリーンは、その特徴的な色合いから、一般に「シルバースクリーン」と呼ばれている。
上記システム700は、は2つの映写機システム(一方は左目そして他方は右目に対応)として記載したが、単一のDシネマ映写機(例えば、ディジタル映写機)を用いることもできる。代替的な単一のDシネマ映写機システムにおいて、左右の目のチャンネル画像は時間多重化される。映写フィルターを必要としないシャッターグラスの場合を除いて、このことは、映写フィルターは左右で多重化周波数を変更しなければならないことを意味する。これは、多重化周波数と同期させたDシネマ映写機のフィルターホイール、又は、電子的な切り替えフィルターにより行うことができる。
当然のことながら、ディスクドライブ701、適切なネットワーク(例えば、インターネット、WAN、LAN、WiFi、ファイバー、ビデオケーブル、衛星放送、その他)、又は、複数の適切なネットワークにより、比例的な位置の値のような同じデータを、連続的に、又は同時に、又は要求に応じて、複数の再生装置に送ることができる。再生装置の表示寸法は変更することができ、本発明の実施の形態により著しく変化することがある。例えば、はるかに大きい家庭のテレビジョンセットと同じ画像及びオブジェクト挿入データを表示装置を組み込んだ携帯電話は、受け取ることができ、大きさの差にかかわらす、ピクセル分離オフセットを適切に調整することにより、同じ表示結果を達成することができる。
本発明は、ここに記載した構成要素(本発明の種々の部品又は特徴)及び均等物を、適切に具備、することができる。
さらに、ここに概説した発明は、明示的に記載されているかどうかにかかわらず、構成要素の一部が欠けていても実施することができる。この記載に照らして、本発明について多くの修正又は変更が可能である。したがって、添付の特許請求の範囲内で、ここに具体的に記載したものとは異なるように実施することができることは理解されよう。

Claims (15)

  1. 少なくとも1つのオブジェクトを表示装置に立体画像としてレンダリングする方法であって、
    前記少なくとも1つのオブジェクトについて視聴者の距離に対する割合として知覚される奥行きデータを受け取るステップと、
    前記知覚される奥行きデータから、前記表示装置に対するピクセル分離オフセットを計算するステップと、
    前記少なくとも1つのオブジェクトの第1のオブジェクト画像を前記立体画像の第1の画像に挿入するステップと、
    前記少なくとも1つのオブジェクトの第2のオブジェクト画像を前記立体画像の第2の画像に挿入するステップと、
    を具備し、
    前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
    方法。
  2. 前記少なくとも1つのオブジェクトはキャプション付けテキストであることを特徴とする請求項1に記載の方法。
  3. 前記第1のオブジェクト画像と前記第1の画像は左目画像であり、前記第2のオブジェクト画像と前記第2の画像は右目画像であることを特徴とする請求項1に記載の方法。
  4. 前記挿入するステップの後、データストリーム中に前記第1の画像及び前記第2の画像を出力するステップをさらに具備することを特徴とする請求項1に記載の方法。
  5. 前記知覚される奥行きデータは、ミリメートル幅あたり1ピクセルに正規化されることを特徴とする請求項1に記載の方法。
  6. 前記表示装置は、携帯電話、携帯メディアプレーヤー、テレビジョン、コンピュータモニタ、及び映写機の内の少なくとも1つであることを特徴とする請求項1に記載の方法。
  7. 少なくとも1つのオブジェクトを表示装置に立体画像としてレンダリングする方法であって、
    前記少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として正規化した知覚される奥行きデータを受け取るステップと、
    前記正規化した知覚される奥行きデータ及び表示寸法から、前記表示装置に対するピクセル分離オフセットを計算するステップと、
    前記少なくとも1つのオブジェクトの、第1のオブジェクト画像及び第2のオブジェクト画像を前記立体画像に挿入するステップと、
    を具備し、
    前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
    方法。
  8. 立体画像にオブジェクトを挿入する方法であって、
    前記立体画像を第1の再生装置に伝送するステップと、
    少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として知覚される奥行きデータを前記第1の再生装置に伝送するステップであって、該第1の再生装置は、該知覚される奥行きデータから、第1のピクセル分離オフセットを計算する能力があることを特徴とするステップと、
    前記立体画像を第2の再生装置に伝送するステップと、
    割合として知覚される奥行きデータを前記第2の再生装置に伝送するステップであって、前記第2の再生装置は、該知覚される奥行きデータから、第2のピクセル分離オフセットを計算する能力があることを特徴とするステップと、
    を具備し、
    前記第1のピクセル分離オフセットは、前記第2のピクセル分離オフセットとは等しくないことを特徴とする、
    方法。
  9. 前記第1の再生装置のスクリーン幅は、前記第2の再生装置のスクリーン幅の5分の1以下であることを特徴とする、請求項8に記載の方法。
  10. 前記第1の再生装置は、携帯用デバイスであることを特徴とする、請求項9に記載の方法。
  11. 前記第2の再生装置は、2つの映写機を具備することを特徴とする、請求項8に記載の方法。
  12. 3次元(3D)画像にオブジェクトをレンダリングするための正規化した奥行きデータを生成する方法であって、
    第1の画像及び第2の画像を含む立体画像を受け取るステップと、
    前記第1の画像及び前記第2の画像内の少なくとも1つのフィーチャを特定するステップと、
    3D空間内の位置を定めるために第1の画像及び第2の画像間の少なくとの1つのフィーチャの空間的オフセットを計算するステップと、
    3D空間中に前記少なくとも1つのフィーチャが占有する量を定めるステップと、
    第1のオブジェクト画像及び第2のオブジェクト画像を含む立体的なオブジェクトを受け取るステップと、
    前記立体的なオブジェクトのジオメトリを定めるステップと、
    前記占有する量を避けながら、3D空間における立体的なオブジェクト画像を配置するために少なくとも1つのオブジェクト空間的オフセットを計算するステップと、
    前記少なくとも1つのオブジェクト空間的オフセットにより定められた知覚される奥行きを正規化するステップと、
    前記少なくとも1つのオブジェクト空間的オフセットのディジタルデータを出力するステップと、
    を具備することを特徴とする方法。
  13. 前記立体画像の奥行きマップを受け取るステップをさらに具備することを特徴とする請求項12に記載の方法。
  14. 出力信号を生成する装置であって、
    (a)入力端子と、
    (b)出力端子と、
    (c)前記入力端子及び前記出力端子に接続された信号処理回路であって、
    該信号処理回路は、
    少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として知覚される奥行きデータを受け取り、
    前記知覚される奥行きデータを用いてピクセル分離オフセットを計算し、そして、
    前記少なくとも1つのオブジェクトの左目オブジェクト画像及び右目オブジェクト画像を、それぞれ立体画像の左目画像及び右目画像に挿入するよう作られていて、
    前記左目オブジェクト画像及び前記右目オブジェクト画像は、前記ピクセル分離オフセット分だけずれていることを特徴とする、
    信号処理回路と、
    を具備することを特徴とする装置。
  15. 出力信号を生成するための方法を行うための、表示装置により実行可能な命令プログラムを記録する記憶媒体であって、該出力信号を生成するための方法は、
    前記少なくとも1つのオブジェクトまでの視聴者の距離に対する割合として正規化した知覚される奥行きデータを受け取るステップと、
    前記正規化した知覚される奥行きデータ及び表示寸法から、前記表示装置に対するピクセル分離オフセットを計算するステップと、
    前記少なくとも1つのオブジェクトの第1のオブジェクト画像を前記立体画像の第1の画像に挿入するステップと、
    前記少なくとも1つのオブジェクトの第2のオブジェクト画像を前記立体画像の第2の画像に挿入するステップと、
    を具備し、
    前記第1のオブジェクト画像と前記第2のオブジェクト画像とは、前記ピクセル分離オフセット分だけずれていることを特徴とする、
    方法であることを特徴とする記憶媒体。
JP2012517664A 2009-06-24 2010-06-22 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ Expired - Fee Related JP5584292B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US22000709P 2009-06-24 2009-06-24
US61/220,007 2009-06-24
PCT/US2010/039543 WO2011005544A1 (en) 2009-06-24 2010-06-22 Insertion of 3d objects in a stereoscopic image at relative depth

Publications (2)

Publication Number Publication Date
JP2012530998A true JP2012530998A (ja) 2012-12-06
JP5584292B2 JP5584292B2 (ja) 2014-09-03

Family

ID=42342472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012517664A Expired - Fee Related JP5584292B2 (ja) 2009-06-24 2010-06-22 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ

Country Status (15)

Country Link
US (1) US9215436B2 (ja)
EP (1) EP2446635B1 (ja)
JP (1) JP5584292B2 (ja)
KR (1) KR101310212B1 (ja)
CN (1) CN102804787B (ja)
AR (1) AR077201A1 (ja)
AU (1) AU2010270951B2 (ja)
BR (2) BR122013001378A2 (ja)
CA (1) CA2761974C (ja)
ES (1) ES2562255T3 (ja)
HK (1) HK1176773A1 (ja)
MY (1) MY155777A (ja)
RU (1) RU2527249C2 (ja)
TW (1) TW201119353A (ja)
WO (1) WO2011005544A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
WO2010151555A1 (en) 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US8502862B2 (en) * 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
US9699438B2 (en) * 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
KR20120007289A (ko) * 2010-07-14 2012-01-20 삼성전자주식회사 디스플레이 장치 및 그 입체감 설정 방법
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US20120086772A1 (en) * 2010-10-08 2012-04-12 Sony Corporation Closed captioning for 3d television
US20120092364A1 (en) * 2010-10-14 2012-04-19 Microsoft Corporation Presenting two-dimensional elements in three-dimensional stereo applications
JP5673172B2 (ja) * 2011-02-09 2015-02-18 ソニー株式会社 電子機器、電子機器における立体画像情報送信方法、および電子機器における立体画像情報受信方法
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
JP2012244396A (ja) * 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9681115B2 (en) 2011-07-25 2017-06-13 Sony Corporation In-painting method for 3D stereoscopic views generation using left and right images and a depth map
US8982187B2 (en) * 2011-09-19 2015-03-17 Himax Technologies Limited System and method of rendering stereoscopic images
EP2800385A4 (en) * 2011-12-28 2015-11-25 Sony Corp BINOCULAR DISPARITY SETTING APPARATUS, IMAGE PROCESSING APPARATUS, AND FRAME FORMAT
EP2627093A3 (en) 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
EP2972564A4 (en) * 2013-03-11 2017-01-11 Avegant Corporation System, apparatus, and method for enhancing stereoscopic images
CN105556574A (zh) * 2013-09-11 2016-05-04 史克威尔·艾尼克斯控股公司 渲染设备、其渲染方法、程序和记录介质
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
CN106464856B (zh) * 2014-06-24 2019-01-15 谷歌有限责任公司 用于分析和确定虚拟环境的特性的计算机化***和方法
US9948913B2 (en) 2014-12-24 2018-04-17 Samsung Electronics Co., Ltd. Image processing method and apparatus for processing an image pair
US9542722B2 (en) 2014-12-29 2017-01-10 Sony Corporation Automatic scaling of objects based on depth map for image editing
JP6816097B2 (ja) * 2015-07-13 2021-01-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像についての奥行きマップを決定するための方法及び装置
US20190158724A1 (en) * 2017-11-17 2019-05-23 Seek Thermal, Inc. Network camera with local control bus
CN106231292B (zh) * 2016-09-07 2017-08-25 深圳超多维科技有限公司 一种立体虚拟现实直播方法、装置及设备
EP3687178B1 (en) 2017-09-26 2023-03-15 LG Electronics Inc. Overlay processing method in 360 video system, and device thereof
KR102638368B1 (ko) * 2017-12-28 2024-02-20 주식회사 케이티 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램
EP3528496A1 (en) * 2018-02-16 2019-08-21 Ultra-D Coöperatief U.A. Overscan for 3d display
EP3777184A4 (en) * 2018-03-28 2021-12-15 Nokia Technologies Oy PROCESS, DEVICE AND COMPUTER PROGRAM PRODUCT FOR VIRTUAL REALITY

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0777393A2 (de) * 1995-12-05 1997-06-04 ViDiSys Video- und Digital-Systeme GmbH & Co. KG Verfahren und Vorrichtung zur Überlagerung von Stereo-Videobildern
JPH09172654A (ja) * 1995-10-19 1997-06-30 Sony Corp 立体画像編集装置
JP2001218229A (ja) * 2000-02-02 2001-08-10 Fuji Photo Optical Co Ltd 立体撮像装置用固体撮像素子の位置調整構造
JP2004220127A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
WO2007092647A2 (en) * 2006-02-09 2007-08-16 Real D On the fly hardware based interdigitation

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4859994A (en) 1987-10-26 1989-08-22 Malcolm Zola Closed-captioned movie subtitle system
US5615046A (en) 1995-01-23 1997-03-25 Cyber Scientific Inc. Stereoscopic viewing system
US5953506A (en) 1996-12-17 1999-09-14 Adaptive Media Technologies Method and apparatus that provides a scalable media delivery system
MY124160A (en) 1997-12-05 2006-06-30 Dynamic Digital Depth Res Pty Improved image conversion and encoding techniques
US20050146521A1 (en) 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
US6631205B1 (en) 1999-01-13 2003-10-07 Canon Kabushiki Kaisha Stereoscopic imaging in a portable document format
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
AU2001255323A1 (en) 2000-04-13 2001-10-30 Xm Corporation System and method for creating, editing and distributing stereoscopic images
JP3841630B2 (ja) 2000-08-29 2006-11-01 オリンパス株式会社 画像取り扱い装置
JP4610799B2 (ja) 2001-06-25 2011-01-12 オリンパス株式会社 立体観察システム、及び内視鏡装置
RU2237283C2 (ru) 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
US20030103062A1 (en) 2001-11-30 2003-06-05 Ruen-Rone Lee Apparatus and method for controlling a stereo 3D display using overlay mechanism
US7075587B2 (en) 2002-01-04 2006-07-11 Industry-Academic Cooperation Foundation Yonsei University Video display apparatus with separate display means for textual information
WO2004021285A1 (ja) 2002-08-27 2004-03-11 Sharp Kabushiki Kaisha 最適な再生モードでコンテンツを再生できるコンテンツ再生装置
WO2004030375A1 (ja) 2002-09-27 2004-04-08 Sharp Kabushiki Kaisha 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法、画像データ又は画像処理プログラムを記録した記録媒体および画像データ記録装置
KR100488804B1 (ko) 2002-10-07 2005-05-12 한국전자통신연구원 Mpeg-4 기반의 양안식 3차원 동영상 데이터 처리시스템 및 그 방법
KR100751422B1 (ko) 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
JPWO2004084560A1 (ja) 2003-03-20 2006-06-29 富田 誠次郎 立体映像撮影表示システム
JP4490074B2 (ja) 2003-04-17 2010-06-23 ソニー株式会社 立体視画像処理装置、立体視画像表示装置、立体視画像提供方法、および立体視画像処理システム
US7015920B2 (en) 2003-04-30 2006-03-21 International Business Machines Corporation Method and system for providing useable images on a high resolution display when a 2D graphics window is utilized with a 3D graphics window
WO2005031652A1 (en) 2003-09-30 2005-04-07 Koninklijke Philips Electronics N.V. Motion control for image rendering
CN100568281C (zh) 2004-02-17 2009-12-09 皇家飞利浦电子股份有限公司 创建深度图
EP1727090A1 (en) 2004-02-27 2006-11-29 Tdvision Corporation S.A. DE C.V. Method and system for digital decoding 3d stereoscopic video images
EP1728208A1 (en) 2004-03-12 2006-12-06 Koninklijke Philips Electronics N.V. Creating a depth map
JP2005311983A (ja) 2004-04-26 2005-11-04 Olympus Corp 画像処理装置
GB2413910A (en) 2004-04-28 2005-11-09 Spiral Scratch Ltd Determining depth information from change in size of a projected pattern with varying depth
US7643672B2 (en) 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
CN101180653A (zh) 2005-04-07 2008-05-14 Nxp股份有限公司 用于三维呈现的方法和设备
WO2006111893A1 (en) 2005-04-19 2006-10-26 Koninklijke Philips Electronics N.V. Depth perception
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
JP4630150B2 (ja) 2005-07-26 2011-02-09 シャープ株式会社 立体画像記録装置及びプログラム
KR100667810B1 (ko) 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR100818933B1 (ko) 2005-12-02 2008-04-04 한국전자통신연구원 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법
KR100747550B1 (ko) 2005-12-09 2007-08-08 한국전자통신연구원 Dmb 기반의 3차원 입체영상 서비스 제공 방법과, dmb기반의 3차원 입체영상 서비스를 위한 복호화 장치 및 그방법
US8074168B2 (en) 2006-06-09 2011-12-06 Oracle America, Inc. Automated context-compensated rendering of text in a graphical environment
WO2008030011A1 (en) 2006-09-04 2008-03-13 Enhanced Chip Technology Inc. File format for encoded stereoscopic image/video data
WO2008038205A2 (en) 2006-09-28 2008-04-03 Koninklijke Philips Electronics N.V. 3 menu display
EP2105032A2 (en) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
EP2084672A1 (en) 2006-11-20 2009-08-05 THOMSON Licensing System and method for compositing 3d images
KR101842622B1 (ko) 2007-03-16 2018-03-27 톰슨 라이센싱 3차원 콘텐츠와 텍스트를 조합하기 위한 시스템 및 방법
WO2008122838A1 (en) 2007-04-04 2008-10-16 Nokia Corporation Improved image quality in stereoscopic multiview displays
RU2340116C1 (ru) 2007-05-15 2008-11-27 ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" Способ воспроизведения стереоскопического изображения от видеокамер со сходящимися осями
KR100962696B1 (ko) 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
EP2001235B1 (en) 2007-06-08 2013-05-22 Samsung Electronics Co., Ltd. MPEG-4 format extension for recording stereoscopic or synthetic 3D video data with related metadata
JP4291862B2 (ja) * 2007-07-04 2009-07-08 稔 稲葉 立体テレビジョンシステム及び立体テレビジョン受像機
US8538134B2 (en) 2007-10-04 2013-09-17 Samsung Electronics Co., Ltd. Method and apparatus for receiving and generating image data stream including parameters for displaying local three dimensional image
JP2009135686A (ja) 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101539935B1 (ko) 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
CN102100070A (zh) 2008-07-20 2011-06-15 杜比实验室特许公司 立体视频传送***的编码器优化
AU2009275052B2 (en) * 2008-07-24 2014-05-29 Panasonic Corporation Playback device capable of stereoscopic playback, playback method, and program
BRPI0911016B1 (pt) 2008-07-24 2021-01-05 Koninklijke Philips N.V. método de provisão de um sinal de imagem tridimensional, sistema de provisão de sinal de imagem tridimensional, sinal que contém uma imagem tridimensional, mídia de armazenamento, método de renderização de uma imagem tridimensional, sistema de renderização de imagem tridimensional para renderizar uma imagem tridimensional
CN105721877A (zh) 2008-09-23 2016-06-29 杜比实验室特许公司 对交织的图像数据进行解码的方法和包括编解码器的装置
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
CN102232294B (zh) 2008-12-01 2014-12-10 图象公司 用于呈现具有内容自适应信息的三维动态影像的方法和***
RU2537800C2 (ru) 2008-12-19 2015-01-10 Конинклейке Филипс Электроникс Н.В. Способ и устройство для наложения трехмерной графики на трехмерное видеоизображение
WO2010099495A2 (en) * 2009-02-27 2010-09-02 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
US8290338B2 (en) * 2009-05-27 2012-10-16 Panasonic Corporation Recording medium, playback device, encoding device, integrated circuit, and playback output device
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
WO2010151555A1 (en) 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
KR20110005205A (ko) 2009-07-09 2011-01-17 삼성전자주식회사 디스플레이 장치의 화면 사이즈를 이용한 신호 처리 방법 및 장치
CN102474634B (zh) 2009-07-10 2016-09-21 杜比实验室特许公司 对于3维显示模式修正图像

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172654A (ja) * 1995-10-19 1997-06-30 Sony Corp 立体画像編集装置
EP0777393A2 (de) * 1995-12-05 1997-06-04 ViDiSys Video- und Digital-Systeme GmbH & Co. KG Verfahren und Vorrichtung zur Überlagerung von Stereo-Videobildern
JP2001218229A (ja) * 2000-02-02 2001-08-10 Fuji Photo Optical Co Ltd 立体撮像装置用固体撮像素子の位置調整構造
JP2004220127A (ja) * 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
WO2007092647A2 (en) * 2006-02-09 2007-08-16 Real D On the fly hardware based interdigitation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200900266011; 安田敏宏, 外5名: '"サーバレンダリングを用いた立体映像生成手法に関する検討"' 電子情報通信学会 第19回データ工学ワークショップ論文集 , 20080407, 電子情報通信学会データ工学研究専門委員会 *
JPN6013014741; 安田敏宏, 外5名: '"サーバレンダリングを用いた立体映像生成手法に関する検討"' 電子情報通信学会 第19回データ工学ワークショップ論文集 , 20080407, 電子情報通信学会データ工学研究専門委員会 *

Also Published As

Publication number Publication date
KR101310212B1 (ko) 2013-09-24
US20120099836A1 (en) 2012-04-26
CA2761974C (en) 2014-08-12
WO2011005544A1 (en) 2011-01-13
HK1176773A1 (en) 2013-08-02
MY155777A (en) 2015-11-30
BRPI1011819A2 (pt) 2016-03-29
ES2562255T3 (es) 2016-03-03
BR122013001378A2 (pt) 2016-04-05
AU2010270951B2 (en) 2014-06-26
RU2527249C2 (ru) 2014-08-27
CN102804787A (zh) 2012-11-28
EP2446635A1 (en) 2012-05-02
TW201119353A (en) 2011-06-01
RU2012101829A (ru) 2013-07-27
AR077201A1 (es) 2011-08-10
AU2010270951A1 (en) 2011-12-08
CN102804787B (zh) 2015-02-18
EP2446635B1 (en) 2015-12-02
CA2761974A1 (en) 2011-01-13
JP5584292B2 (ja) 2014-09-03
US9215436B2 (en) 2015-12-15
KR20120020131A (ko) 2012-03-07

Similar Documents

Publication Publication Date Title
JP5584292B2 (ja) 相対的奥行きを持たせた立体画像への3dオブジェクトの組み入れ
US11310486B2 (en) Method and apparatus for combining 3D image and graphical data
KR101716636B1 (ko) 3d 비디오 및 보조 데이터의 결합
EP2553932B1 (en) Disparity value indications
KR101834934B1 (ko) 3d 이미지 데이터의 전송
EP2282550A1 (en) Combining 3D video and auxiliary data
WO2012145191A1 (en) Systems and methods for rendering 3d images independent of display size and viewing distance

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under section 34 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20111221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130627

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130801

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140717

R150 Certificate of patent or registration of utility model

Ref document number: 5584292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees