JP2013504938A - 3dビデオへの仮想インサート - Google Patents

3dビデオへの仮想インサート Download PDF

Info

Publication number
JP2013504938A
JP2013504938A JP2012528927A JP2012528927A JP2013504938A JP 2013504938 A JP2013504938 A JP 2013504938A JP 2012528927 A JP2012528927 A JP 2012528927A JP 2012528927 A JP2012528927 A JP 2012528927A JP 2013504938 A JP2013504938 A JP 2013504938A
Authority
JP
Japan
Prior art keywords
video
camera
channel
camera data
camera model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012528927A
Other languages
English (en)
Other versions
JP5801812B2 (ja
JP2013504938A5 (ja
Inventor
カッツ,シェルドン
ハウス,グレゴリー
ケネディー,ハワード
Original Assignee
ディズニー エンタープライズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディズニー エンタープライズ,インコーポレイテッド filed Critical ディズニー エンタープライズ,インコーポレイテッド
Publication of JP2013504938A publication Critical patent/JP2013504938A/ja
Publication of JP2013504938A5 publication Critical patent/JP2013504938A5/ja
Application granted granted Critical
Publication of JP5801812B2 publication Critical patent/JP5801812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

実施形態は、3Dビデオへのインサートに関する。仮想カメラモデルは、インサートのために、インサートの3D精度およびリアリズムを最大にするために3Dビデオの左右のチャンネルと関連して調整することができる。カメラは、コンポジットとして形成されて、他のモデルに得ることができる。カメラモデルは、3Dビデオの視覚分析に基づき、トーインおよび接眼レンズ間隔を含む3Dカメラデータに基づく。カメラデータは、収集した使用している機器が、3Dビデオの視覚分析に基づいて引き出される、3Dカメラシステムに接続するかまたは3Dビデオの機器および視覚分析を使用して収集される情報の組合せを使用することを引き出した情報から導出する。インサートは現地でなされるかまたは遠隔サイトにあることができ、カメラデータは3Dビデオに埋められることができ、および/または別に遠隔サイトに発信されうる。インサートは一種のインサート、3Dビデオシーン構成および/またはユーザフィードバックに基づいて3D空間において調整されることができ、眼精疲労にユーザ感度からみて3Dインサートおよび調整の双方向調整を含む。
【選択図】図2

Description

本出願は、2009年9月11日出願の“3Dビデオへの仮想インサート”と題された米国仮出願番号61/241,687号の優先権を主張する。この米国仮出願において開示された全てが、引用により本出願に援用される。
実施形態は、3Dビデオへの仮想インサートに関する。
視聴者にストリーミングビデオコンテンツをストリーミングするための方法は、立体視を利用して、プログラムコンテンツを3D視野に投影することができる。
発明が解決すべき課題
3D対応システムは左右の眼の画像のために別個のチャンネルを送信して、シーンの視差図を提供することができる。従来の2Dビデオに仮想インサートを追加する方法が知られているが、このような周知の2D方法は最適な視聴経験を3Dビデオの視聴者に提供するのに十分でないことがある。したがって、インサートが元の制作物の一部であるかのように、視聴者に提示される3Dビデオにリアルな仮想インサートを提供することが求められている。
さらなる理解を提供するために含まれる添付図面は、この明細書中に組み込まれ、この明細書の一部を構成し、本発明の原理を説明するのに役立つ実施形態を説明と共に例示する。図面の説明は以下の通りである。
2Dビデオ内にインサートおよびエンハンスメントを生成する実施形態の概略図である。 3Dビデオ内にインサートおよびエンハンスメントを生成する実施形態の概略図である。 実施形態に係る例示的な3Dオクルージョン方法の第1図を示す。 図3Aの例示的な3Dオクルージョン方法の第2図を示す。 実施形態に係る例示的な3Dオクルージョン方法の第1図を示す。 図4Aの例示的な3Dオクルージョン方法の第2図を示す。 3Dビデオ内にインサートおよびエンハンスメントを生成する実施形態の概略図である。 実施形態に係る例示的な3Dビデオ製造販売の流れを示す。 実施形態が実施されうる例示的なコンピュータシステムのブロック図である。
本実施形態は、現在、添付図面を参照して記載されている。図において、同類の参照番号は、同一であるか機能的に同等の要素を示す場合がある。
特定の用途のための実施形態に関して本発明が本願明細書に記載されるが、本発明がそれに制限されないことを理解すべきである。ここに提供されている教示に接する当業者は、本発明が極めて有用である本発明および付加的な分野の範囲内において、追加変更態様、出願および実施形態を認める。
実施形態は、例えば、フットボールの試合の広告ロゴ、スコアボックス、および第1ダウンラインのようなエンハンスメントを3Dビデオコンテンツに挿入することを含む。実施形態は、3Dメディアに関し、ビデオ、テレビ(放送、ケーブル、衛星、ファイバ)、映画館、インターネット、モバイル機器(携帯電話または他の無線デバイス)および他のプラットフォームのストリーミング3Dビデオメディアを含むがこれに制限されない。
元のビデオの一部であるかのようにリアルに見えるように、2Dビデオへのインサートおよびエンハンスメントがビデオと統合されうる。例えば、インサートは、1992年1月28日に出願され、本明細書にその内容が参考として完全に援用される「選択され挿入された兆候を有するテレビディスプレイ」と題する、ロッサーらの米国特許第5,264,933号明細書に記載したように実行することができる。2Dビデオの仮想インサートシステムは、シーンを認識して、仮想インサートを追加するためのシーンの仮想カメラモデルを構成するために、いかなる数の検索技術を使用してもよい。カメラモデルはカメラの位置および他のパラメータを含むことができ、これによりカメラをシーンに関して配置させることができる。シーンが認識されると、次のフレームモデルはビデオシーンをトラッキングするいかなる数の方法によって算出されうる。オクルージョン処理は、ビデオ内の最前面の物体によってシーン背景に加えられるインサートをオクルードすることが可能になる。例えば、クロマキーシステムのように、オクルージョン算出はシーンカラーに基づいて実行されうる。例えば、プログラムビデオとミックスされる前に、市販のグラフィックレンダラーを用いて、インサートをレンダリングしてもよい。本明細書において参照される実施形態は移動するシステムを合わせるのに利用されることができ、ここで、移動情報はシーンから得られ、インサートの変化をシーンの動きと一致させるために用いる。
カメラモデルは、例えば、パン、チルト、ロール、画像距離、x位置、y位置、z位置のような三脚据え付けカメラの物理的な測定値に関する複数のパラメータを含むことができる。例えば、放射レンズゆがみのパラメータのような他のパラメータは、利用されうる。カメラデータパラメータは、3Dカメラシステムに接続している測定器を使用して収集されるデータから得ることができ、3Dビデオの視覚分析に基づいて引き出されうるか、または、3Dビデオの3Dカメラシステムおよび視覚分析に接続している測定器を使用して収集されるデータの組合せを使用して得ることができる。カメラモデル自体は、3Dビデオの一方または両方のチャンネルの視野を表わすのに必要なすべての情報の一部を含むことができる。例えば、左チャンネルか右チャンネルのいずれかに関連されるズームまたは画像距離のような単一のパラメータを含むことができる。交互の一つのチャンネルパラメータには、焦点、軸、レンズ歪曲等があるが、これらに限定されるものではない。1つのチャネル視野について決定されたカメラデータパラメータは、他のチャンネルの視野から独立して得られてもよい。また、カメラモデルは、3Dビデオ(カメラ位置、パン、チルト)の両方のチャンネルと関連した一つまたはそれ以上のパラメータに限られる場合がある。カメラデータパラメータは、個々のチャンネルの視界との類似点を使用して決定されうる。さらにまた、カメラモデルは、左右のチャンネル(接眼レンズ間隔、トーイ角度、その他)の関係を記載するパラメータに限られる場合がある。カメラデータパラメータは、個々のチャンネルの視野の違いを使用して決定されうる。カメラデータパラメータが広範囲のユニットまたは測定のための手段で表されうることを理解すべきである。3Dビデオの複合、カメラモデルは、3Dビデオの個々のチャンネルのカメラモデルを含む。
本発明の実施形態において、カメラモデルは、1または2の3×3マトリックスとして表される場合がある。別の実施形態では、カメラモデルは、他の次元のマトリックスを使用して生成されてもよい。マトリックス表現の要素またはパラメータは、カメラデータパラメータと考えられうる。マトリックスパラメータは、例えば、カメラ位置を調整するようなカメラ外部のパラメータ、および、例えば、センサ垂直および水平のスケーリング係数のような内部パラメータを含むことができる。例えば、同形異義性に基づく方法のような他の方法を利用することができ、本発明はカメラモデルを算出する特定の手段に依存することを意図しない。例えば、カメラモデルは、バスケットボールコートを含む平面のような、単に現在のカメラチャンネルの視界といくらかの物理的な参照の同形異義の関係を提供することができる。他の例では、カメラモデルは入力視野とシーンの基準画像の間に同形異義のマッピングを含むことができ、その際、基準画像はグラフィックインサートの位置を定めるために使用される。同形異義のマッピングの要素またはパラメータは、カメラデータパラメータと考えられる。本発明の更なる実施形態において、カメラモデルは、3Dビデオのチャンネルの物体、一群の物体または一部のシーンの位置の表現でもよい。すべてのカメラモデルと同様に、視野の物***置は、時間とともに更新されうる。すべてのカメラモデルと同様に、視野の物***置は、時間とともに更新されうる。
仮想インサートを2Dビデオに追加することをベースとする実施形態は、3Dビデオシステムで使用されるように、左右の眼のビデオチャンネルに対して別々のインサートを生成するために組み込まれる場合がある。このような実施形態は、左右それぞれのチャンネルカメラモデルにおいて生成する場合があるインサートエラーを対象にすることができる。例えば、これらのモデルエラーは、検索またはトラックビデオチャンネル内の雑音が多い画素データのために発生する場合がある。テンプレートブロックを使用しているトラッカはランダムな部品を備えていることができる、すなわち、ブロックはランダムに選択されることができ、別の実施形態のチャンネルの間に一貫した挙動を提供することができない。仮想インサートを2Dビデオに追加する時、例えば、検索モデルエラーによってバスケットボールコートに仮想広告がコート上で0.5メートルずれて配置される場合がある。特に、ロゴ位置が交差するコートのラインのような近くの目立つ特徴から比較的離れている場合、2Dビデオの視聴者はこれを問題ないと考える場合がある。
しかしながら、3Dビデオでは、特に誤差が互いにトラッキングする傾向にない場合、左右の眼画像の同様のずれの誤差は、左右の眼の画像が各々互いにずれているため、好ましくないと考えられうる。したがって、本明細書において記載されるように、左右の眼のカメラモデルが共通の基準を参照するか、または左右のチャンネルモデルの相対的な違いを維持することは3Dビデオへの仮想インサートを見る視聴者の体感を改善する場合がある。
図1は、元のビデオの一部である視聴者にリアルに見えるように、2Dビデオへのインサートおよびエンハンスメントを生成するための実施形態の概略図である。プログラムビデオフィード/ビデオ入力プットのようなビデオのソースは、ビデオ入力101として、サブシステムに入力される。ビデオ入力101は、インサートおよびエンハンスメントを含み、ビデオ出力121として出力するために変更されうる。主コントローラ103は、サブシステムブロック103〜113を制御し、調整することができるハードウェアおよび/またはソフトウェアモジュールを表す。検索ブロック105は、カメラモデルを算出して、プログラムビデオシーンのためのシーンジオメトリを計算するためにビデオ入力101を分析することができるハードウェアおよび/またはソフトウェアモジュールを表す。トラッキングブロック107は、検索ブロック105の処理必要量を減らすためにプログラムビデオの範囲内で物体をトラッキングすることができ、ビデオ入力101の背景に関連するインサートおよびエンハンスメントのより円滑なトラッキングを可能にすることができるハードウェアおよび/またはソフトウェモジュールを表す。オクルージョンブロック109は、最前面の物体がインサートおよびエンハンスメントを塞ぐ時点を決定し、ミキサー113がふさがれたインサートおよびエンハンスメントを表示できるようにするためにオクルージョンキーを生成するハードウェアおよび/またはソフトウェアモジュールを表す。レンダーブロック111は、ビデオ出力121とミキシングするためのインサートおよびエンハンスメントをレンダリングするためにカメラモデル、インサート位置、オクルージョンキーおよび他の情報を受信することができるハードウェアおよび/またはソフトウェアモジュールを表す。結合されるか、もしくは3Dビデオにミックスされるかいかなるタイプの現実または仮想グラフィックも、3Dビデオへのエンハンスメントのインサートと考えられることができる。この実施形態は例示のみを目的としており、実施形態はハードウェア、ソフトウェアまたは一つ以上のブロックのためのハードウェアおよびソフトウェアの組合せを含むさまざまな他のアーキテクチャによって実行されうる。例えば、複数のレンダーブロック111およびミキサー113は、インサートおよびエンハンスメントの複数のバージョンを異なる視聴者に提供するために、バックエンドプロセッサとして役立つことができる。例えば、いくつかの実施形態では、検索ブロック105およびトラッキングブロック107は結合される場合がある。別の実施形態では、検索ブロック105、トラッキングブロック107、およびオクルージョンブロック109は結合される場合がある。
カメラモデルを生成するための基礎的な手法は、カメラシステム、ビデオチャンネルのコンピュータ視覚または画像処理分析、物理的なセンサ測定値およびビデオ分析処理の組合せを含む。視野処理は、図1の検索ブロック105、トラッキングブロック107またはオクルージョンをブロック109使用されうる。検索ブロック105にとって、視覚分析は、シーンの視覚の特徴のイメージまたはスクリーン位置を得るために用いることができる。カメラモデルは、画像機能位置およびそれらの対応する3Dシーン位置に関連する特定のフレームのために生成することができる。このような方法は、本明細書にその内容が参考として完全に内含されている、米国特許出願第12/659,628号に記載されている。トラッキングブロック107にとって、視覚分析は、画像の一連のフレーム間で、特徴位置または関心ある点をトラッキングするために用いることができる。1つの実施形態の動作は、本明細書にその内容が参考として完全に内含されている、アストルによる米国特許第6,741,725号明細書に記載されている。オクルージョンブロック109にとって、視覚分析は、画像の最前面ピクセルと背景ピクセルを区別するために用いることができる。色に基づく方法は、本明細書にその内容が参考として完全に内含されている、ジェファーズらによる米国特許第7,015,978号明細書に記載されている。
図2は、3Dビデオへのインサートおよびエンハンスメントを生成するための模式的な実施形態のレイアウトを示す。コントローラ290は、2Dビデオへの仮想インサートを追加するために用いる方法を使用することができる。コントローラ290は、左右の両方のチャンネルのためのビデオ処理ユニットと入出力を行うことができるハードウェアおよび/またはソフトウェアモジュールを表す。対応するサブシステム検索205、トラッキング207、オクルージョン209およびミキサー213に、左ビデオ入力201として、左の眼テレビチャンネルのためのプログラムビデオが入力される。対応するサブシステムである検索255、トラッキング257、オクルージョン259およびミキサー263に、右ビデオ入力251として、右の眼テレビチャンネルのためのプログラムビデオが入力される。左/右ビデオ入力201、251は、インサートおよびエンハンスメントを含むために変更されることができ、左ビデオ出力221および右ビデオ出力271にそれぞれ出力される。
コントローラ290は、さまざまなサブシステムブロックを制御し、調整することができる。検索ブロック205、255は、左/右ビデオ入力201、251を分析することができるハードウェアおよび/またはソフトウェアモジュールを表し、プログラムビデオシーンのカメラモデルを算出する。トラッキングブロック207、257は、検索ブロック205、255の処理必要量を減らすためにビデオ内で物体をトラッキングすることができるハードウェアおよび/またはソフトウェアモジュールを表し、左/右ビデオ入力201、251の背景に関して、インサートおよびエンハンスメントのより円滑なトラッキングを可能にする。オクルージョンブロック209、259は、最前面の物体が、ミキサー213、263がオクルードされたインサートおよびエンハンスメントを表示することを可能にすることができるオクルージョンキーを生成するようにインサートおよびエンハンスメントをオクルードする時点を決定することができるハードウェアおよび/またはソフトウェアモジュールを表す。レンダーブロック211、261は、左/右ビデオ出力221、271とミキシングためのインサートおよびエンハンスメントをレンダリングするために、カメラおよびその他モデル、インサート位置、オクルージョンキーおよび他の情報を受信することができるハードウェアおよび/またはソフトウェアモジュールを表す。
コントローラ290は、左右のテレビチャンネルのための現在のカメラモデル情報を決定するために、検索ブロック205、255およびトラッキングブロック207、257をモニタするモデルマネージャ292を含むことができる。モデルマネージャ292は、左右のカメラモデルを一致させるために、左右のテレビチャンネルの各カメラモデルを参照することができる。例えば、モデルマネージャ292は、左右のチャンネルカメラモデルの中間に、3Dワールド座標において、カメラ位置を有する平均/基準カメラモデルを算出することができる。場合によっては、共通の基準として左または右チャンネルカメラモデルを使用することが好ましい。左右のビデオチャンネルに関連した平均または共通の基準カメラモデルを使用することは、左右のチャンネルの間にカメラモデル不適当な組合せの効果を減らすことができる。例えば、左右のチャンネルカメラモデルは、固定量または共通の基準カメラモデルまでの距離によりオフセットされうる。例として、左右チャンネルカメラモデルは、共通の基準カメラモデルの3Dワールド座標から3Dワールド座標において、固定空間距離を有するようにされうる。例えば、左右のカメラモデル間の距離は、3Dカメラシステムとして知られている左右カメラレンズ間の距離に相当する。カメラレンズの間の距離または眼距離または間隔はビデオシーケンスの間、変化しうるが、平均距離は一部の用途では適切である。また別の用途では、例えば、周知の公式または近似値を有する接眼レンズ間隔をより正確にモデル化することが好ましい。他の例では、共通の基準カメラモデルからの補正は、立体画像間の視差を算出するための方法を用いて計算されうる。これは、左右のチャンネル単独の視覚分析または組合せの左右のチャンネルの視覚分析によって達成されうる。視差またはステレオ分析は、3Dビデオのチャンネルの関係を決定または導出するために用いることができる。カメラデータパラメータは、3Dテレビチャンネルの視差またはステレオ分析に基づいて引き出されうる。チャンネル間の一致が、同様にパラメータの一組のために使用されうる。例えば、左右のカメラモデルが一致する前に、ズームまたは拡大データは平均ズーム値に基づいて一致しうる。この例では、ズームデータは、カメラモデルを算出するためにそれを適用する前に、ノイズのためにフィルターに通されうる。あるいは、最小自乗誤差フィティングが、入力パラメータの最善の一致を見つけるために使用される場合がある。
有効な予想される範囲に対する物理的パラメータを制限することは、調整プロセスで使用できる他の機構である。これは、時間にわたるだけでなく個々の時点にも適用できる。ズームのような特定のパラメータの変化率が制約され、スムージングされうる。これは、3Dビデオチャンネルの画像処理または物理的なセンサ測定の信号処理によって部分的に達成されうる。調整は、周知のフィルタリング技術、統計方法、閾値化方法または他の方法を利用する場合がある。調整は、個々のカメラデータパラメータまたはカメラデータパラメータのグループ化に適用されうる。複合カメラモデルのようなカメラデータパラメータのグループ化は、整合されまたは一つまたはそれ以上のカメラデータパラメータで調整する。調整は、カメラモデルまたはカメラデータパラメータを他のカメラデータパラメータと整合して関連している。ある実施形態において、第1のカメラデータパラメータと調整された一つまたはそれ以上のカメラデータパラメータまたはカメラモデルは、第1のカメラデータパラメータと同時に生成されうる。いくつかの実施形態では、複合カメラモデルおよび一つまたはそれ以上の個々のカメラデータパラメータは、整合したまたは一つまたはそれ以上の個々のカメラデータパラメータの最初の評価によって調整される。別の実施形態では、第1のカメラデータパラメータと一致する一つまたはそれ以上のカメラデータパラメータまたはカメラモデルは、第1のカメラデータパラメータの後、順次生成される。別の実施形態において、第1および第2のカメラデータパラメータに一致する一つまたはそれ以上のカメラデータパラメータまたはカメラモデルは、同時に、あるいは、第1および第2のカメラデータパラメータの生成の後、順次生成される。調整は、3Dビデオのチャンネル、3Dチャンネルの視覚的分析、3Dビデオチャンネルを得るカメラパラメータ、センサ測定または3Dカメラシステムのカメラパラメータ、または上記のいかなる組合せに基づいてもよい。調整は、特定の方法または方法のグループに限られない。
一部の3Dアプリケーションでは、シーンのトラッキングで発生しうるドリフトを最小化するために、2Dアプリケーションよりも頻繁な検索モデルを利用することが望ましい。左右のチャンネルの相対的なドリフトを各々に対して最小化することも望ましい。3Dインサートアプリケーションのための検索精度は、例えば、3Dシーンの範囲内の不正確な位置に収束している3D物体と関連した潜在的エラーの観点から望ましい。2D画像における位置誤差とは対照的に、このような誤差は、不正確なインサートを3Dにおいて顕著に不自然な外観にみえる場合がある。例えば、3Dフットボール試合テレビ番組の3D第1ダウンラインのための収束誤差により、競技場の上または競技場の下にラインが表示されることがある。第1のダウンラインの左右のチャンネルインサートは正しい位置を有するのと同様に、長さが一致することが必要であり、そうでなければ、ラインの端は3Dにおいて不自然にみえる場合がある。例えば、突然のエラーのような付加的なタイプのエラーは、3D空間内で物体を突然移動させる原因となる場合がある。サイズの不一致によって、色の誤差または他の外観上の問題が生じる場合がある。そのような場合、モデルマネージャ292は、左右のチャンネル間のカメラモデルの違いを考慮することによって、パフォーマンスを高めることができる。
トラッキングブロック207、257は、例えば、テクスチャテンプレート法などのシーントラッキングのための2D方法を利用することができる(アストルに対する、「画像テクスチャテンプレートを用いた移動トラッキング」と題した、米国特許第6,741,725号明細書参照)。3Dビデオのチャンネルの視覚分析を使用して、テクスチャテンプレートまたはトラッキングブロックは、シーントラッキングおよび生成モデルのためのシーン内で選択されうる。トラッキング法は、左右のチャンネルから2Dテクスチャテンプレートを用いてシーンの2D情報を使用することができる。他のトラッキング法は、2Dシーンテクスチャを使用することができるが、3D位置情報をトラッキングブロックのために利用することができる。このような方法は、2Dテクスチャテンプレートを利用する場合であっても、3Dトラッキング法と呼ぶことができる。他の場合には、左右のチャンネルのステレオ視野から得られる3D情報が用いられる場合がある。ボクセル、または3Dピクセルに基づく3Dトラッキングブロックは、3Dシーントラッキングに用いられる場合がある。このような方法は、オプティカルフローのような他の技術に応用されうる。多くのアプリケーションでは、2D処理が適切であるが、複雑さおよびコストを最小限に抑えることができる。いくつかの実施形態では、物体または物体の集合体、またはシーンの一部は、3Dビデオの個々のチャンネルでトラッキングされるか、または同時に両方のチャンネル全体に共同でトラッキングされうる。
ボクセルを使用して、一部の2Dトラッキング法のエラーを回避することができる。例えば、あまりに多くのテンプレートブロックが、背景ブロックと関連して、シーン内の移動する前景の物体に存在すると、2Dテンプレートトラッキングが失敗する場合がある。このような前景の物体が背景に対して移動すると、誤ったカメラモデルが算出されうる。このような状態は、バスケットボールの試合のテレビ番組の間に、例えば、カメラがプレーヤにズームインし、トラッキングはプレーヤ上のブロックを使用すると発生する。周知の3D座標を有するボクセルを使用すると、トラッキングのための3D位置に基づいて背景ボクセルを選択することが可能となる。例えば、上記の実施形態において、ボクセルは、コートフロアプレートまたは視聴者スタンドプレートに選択されうる。検索と同様に、トラッキングはチャンネル間の違いを考慮しモデルマネージャ292の利益を得ることができる。性能の向上は2Dブロックまたはボクセル検索を周知の左右のチャンネル関係によって定義される制約内に制限することによって得られる。より小さい領域の上のブロックまたはボクセル検索はよりトラッキング要素の使用を可能にする場合があり、より良いトラッキング精度および性能を与える。上記の分析法は、3Dチャンネルの視覚分析、3Dカメラシステムのセンサ測定または視覚分析およびセンサ測定の組合せによって達成されうる。ボクセルの使用は、視覚分析の調整または3Dビデオのチャンネルと関連したセンサ測定の一部でもよい。
オクルージョンブロック209、259は、オクルージョン処理を実行することができる。オクルージョン処理は、クロマキーなどの方法を使用してなされうる。3Dビデオの場合、オクルージョン処理は、シーンから3D情報を使用することができる。例えば、シーンの範囲内のピクセルは、テンプレートマッチングのような方法を使用している左右のビデオチャンネルの両方において参照されうる。左右のチャンネルピクセルに対応するための3D位置情報は、その時、例えば、エピポーラ幾何学法を使用して算出される。ピクセルのための3D位置情報が決定されると、オクルージョンサブシステムはそれらのピクセルが最前面の物体によってオクルードされるか否かを決定することができる。例えば、ピクセルの背景ブロックが、シーンのピクセルの背景ブロックより3Dカメラの近くに位置すると決定される場合、ピクセルの背景ブロックはピクセルの背景ブロックをオクルードするために実行されうる。
図3Aは、実施形態に係る例示的な3Dオクルージョン法の第1図を図示する。プレーヤのリストバンド上の緑色の部分は、左目チャンネル302および右目チャンネル304のパッチ306として示される。左/右目チャンネル302、304の各々におけるクロマキー法を使用して、このパッチ306は、背景競技場310の緑色を区別するのが困難であり、ブリーディングの可能性を増加させる場合がある。しかしながら、パッチ306および背景310のような類似色が含まれるときでも、実施形態はパッチ306と背景310を区別するために視差方法を使用することができる。視差法が、クロマキー法と共に用いられうる。図3Bは、図3Aの例示的な3Dオクルージョン法の第2図を図示する。視差を使用して、リストバンドの緑パッチ306の3D位置が、競技場310の類似の緑色よりもカメラ/視聴者312により近いと決定されうる。従って、競技場310上のプレーヤの背後に置かれた黄色の第1のダウンラインのような仮想インサートは、視差の決定に基づいてパッチ306によってオクルードされる場合がある。視差を利用しているインサートおよびエンハンスメントは、パッチ306の上の第1のダウンラインインサートの不自然な「ブリーディング」を回避することができる。
図4Aは実施形態に係る例示的な3Dオクルージョン法の第1図を図示する。ここで、空間情報が複数のプレーヤ406、408のために使用される。例えば、検索を使用して、プレーヤ406、408が左右のチャンネル402、404に見つかる。カメラ/視聴者412からの距離を含むプレーヤ406、408の位置が、視差を使用して決定されうる。競技場410が、背景に表示され、他のプレーヤおよび仮想インサートによってオクルードされうる。図4Bに図示したように、仮想インサート414は、カメラ/視聴者412により近いプレーヤ406によってオクルードされる場合があるが、カメラ/視聴者412からより遠いプレーヤ408はそうでない。仮想インサート414は3Dシーン内でプレーヤ406と408の間にあるように見えうるが、プレーヤ406、408の後方に競技場の背景410にブリードしない。この方法は、3Dシーン内で非常に複数のプレーヤまたは物体にも応用されうる。
3Dビデオの左右の図間のステレオ視覚分析により、深度図またはマスクの生成も可能となる。ここで、ピクセルまたはビデオシーンの領域は深度測定によって表されうる。ステレオ図から深度図を生成するさまざまな方法が用いられうる。深度図がシーン内で正確に物体の輪郭に続く時、挿入されたグラフィックを除外する(key out)オクルージョンマスクを生成するのに用いる場合がある。除外部分は、最前面の物体をオクルードするのを防止し、挿入したグラフィックの前に現れることを可能にする。例えば、これは、挿入されたグラフィックのピクセルのカメラからの有効な距離と、ピクセルと関連したシーンの位置のカメラからの距離の間のピクセル比較によってピクセルを生成することによって、深度図に得ることができる。例えば、物体またはシーンピクセルがグラフィックの仮想位置よりカメラに近いときに、挿入されたグラフィックは、除外されうる。例えば、物体またはシーンピクセルがカメラからグラフィックの仮想位置よりはるかに離れる時、挿入されたグラフィックは、ビデオに導入(keyed into)されうる。
2Dスポーツ放送のビデオに重ね合わされる標準グラフィックは、3Dビデオ製品の更なる課題となる場合がある。グラフィックは、時としてスコアバグまたはフォックスボックスと呼ばれる、固定スコアグラフィックオーバレイを含むことができ、それは現在の試合クロック、スコアおよび関連するプレー情報を連続的に表示することができる。グラフィックは一時的にポップアップグラフィックを含むこともでき、時々、試合のプレーヤに関する背景情報を提供する、下位第3(lower-third)グラフィックと称される。このようなグラフィックを3Dビデオに挿入する手法は、グラフィックをカメラと関連して固定位置または距離に表示させる。しかしながら、これは、視聴者にとって不快なことがあり、場合によっては、時々、3Dテレビ番組に伴う眼精疲労を引き起こす場合がある。視聴者に好ましく見えるグラフィックかどうかは、所与の時刻または時間にわたって3Dビデオシーンの物体および背景の深度に依存しうる。物体および視聴距離のより大きな背景の配置は、視聴者が集中しやすく、したがって、視聴者の眼精疲労を低減させる。さらに、カメラに比較定期近く、および/またはシーン要素から遠く離れて配置されるグラフィックは、例えば、ディスプレイ面/画面から遠い、および/または視聴者に近いシーンは、視聴者の気を散らし、および/またはシーンとは無関係なように視聴者に見える。しかしながら、シーン内でグラフィックを統合することは、このような問題を最小化することができる。
視聴者にとってより快適にみえることができるような3Dビデオシーンにおいて、実施形態は、バーンイングラフィックを含む仮想グラフィックの配置をガイドするために、カメラモデルを使用しうる。物理モデルとともに、カメラモデルによって、シーンの物体の深度範囲が決定されうる。ある実施形態において、バーンイングラフィックは観察スクリーン/ディスプレイ平面の位置に配置されうる。そして、視聴者から観察スクリーン/ディスプレイ平面と同じ距離に位置するように見える。別の実施形態において、バーンイングラフィックは、視野の物体に関する相当する距離、または視野における物体の僅かにその前または背後に配置されうる。グラフィック配置は、シーンの構成に基づいて異なる場合がある。例えば、フットボールの試合の広い監視ショットを有する高いカメラのグラフィックの配置は、フィールドレベル(フィールド上の一団のプレーヤのズームインされたショット)のためのグラフィックの配置と異なる場合がある。別の実施形態では、バーンイングラフィックは、物体を越えた深度またはシーンのプレー面に配置され、カメラから比較的大きい距離で現れる。カメラモデルおよび検索方法はプレーヤまたはレフェリによっておそらくオクルードされていないスクリーン位置を決定するために用いることができ、または、アルゴリズムはオクルードされていない領域を直接見つけ出すことができる。更なる実施形態において、グラフィック深度は、予想される操作上の範囲(例えば監視図対分離されたプレーヤ範囲)に基づいて、所与のカメラのために固定することができる。これは、計算信号を使用しているか、または、例えば、制作の責任者によってゲームの音声呼び出しを聞いている系統的方法で確認されうる。別の実施形態では、カメラモデルは、カメラから3D距離を考慮しているグラフィックオーバレイのためのシーン適合性を評価するために用いることができる。グラフィックは、視聴者にとって快いようにさまざまな基準を使用して、選択的に可能である。
実施形態は、3Dビデオシーンに挿入されうる他の情報に拡張することができる。字幕スーパーまたはクローズドキャプションテキストは、3Dシーン内でインサートおよび組み込むことができる。眼精疲労または他の機能的または美的な理由を最小化するために、インサートを配置してもよい。例えば、ダイアログテキストを、シーンの話し手の近くに配置してもよい。例えば、ビデオストリーム内のメタデータは、シーン内でクローズキャプションテキストの自動配置を可能にすることができる。仮想インサート配置は、視聴者によって制御されることができ、例えば、カッツらによる2009年8月13日に出願した「双方向ビデオインサートおよびそのアプリケーション」と題する、米国特許出願公開第2010/0050082号明細書に記載するように行うことができ、同文献は、本明細書にその内容が参考として完全に組み込まれている。例えば、3Dビデオを見る時、眼精疲労の傾向があるかその影響を受けやすい視聴者は、より長い視聴距離ではインサートを選択することができる。
実施形態は3Dビデオの様々なタイプのデータを提示するためにシーンと統合される仮想グラフィックを利用することができ、その結果、データは視聴者にとって快適にみえる。試合状況に関する情報は、例えば、グラウンド上へ統合される英数字グラフィックとして提示されうる。ある実施形態において、例えば野球の試合の、またはセンターサークルの一部、またはサッカーの試合のエンドラインの近くにおけるピッチャーマウンドの次のように、このようなデータは、固定された分野位置において提示されうる。別の実施形態では、情報のグラフィックは他の仮想グラフィック(例えば、ダウンおよび/または距離グラフィック)に取り付けられることができ、これは、第1ダウンラインまたはスクリメージライングラフィックの配置と関係している。情報のグラフィックは、テレビ生産の代替位置に示されうる。これは背面の壁、または野球の試合のスタンド、またはフットボールの試合の制作物におけるスタジアムの構造物の上方デッキから吊り下げられたサインを含むことができる。
より大きな視聴距離で仮想インサートを配置することは、眼精疲労を減らすことができ、比較的間近に焦点を合わせる期間の後に、目の焦点を合わせる必要性を減らすことができる。3Dビデオに影響され、頭痛を呈しうる一部の視聴者のために、より大きな距離に集中することは、不快な症状を減らすことができる。仮想インサート距離を制御する能力を有することは、ビデオ制作が3Dビデオと関連した眼精疲労および他の症状を減らすことを可能にすることができる。
3Dビデオカメラシステムのパラメータは、接眼レンズ間隔およびトーアングルを含む。接眼レンズ間隔はレンズ間の距離であり、トーアングルはレンズ間の相対的な視野角である。パラメータは、オペレータによって手動で制御されうる。これは、一つまたはそれ以上の3Dカメラ操作者を支援するために、指定された個人によって実施されうる。モーターは、パラメータを調整するために、カメラを動かすことができる。パラメータは、物体との距離および他のシーン情報に基づいて決定されうる。オペレータは類似のシーンに伴う経験に依存し、周知のガイドラインを使用し、ライブヴュースクリーンを使用し、または他の技術を使用することによってパラメータを決定することができる。カメラまたはカメラコントローラは、カメラの設定を決定するために、テーブル、または視聴距離、視野角、シーンジオメトリ、その他のようなパラメータを検索することに基づいて、これらのパラメータを算出することができる。接眼レンズ間隔およびトーアングルは、2つのステレオチャンネルの間に背景内の特徴ポイントに視覚的に一致させ、登録することによって、直接計算されうる。周知のカメラ接眼レンズ間隔およびトーアングルは、3Dインサートモデルのための算出に組み込まれることができる。例えば、これらのパラメータは、メタデータとしてビデオ内で埋められることができるか、または仮想インサートシステムに直接データチャンネルを介して送られうる。
3Dカメラからの設定/パラメータと関連したカメラデータを使用した実施形態において、コントローラは、カメラによって制作されるビデオ録画の垂直帰線消去期間に、3Dカメラデータを埋め込むことができる。3Dカメラデータは、接眼レンズ間隔、トーアングル、ズーム、焦点、エクステンダおよび他の3Dカメラパラメータまたは信号を含むことができる。3Dカメラマウント(例えば、パン、および2Dビデオを使用されるシステムからデータと類似のチルトデータ)からの付加的なデータは、また、3Dカメラデータに含まれることができる。この種の埋め込み3Dカメラデータは、3D仮想インサートのために、放送スタジオなどの遠隔の場所にビデオで送られることができる。ビデオまたはインサート方法のインサート領域は、仮想インサートシステムのための最終的な目的地でデータ保全性を確実にするように選択されうる。他の例では、カメラデータは、ビデオの水平帰線消去領域または水平補助的データ(HANC)領域の中で使っていない音声チャンネル内でエンコードされる場合がある。
カメラデータ以外の他のタイプのメタデータは、ビデオ制作および/または配布の流れの下流の段階において仮想3Dのインサートを可能にするために、ビデオに挿入されてもよい。一つの実施形態において、4点が、左右のチャンネルの各々のための仮想インサートのためのターゲット領域を定義しうる。これらの8点は、後の段階でインサート用に供することができる3D矩形の平面を定義する。挿入されたエンハンスメントの位置を示すために、エッジ、曲線またはスプラインのような他の数の点または代替表現が用いられてもよい。他の例では、3Dターゲットプレースホルダがビデオに挿入され、その後下流で置換されてもよい。ターゲットプレースホルダは、エンハンスメントを特定のフレームまたはキーフレームに挿入するための画像座標を表すことができる。中間フレーム用のターゲットプレースホルダは、中間フレームの時間的近く内で、キーフレームのターゲットプレースホルダから挿入されうるかまたは決定されうる。あるいは、ターゲットプレースホルダは、シーン(例えば、フットボール場)の物体の画像座標がエンハンスメントまたはインサートの画像座標を決定するために使用されることを表すことができる。それが能動的な視聴の用に供するビデオの部分に影響を及ぼさないように、座標は3Dビデオに埋め込まれるかまたはエンコードされうる。これは、ビデオの水平帰線消去領域または水平補助的データ(HANC)領域内で使用されない音声チャンネルを含むことができない。オクルードされた領域がプレースホルダに含まれないように、プレースホルダは処理されうる。別の実施形態において、インサート位置は、別にエンコードされるメタデータおよびオクルージョンキーマスクにエンコードされうる。さまざまな類似の方法は、当業者によって考案されうる。
場合によっては、スタジオのような下流ではなく、イベント場所などの上流でビデオを処理することが好ましい場合がある。例えば、スタジオのビデオが衛星通信を容易にするために圧縮されうるのに対して、イベントで利用可能なビデオは圧縮されていないことがある。例えば、オクルージョン処理が、非圧縮ビデオを使用して、より良好な結果を提供しうる。他の例では、スタジオよりも上流の段階に少なくとも一部の処理を負荷分散させることによって、スタジオの機器が占めるスペースを少なく保つことが望ましい。
一部のアプリケーションでは、インサート/カメラモデルを算出するためにカメラデータおよび視野処理の組合せを使用するか、またはモデルを算出して、カメラシステム/シーンパラメータを導出するために一の視野処理を使用することが望ましい。一つの実施形態において、パンおよびチルトデータは、近似の検索位置を視野ベースの方法を使用して検索を改良することができる視野ベースのシステムに提供するために用いうる。他の例では、近似の検索位置は、3Dカメラから利用される視野処理および接眼レンズ間隔およびトーアングルによって引き出されうる。さまざまな組合せは、異なるアプリケーションおよび信号有効性に有利かもしれない。視野ベースの処理は、3Dビデオのテレビチャンネルの視覚分析によって成し遂げられることができる。チャンネルは、個々に、または組み合わせて共に処理されうる。
個々のチャンネルまたはチャンネル自体のカメラモデルが、3Dカメラシステムの接眼レンズ間隔またはトーアングルパラメータを算出するために、個々に、または共同で用いられうる。算出パラメータは、3Dカメラを制御するかまたは手動カメラオペレータ制御を増やすために用いることができる。ビデオが新しい設定に応答して変化する時、これらの設定は改良されることができ、新しいカメラモデル/パラメータが算出される。視聴者に不快なフレーミングを回避するズームのようなパラメータに制限を設けてもよい。自動的に接眼レンズ間隔およびトーアングルを算出することにより、3Dカメラのより速い準備を可能となり、より一貫した準備および結果を提供することができる。自動パラメータ算出は、仕事を最小化することによって、制作コストを節約することができる。3D制作物は、視聴者に3D構造のより強い感覚を与えるために、シーンの比較的近い視野を支持することができる。物体が比較的かなりの視聴距離である、比較的長い視野は視聴者により2Dビデオのようにみえることができ、3D制作物がこのような視野のために必要とされないとみなされうる。例えば、フットボールテレビ番組中のような、より近い距離のフレーミングアクションショットは、3Dカメラを急速に組み立てるかまたは準備する課題を提供することができる。このようなケースのために、実施形態は、自動的に様々なシーンショットの3Dカメラパラメータを調整するために用いることができる。例えば、これらの方法を使用して、長いフットボールパスは、より一貫してズームアウトショットと対照的に、ロングパスのより堅い様々なショットに包含される場合がある。
仮想インサートの別の実施形態において、例えば、テレビ放送される3Dフットボール試合の仮想3D第1ダウンラインのような特定の平面にインサートを配置することが望ましい。最終的なインサートがシーン内の正しい3D位置に収束するように、左右のチャンネルインサート部はフレーム内で正しく配置されることを必要とする。例えば、位置誤差は、第1のダウンラインによって、フィールドの平面を通じて、またはその下に現れる。このような課題を回避するために、左右のチャンネルインサート位置は、モニタされることができ、最終的な3Dインサートがシーンの特定の平面に収束することを確実にするように調整されうる。例えば、場合によっては、競技場の下ではなく競技場の上など、平面の一方の側に誤るほうが、問題がないか、好ましいことがある。
図5は、3Dビデオへのインサートおよびエンハンスメントを生成するための実施形態の概略図であり、3Dビデオが統合化法を使用して扱われることができることを示す。入力である3Dビデオ入力501が、独立High Definition Serial Digital
Interface(HD−SDI)が供給するような分離された左右のチャンネルから成ることができるか、またはインターレースする左右のチャンネルを有する複合フィードから成ることができる。インターレースインターレースは、単一のHD−SDIストリーム、またはストリームを組み合わせることによる交互方式を用いて、歪像的に圧搾している左右チャンネルを含むことができる。3Dビデオ入力501は、インサートおよび/またはエンハンスメントを含み、3Dビデオ出力521を出力するために変更されうる。インサートおよび/またはエンハンスメントは、元のビデオの一部である視聴者にリアルに表示されることができる。主コントローラ(503とインタフェースしている統合した主要な制御)は、サブシステムブロック503〜513を制御、調整することができる。組み合わされるか、またはコンポジットストリームに個々のチャンネルをエンコードする他の方式が可能で、ビデオ圧縮方法に基づいてもよい。
統合検索ブロック505は、3Dビデオ入力501を分析することができ、カメラモデルを算出することができ、プログラムビデオシーンのためのシーンジオメトリを分析することができる。カメラモデルおよび分析は単一のチャンネルから導出することができ、2本目のチャンネルに外挿されうる。そして、単一のチャンネルを引き出し、2本目のチャンネルを処理することによって改良され、最適に両方の視野または上記のいかなる組合せ/順列にもマッチするモデルを有する両方のチャンネルから計算される。統合検索ブロック505、視覚分析は、左右のチャンネル内に視覚の特徴の画像位置を導出するために用いることができる。合成されたカメラモデルは、3Dビデオチャンネルのシーン特徴の画像位置の関連およびシーン特徴に対応する3D位置による特定のフレームのために生成することができる。合成されたカメラモデルは、個々のチャンネルのために引き出される特徴位置を一致させることによって生成することができる。例えば、これは、特徴の画像位置と3Dシーン位置の間にマッピングに適合する最小自乗誤差を計算することによって達成されうる。
統合トラッキングブロック507は、単一の視野に基づいてモデルを更新することができて、第2視野を外挿することができる。統合トラッキングブロック507は、第2視野によって改良される単一の視野に基づいてモデルを更新することができ、最適に両方の視野にマッチするために直接モデルを更新することができるか、または、上記のいかなる組合せ/順列に基づいても、モデルを更新することができる。視覚分析は、統合トラッキングブロック507、一連の画像でフレームの間に特徴位置または興味のある点をトラッキングするために用いることができる。これは、物理的なセンサ測定と結合して実行されうる。統合トラッキングブロック507は、コントローラ290(図2)のモデルマネージャ292に同様の方法で複合モデルを生成することができるか、またはホッケープレーヤのヘルメットのような物体または一部をトラッキングすることができる。1つの実施形態において、それぞれ物体はトラッキングされ、シーンはトラッキングされうる。その結果、シーンと関連する物***置はプレーヤのような物体の背後に跡を置くようなグラフィック効果を導出することができる。さらにまた、通信するか、またはカメラおよび/またはレンズに電気接続を行うことによって、統合トラッキングブロック507は、カメラヘッド(パン、チルト、接眼レンズ間隔、トーアングル、その他)を取り付けることによって得られるデータを使用することができ、レンズ情報(ズーム、焦点、ダブラー、Fストップ、光軸トーイン、その他)を抽出した。1つの実施形態において、前撮影較正プロセスは、左右のカメラ視野の関係を導出するために用いる。別の実施形態において、左右の目チャンネルモデルは、物理的なカメラについての知識に基づいて、例えば、左右の目チャンネルカメラセンサ、レンズパラメータ等の知識に基づいて引き出される。実行時で、カメラモデルは1本のチャンネルのために計算されることができ、較正モデルは他のチャンネルのカメラモデルを導出するために用いることができる。
統合オクルージョンブロック509は、最前面の物体が各チャンネルと関連したマスクキーを生成することによって、3Dビデオへのインサートおよびエンハンスメントをオクルードする時点を決定することができる。クロマキー手法では、一方または両方のチャンネルはインサート領域の最適色を決定するために用いることができ、これは両方のチャンネルの独立キーを生成するために用いることができる。両方のチャンネルの背景ピクセル間の通信は、特定のカメラチャンネルのためのマスクキーのショットノイズまたは他のオクルージョンアーチファクトをスムージングするために用いることができる。あるいは、両方のチャンネルのためのオクルージョンマスクは、ステレオ深度図から直接計算されうる。両方のチャンネルのためのマスクは、各チャンネルのための同じ対応するピクセルがマスキングのために確実に選択されようにするために処理されうる。1本のチャンネルにおいてマスキングされて、他のチャンネルにおいてマスキングされない一部のピクセルを有することは、例えば、マッチしている不適当な左右のチャンネルによって生じるインサートの色誤差または他のアーチファクトが生じる場合がある。視覚分析は、各チャンネルのためのマスクキーを生成するために、統合オクルージョンブロック509によって使用されうる。視覚分析は、各チャンネルのためのマスクキーを生成するために、統合オクルージョンブロック509により使用されうる。
統合レンダーブロック511は、個々の左右のチャンネルモデルから決定される複合モデルに基づいて、インサートの立体レンダリングを実行することができる。グラフィックレンダリングエンジンは、3Dビデオと統合される仮想インサートのための同時の左右のチャンネルを生成するために用いることができる。グラフィックキーとのオクルージョンマスクのキーミキシングは、統合レンダーブロック511によって行うことができ、更に、3Dフィルチャンネルとの3Dビデオの最終的なミキシングがおそらく行われる。また、ミキシングは独立統合ミキサーブロック513を使用して行うことができ、それは2つの放送ビデオミキサーを含むことができる。いくつかの実施形態では、左右のチャンネルが標準ビデオ形式(例えば、HD−SDI)においてインターレースされる場合、ミキシングは単一の放送ミキサーによって行うことができる。
実施形態において、統合レンダーブロック511は、統合検索ブロック505および統合トラッキングブロック507で測定されるカメラモデルに従って、視覚要素をレンダリングすることができる。一例では、視覚要素は三次元の物体でもよく、統合レンダーブロック511はビデオ内で現れるために三次元の物体をレンダリングすることができる。その実施形態において、統合レンダーブロック511は3次元モデリング技術を使用している三次元動的な/アニメーションの図をレンダリングすることができ、例えば、テクスチャロード、視界ポートに対する仮想カメラモデリングおよびレンダリングを含む。あるいは、レンダリングした3D物体は、第1ダウンラインの3D代表のような静的でもよい。三次元レンダリング技術が、ゲームアプリケーションのそれらのように用いられることができる。別の実施形態において、3Dビデオ入力501に挿入される視覚要素は、画像、ビデオ、グラフィック、テキストまたは広告(例えば、広告ロゴ)でもよい。視覚要素は文字フォントを使用して生成されうる。そして、インサートがデータソース(例えば、スポーツ競技中に試合のデータまたはプレーヤ位置統計を放送しているチャンネル)に得ることができる。結合されるかまたは3Dビデオを混合される仮想要素は、エンハンスメントの3Dビデオへのインサートであると考えられる。
3Dビデオ入力501に挿入される視覚要素は、仮想第1ダウンラインのインサートはフットボールプレイ表面の背景に固定したように、背景によってシーンをトラッキングすることができる。視覚要素は、スポーツ競技中にプレーヤの足に配置される輪のように、興味のある点をトラッキングすることができる。グラフィックの一部は、ビデオ(例えば、スポーツ競技のプレーヤを示す矢印であり、矢印の先端のみが興味のある点の位置をトラッキングするなど)内で、興味のある点をトラッキングすることができる。例えば、グラフィックは放送ビデオの動くプレーヤの進路(経路)をマークした時、3Dグラフィックインサートは背景シーンおよび最前面の興味のある点と関連しうる。この場合、進路の位置(時間による足の位置)は、最初の興味のある点のトラッキングに基づいて初期化され、その後、カメラの動きを補償するために更新される。
一つの実施形態において、プレーヤの移動を図示する、3Dテレストレーショングラフィックは、例えば、競技面上の3Dにおいて覆われる。別の実施形態では、テレストレーショングラフィックは、カメラからの設定された距離のバーンインとして表されうる。これは、若干のアプリケーションでよく作用しうるが、シーン空間情報から利益を得ることができた他において制限されうる。例えば、テレストレートアーオペレータは、カメラまたはディスプレイ平面から距離に基づいてプレーヤの周辺に円を配置しうる。一部のプレーヤにとって、このような円はプレーヤを囲むように見えるかもしれないが、他のプレーヤでは、円がプレーヤの上に浮くように見えるかもしれない。例えば、近いプレーヤの足のようなシーン内の3D位置に基づいてこのような円を配置することは、プレーヤと円の間の視覚の関係を改善することができる。類似の問題は、プレーヤを示している矢印を含む他のグラフィックにも適用されうる。例えば、ディスプレイ平面の背後に所定距離で矢印を配置すると、矢印が、プレーヤの近くに、または明らかにリンクしたようにみえない場合もある。特定の実施態様において、3Dビデオのテレストレーショングラフィックは、マニュアルインタフェース(タッチスクリーン、マウス、ゲーム装置、タブレット、その他)を使用して獲得されるユーザ命令に基づいて、一部に配置および/または生成されうる。例えば、テレストレーターグラフィックは、プレーヤに続く矢印のような3Dシーンを有するトラッキングを作製することができる。例えば、テレストレーターシーントラッキングは、カメラ接眼レンズ間隔およびトーアングルデータを使用することを含み、本明細書において記載されている方法を用いることが可能である。図示する実施形態において、円は、プレーヤのウエストのまわりに挿入されうる。2D法を使用して、プレーヤの足の近くのシーンに円を配置すると、プレーヤと円との関連がなされないことがある。3D空間に円を正確に配置することは、これを修正することができる。3Dビデオとミキシングまたは結合されたテレストレーショングラフィックは、3Dビデオへのエンハンスメントのインサートであると考えられる。
図6は、実施形態に係る例示的な3Dビデオ制作および販売の流れを例示する。図6で図示したように、カメラおよび他のデータ情報を使用する3Dビデオの仮想インサート/エンハンスメントは、3Dビデオの流れの異なる段階で提供されうる。スポーツ会場602の試合が、複数の3Dビデオカメラ604によって包含され、3Dビデオフィードがオンサイト制作606に送信される。例えば、3D仮想インサートシステムは、オンサイト制作606の左/右チャンネルスイッチャから上流の3Dインサートシステム608で専用3Dビデオカメラフィードを修正することができる。システムは、オンサイト制作606から下流の3Dインサートシステム610でオンサイト3Dビデオ番組フィードを修正することができる。
カメラデータ情報は3Dカメラまたは3Dカメラシステムを取り付けることによって抽出されることができ、それはレンズ、コントローラおよび三脚ヘッドを含むことができる。カメラデータ情報は、データ接続、または情報をビデオ形式にエンコードすることによって3Dインサートシステムに提供されうる。カメラモデル情報は、ビデオまたはビデオ分析およびカメラセンサの組合せを分析することによって、直接抽出されうる。3Dビデオフィードはビデオ伝送612によって放送スタジオプロダクション614のような遠隔位置に送信され、ここで、仮想インサートが3Dインサートシステム616を使用して3Dビデオに統合されうる。カメラモデルまたはデータパラメータはオンサイト制作段階から遠隔の位置まで送信され、ここで、データが受信され、3Dビデオにエンハンスメントを統合するために利用される。仮想インサートを有する3Dビデオは3Dビデオ配信620によって配信されうる。ここで、テレビ622、インターネット624または携帯電話626を含むプラットフォームに提供されうる。
実施形態において、仮想インサートは、放送ビデオの一方または両方のチャンネルのビデオ分析法を用いて、オンサイト制作と離れた位置で、3Dビデオに統合される。その位置は、放送スタジオ、ローカルケーブルヘッドエンド、ローカルケーブルヘッドエンド、ケーブルノード、セットトップボックス、コンピュータシステムおよびモバイル機器を含むが、これに限定されるものではない。別の実施形態では、ビデオ分析は、オンサイトで行われるか、またはこれらに限定されないが、例えばスタジオまたはローカルケーブルヘッドエンドのような遠隔位置において行われうる。情報は、インサートが統合される(ローカルケーブルヘッドエンド、ローカルケーブルヘッドエンド、ケーブルノード、セットトップボックス)配布チェーンにおいて下流に伝達されうる。さらに別の実施形態では、カメラセンサ情報は、3Dビデオカメラのために導出することができ、3Dビデオにグラフィックを統合する仮想インサートシステムにより用いられる会場から離れた位置に送られることができる。
図7は、3Dビデオへのインサートのための実施形態を実施するために用いられる例示的なコンピュータシステム700の概略図である。各種実施形態のさまざまな態様は、ソフトウェア、ファームウェア、ハードウェアまたはそれらの組み合わせによって行うことができる。図7は、実施形態またはその部分がコンピュータ可読のコードとして行うことができる例示的なコンピュータシステム700を例示する。図7は、実施形態またはその部分がコンピュータ可読のコードとして実行されうるコンピュータシステム700を例示する。各種実施形態は、この実施形態コンピュータシステム700に関して記載されている。この記載を読んだ後、どのように他のコンピュータシステムおよび/またはコンピュータアーキテクチャを用いた実施形態の実施方法は、当業者にとって明らかである。
コンピュータシステム700は、プロセッサ704のような一つまたはそれ以上のプロセッサを含む。プロセッサ704は、特殊用途または汎用プロセッサでありうる。プロセッサ704は、例えば、バスまたはネットワークの通信基盤706に接続している。
コンピュータシステム700もまた、メインメモリ708、好ましくはランダムアクセスメモリ(RAM)を含み、二次記憶装置710を含むこともできる。例えば、二次記憶装置710は、ハードディスク装置712および/または着脱可能な記憶装置714を含むことができる。着脱可能な記憶装置714は、フロッピー(登録商標)ディスク装置、磁気テープドライブ、光ディスクドライブ、フラッシュメモリ等を含むことができる。着脱可能な記憶装置714は、周知の方法のリムーバブル記憶ユニット718から読みおよび/または書く。リムーバブル記憶ユニット718はフロッピー(登録商標)ディスク、磁気テープ、光ディスク、その他を含むことができ、それは着脱可能な記憶装置714によって読み書きされる。当該技術の当業者が理解できるように、リムーバブル記憶ユニット718は、本明細書において、コンピュータソフトウェアおよび/またはデータを格納していた有形の計算機可読の記憶媒体を含む。
別の実施形態において、二次記憶装置710は、コンピュータプログラムまたは他の指示がコンピュータシステム700にロードされるための他の類似の手段を含むことができる。このような手段は、例えば、リムーバブル記憶ユニット722およびインタフェース720を含むことができる。このような手段の実施形態は、プログラムカートリッジおよびカートリッジインタフェース(例えば、ビデオゲーム装置でみられる)、着脱可能なメモリチップ(例えば、EPROMまたはPROM)および付随するソケット、および、ソフトウェアおよびデータがリムーバブル記憶ユニット722へ、コンピュータシステム700へ転送されうる他のリムーバブル記憶ユニット722およびインタフェース720を含むことができる。
コンピュータシステム700は、通信インタフェース724を含むこともできる。通信インタフェース724によって、ソフトウェアおよびデータがコンピュータシステム700と外部素子の間に転送されうる。通信インタフェース724は、モデム、ネットワークインタフェース(例えば、イーサネット(登録商標)カード)、通信ポート、PCMCIAスロットおよびカード等を含むことができる。通信インタフェース724を介して転送されるソフトウェアおよびデータは、通信パス726を介して通信インタフェース724に提供される。通信パス726は、ワイヤまたはケーブル、光ファイバ、電話回線、携帯電話リンク、RFリンクまたは他の通信チャンネルを使用して実行されうる。
この明細書において、用語「コンピュータプログラム媒体」および「コンピュータが使用可能な媒体」は、一般に、ハードディスク装置712に取り付けられる着脱可能な記憶ユニット718、着脱可能な記憶ユニット722およびハードディスクのようなメディアを指すために用いる。コンピュータプログラム媒体およびコンピュータが使用可能な媒体はメインメモリ708および二次記憶装置710のようなメモリを指してもよく、それはメモリ半導体(例えば、DRAM、その他)でありうる。これらのコンピュープログラム製品は、ソフトウェアをコンピュータシステム700に提供するための手段である。
コンピュータプログラム(計算機制御ロジックとも呼ばれる)は、メインメモリ708および/または二次記憶装置710に格納される。コンピュータプログラムは、通信インタフェース724を介して受け取られることもできる。実行される時、このようなコンピュータプログラムは、上述したシステムのように、コンピュータシステム700が本明細書において述べられる実施形態を実行することを可能にする。特に、実行される時、コンピュータプログラムによってプロセッサ704が実施形態の方法を実行することが可能になる。従って、そのようなコンピュータプログラムは、コンピュータシステム700のコントローラを示す。実施形態がソフトウェアを使用して実行されるところで、ソフトウェアはコンピュータプログラム製品に格納されることができ、着脱可能な記憶装置714、インタフェース720、ハードディスク712または通信インタフェース724を使用するコンピュータシステム700にロードされうる。
3Dビデオおよびそのアプリケーションへの挿入のシステム、装置、および方法は上述されている。要約ではない、発明の詳細な説明の部分が特許請求の範囲を解釈するために用いることが認められる。要約は一つまたはそれ以上を記載することができるが、発明者によって、このように意図される本発明のすべての例示的実施形態はいかなる形であれ、本発明および添付の特許請求の範囲を制限することを目的としない。
実施形態は、特定された機能およびその関係の実現を例示している機能的な基礎的要素を用いて上述された。これらの機能的な基礎的要素の限界は、説明の便宜のために、本明細書において任意に定められた。特定された機能およびその関係が適切に実行される限り、交互の限界は定められることができる。
特定の実施形態の上述の記載は、本発明の一般的な性質を非常に十分にあらわしているので、他が当該技術の当業者で知識を適用することによって、本発明の一般の概念を逸脱しない範囲で、過度の実験なしで、直ちに特定の実施形態のようなさまざまな出願に修正および/または適用することができる。従って、本願明細書において提示される教示およびガイダンスに基づいて、この種の変更および修正は、開示された実施形態の相当の意味および範囲内にあることを目的とする。本明細書において、語法または用語が説明の目的のために、および制限されないことを理解すべきである。その結果、本明細書の用語または語法は教示およびガイダンスにおける当業者によって解釈される。
本発明の広さおよび範囲は、上述した例示的な実施形態のいずれによっても限定されず、以下の特許請求の範囲およびその均等物によってのみ規定されなければならない。

Claims (33)

  1. 少なくとも3Dビデオの第1チャンネルに基づいて第1のカメラデータパラメータを決定することと、
    少なくとも3Dビデオの第1チャンネルと3Dビデオの第2チャンネルとの関係に基づいて第2のカメラデータパラメータを決定することと、
    前記第1のカメラデータパラメータおよび前記第2のカメラデータパラメータと調整された複合カメラモデルを生成することと、
    前記複合カメラモデルに基づいてエンハンスメントを3Dビデオに挿入することと、を含む方法。
  2. さらに、前記第1のカメラデータパラメータおよび前記第2のカメラデータパラメータを調整することを含む、請求項1に記載の方法。
  3. さらに、前記3Dビデオの前記第1および第2チャンネルのうち少なくとも1つの視覚分析に基づいて前記カメラデータパラメータを導出することを含む、請求項1に記載の方法。
  4. 前記カメラデータパラメータが接眼レンズ間隔またはトーアングルを含む、請求項1に記載の方法。
  5. さらに、前記カメラデータパラメータに基づいて、前記3Dビデオと関連した3Dカメラシステムを自動的に調整することを含む、請求項1に記載の方法。
  6. 前記第1および第2のカメラデータパラメータのうち少なくとも1つが前記3Dビデオと関連した3Dカメラシステムから得られる、請求項1の方法。
  7. さらに、少なくとも前記第1チャンネルの検索分析に基づいて前記第1および第2のカメラデータパラメータを決定することを含む、請求項1に記載の方法。
  8. 前記検索分析がボクセルに基づく、請求項7に記載の方法。
  9. さらに、前記3Dビデオの前記第1チャンネルと第2チャンネルとの間の関係に基づいて検索分析を制約することを含む、請求項7に記載の方法。
  10. さらに、前記第1チャンネルの少なくともトラッキング分析に基づいて前記第1および第2のカメラデータパラメータを更新することを含む、請求項1に記載の方法。
  11. 前記トラッキング分析がボクセルに基づく、請求項10に記載の方法。
  12. さらに、前記複合カメラモデルに基づいて前記エンハンスメントをオクルードすることを含む、請求項1に記載の方法。
  13. さらに、前記3Dビデオの第1および第2チャンネルと関連した視差情報から決定される目標物体距離に基づいて前記エンハンスメントをオクルードすることを含む、請求項12に記載の方法。
  14. さらに、受信された入力に従って前記エンハンスメントを3D位置にインタラクティブに配置することを含む、請求項1に記載の方法。
  15. 前記エンハンスメントがテレストレーショングラフィックである、請求項14に記載の方法。
  16. 前記エンハンスメントがレンダリングした3次元視覚要素である、請求項1に記載の方法
  17. さらに、前記3Dビデオおよび一種の前記エンハンスメントのシーン構成に従って前記エンハンスメントを3D位置に自動的に置くことを含む、請求項1に記載の方法。
  18. 前記エンハンスメントが、統合グラフィック、スコアボックスグラフィック、テレストレーショングラフィック、サブタイトル、クローズドキャプション、ポップアップグラフィック、オーバレイグラフィック、およびバーンイングラフィックのうち少なくとも1つである、請求項17に記載の方法。
  19. さらに、接眼レンズ間隔またはトーアングルを含む少なくともカメラデータに基づき、3D空間において、前記3Dビデオと関連した興味のある点をトラッキングするために前記エンハンスメントを更新することを含む、請求項1に記載の方法。
  20. 前記カメラデータパラメータが接眼レンズ間隔またはトーアングルを含み、前記挿入することが、オンサイト制作の流れの段階から遠隔で実行される、請求項1に記載の方法
  21. さらに、前記オンサイト制作の流れの段階から離れた流れの段階で前記カメラデータパラメータを受信することを含む、請求項20に記載の方法。
  22. さらに、前記オンサイト制作の流れの段階に前記3Dビデオに前記カメラデータパラメータを埋め込むことを含むことを特徴とする請求項20に記載の方法。
  23. 前記3Dビデオへ前記エンハンスメントに対しターゲットプレースホルダを挿入することを更に含み、前記エンハラスメントの前記挿入は、前記ターゲットプレースホルダに基づいて前記3Dビデオの段階の下流の段階で実行される、請求項20に記載の方法。
  24. 前記ターゲットプレースホルダがオンサイト制作の流れの段階で生成される、請求項23の方法。
  25. 前記ターゲットプレースホルダがオンサイト制作の流れの段階の下流の一元化された位置で生成される、請求項23の方法。
  26. 3Dビデオの少なくとも第1チャンネルに基づいて第1のカメラデータパラメータを決定することと、
    前記3Dビデオの前記第1チャンネルと第2チャンネルとの間の関係に基づいて第2のカメラデータパラメータを導出することと、
    前記第1および第2のカメラデータパラメータに基づいて前記3Dビデオにエンハンスメントを挿入することと、を含む方法。
  27. 3Dビデオの少なくとも第1チャンネルおよび前記3Dビデオの第2チャンネルに基づいて基準カメラモデルを決定することと、
    前記基準カメラモデルおよび前記3Dビデオの前記第1チャンネルおよび第2チャンネルに関連したオフセットに基づいて第1のカメラモデルを導出することと、
    前記基準カメラモデルおよび前記オフセットに基づいて第2のカメラモデルを導出することと、
    前記第1および第2のカメラモデルに基づいて前記3Dビデオにエンハンスメントを挿入することと、を含む方法。
  28. 3Dビデオの第1チャンネルの少なくとも視覚分析に基づいて第1のカメラモデルを決定することと、
    前記3Dビデオの第2チャンネルの少なくとも視覚分析に基づいて第2のカメラモデルを決定することと、
    前記第1のカメラモデルおよび前記第2のカメラモデルを調整することによって複合カメラモデルを生成することと、
    前記複合カメラモデルに基づいて前記3Dビデオにスコアボックスを挿入することと、を含む方法。
  29. 3Dビデオの少なくとも第1チャンネルに基づいて第1のカメラモデルを決定するための第1の検索モジュールと、
    前記3Dビデオの少なくとも第2チャンネルに基づいて第2のカメラモデルを決定するための第2の検索モジュールと、
    前記第1のカメラモデルと前記第2のカメラモデルとを調整することによって複合カメラモデルを生成するためのコントローラーモジュールと、
    前記複合カメラモデルに基づいて3Dビデオにエンハンスメントを挿入するためのミキサーモジュールと、を含む方法。
  30. 3Dビデオの少なくとも第1チャンネルと関連した第1のカメラデータパラメータを受信することと、
    前記3Dビデオの第2チャンネルと関連して前記3Dビデオの前記第1チャンネルと関連した第2のカメラデータパラメータを受信することと、
    前記エンハンスメントを前記第1および第2カメラデータパラメータに基づいて前記3Dビデオに挿入することと、を含み、前記挿入がオンサイト制作の流れの段階から離れて実行される方法。
  31. さらに、少なくとも前記第1および第2のカメラデータパラメータに基づいて複合カメラモデルを生成することを含む、請求項30の方法。
  32. 前記第2のカメラデータパラメータが前記3Dビデオの接眼レンズ間隔またはトーアングルである、請求項30に記載の方法。
  33. 前記第1および第2のカメラデータパラメータがオンサイト制作の流れの段階から送信される、請求項30に記載の方法。


JP2012528927A 2009-09-11 2010-09-10 3dビデオへの仮想インサート Active JP5801812B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US24168709P 2009-09-11 2009-09-11
US61/241,687 2009-09-11
PCT/US2010/048427 WO2011031968A1 (en) 2009-09-11 2010-09-10 Virtual insertions in 3d video

Publications (3)

Publication Number Publication Date
JP2013504938A true JP2013504938A (ja) 2013-02-07
JP2013504938A5 JP2013504938A5 (ja) 2013-10-24
JP5801812B2 JP5801812B2 (ja) 2015-10-28

Family

ID=42992525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012528927A Active JP5801812B2 (ja) 2009-09-11 2010-09-10 3dビデオへの仮想インサート

Country Status (7)

Country Link
US (1) US10652519B2 (ja)
EP (1) EP2476259A1 (ja)
JP (1) JP5801812B2 (ja)
CN (1) CN102726051B (ja)
BR (1) BR112012005477B1 (ja)
MX (1) MX2012002948A (ja)
WO (1) WO2011031968A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107150A1 (ja) * 2017-11-30 2019-06-06 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120105439A1 (en) * 2008-12-18 2012-05-03 3D Fusion Inc. System and Method For Adaptive Scalable Dynamic Conversion, Quality and Processing Optimization, Enhancement, Correction, Mastering, And Other Advantageous Processing of Three Dimensional Media Content
CN102576412B (zh) 2009-01-13 2014-11-05 华为技术有限公司 图像处理以为图像中的对象进行分类的方法和***
US20120198500A1 (en) * 2011-01-31 2012-08-02 Robin Sheeley Touch screen video production and control system
TWI449408B (zh) * 2011-08-31 2014-08-11 Altek Corp 三維影像擷取方法與裝置及三維影像顯示裝置
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
US20140176661A1 (en) 2012-12-21 2014-06-26 G. Anthony Reina System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom)
US9595124B2 (en) 2013-02-08 2017-03-14 Robert Bosch Gmbh Adding user-selected mark-ups to a video stream
US20140298379A1 (en) * 2013-03-15 2014-10-02 Yume, Inc. 3D Mobile and Connected TV Ad Trafficking System
KR20140120000A (ko) * 2013-04-01 2014-10-13 한국전자통신연구원 3차원공간의 분석을 통한 입체영상 자막 생성 장치 및 방법
GB2520311A (en) * 2013-11-15 2015-05-20 Sony Corp A method, device and computer software
GB2520312A (en) * 2013-11-15 2015-05-20 Sony Corp A method, apparatus and system for image processing
US20150235076A1 (en) * 2014-02-20 2015-08-20 AiScreen Oy Method for shooting video of playing field and filtering tracking information from the video of playing field
CN104093013B (zh) * 2014-06-25 2016-05-11 中国科学院遥感与数字地球研究所 一种立体视觉三维可视化***中自动调节图像视差的方法
CN104869389B (zh) * 2015-05-15 2016-10-05 北京邮电大学 离轴式虚拟摄像机参数确定方法及***
US10595966B2 (en) * 2016-11-04 2020-03-24 Align Technology, Inc. Methods and apparatuses for dental images
US10701421B1 (en) * 2017-07-19 2020-06-30 Vivint, Inc. Embedding multiple videos into a video stream
EP3528196A1 (en) 2018-02-16 2019-08-21 Accenture Global Solutions Limited Dynamic content generation
DK180640B1 (en) 2018-05-07 2021-11-09 Apple Inc Devices and methods of measurement using augmented reality
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11032607B2 (en) 2018-12-07 2021-06-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for embedding visual advertisements in video content
CN110691175B (zh) * 2019-08-19 2021-08-24 深圳市励得数码科技有限公司 演播室中模拟摄像机运动跟踪的视频处理方法及装置
WO2021056030A1 (en) * 2019-09-22 2021-03-25 Mean Cat Entertainment, Llc Camera tracking system for live compositing
US11227446B2 (en) 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11138771B2 (en) 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) * 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US11943565B2 (en) * 2021-07-12 2024-03-26 Milestone Systems A/S Computer implemented method and apparatus for operating a video management system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304244A (ja) * 1997-05-01 1998-11-13 Sony Corp 画像処理装置およびその方法
JP2000067265A (ja) * 1998-08-25 2000-03-03 Canon Inc 画像処理装置およびその方法
JP2002027507A (ja) * 2000-07-13 2002-01-25 Sony Corp カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2004286465A (ja) * 2003-03-19 2004-10-14 Minolta Co Ltd 画像による対象物の計測方法および撮像装置
JP2004535129A (ja) * 2001-07-10 2004-11-18 ビスタス アンリミテッド、インコーポレイテッド 目標エリアが画像ストリーム内に含まれる持続時間を算出する方法およびシステム
JP2008146497A (ja) * 2006-12-12 2008-06-26 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9714971A (pt) * 1996-11-27 2001-11-27 Princeton Video Image Inc Rastreamento em movimento utilizando padrõesde textura-imagem
US6741725B2 (en) * 1999-05-26 2004-05-25 Princeton Video Image, Inc. Motion tracking using image-texture templates
US7257237B1 (en) * 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
DE102004062275A1 (de) * 2004-12-23 2006-07-13 Aglaia Gmbh Verfahren und Vorrichtung zum Ermitteln eines Kalibrierparameters einer Stereokamera
EP2439697A3 (en) * 2005-09-22 2012-07-04 3M Innovative Properties Company Method for refining the calibration of an imaging system
US8786596B2 (en) * 2008-07-23 2014-07-22 Disney Enterprises, Inc. View point representation for 3-D scenes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304244A (ja) * 1997-05-01 1998-11-13 Sony Corp 画像処理装置およびその方法
JP2000067265A (ja) * 1998-08-25 2000-03-03 Canon Inc 画像処理装置およびその方法
JP2002027507A (ja) * 2000-07-13 2002-01-25 Sony Corp カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
JP2004535129A (ja) * 2001-07-10 2004-11-18 ビスタス アンリミテッド、インコーポレイテッド 目標エリアが画像ストリーム内に含まれる持続時間を算出する方法およびシステム
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2004286465A (ja) * 2003-03-19 2004-10-14 Minolta Co Ltd 画像による対象物の計測方法および撮像装置
JP2008146497A (ja) * 2006-12-12 2008-06-26 Canon Inc 画像処理装置、画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107150A1 (ja) * 2017-11-30 2019-06-06 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JPWO2019107150A1 (ja) * 2017-11-30 2020-12-03 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JP7078056B2 (ja) 2017-11-30 2022-05-31 株式会社ニコン 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JP2022105594A (ja) * 2017-11-30 2022-07-14 株式会社ニコン 処理装置、検出装置、システム及びプログラム
JP7363962B2 (ja) 2017-11-30 2023-10-18 株式会社ニコン 処理装置、検出装置、システム及びプログラム

Also Published As

Publication number Publication date
JP5801812B2 (ja) 2015-10-28
US20110216167A1 (en) 2011-09-08
CN102726051B (zh) 2016-02-03
BR112012005477B1 (pt) 2021-06-29
CN102726051A (zh) 2012-10-10
WO2011031968A1 (en) 2011-03-17
US10652519B2 (en) 2020-05-12
BR112012005477A2 (pt) 2016-04-19
EP2476259A1 (en) 2012-07-18
MX2012002948A (es) 2012-07-17

Similar Documents

Publication Publication Date Title
JP5801812B2 (ja) 3dビデオへの仮想インサート
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US9699438B2 (en) 3D graphic insertion for live action stereoscopic video
US8922718B2 (en) Key generation through spatial detection of dynamic objects
KR100950169B1 (ko) 다수의 뷰 합성 방법
US10121284B2 (en) Virtual camera control using motion control systems for augmented three dimensional reality
US20130278727A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
KR20170127505A (ko) 환경 측정들을 하고 및/또는 3d 이미지 렌더링에서 이러한 측정들을 사용하기 위한 방법들 및 장치
KR20220127939A (ko) 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치
CN106688231A (zh) 立体图像记录和回放
WO2011029209A2 (en) Method and apparatus for generating and processing depth-enhanced images
US9736462B2 (en) Three-dimensional video production system
US20150138188A1 (en) Method, apparatus and system for image processing
CN113891060B (zh) 自由视点视频重建方法及播放处理方法、设备及存储介质
US9154710B2 (en) Automatic camera identification from a multi-camera video stream
Inamoto et al. Free viewpoint video synthesis and presentation from multiple sporting videos
CN102118576B (zh) 一种虚拟体育***中的色键合成方法及装置
Grau et al. Stereoscopic 3D sports content without stereo rigs
KR20130099887A (ko) 이미지 또는 이미지 시퀀스에 보조 시각적 객체들을 부가하기 위한 방법 및 장치
JP2017103672A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Inamoto et al. Arbitrary viewpoint observation for soccer match video
KR20240026222A (ko) 이미지 생성
JP2017102785A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2017102784A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150827

R150 Certificate of patent or registration of utility model

Ref document number: 5801812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250