JP5468933B2 - 画像処理装置、画像処理システム及び画像処理方法 - Google Patents

画像処理装置、画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP5468933B2
JP5468933B2 JP2010035384A JP2010035384A JP5468933B2 JP 5468933 B2 JP5468933 B2 JP 5468933B2 JP 2010035384 A JP2010035384 A JP 2010035384A JP 2010035384 A JP2010035384 A JP 2010035384A JP 5468933 B2 JP5468933 B2 JP 5468933B2
Authority
JP
Japan
Prior art keywords
image
distance
scene
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010035384A
Other languages
English (en)
Other versions
JP2010193458A (ja
Inventor
マーク ステファン ポーター ロバート
ヘンリー ギラード クリーブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2010193458A publication Critical patent/JP2010193458A/ja
Application granted granted Critical
Publication of JP5468933B2 publication Critical patent/JP5468933B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。
一対のステレオ画像を一緒に見ることによって3次元画像に見える画像を提供する立体画像技術は、1世紀以上も前からよく知られている。3次元(3D)に見える画像を作成するためには、2つのわずかに異なる画像を、一方の画像がユーザの左眼に映り、他方の画像がユーザの右眼に映るようにしてそれらが一緒に見られるようにする。2つの画像が、同じシーンをわずかに異なる視点から見た画像である場合(例えば、その対の各画像が、一方は左眼から見たシーンであり、他方は右眼から見たシーンであるような場合)、ユーザが適切な見方でその画像を見ると、ユーザの脳が錯覚を起こし、その一対の画像が1つの3次元画像のように見える。その画像内のオブジェクトは、ディスプレイの奥にあるように見える。この奥行きは、そのオブジェクトに対応する左側の画像と、そのオブジェクトに対応する右側の画像との間のオフセット量に応じて決まる。
左眼で見ることを意図された画像が確実に左眼に映り、右眼で見ることを意図された画像が確実に右眼に映るようにするための多くの技術が知られている。いくつかの技術では、一対のステレオ画像の一方の画像を、他方の画像から分離可能に再生することができる。例えば、左側の画像が右側の画像の隣に表示され、それらの画像を見るために、立体鏡等の適当なビューアが用いられる。この画像表示方法は、最も初期の3D画像の形式において用いられた。
或いは、左眼で見ることを意図された左側の画像を垂直方向に偏光させ、右眼で見ることを意図された右側の画像を水平方向に偏光させることもできる。これらの左側画像及び右側画像は互いに重ねられる。各レンズの偏光が左右の眼に映るべき画像の偏光に対応した、適当な眼鏡を装着することにより、ユーザの左右の眼に適正な画像が映る。円偏光、カラーフィルタ(例えば、赤/シアンのアナグリフ)、クロマデプス、アナクロム等、多くの他の画像表示及び画像閲覧方法が知られている。これらのシステムでは、ユーザが適当な眼鏡を装着する必要がある。レンズ状のディスプレイシステムを用いたディスプレイ等の他のシステムでは、3次元画像を見るためにユーザが眼鏡を装着する必要はない。
ステレオ画像の対を生成するためのいくつかの技術が知られている。ステレオ画像の対として見るための一対の画像を生成する一般的な方法として、2台のカメラを、1つのシーンの2つの異なる画像を取得するように、互いにずらして配置する方法がある。一方のカメラを用いて左側画像が取得され、他方のカメラを用いて右側画像が取得される。そして、上記の技術のうちの1つを用いて、この2つの取得画像を1つの3D画像として見ることができる。
国際公開WO2007/096816号パンフレット 国際公開WO98/43442号パンフレット 国際公開WO2006/111893号パンフレット 国際公開WO2006/097680号パンフレット 米国特許公開第2007/0092110号明細書 米国特許公開第2003/0179294号明細書
Fehn C., ""Depth-image-based-rendering (DIBR), compression, and transmission for a new approach on 3D-TV"; PROCEEDINGS OF THE SPIE; 20040531; SPIE, BELLINGHAM, VA, US; ISSN 0277-786X; VOL-5291; PG-93-104
http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf
近年、高精細ビデオカメラ及び高精細テレビジョン放送の出現に伴い、いくつかの放送業者は、3次元画像の再生のために、一対の高精細ビデオカメラを用いて、サッカーの試合又はボクシングの試合等のスポーツイベントの高精細画像を取得している。しかしながら、3次元画像取得用の現行の高精細ビデオカメラアレイは非常に高価である。さらに、ユーザの脳は、2つの画像を同じ1つの画像として知覚しようとするため、2台のカメラ間での画像の輝度及びクロミナンスにおけるミスマッチにより、ユーザは、眼の不快感及び頭痛を感じることがある。
2次元(2D)画像から3D画像を生成する方法も知られている。例えば、1つの2D画像を左眼で見るための左側画像だと考える。右側画像を生成するために、作業者は、シーン内のオブジェクトを選択し、そのオブジェクトがそのシーンにおいてどの程度奥にあるように見えるべきかを決定し、そのオブジェクトについての画像オフセット量を適用する。このような処理の一例は、インスリー社(In-Three. Inc)によって実現されたDimensionalization(商標)と呼ばれる処理である。しかし、現実に2D画像から3D画像を再構成するためには、作業者は、シーン内でのオブジェクトの奥行き位置に関して、自身で芸術的な判断を下す必要がある。さらに、画像内でのオブジェクト及びそのオブジェクトの奥行き位置を定義するために、ビデオ映像又は動画の各フレームも、作業者によって個別にマークアップされる必要がある。この処理はコストがかかるだけでなく、非常に時間と労力がかかる。これは、1台のカメラによって取得されたビデオ画像からリアルタイムで3Dビデオを作製することはほぼ不可能であることを意味する。
本発明は、上記の問題を緩和又は軽減しようとするものである。
本発明の第1の態様では、カメラから、当該カメラにより撮影された、少なくとも1つのオブジェクトを含むシーンの画像に対応する撮影画像を受信するように動作可能な受信手段と、前記シーンにおける前記オブジェクトと、前記カメラを基準として規定された基準位置との間の距離を判断するように動作可能な判断手段と、前記撮影画像における前記オブジェクトの位置を検出し、前記シーンにおける前記オブジェクトに対応する、前記撮影画像における画像特徴に基づいて、前記撮影画像から変更画像を生成するように動作可能な生成手段とを具備する画像処理装置が提供される。前記生成手段は、前記変更画像において、前記オブジェクトの位置を、前記撮影画像において判断された前記オブジェクトの位置から、前記シーンにおける前記オブジェクトと、前記基準位置との間の前記判断された距離に基づくオブジェクトオフセット量だけ変位させることにより、前記変更画像を生成するように動作可能であり、当該変更画像と前記撮影画像とがディスプレイ上で一対の画像として一緒に見られた場合、前記オブジェクトが、前記ディスプレイから所定の距離だけ離れた位置にあるように知覚されるようにする。
本発明の第2の態様では、画像処理方法が提供される。当該画像処理方法は、カメラから、当該カメラにより撮影された、少なくとも1つのオブジェクトを含むシーンの画像に対応する撮影画像を受信し、前記シーンにおける前記オブジェクトと、前記カメラを基準として規定された基準位置との間の距離を判断し、前記撮影画像における前記オブジェクトの位置を検出し、前記シーンにおける前記オブジェクトに対応する、前記撮影画像における画像特徴に基づいて、前記変更画像における前記オブジェクトの位置を、前記撮影画像において判断された前記オブジェクトの位置から、前記シーンにおける前記オブジェクトと、前記基準位置との間の前記判断された距離に基づくオブジェクトオフセット量だけ変位させることにより、前記撮影画像から変更画像を生成し、当該変更画像と前記撮影画像とがディスプレイ上で一対の画像として一緒に見られた場合、前記オブジェクトが、前記ディスプレイから所定の距離だけ離れた位置にあるように知覚されるようにする。
本発明の実施形態により、スポーツイベント等のビデオ映像を、高精細カメラにより効率的に撮影し、処理して、3D画像を形成することができる。したがって、本発明の実施形態は、オブジェクトと基準位置(カメラの位置等)との間の検出された距離に基づいて、シーンにおける各検出されたオブジェクトについて、オフセット量を導出することができる。撮影画像(例えば、左側画像)と変更画像(例えば、右側画像)とが、ディスプレイ上で一対の画像として一緒に見られた場合、オブジェクトは、前記ディスプレイから一定の距離だけ離れて位置するように見える。これにより、高価なステレオカメラの対や、時間のかかる後処理作業を必要とすることなく、効率的に3D画像を生成することができる。
さらに、変更画像におけるオブジェクトの位置を、撮影画像における当該オブジェクトの検出された位置を基準として、コンテンツ処理ワークステーションにより画像データ又は距離データから判断された距離に基づくオフセット量だけ変位させることにより、2D映像から、3D映像を実質的にリアルタイムで生成することができる。「実質的に」という用語は、リアルタイムの撮影及びほぼリアルタイムの撮影だけではなく、所定時間以内の撮影を含むように意図されている。本発明の実施形態では、所定時間とは、例えば、スポーツイベントが行われている時間内、又はそのスポーツイベントにおける任意の時間、例えばサッカーの試合の前半/後半、若しくはアメリカンフットボールのクォーター等である。
本発明のさらなる態様及び特徴は、添付の特許請求の範囲において規定される。
本発明の一実施形態におけるオブジェクト追跡システムの概略図である。 本発明の一実施形態におけるオブジェクト追跡方法のフロー図である。 本発明の一実施形態におけるオブジェクト追跡の概略図である。 本発明の一実施形態における遮蔽検出の概略図である。 本発明の一実施形態におけるオブジェクト追跡及び遮蔽検出方法のフロー図である。 本発明の一実施形態におけるオブジェクト追跡及び遮蔽検出の概略図である。 オブジェクトがディスプレイから離れて位置するように見えるように、3D画像をユーザに対して表示するためのディスプレイ構成例の概略図である。 本発明の一実施形態に係る、カメラと、カメラの視野内のオブジェクトとの距離を判断するシステムの概略図である。 本発明の一実施形態に係る、カメラと、カメラの視野内のオブジェクトとの距離を判断するシステムの概略図である。 本発明の一実施形態に係る、画像が3次元画像としてユーザに知覚されるように画像を表示するシステムの概略図である。 グラウンド上の選手のグループの概略図である。 本発明の一実施形態に係る画像処理方法のフローチャートである。
本発明の、上記の及びその他の目的、特徴及び利点は、以下の例示的な実施形態の詳細な説明及びそれに関連する添付の図面により明らかになる。
画像処理装置及び画像処理方法が開示される。以下の説明では、本発明の実施形態が完全に理解されるように、複数の詳細な説明が提示される。しかしながら、本発明の実施形態を実施するためにこれらの詳細な説明を採用しなければならない訳ではないことを、当業者は理解するであろう。逆に、当業者にとって既知の詳細な説明は、実施形態の説明を簡潔にするために省略される。
図1は、本発明の実施形態におけるオブジェクト追跡システムの概略図である。図1に示す実施形態では、追跡対象のオブジェクトは、サッカーグラウンド30上のサッカー選手(図示せず)である。グラウンド30の高精細(High Definition:HD)ビデオ画像(1920×1080画素)が、1つ又は複数の高精細カメラによって取得される。本発明の実施形態は、2台以上のカメラから取得されたビデオ画像においてオブジェクトを追跡するために用いることができるが、いくつかの例では、1台だけのカメラが用いられる。周知の通り、HDカメラは高価であるため、1台だけのカメラを用いることにより、本発明の実施形態の技術を利用するシステムの実施に必要な費用を低減することができる。しかしながら、1台だけのカメラを用いる場合、オブジェクトが位置するシーンの1つの2次元ビューしか提供することができない。結果として、1つのオブジェクトが別のオブジェクトを隠してしまう遮蔽イベントが生じる可能性が高くなるため、ビデオ画像によって表されるシーン内のオブジェクトの追跡がより困難になる。このような単一のカメラ20の例が図1に示されるが、カメラ22.1、22.2によって示されるように、任意選択で、サッカーグラウンド30の各半分にそれぞれ向けられた2台のカメラを用いてもよい。
図1では、ビデオカメラ20が、サッカースタジアム内の固定位置に設置され、カメラ20が取得したビデオ画像を表す信号をコンテンツ処理ワークステーション10に通信するように構成される。コンテンツ処理ワークステーション10は、グラウンド上の選手の位置を経時的に追跡するために、画像処理及び他の動作を実行する。次に、特定の選手がグラウンドの特定の部分において費やした時間の長さ、各選手が走った距離等のメタデータ及び試合統計データを生成することができるように、選手の位置を経時的に表すデータがロギングされる。選手の位置を経時的に表すデータにより、各選手毎に経路データが形成される。この経路データは、各選手がビデオ画像内でとった経路に関連する。この経路データは、(2次元の)ビデオ画像からは収集できない、グラウンド上での選手の位置に関連した選手の動きに関する情報を提供するために、サッカーグラウンド(オブジェクト平面)の3次元モデルに対して生成される。その後、サッカーの試合の映像が適切な媒体を介して視聴者に送信される場合に、ユーザの視聴経験をより良いものとするために、又はサッカーチームを指導するコーチを支援するために、この生成された経路データを用いることができる。グラウンド30上の選手等のオブジェクトの追跡については、以下でより詳細に説明する。
本発明の実施形態では、コンテンツ処理ワークステーション10として、SONY(登録商標)、Toshiba(登録商標)、及びIBM(登録商標)が共同開発したCellプロセッサを用いる。Cellプロセッサは、その並列性により、画像処理、画像認識及びオブジェクト追跡等の計算量の多い処理タスクの実行に特に適している。しかしながら、本発明の実施形態を実施するために、任意の適切なワークステーション及び処理ユニットを用いてもよいことを当業者は理解するであろう。
本発明の実施形態におけるオブジェクト追跡システム及び方法は、サッカーグラウンド上のサッカー選手のみに限定される必要はないことが理解される。例えば、ラグビー、クリケット、アメリカンフットボール、アイスホッケー、バスケットボール等、他のチームスポーツの選手を追跡してもよい。さらに、本発明の実施形態により、ボール、アイスホッケーのパック、又はレーシングカー等の乗り物等のオブジェクトを追跡してもよい。
本発明の実施形態の技術によれば、HDビデオカメラ20を用いて生成されたビデオ画像は、グラウンド30上の選手を追跡できるように、グラウンド全体のビューを取得するように構成される。したがって、固定位置のカメラ20から、グラウンド全体が撮影されるが、上述のように、グラウンド全体を撮影するために、2台以上のカメラを用いてもよい。一例では、上述のように、それぞれがグラウンドの各半分に向けられた2台のカメラ22.1及び22.2が用いられてもよい。この例では、各カメラによって生成されたビデオ画像は、英国特許出願第0624410.7号(英国特許出願公開第GB2444566号)に記載されるように、超高解像度のビデオ画像を形成するために、コンテンツ処理ワークステーション10によってまとめられる。本実施形態では、カメラ群からの出力は、このまとめ処理を受けた後、1つの超高解像度画像として見なすことができる。
光学的にズームする必要なく、したがってスタジアムの全体画像に影響を与えずに選手の特定の特徴をハイライトする能力等、この超高精細構成の利点は非常に多い。さらに、イベントの背景は静的であり、追跡対象のオブジェクトのほうが高い画面解像度を有するため、オブジェクトの自動追跡が容易になる。
本発明の実施形態におけるイベントロギング装置及び方法において用いられるオブジェクト追跡を、図2、図3、図4を参照して以下で説明する。
図2は、本発明の実施形態におけるオブジェクト追跡方法のフローチャートである。オブジェクトを追跡するために、受信されたビデオのうちの、所定数のフレームにわたって実質的に静的であると検出された部分から、背景モデルが構築される。最初のステップS30において、画像の背景モデルを構築するために、カメラ20から受信された、サッカーグラウンドを表すビデオ画像を処理する。この背景モデルは、個々の選手を識別及び追跡する際に役立つ前景マスクを作成するために構築される。この背景モデルは、ステップS30において、画素平均及び連続フレーム間の画素値の分散を各画素について求めることによって形成される。したがって、前景マスクを識別するために、連続フレームにおいて画素の平均値が大幅に変化しない場合、それらの画素を背景画素として識別する。
このような背景/前景の分割は、画像処理分野において周知の処理であり、本発明の実施形態の技術は、2004年インドコンピュータビジョン及び画像処理会議(Indian Conference on Computer Vision Graphics and Image Processing; ICVGIP)の会報において発表された、Manzanera and Richefeu著「Σ−Δ背景推定に基づくロバスト且つ計算効率的な動き検出アルゴリズム(A Robust and Computationally Efficient Motion Detection Algorithm Based on Σ-Δ Background Estimation)」と題する文献に記載のアルゴリズムを利用する。しかし、本発明の実施形態の技術はこの周知の技術に限定されると解釈されるべきではなく、背景モデルに対する前景マスクを追跡に用いるために生成する他の技術も周知である。
ビデオカメラのビューが人ごみを含む場合、人ごみはおそらく動き回るため、背景モデルに含められる可能性は低いことが理解されるであろう。人ごみを前景に含めることは、オブジェクト追跡を実行する際に、Cellプロセッサでの処理負荷を増加させる可能性があるため、望ましくない。また、当然のことながら、ほとんどのスポーツ放送局は、人ごみの中の人々を追跡することに興味を持つとは考えにくいので、人ごみを前景に含める必要はない。
本発明の実施形態では、背景モデルは試合の開始時に構築され、選手がグラウンドに入る前に構築することもできる。さらに、影等の試合全体を通じて変化し得る照明条件における任意の変化を考慮に入れるために、試合を通じて背景モデルを定期的に再計算することができる。
ステップS40において、異なる領域を識別するために、カメラから新たに受信された画像から、背景モデルを減算する。このように、画像から背景モデルを減算して得られた画像を用いて、各選手のためのマスクを生成する。ステップS45において、背景モデルを減算して得られたバージョンの画像における、画素値に対する閾値が設定される。背景モデルは、まず、ビデオ画像の一連のフレームにわたる画素の平均を求めることによって生成される。各画素の平均値により、ビデオ画像のフレームからの各画素の分散を算出することができる。そして、この画素の分散を用いて、閾値が決定される。この閾値は、ビデオ画像の全画素にわたって、画素毎に異なる。人ごみを含む部分等、画像のうちの分散が高い部分に対応する画素の場合、閾値を高い値に設定することができる。一方、グラウンドの色及び内容は、選手の存在を別とすれば一貫して同じであるため、画像のうちのグラウンドに対応する部分の閾値は低くされる。このように、閾値は、前景要素が存在するか否かを判断するため、これに応じて前景マスクが識別される。ステップS50において、平均人体モデルとの相関に基づく形状確率を用いて、前景マスク内の形状が抽出される。さらに、例えば選手のユニフォームの色により選手を識別するための色確率マスクを作成するために、画像から色特徴が抽出される。これにより、各チームのユニフォームの色を用いて、選手を互いに区別することができる。この目的のために、コンテンツ処理ワークステーション10は、各サッカーチームのユニフォームの既知の色に応じて、カラーテンプレートを生成する。したがって、各チームのユニフォームの色、ゴールキーパーのユニフォームの色、審判のユニフォームの色が必要とされる。しかし、他の適切なカラーテンプレート及び/又はテンプレートマッチング処理を用いてもよいことが理解されるであろう。
図2に戻り、ステップS50において、コンテンツ処理ワークステーション10は、各カラーテンプレートの各画素と、選手の画像のユニフォーム領域に対応する画素とを比較する。次に、コンテンツ処理ワークステーション10は、カラーテンプレートの画素と選択された画素との類似性を示す確率値を生成して、チームの色モデル及びグラウンドの色モデルから、HSV(Hue Saturation Value:色相、彩度、明度)色空間における距離に基づいて色確率を形成する。さらに、形状確率を用いて、平均人体モデルとの相関に基づく選手の識別を行う。さらに、動き確率は、開始位置、速度パラメータ、及び加速度パラメータを用いた再帰最小2乗法推定器によって予測された位置からの距離に基づく。
選手マスクの作成が図3(a)に図示されている。図3(a)は、ビデオカメラ20によって生成されたサッカーグラウンド30のカメラビュー210を示す。既に説明したように、グラウンド30は背景モデルの一部を形成し、一方、上述のように、選手230、232、234、236、238、240は、前景マスクの一部を形成する。選手のバウンディングボックスが、各選手の周囲の破線として示されている。
これまでのステップS30、S40、S45、及びS50は、カメラ画像処理に関して行われる。前景マスクを作成すると、ステップS55において、まず、カメラとの近さにより選手の軌道をソートした後、選手の追跡が実行される。したがって、カメラに最も近いと識別された選手は最初に処理され、これらの処理された選手は追跡処理から除外される。ステップS60において、選手位置が更新され、形状確率、色確率及び動き確率が最大化される。ステップS70において、遮蔽マスクが構築される。この遮蔽マスクは、他のより近い選手の軌道によって隠されていることが既に分かっている画像領域を除外する。これにより、他の選手によって部分的に又は全体的に遮蔽された選手は、可視の画像領域とだけマッチングされることが保証される。この遮蔽マスクにより、軌道の結合(この軌道の結合により、遮蔽イベントが起こると、2つの軌道が同じ選手につながってしまう)の発生率が低減するため、追跡の信頼性が向上する。軌道の結合は、多数のターゲットが色によって(容易に)見分けがつかず、同じように見える場合に特に問題である。遮蔽マスクによって、画素を近い方の選手に割り当て、遠い方の選手からは除外できるようにし、両方の軌道が同じ画素のセットにマッチングされることを防止することで、それらの別個の識別性を維持することが可能になる。
その後、図3(a)及び図3(b)に示すように、カメラ画像内に提供された特徴を抽出し、これらの特徴を3Dモデルにマッピングすることにより各選手を追跡する処理が続く。したがって、カメラによって生成された2D画像内の位置を対応させるために、形状確率、色確率及び動き確率を最大化させる3D位置を選手に割り当てる。以下で説明するように、選手の選択及び2D画像から3Dモデルへの選手のマッピングは、遮蔽イベントが検出された場合、修正される。ステップS65において、2D画像から3Dモデルへのマッピングを支援するために、追跡対象の選手が初期化され、形状確率及び色確率のピークが、最も適切に選択された選手にマッピングされるようにする。なお、ステップS65において実行される初期化は、典型的には追跡処理の開始時において、一度だけ実行されるということを強調しておく。システムを良好に初期化するためには、選手は十分に分離されているべきである。初期化後、選手の追跡における誤差は、本発明の実施形態の技術に従って自動的に補正される。この補正に、手動による介入は必要ない。
3Dモデルにおいて、2D画像の位置からの追跡を実行するために、投影マトリクスPを用いた変換が実行される。追跡のためには、2D画像の位置を3Dモデル内の位置に関連付けることができなければならない。この変換は、投影(P)マトリクスを用いることによって達成される。2D空間における点は、3D空間における線に等しい。
Figure 0005468933
第3の次元、すなわちカメラからの距離は未知であり、したがって、3D空間にわたる線のように見えるため、2D空間における点は、3Dモデルにおける線に等しい。オブジェクト(選手)の高さ(身長)を用いて、カメラからの距離を求めることができる。3D空間における点は、既知の基準レベル(人間の平均身長)を上回る、固定された高さにある線に沿った点を選択することによって得られる。投影マトリクスPは、コーナー31A、31B、31C、31D等のグラウンド30の物理的な特徴を用いてカメラパラメータを求めるカメラ較正処理により、カメラにつき一回、試合前に予め取得される。したがって、投影マトリクスPは、識別された選手の2D位置を3Dモデルにマッピングする際に役立ち得る。これは周知の技術であり、確立された種々の方法が用いられる。物理的パラメータに関して、投影マトリクスPは、カメラのズームレベル、焦点中心、3D位置及び3D回転ベクトル(3D位置が向いている方向)を含む。
ステップS60において実行された追跡アルゴリズムはスケーラブルであり、グラウンド上のすべての点が少なくとも1つのカメラから(十分な解像度で)可視でありさえすれば、1つ又は複数のカメラにおいて動作可能である。
色及び形状のマッチングに加えて、ステップS60は、各選手をより高い確率で正確に識別するために、追跡中の選手の動きも含まれる処理を有する。したがって、フレーム間での選手の相対的な動きを、相対的な動きの期間及び方向の両方の観点について求めることができる。この相対的な動きを後続のフレームに対して用いて、特定の選手を識別するための検索領域を生成することができる。さらに、図3(b)に示すように、サッカーグラウンド上の選手の相対的な動き方向を反映するために選手の位置のグラフィカル表示に対して配置された、230.1、232.1、234.1、236.1、238.1、240.1への線により、サッカーグラウンドの3Dモデルを増強することができる。
ステップS70において、3Dモデルにおける選手の相対的な位置が識別されると、それに応じて、この位置がサッカーグラウンドの2D画像ビューに逆投影され、3Dモデルにおける位置によって識別された選手の周囲に、相対的な境界が投影される。また、ステップS70において、選手の周囲の相対的な境界が、その選手に対する遮蔽マスクに追加される。
図3(b)は、サッカーグラウンドの仮想モデル220の平面図を示す。図3(b)に示す実施形態において、選手230、232、及び234(グラウンドの左サイド)は、選手236、238、240(グラウンドの右サイド)のユニフォームとは異なる色のユニフォームを着ており、したがって異なるチームに属することを示すため、コンテンツ処理ワークステーション10によって識別されている。このように選手を区別することにより、選手の服の色によって容易に互いを区別することができるので、遮蔽イベントが起こったときの各選手の検出が容易になる。
図2を再び参照して、ステップS60において、カルマンフィルタリング等の既知の技術を用いて、各選手の位置が追跡されるが、他の適切な技術を用いてもよいことが理解されるであろう。この追跡は、カメラビュー210及び仮想モデル220の両方において行われる。本発明の一実施形態では、コンテンツ処理ワークステーション10が仮想モデル220における選手の位置を用いて実行する速度予測を用いて、カメラビュー210における各選手の追跡を支援する。
ステップS60及びS70は、決定ボックスS75が示すように、すべての選手が処理されるまで繰り返される。したがって、すべての選手が処理されていない場合、処理はS60に進み、一方、処理が完了した場合、処理はS80において終了する。
図2に示すように、上記で説明した方法は2つのさらなるステップS85及びS90を有する。これらのステップは、2つ以上のカメラによって画像が生成された場合に必要とされる。すなわち、処理ステップS30〜S80を、各カメラからのビデオ画像に対して実行することができる。そして、各選手に、各カメラからの検出確率が提供される。したがって、ステップS85によれば、各選手に対する各カメラからの検出確率に従って、各選手の位置が推定され、各カメラにより提供された確率のうち最も高い確率から推定された選手の位置、すなわち各選手について最も高い確率を有する位置が、その選手の位置として識別される。
サッカーグラウンド上の選手の追跡においてエラーが生じたと判断された場合、ステップS90において、その選手に対する追跡を再初期化することができる。追跡におけるエラーの検出は、特定の追跡について、特定の選手の検出確率が比較的低い場合に生成され、それにより追跡が再初期化される。
図2に示す方法を実行する結果として、各選手についての経路データが生成され、この経路データは、ビデオ画像の各フレームにおける選手の位置を提供し、これは試合全体を通じてその選手がとる経路を表す。したがって、この経路データは経時的な位置を提供する。
各選手の位置を追跡することにより1つのカメラビューを形成する際、図4に示すように、1人の選手が別の選手の全部又は一部を隠している場合に、問題が生じ得る。
図4は、複数の選手310、320、330、340と、各選手の周囲に破線で示される、各選手に関連付けられたバウンディングボックスとを示す。選手310と選手340とは、互いに明確に区別されるが、選手320は、選手330の一部を隠している。これがいわゆる遮蔽イベントである。遮蔽イベントは、1人の選手の全部又は一部が、少なくとも1人の別の選手の全部又は一部を隠しているときにときに起こり、これにより、相対的な動き及び方向等の他の要因を考慮したとしても、選手の追跡が曖昧になる。しかし、2人以上の選手に関わる遮蔽イベントも起こり得ることが理解されるであろう。
遮蔽イベントを検出するために、コンテンツ処理ワークステーション10は、図4に示すように、或る選手に関連するマスクの全部又は一部が、別の選手に関連するマスクの全部又は一部と同じ画像領域内に存在するか否かを検出する。遮蔽イベントに関わる選手達が敵対するチームであり、異なる色のユニフォームを着ている場合、彼らは容易に区別でき、したがって追跡可能であり得る。しかしながら、遮蔽イベントが起こり、その選手達が両方とも同じチームである場合、コンテンツ処理ワークステーション10は、どちらがどの選手であるかを区別することができないことがある。これは特に、遮蔽イベントが起こったときの動き、例えば衝突によって生じた選手達の動きが予期できず、したがって選手を正確に追跡できないことがあるからである。結果として、各選手に割り当てられる追跡経路が取り違えられてしまう可能性がある。
追跡される選手における曖昧性を解決するために、コンテンツ処理ワークステーション10は、遮蔽イベントに関わるすべての選手に、それらの選手の識別情報を示すラベルを付す。その後、1人又は複数の選手が容易に区別可能になると、コンテンツ処理ワークステーション10は、この情報を用いて、選手の識別情報を正しい選手に再割り当てして、誰がどの選手であるかの記録を維持する。このプロセスを、図5を参照してより詳細に説明する。
図5は、本発明の一実施形態におけるオブジェクト追跡及び遮蔽検出の方法のフロー図を示す。
ステップS100において、コンテンツ処理ワークステーション10は、図2を参照して上述したように、1つ又は複数の画像特徴を抽出するように、取得されたビデオ画像に対して画像処理を行う。その後、抽出された画像特徴は、想定されるオブジェクト例から抽出された、対応する画像特徴と比較され、各オブジェクトが識別される。本発明の一実施形態では、図7及び図8を参照して以下でより詳細に説明するように、選手は背番号により識別される。その後、コンテンツ処理ワークステーション10は、各オブジェクトを識別するオブジェクト識別情報を、各オブジェクトについて生成する。或いは、本発明の一実施形態では、各オブジェクト(例えば選手)は、操作者インタフェースを介して操作者により識別される。その後、コンテンツ処理ワークステーション10は、操作者インタフェースからの入力データを用いて、オブジェクト識別データを生成する。しかし、画像認識技術を操作者による識別と組み合わせて、オブジェクト識別データを生成してもよく、又は、選手の背番号によって選手を識別する数認識等の他の適切なオブジェクト識別方法を用いてもよいことを当業者は理解するであろう。
ステップS105において、コンテンツ処理ワークステーション10は、図2を参照して上述したように、ステップS100において抽出した1つ又は複数の画像特徴に応じて、選手等の検出対象のオブジェクトを検出する。上で述べたように、各選手はまた、仮想モデル220及びカメラビュー210の両方を用いて追跡される。コンテンツ処理ワークステーション10は、追跡プロセス中に生成したデータを用いて、各オブジェクトが受信したビデオ画像内でとる経路を記述するオブジェクト経路データを生成し、記憶する。このオブジェクト経路データは、選手の経時的なx−y座標のサンプルの形をとる。本発明の一実施形態では、経路データは(t,x,y)の形式を有する。ここでtはサンプル時間であり、x及びyは、サンプル時間tにおけるオブジェクトのx座標及びy座標である。しかし、他の適切な経路データの形式を用いてもよいことが理解されるであろう。
ステップS115において、コンテンツ処理ワークステーション10は、各オブジェクトについてのオブジェクト識別データを、各オブジェクトがビデオ画像内でとった経路に関するオブジェクト経路データと共にロギングする。ロギングされたデータは、コンテンツ処理ワークステーション10のハードディスクドライブ(Hard Disk Drive:HDD)又はダイナミックランダムアクセスメモリ(Dynamic Random Access Memory:DRAM)に記憶される。これにより、どの選手が、検出及び追跡された各経路と関連付けられたかについての記録を保持することが可能になる。その後、ロギングされたデータを用いて、各選手についてのデータ及び各選手が試合中にどこにいたかについてのデータを生成することができる。例えば、或る選手がグラウンドの特定の領域において費やした時間を、関連ログに記憶されたデータから生成することができる。さらに、例えば遮蔽イベント後のような何らかの理由により、選手と経路との関係が曖昧になる場合、この記録は、後に説明するように、曖昧性が解決されるまで保持される。オブジェクト経路データと共にロギングされたオブジェクト識別データの例を以下の表1に示す。
Figure 0005468933
各オブジェクトについてのオブジェクト識別データと、そのオブジェクトについてのオブジェクト経路データとの関連付けにより、各オブジェクトを追跡可能になり、したがって識別可能になる。上述の実施形態において、各選手は追跡可能であり、したがって、放送局は、選手が遠くにいすぎて、操作者又はコンテンツ処理ワークステーション10が実行する画像認識によって視覚的に識別できない場合でさえも、誰がどの選手であるかを知ることが可能になる。これにより、放送局が、この関連付けに基づいて、放送コンテンツの視聴者が望ましいと思う可能性のあるさらなる特徴及び情報を組み込むことが可能になる。ステップS120において、コンテンツ処理ワークステーション10は、図4を参照して上述したように、遮蔽イベントが起こったか否かを検出する。遮蔽イベントが検出されない場合、プロセスはステップS105に戻ってオブジェクトを検出する。このように、各オブジェクトを個別に追跡することができ、各オブジェクトの経路を、そのオブジェクトの識別情報と一意に関連付けることができる。
しかし、遮蔽イベントが検出された場合、ステップS125において、Cellプロセッサは、その遮蔽イベントに関わる各オブジェクトについてのオブジェクト識別データを、その遮蔽イベントに関わる各オブジェクトについてのオブジェクト経路データと関連付ける。例えば、A、Bとそれぞれラベリングされた2つのオブジェクトが、経路P及びQとそれぞれ関連付けられる場合、オブジェクトA及びBに関わる遮蔽イベントの検出が起こると、経路PはオブジェクトA及びBの両方と関連付けられ、経路Qも、オブジェクトA及びBの両方と関連付けられる。遮蔽イベントが起こると、上述したように、コンテンツ処理ワークステーション10によって生成された関連付けが、その後ロギングされる。これにより、誰がどの選手であるかに関していくらかの不確定性がある場合であっても、各オブジェクトを識別し直すことなく、遮蔽イベントに関わるオブジェクト(例えば選手)を追跡可能となる。したがって、遮蔽イベントに関わるオブジェクトだけが曖昧に識別され、一方、遮蔽イベントに関わらないオブジェクトは依然として識別可能であるため、コンテンツ処理ワークステーション10の処理負荷が低減される。
ステップS130において、コンテンツ処理ワークステーション10は、生成された経路と関連付けられたオブジェクトの識別情報を分割できるように、遮蔽イベントに関わるオブジェクトのうち1つ又は複数の識別情報が作成されたか否かを確認するためのチェックを行う。コンテンツ処理ワークステーション10により、オブジェクトに関連する1つ又は複数の画像特徴を、想定されるオブジェクト例から抽出された画像特徴と比較することによって、オブジェクトのうちの少なくとも1つの識別が行われる。識別情報が作成されていない場合、プロセスはステップS105に移り、各オブジェクトについて生成された経路データは、遮蔽イベントに関わるオブジェクトすべてと関連付けられる。
しかしながら、遮蔽イベントに関わるオブジェクトのうちの1つ又は複数の識別情報が生成されたことが検出された場合、ステップS135において、確実に識別されたオブジェクトの識別情報を反映するために、ロギングされた経路データが更新される。上記の例において、関連ログは、Aが経路Pと関連付けられ、Bが経路Qと関連付けされるように更新される。
或いは、オブジェクトの識別は、操作者インタフェースを介して操作者により行われてもよく、又は、本発明の実施形態に係る(上述の)画像認識技術を用いて、コンテンツ処理ワークステーション10により行われてもよく、又は2つの技術の組み合わせにより行われてもよい。しかしながら、各オブジェクトを区別又は識別するのに適した任意の他の識別技術を用いてもよいことが理解されるであろう。画像認識の場合、コンテンツ処理ワークステーション10は、画像認識プロセスによって作成された識別情報が正しい可能性がどのくらい高いかを示す信頼度を生成してもよい。本発明の一実施形態では、識別情報は、信頼度が所定の閾値よりも高くなるように決定される。さらに、操作者がそれらの識別情報に信頼度を割り当ててもよく、その信頼度が所定の閾値を超える場合、識別情報が検出される。
本発明の実施形態では、ロギングされた経路データがいつ更新されたかを示すイベント履歴が生成されてもよい。このイベント履歴は、確実な識別情報が不正確であると分かった場合のバックアップとして機能するように記憶されてもよい。例えば、操作者は、ビデオカメラ20から遠く離れた選手が特定の識別情報を有すると確信していたが、その選手がカメラに近寄って来た(これによりユーザはその選手の高解像度画像を見ることができる)ため、それが間違いであると操作者が気付いた場合に、識別情報は不正確であると分かる。この場合、操作者は、操作者インタフェースを用いて、以前の選手の識別情報を無効にすることができ、それに応じて、コンテンツ処理ワークステーション10は、ロギングされた経路データを更新することができる。上記の例において、識別イベント履歴は、経路Pが確実な識別の前にA及びBの両方と関連付けられており、経路Qも確実な識別の前にA及びBの両方と関連付けられていたことを示すデータと共に、コンテンツ処理ワークステーション10のHDD又はDRAMに記憶することができる。
識別イベント履歴は、識別プロセス中に生成された信頼度を有してもよい。後から生成された識別情報が、それ以前に生成された確実な識別情報よりも高い信頼度を有するオブジェクトからなる場合、後続の識別情報の信頼性レベルを用いて、以前の識別情報を検証又は取消することができる。
遮蔽イベントが検出されると、その遮蔽イベントに関わるオブジェクトの曖昧性をなくすために、オブジェクトは、遮蔽イベント後の任意の時間に識別されてもよいことが理解されるであろう。したがって、コンテンツ処理ワークステーション10は、遮蔽イベントが検出されると、ステップS105〜S125と並行して実行されるバックグラウンド処理として、オブジェクトの確実な識別が起こったか否かをモニタすることができる。
本発明の実施形態におけるオブジェクト追跡及び遮蔽検出のいくつかの例を、図6(a)及び図6(b)を参照してこれより説明する。
図6(a)に示す例では、A及びBとして識別された2つのオブジェクトは、遮蔽イベント410に関わる。この遮蔽イベントが起こると、矢印によって示す検出されたオブジェクト経路の両方が、A及びBの両方と関連付けられる(AB)。その後、オブジェクトBは、下方の経路のAによって示されるとして確実に識別される。その後、この識別情報を用いて、オブジェクトAが遮蔽イベント410後に上方のパスと関連付けられ、オブジェクトBが遮蔽イベント410後に下方のパスと関連付けられるように、オブジェクトと経路との関連付けが更新される。
図6(b)に示す例では、オブジェクトA及びBがまず、遮蔽イベント420に関わる。しかし、オブジェクトA及びBが確実に識別可能となる前に、遮蔽イベント420後にA及びBの両方と関連付けられた下方の経路上のオブジェクトは、オブジェクトCと共に別の遮蔽イベント430にも関わる。したがって、遮蔽イベント430が起こる前、遮蔽イベント420後に下方の経路上にあったオブジェクトがオブジェクトAなのかオブジェクトBなのかは不明である。したがって、遮蔽イベント430の後、2つのオブジェクトが辿る上方の経路及び下方の経路は、オブジェクトA、B及びCと関連付けられる(ABC)。
その後、遮蔽イベント430後に下方の経路にあるオブジェクトはオブジェクトBであるとして確実に識別される(AC)。したがって、遮蔽イベント430後の上方の経路がオブジェクトCと関連付けられるように、関連ログを更新することができる。さらに、この情報を用いて、オブジェクトBは、遮蔽イベント430後に、下方の経路と関連するとして確実に識別されたので、遮蔽イベント430に関わるのはオブジェクトBに違いないとして、遮蔽イベント420に関わる2つのオブジェクトの曖昧性をなくすことができるように、関連ログを更新することができる。したがって、上方の経路が遮蔽イベント420後にオブジェクトAと関連付けられ、下方の経路が遮蔽イベント420後にオブジェクトBと関連付けられるように、関連付けログを更新することができる。
したがって、本発明の実施形態では、オブジェクトが確実に識別される前に数回の遮蔽イベントが起こった場合であっても、オブジェクトを、オブジェクトの追跡経路と関連付けることが可能になる。さらに、本発明の実施形態により、各経路が正しいオブジェクトと関連付けられるように、相互に参照する複数の異なるオブジェクトの識別が可能になる。
いくつかの実施形態では、オブジェクトの開始位置を表すデータを用いて、オブジェクト追跡を初期化及び確認してもよい。サッカーを例にとると、選手達は、プレイグラウンド上の概ね静的な位置から試合を開始する可能性が高い。各選手は、プレイグラウンド上の特定の座標から閾値距離内に位置する可能性が高い。開始位置は、4−4−2(ディフェンスに4人、ミッドフィルダーに4人、フォワードに2人)又は5−3−2等のチームのフォーメーション、及びどちらのチームがキックオフを行い、どちらのチームが防御するかに応じて決まる。開始位置は、グラウンド上でゴールキックが行われた時点での選手の位置であってもよい。この位置情報を用いて、例えば、位置データをチームシート及びフォーメーション情報と比較することにより、選手の追跡を開始してもよい。上記遮蔽イベントが発生した際に経路情報を修正するために、このような位置情報が用いられてもよい。チームフォーメーション情報は、試合中にフォーメーションの変更が明らかになった場合、例えば交替又は退場後に、作業者によりリセットすることができるため、チームフォーメーション情報を用いることは都合が良い。これにより、オブジェクト追跡の精度及び信頼性が向上する。
本発明の実施形態を、図7(a)〜図7(d)及び図8〜図12を参照して以下に説明する。本発明の実施形態では、カメラ20により撮影された撮影画像を用いて変更画像が生成され、この撮影画像と変更画像を一緒に見ると、ユーザにとって、それらの画像は1つの3次元画像として知覚される。
図7(a)〜図7(d)は、オブジェクトがディスプレイから離れて位置するように見えるように、ユーザに対して画像を表示するためのディスプレイ構成の例を示す図である。左眼と右眼で色が異なる眼鏡、又は偏光レンズを有する眼鏡等の適当な眼鏡を用いることにより、ユーザは、左眼で見ることを意図された画像が正しく左眼に映り、右眼で見ることを意図された画像が正しく右眼に映るようにして表示画像を見ることができ、それにより、3次元の視聴経験がユーザに提供される。
オブジェクトが3次元であるという錯覚を生じさせるために、左眼で見ることを意図された画像は、右眼で見ることを意図された画像に対し、ユーザとディスプレイとの距離、ユーザの瞳孔間距離(Interpupillary Distance: IPD)、及び画面からオブジェクトを配置させたい所期の位置までの距離に応じた変位量だけシフト又は変位される。ユーザの瞳孔間距離は、ユーザの眼の焦点が無限遠に合っているときのユーザの瞳孔間の距離である。本明細書において、ユーザと、レンダリングされたオブジェクトとの間の見かけ上の距離を、オブジェクトの見かけ上の距離と呼ぶ。
図7(a)〜図7(d)を参照して、オフセット量の計算方法を以下で詳細に説明する。本発明の実施形態では、左眼で見ることを意図された画像(左側画像)に対してオフセット量が適用されるが、右眼で見ることを意図された右側画像に対してオフセット量を適用してもよいことが理解される。
図7(a)は、ディスプレイ705を、ユーザの左眼710L及び右眼710Rのイラストと共に概略的に示す。図7(a)〜図7(d)において、ユーザの両眼とディスプレイ705との距離はdとして示され、瞳孔間距離はpとして示される。また、図7(a)は、3D効果が提供されるように、オブジェクトに対応する画像特徴を表示すべきディスプレイ705上の位置も示す。ディスプレイ705に対し、ユーザの左眼710Lで見ることを意図された特定の左側画像715L及びユーザの右眼710Rで見ることを意図された特定の右側画像715Rが図示されている。図7(a)〜図7(d)において、左側画像715Lと右側画像715Rの間のオフセット量は、iとして示される。
図7(a)において、左側画像715L及び右側画像715Rの位置は、オフセット量が瞳孔間距離p(IPD)と等しくなるように設定されている。したがって、図7(a)に平行の破線として示すように、オブジェクトは、ディスプレイ705から無限遠の距離にあるように知覚される。しかし、オブジェクトがディスプレイ705から有限の距離にあるように知覚させるためには、オフセット量を、ユーザの瞳孔間の距離(瞳孔間距離p)よりも小さくする必要がある。これを図7(b)に示す。瞳孔間距離は、性別、人種、年齢等に応じて異なるが、典型的には52mm〜70mmである。
図7(b)は、オフセット量iがユーザの瞳孔間の距離pよりも小さく、したがってオブジェクト720がユーザの眼から距離dのところにあるように知覚される場合の例を示す。オフセット量iは、以下に示す式1から計算することができる。
Figure 0005468933
式1において、dはオブジェクトの見かけ上の距離であり、dはユーザの両眼710L及び710Rとディスプレイ705との距離であり、pはユーザの瞳孔間の距離(瞳孔間距離)であり、iはオフセット量である。
オブジェクト720が、ディスプレイ705上で、ディスプレイの位置にあるように知覚される場合(すなわち、d=d)、オフセット量iは0である。この状況を図7(c)に示す。
オブジェクト720が、ディスプレイ705とユーザとの間に位置するように知覚される場合(すなわち、d<d)、図7(d)に示すように、左側画像715Lに適用されるオフセット量iは負の値となる。言い換えれば、ユーザにとって、右側画像715Rが、左側画像715Lの左にあるように知覚され、これによりユーザの両眼が輻輳して、ユーザとディスプレイ705との間の位置に焦点が合う。
本発明の実施形態では、ユーザの不快感及び眼の疲労を低減するために、オフセット量は、瞳孔間距離以下にすべきである(i≦P)。さらに、ユーザの眼の疲労及び不快感を低減するために、ユーザの両眼710L及び710Rとディスプレイ705との距離dに対するオブジェクトの見かけ上の距離dの比率は、所定の量、典型的には0.2よりも大きくすべきである。言い換えれば、実施形態によっては、ユーザの眼の不快感を低減するために、d/d≧0.2とされる。しかし、他の適当な値を用いてもよいことが理解される。
図8〜図12を参照して、カメラと、カメラによって撮影された画像内のオブジェクトとの距離を用いてオフセット量を決定する本発明の実施形態を以下で説明する。
図8は、本発明の実施形態に係る、カメラの位置と、カメラの視野内のオブジェクトとの距離を判断するシステムの概略図である。
図8に示すシステムは、図1に関して上述したシステムと同様である。詳細には、図8は、グラウンド30の画像を撮影するカメラ20と通信するように構成されたコンテンツ処理ワークステーション10を示す。上述のように、コンテンツ処理ワークステーション10は、カメラ20によって撮影された画像を解析して、グラウンド30上の選手を追跡し、グラウンド30上での各選手の位置を判断するように動作可能である。実施形態によっては、システムは、カメラ20の視野内のオブジェクトと、カメラ20との距離を検出するように動作可能な距離検出器810を有する。距離検出器810及びその動作は、後により詳細に説明する。
実施形態によっては、コンテンツ処理ワークステーション10は、追跡データ及び位置データを用いて、グラウンド30上の選手と、カメラ20の位置との距離を判断することができる。例えば、コンテンツ処理ワークステーション10は、撮影画像を解析して、選手801とカメラ20の位置との距離801a、選手803aとカメラ20の位置との距離803a、及び選手805とのカメラ20の位置との距離805aを判断することができる。
言い換えれば、本発明の実施形態は、シーンにおけるオブジェクトと、カメラを基準として規定された基準位置との距離を判断する。図8を参照して説明した実施形態では、基準位置は、カメラ20の位置である。
さらに、実施形態によっては、コンテンツ処理ワークステーション10は、撮影画像における所定の画像特徴を検出するように動作可能である。所定の画像特徴は、シーンにおける既知の特徴点に相当する。例えば、コンテンツ処理ワークステーション10は、既知の技術を用いて撮影画像を解析し、コーナー、センタースポット、ペナルティエリア等のサッカーグラウンドの特徴に対応する画像特徴を検出する。検出された既知の特徴点(画像特徴)の検出された位置に基づき、コンテンツ処理ワークステーション10は、既知の技術を用いて、グラウンド30の3次元モデルを撮影画像にマッピングする。そして、これにより、コンテンツ処理ワークステーション10は、撮影画像を解析し、撮影画像にマッピングされた3Dモデルを基準として検出された選手の位置に基づいて、選手とカメラ20との距離を検出することができる。
本発明のいくつかの実施形態では、コンテンツ処理ワークステーション10は、撮影画像を解析して、選手の足がグラウンドと接触する位置を判断することができる。すなわち、コンテンツ処理ワークステーション10は、選手等のオブジェクトがグラウンド30等の平面と接触する交点を判断することができる。
オブジェクトが、2点以上の交点において平面と接触していると検出された場合(例えば、選手の両足がグラウンド30と接触している場合)、コンテンツ処理ワークステーション10は、どの交点が最もカメラ20に近いかを検出し、最も近い交点とカメラ20との距離を用いてオフセット量を生成するように動作可能である。或いは、そのオブジェクトについて検出された全ての交点とカメラ20との距離の平均を算出し、その平均距離を用いてオフセット量を生成することもできる。しかし、カメラ20から最も遠い交点等、他の適当な交点を選択してもよいことが理解される。
しかし、状況によっては、上述したシーンにおけるオブジェクトとカメラ20の位置との距離を判断する方法では、3次元画像の見た目に歪みが生じる可能性がある。このような歪みは、特に画像が非常に広角のカメラで撮影された場合、又は画像が図1で示したカメラ22.1及びカメラ22.2等の2台の高精細カメラを用いて撮影された画像をスティッチすることで形成された場合に顕著である。
例えば、3次元画像における画像の歪みは、グラウンド30が3次元画像として表示され、そこに選手及びボールが重ねられる場合に生じる。この場合、コーナー31b及び31cは、カメラ20に近いほうのサイドライン上の中心点814よりも遠くにあるように見える。したがって、このサイドラインは、撮影画像においては直線であるにもかかわらず、3次元画像においては湾曲しているように見える。
この効果は、3次元画像がコンピュータのモニタ等の比較的小さいディスプレイ上で閲覧される場合に特に顕著である。3次元画像が映画のスクリーン等の比較的大きなディスプレイ上で閲覧される場合には、コーナー31b及び31cはユーザの周辺視野に映る可能性が高いので、この効果はそれ程顕著ではない。グラウンド30を3次元画像として表示する方法は、後により詳細に説明する。
この問題に対処するために取り得る方法は、画像の各部分について適当なオフセット量を生成して歪みを相殺することである。しかし、この方法は計算量が多いだけでなく、広角画像による歪みの程度、ディスプレイサイズ等、いくつかの物理的なパラメータに依存する。
したがって、特に3次元画像がコンピュータのモニタ等の比較的小さいディスプレイ上で閲覧される場合に、3次元画像における歪みを低減し、グラウンド30の正面(すなわち、カメラ20に最も近いサイドライン)が、ディスプレイから常に一定の奥行きにあるように見えることを確実にするために、本発明の実施形態では、オブジェクトと、基準線上にある基準位置との距離を判断する。この基準線は、カメラ20の光軸と直交し、且つカメラ20の位置を通る線である。基準位置は、基準線上の、オブジェクト位置線と基準線が交わる位置である。オブジェクト位置線は、基準線に直交し、且つオブジェクトを通る線である。これを、図9を参照して以下に説明する。
図9は、本発明の実施形態に係る、カメラ20の視野内のオブジェクトと、カメラ20との距離を判断するシステムの概略図である。図9に示す実施形態は、図8を参照して上述した実施形態と概ね同じである。しかしながら、図9に示す実施形態では、コンテンツ処理ワークステーション10は、オブジェクトと、破線907で示す基準線との距離を判断するように動作可能である。
図9に示すように、基準線907は、カメラ20の光軸に直交し(すなわち、光軸に対して直角)、且つカメラ20の位置を通る。さらに、図9は、基準線907上にある基準位置901a、903a、及び905aを示す。
例えば、コンテンツ処理ワークステーション10は、選手801と基準位置901aとの距離901を判断するように動作可能である。基準位置901aは、基準線907上の、選手801のオブジェクト位置線(破線901bで示す)と基準線907が交わる位置にある。同様に、基準位置903aは、基準線907上の、選手803のオブジェクト位置線(破線903bで示す)と基準線907が交わる位置にあり、基準位置905aは、選手805のオブジェクト位置線(破線905bで示す)が基準線907と交わる位置にある。オブジェクト位置線901b、903b及び905bは、基準線907に直交し、選手801、803及び805をそれぞれ通る。
実施形態によっては、基準線907は、コーナー31b及び31cと交わるサイドラインに対して平行であるため、グラウンド30の撮影画像とグラウンド30の変更画像とが適当な方法でディスプレイ上で一緒に閲覧された場合、コーナー31b及び31cと交わるサイドライン上にある全ての点が、ディスプレイから一定の距離(奥行き)にあるように見える。これにより、画像が広角カメラを用いて撮影された場合、又は画像が2台以上のカメラにより撮影された画像を合成して形成された複合画像である場合に生じる歪みを相殺するオフセット量を生成する必要なく、3次元画像の見た目を向上させることができる。しかし、基準線907はサイドラインに対して平行である必要はなく、シーンにおける任意の他の適当な特徴に対して平行であってもよく、又はシーンにおける任意の他の適当な特徴を基準として配置されてもよいことが理解される。
見たときに3次元として知覚される画像を生成するために、コンテンツ処理ワークステーション10は、撮影画像における選手等のオブジェクトの位置を検出するように動作可能である。コンテンツ処理ワークステーション10が画像におけるオブジェクトを検出する方法は、図2を参照して上述した方法である。その後、コンテンツ処理ワークステーション10は、撮影画像におけるオブジェクトの位置を、オフセット量だけ変位させることにより、撮影画像から変更画像を生成する。これにより、変更画像と撮影画像をディスプレイ705上で一対の画像として一緒に見ると、オブジェクトはディスプレイ705から所定の距離だけ離れて位置するように見える。変更画像と撮影画像を一緒に表示する方法を図10に示す。
図10は、本発明の一実施形態に係る、画像が3次元画像としてユーザに知覚されるように画像を表示するシステムを示す。
具体的には、図10は、ディスプレイ705上の選手801及び選手803の画像を示す。カメラ20により撮影された撮影画像を用いて、選手801に対応する左側画像801Lと、選手803に対応する左側画像803Lが表示される。これらの左側画像は、例えばユーザが適当な偏光眼鏡を掛けることにより、ユーザの左眼に映ることが意図される。コンテンツ処理ワークステーション10は、この撮影画像から変更画像を生成して、オブジェクトをそれぞれ含む右側画像を生成するように動作可能である。図10は、選手801に対応する右側画像801R(破線で示す)と、選手803に対応する右側画像803Rを示す。例えば、左側画像801Lと右側画像801Rとをディスプレイ705上で一緒に見ると、選手801が、あたかもディスプレイ705から所定の距離だけ離れて位置するように見える。
左側画像から変更画像を生成する(すなわち、左側画像から右側画像を生成する)ために、コンテンツ処理ワークステーション10は、選手等のオブジェクトの輪郭に対応するマスクを生成するように動作可能である。これは、図2のステップS40を参照して上述したものである。そして、コンテンツ処理ワークステーション10は、そのマスク内の画素にオフセット量を適用して、変更画像(右側画像)を生成するように動作可能である。この処理は、撮影画像において検出された各オブジェクトについて行われる。
各選手についてのオフセット量は、その選手と、カメラ20との距離に応じて決まる。例えば、図8に示すように、選手801は、選手803よりもカメラ20に近い。したがって、上記の式1に従い、画面とユーザとの距離をdとすると、選手801に対応する左側画像801Lと右側画像801Rとの間のオフセット量は、選手803に対応する左側画像803Lと右側画像803Rとの間のオフセット量よりも小さい。各オブジェクトの見かけ上の距離は、例えば、特定のサイズのディスプレイに表示できるように、所望に応じて適宜スケーリングされる。
状況によっては、例えばサッカー選手達がサッカーグラウンド上にいる状況では、3次元画像において、カメラ20と選手との間の実際の距離と同じ距離だけ、選手がディスプレイ705から離れて位置するように知覚させることは、ユーザの視聴経験を損ねる可能性があるため、望ましくない場合がある。さらに、オブジェクトがディスプレイから数十メートル離れて位置するように知覚させる場合、3次元効果が幾分損なわれる。したがって、本発明の実施形態では、コンテンツ処理ワークステーション10は、撮影画像の縦方向のうちどのくらいの割合がサッカーグラウンド30によって占められているかを検出し、それに応じてオブジェクトの見かけ上の奥行きをスケーリングするように動作可能である。
例えば、コンテンツ処理ワークステーション10は、3Dモデルの撮影画像へのマッピングに基づき、カメラ20に近いほうのサッカーグラウンド30のサイドラインの位置を検出することができ、また、カメラ20から遠いほうのサイドラインの位置を検出することができる。その後、コンテンツ処理ワークステーション10は、それに応じたオフセット量を出力する。これにより、カメラ20に近いほうのサイドラインと同じ距離だけカメラ20から離れたオブジェクトは、ディスプレイと同じ距離だけユーザから離れているように知覚される。
ディスプレイから遠いほうのサイドラインまでの見かけ上の距離は、コンテンツ処理ワークステーション10により、ディスプレイ705の鉛直高さに応じた距離となるように設定される。しかし、オブジェクトの見かけ上の距離をスケーリングする任意の他の適当な方法を用いてもよいことが理解される。
さらに、ディスプレイ上の右側画像と左側画像との間の物理的な距離により、オブジェクトがディスプレイから所定の距離だけ離れて位置するように知覚されることが理解される。したがって、本発明の実施形態では、まず、ミリメートル等の物理的な測定単位でオフセット量を計算する。ディスプレイ705上に画素としてレンダリングされる変更画像を生成する際、ミリメートル単位のオフセット量の値は、コンテンツ処理ワークステーション10により、ディスプレイ705のサイズ、ディスプレイの画素単位の解像度、及び画素のピッチのいずれか又は全てに応じてスケーリングされる。これらのパラメータは、種々の異なるタイプのディスプレイの関連パラメータ(例えば、製造業者及び型番)を記憶するルックアップテーブルに記憶されてもよく、又はユーザにより入力されてもよい。
実施形態によっては、コンテンツ処理ワークステーション10は、ディスプレイ705に、画像の較正シーケンスを表示させてもよい。これにより、ユーザは、適当な入力手段を介して、例えば、オブジェクトが無限遠に位置するように見えるか、画面と同じ距離に位置するように見えるか、又は無限遠とユーザとの間に位置するように見えるかについてのフィードバックを供給することができる。しかし、右側画像及び左側画像をスケーリングしてディスプレイ上に表示するための他の適当な方法を用いてもよいことが理解される。
上述のように、実施形態によっては、オブジェクトに関連付けられた交点と、カメラ20との距離を、コンテンツ処理ワークステーション10により判断することができる。したがって、実施形態によっては、オフセット量は、そのオブジェクトに関連付けられた交点と、カメラ20との距離に基づいて生成され、このオフセット量が、オブジェクト全体に適用されてよい。すなわち、選手は、3次元画像において、サッカーグラウンド30上の、ディスプレイから所定の距離離れた位置にあるように知覚されるが、選手自体は2次元画像として知覚される。これにより、カメラ20から1人の選手上の各点(ディスプレイ上の出力画素に対応する)までの距離を検出し、この距離を用いて各点についてのオフセット量を生成する必要がないため、処理資源が低減されるという利点がある。さらに、これにより、上述のような追跡処理及び上述のように生成される位置データからは、このような距離データを取得することができないという問題に対処できる。
実施形態によっては、コンテンツ処理ワークステーション10は、サッカーグラウンド30を含むスタジアムの3次元モデルを撮影画像にマッピングするように動作可能である。これにより、コンテンツ処理ワークステーション10は、スタジアムに対応する撮影画像における各画素について適当なオフセット量を生成することができ、これにより、スタジアム及び/又はグラウンド30は、ディスプレイ705上で見たときに3次元画像に見える。スタジアム及び/又はグラウンド30は、カメラ20に対して比較的静的であるため、撮影画像における各画素についてのオフセット量の生成は、上記背景モデル(背景画像)の生成時に実行されてもよく、又は定期的に実行されてもよく、これにより処理資源が低減される。
実施形態によっては、コンテンツ処理ワークステーション10は、右側画像(変更画像)が背景画像と合成されるとき、変更画像において望ましくないアーチファクトが発生する可能性を低減するために、図2を参照して説明したようなグラウンド30の背景画像を、各撮影フレームについて生成してもよい。これにより、グラウンド30の照明又は陰影の変化に応じた背景画像の調整が可能となる。しかし、背景画像は、任意の他の適当なフレーム間隔で、例えば1フレームおきに生成及び更新されてもよいことが理解される。
コンテンツ処理ワークステーション10は、グラウンド30の3次元モデルを撮影画像にマッピングし、上述のように、グラウンド30に対応する各画素について適当なオフセット量を生成し、変更された背景画像を生成するように動作可能である。その後、コンテンツ処理ワークステーション10は、選手等のオブジェクトに対応する変更された右側画像を、変更された背景画像と合成して、合成変更画像を生成する。例えば、コンテンツ処理ワークステーション10は、オブジェクトに対応する変更画像を変更された背景画像に重ねることにより、合成変更画像を生成することができる。撮影画像と合成変更画像とが適当な方法によりディスプレイ上で一緒に見られると、ユーザにとっては、それらが1つの3次元画像であるように知覚される。
上述のように、追跡データは、特定の選手がグラウンド30上のどこに位置するかを示す。これにより、コンテンツ処理ワークステーション10は、その選手についてのオフセット量を生成することができる。これにより、左側画像と右側画像が一対の画像としてディスプレイ上に一緒に表示されたとき、選手がグラウンド30上の3次元的な位置にあるように見える。しかし、どの追跡データがどの選手のものであるかが曖昧な場合、又は何らかの理由により追跡アルゴリズムで選手の位置を判断することができない場合、仮想3Dの見た目が失われるか、又は劣化する場合がある。
そこで、本発明のいくつかの実施形態では、システムは、距離検出器810を具備する。距離検出器810は、カメラ20と一体化されてもよく、又はカメラ20と別体に設けられてもよい。この距離検出器810は、グラウンド30上の選手等のオブジェクトと、カメラ20との距離を示す距離データを生成するように動作可能である。距離検出器810は、その距離データを、図8の破線812により示す適当な通信リンクを介してコンテンツ処理ワークステーション10に送信するように動作可能である。その後、コンテンツ処理ワークステーション10は、距離検出器810から受信した距離データに基づいて、オブジェクトとカメラとの距離を判断するように動作可能である。言い換えれば、距離検出器810は、距離センサとして機能する。このようなセンサは、当該技術分野において周知であり、赤外線光、超音波、レーザ光等を用いてオブジェクトまでの距離を検出することができる。
実施形態によっては、距離検出器810は、シーンにおけるシーン特徴(撮影画像における画素に対応する)と、カメラ20との距離を、撮影画像の各画素について示す距離(奥行き)マッピングデータを生成するように動作可能である。この場合、この距離マッピングデータは、距離検出器810からコンテンツ処理ワークステーション10に送信される距離データに含められる。
この機能を実現するために、距離検出器810は、赤外線光のパルスを放出する赤外線光源を有してもよい。この場合、カメラ20は、カメラ20の視野内にあるオブジェクトから反射される赤外線光の強度を、所定の時間間隔(典型的にはナノ秒単位)で検出して、カメラ20からオブジェクトまでの距離を示すグレースケール画像を生成することができる。すなわち、このグレースケール画像は、光源からカメラ20までの赤外線光の伝播時間を検出することにより生成された距離マッピングデータであると考えることができる。
設計を簡単にするために、カメラ20は、距離検出器810を、赤外線光源の形で有してもよい。このようなカメラは当該技術分野において周知であり、例えば3DV Systems社製のZ−Cam等がある。しかし、赤外線パターン歪検出等、3D奥行きマッピングデータを生成する他の周知の方法を用いてもよいことが理解される。
このような距離検出器810に代えて、任意の他の適当な距離検出器を用いてもよいことが理解される。例えば、カメラ20の光軸に対して垂直な光軸を有するカメラを用いてグラウンド30の画像を撮影してもよい。このように撮影された画像をコンテンツ処理ワークステーション10により解析して選手の位置を追跡し、得られたデータをカメラ20からの画像データと関連付けて、三角測量によって、選手の位置をより正確に求めてもよい。
実施形態によっては、コンテンツ処理ワークステーション10は、距離検出器810を用いて、サッカーボール等の、カメラ20の視野内の他のオブジェクトを検出及び追跡するように動作可能であるが、任意の他の適当なオブジェクトを検出してもよいことが理解される。例えば、1つ又は複数のさらなるカメラにより撮影した画像をコンテンツ処理ワークステーション10により解析し、追跡システムから供給されたデータと合成してサッカーボールを追跡し、それに応じて、適当な左側画像及び右側画像を生成してもよい。
変更画像を生成するために、コンテンツ処理ワークステーション10は、シーンにおけるオブジェクトに対応する、撮影画像におけるオブジェクト画素を検出するように動作可能である。上述の実施形態では、上述のような変更画像を生成するために、選手マスクの画素に対応するオブジェクト画素が用いられた。この場合、コンテンツ処理ワークステーション10は、距離マッピングデータにおける選手マスクの画素に関連付けられた距離データを用いて、カメラ20と選手との距離を判断する。3次元表示を簡単にするために、距離マッピングデータにおける、選手マスクの各画素についての距離値の平均値を用いて、上述のようなオフセット量を生成してもよい。しかし、距離マッピングデータから、オブジェクトに対応する距離値を選択する任意の他の適当な方法を用いてもよいことが理解される。
別の実施形態では、コンテンツ処理ワークステーション10は、左側画像と右側画像との間のオフセット量を、距離マッピングデータの各画素について生成するように動作可能である。この結果、上述のように左側画像と右側画像をディスプレイ上で一対の画像として一緒に見た場合、オブジェクトの3次元の見た目がより向上する。これは、オブジェクトを、ディスプレイからいくらか離れた距離にある2次元画像として表示した場合に比べ、オブジェクトの表面次元がより正確に再現されるためである。
しかしながら、グラウンド上で行われるスポーツを撮影する際に典型的な、数十メートル単位の距離を扱う場合、このような3Dカメラシステムでは、奥行き解像度が不足する場合がある。この奥行き解像度は、オフセット量を、撮影画像における検出されたオブジェクトに対応する各画素について生成して、効果的な3次元の見た目をユーザに提示するために必要とされる。したがって、距離マッピングデータにおける距離データに基づいてオフセット量を生成する上述した実施形態は、シーンにおける、互いに関連する複数のオブジェクトが、カメラから数メートル以内に位置している状況により適している。スポーツ映像に関して言えば、このようなスポーツは、ボクシング、スヌーカー、卓球、ティドリーウィンクス、体操、フェンシング等であるが、十分な奥行き解像度が得られるのであれば、他のイベント又はシーンを撮影してもよいことが理解される。
実施形態によっては、距離マッピングデータからの距離データを、追跡データ及び位置データと組み合わせて、グラウンド30上の選手の位置、ひいてはカメラ20と選手との距離を判断する際の精度を向上させてもよい。
上述の実施形態を用いてサッカーグラウンド30上の選手の画像を撮影する場合、すべての選手がグラウンド30の同じ領域内に位置する場合に問題が生じる可能性がある。このような状況は、例えばコーナーキック、フリーキック、又はタックル等である。この場合、3D画像がディスプレイ上で再生されるとき、1人の選手が別の選手を遮蔽してしまうため、ユーザが知覚する3Dの見た目が混乱し、分かりにくくなってしまう。
そこで、本発明の実施形態では、コンテンツ処理ワークステーション10は、撮影画像内の複数の選手の互いの距離が、閾値距離以内であるか否かを検出するように動作可能である。互いの距離が閾値距離以内である選手は、1つの選手グループに属するとして指定される。コンテンツ処理ワークステーション10は、上述の技術を用いて、各選手とカメラ20との距離を判断し、上記グループの各選手とカメラ20との距離の平均を示す平均距離値を生成するように動作可能である。その後、コンテンツ処理ワークステーション10は、図8〜図10を参照して上述した方法と同様の方法で、上記平均距離値に応じて、グループ内の各選手に適用可能な1つのオフセット量を生成するように動作可能である。その後、コンテンツ処理ワークステーション10は、各選手を、グループ内の各選手の検出された位置から、そのグループに適用されたオフセット量だけ変位させることにより、右側画像を生成するように動作可能である。
上記の方法は、図11に図示される。図11は、グラウンド30上の選手のグループを示す概略図である。詳細には、図11は、グラウンド30上の選手1001、1003、及び1005を示す。上述のように、コンテンツ処理ワークステーション10は、選手同士の距離が閾値距離以内であるか否かを検出するように動作可能である。図11に示す例では、選手1001、1003、及び1005は、互いに閾値距離内であり、したがって、(破線1007により示すように)1つの選手グループに属しているとして指定される。
コンテンツ処理ワークステーション10は、上述のように、グループ1007内の各選手間の距離を判断し、そのグループの選手についての平均距離値を生成するように動作可能である。その後、コンテンツ処理ワークステーション10により、上記平均距離値に基づいてオフセット量が生成され、このオフセット量が、オフセット量iとして、グループ1007の各選手1001、1003、及び1005に適用される。左側画像と右側画像が3D画像として一緒に表示されるとき、グループ内の3人の選手はすべて、ディスプレイ705から同じ距離だけ離れて位置するように見える。これにより、3D表示が単純になり、特に、サッカーの試合中、多数の高速な動きが頻繁に起こる場合に、ユーザの眼の疲労が低減される。
本発明の実施形態に係る画像処理方法を、図12を参照して以下で説明する。
ステップS200において、コンテンツ処理ワークステーション10は、サッカーの試合の画像等のシーンの撮影画像を、カメラ20から受信する。その後、ステップS210において、コンテンツ処理ワークステーション10は、選手等のシーンにおけるオブジェクトと、カメラ20との距離を判断する。この距離は、上述の技術を用いて、位置データ及び追跡データから生成されてもよく、距離データから生成されてもよく、距離マッピングデータから生成されてもよく、又はこれらのデータのいずれか又は全ての組み合わせから生成されてもよい。
ステップS220において、コンテンツ処理ワークステーション10は、上述の技術を用いて、撮影画像内のオブジェクトの位置を検出する。例えば、実施形態によっては、コンテンツ処理ワークステーション10は、各選手について選手マスクを生成し、変更画像(右側画像)を生成する際にその選手マスクを用いることができる。
次に、ステップS230において、コンテンツ処理ワークステーション10は、変更画像におけるオブジェクトの位置を、オフセット量だけ変位させることにより、変更画像(右側画像)を生成する。上述のように、オフセット量は、オブジェクトとカメラ20との距離から導出される。撮影画像(左側画像)と変更画像(右側画像)を、(例えば、図10に示すように)ディスプレイ上で一対の画像として一緒に見ると、オブジェクトは、ディスプレイから所定の距離だけ離れて位置するように知覚される。これにより、高価なステレオカメラの対や、時間のかかる後処理動作を必要とすることなく、いわゆる3D画像を効率的に生成することができる。
上述の実施形態は、スポーツの試合の選手を参照して説明されたが、上述の技術を、3D画像を撮影及び生成するのに望ましい他の状況に適用してもよいことが理解される。
さらに、上述の実施形態は、1つの画像に対して画像処理を行うものとして説明されたが、上述の技術を、ビデオカメラによって撮影された一連のビデオ画像に適用してもよいことが理解される。変更画像におけるオブジェクトの位置を、撮影画像において検出されたオブジェクトの位置から、コンテンツ処理ワークステーション10により画像データ又は距離データ等のデータから判断された距離に基づいたオフセット量だけ変位させることにより、一連の3D画像を撮影及び生成することができ、これにより、ユーザはほぼリアルタイムで一連の3D画像を見ることができる。
上述の実施形態では、画像処理を、カメラ20によって撮影された画像に対して実行されるものとして説明した。しかし、上述の技術は、スティッチされたビデオ画像にも等しく適用可能であることが理解される。このようなスティッチされた画像は、例えばカメラ22.1及び22.2によって撮影されたビデオ画像をスティッチすることにより生成された超高精細画像等である。さらに、撮影画像を右側画像として扱ってもよく、変更画像を左側画像として扱ってもよいことが理解される。
ユーザに対する3次元の見た目を実現するために、左側画像(L)及び右側画像(R)は、ディスプレイに同時に提示される必要はないことが理解される。例えば、それらの画像を、ユーザが残像を知覚する(典型的には、24フレーム/秒)よりも速いフレームレートに対応する速度で交互に表示してもよい。言い換えれば、左側画像と右側画像を交互に含む一連のフレーム(例えば、LRLRLRLRLR)を、60フレーム/秒のフレームレートで表示することができるが、任意の他の適当なフレームレートを用いてもよい。そして、ユーザは、右眼に右側画像が映り、左眼に左側画像が映るように、対応する左側画像及び右側画像を交互に見えなくする適当な眼鏡を用いて、これらの画像を見ることができる。したがって、「一緒に表示する」という用語は、左側画像と右側画像を同時に見ること、交互に見ること、又はユーザが3次元効果を知覚できる任意の他の適当な方法で見ることを意味するものとして理解されるべきである。
本発明の実施形態では、画像処理方法の構成要素は、コンテンツ処理ワークステーション10において任意の適当な方法で実現されてよい。したがって、従来の等価の装置の既存の部品によって本発明の実施形態の機能を実現するために必要とされる変更を、プロセッサが実施可能な命令を含むコンピュータプログラム製品の形で実装してもよい。このようなプロセッサが実施可能な命令は、フロッピー(登録商標)ディスク、光ディスク、ハードディスク、PROM、RAM、フラッシュメモリ又はこれら若しくは他の記憶媒体の任意の組み合わせ等のデータ記憶媒体に記憶されるか、或いはイーサネット(登録商標)、無線ネットワーク、インターネット、又はこれら若しくは他のネットワークの任意の組み合わせ等のネットワークを介して、データ信号により送信されるか、或いはASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)、又は、既存の等価の装置に変更を加える際に用いるのに適した他の構成可能な回路若しくはカスタムメイドの回路ハードウェアとして実現される。

Claims (22)

  1. カメラから、当該カメラにより撮影された、少なくとも1つのオブジェクトを含むシーンの画像に対応する撮影画像を受信するように動作可能な受信手段と、
    前記シーンにおける前記オブジェクトと、前記カメラを基準として規定された基準位置との間の距離を、当該基準位置と当該シーンにおける当該オブジェクトとの間の距離を示す距離データに基づいて判断するように動作可能な判断手段と、
    前記撮影画像における前記オブジェクトの位置を検出し、前記シーンにおける前記オブジェクトに対応する、前記撮影画像における画像特徴に基づいて、前記撮影画像から変更画像を生成するように動作可能な生成手段と
    を具備し、
    前記距離データは、前記撮影画像における各画素について、前記シーンにおける当該各画素に対応するシーン特徴と、前記基準位置との間の距離を示す距離マッピングデータを含み、
    前記生成手段は、前記変更画像において、前記オブジェクトの位置を、前記撮影画像において判断された前記オブジェクトの位置から、前記シーンにおける前記オブジェクトと、前記基準位置との間の前記判断された距離に基づくオブジェクトオフセット量だけ変位させることにより、前記変更画像を生成するように動作可能であり、当該変更画像と前記撮影画像とがディスプレイ上で一対の画像として一緒に見られた場合、前記オブジェクトが、前記ディスプレイから所定の距離だけ離れた位置にあるように知覚されるようにする
    画像処理装置。
  2. 請求項に記載の画像処理装置であって、
    前記生成手段は、前記シーンにおける前記オブジェクトに対応する、前記撮影画像におけるオブジェクト画素を検出するように動作可能である
    画像処理装置。
  3. 請求項に記載の画像処理装置であって、
    前記オブジェクト画素は、前景画像を形成し、
    前記シーンにおける前記オブジェクトに対応していないとして検出された前記撮影画像における画素は、背景画像を形成する背景画素として指定され、
    前記生成手段は、前記オブジェクト画素の位置を、前記撮影画像における前記オブジェクトの位置から、前記オブジェクトオフセット量だけ変位させて、変更前景画像を生成するように動作可能であり、
    前記判断手段は、前記撮影画像における背景画素に対応する、前記シーンにおけるシーン特徴と、前記基準位置との間の距離を、前記距離マッピングデータにおいて当該背景画素と関連付けられた距離データに基づいて判断するように動作可能であり、
    前記生成手段は、各背景画素の位置を、前記背景画像における当該背景画素の位置から、前記背景画素に対応する前記シーンにおける前記シーン特徴と、前記基準位置との間の距離に基づく背景画素オフセット量だけそれぞれ変位させることにより、変更背景画像を生成し、当該変更背景画像を前記変更前景画像と合成して前記変更画像を生成するように動作可能であり、当該変更画像と前記撮影画像とが前記ディスプレイ上で一対の画像として一緒に見られた場合、当該変更画像と当該撮影画像とが、1つの3次元画像であるように共に知覚されるようにする
    画像処理装置。
  4. 請求項に記載の画像処理装置であって、
    前記判断手段は、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を、前記距離マッピングデータにおいて前記オブジェクト画素と関連付けられた距離データに基づいて判断するように動作可能である
    画像処理装置。
  5. 請求項に記載の画像処理装置であって、
    前記生成手段は、前記各オブジェクト画素の位置を、前記撮影画像における当該オブジェクト画素の位置から、当該オブジェクト画素に対応する前記シーンにおけるシーン特徴と、前記基準位置との間の距離に応じたオブジェクトオフセット量だけそれぞれ変位させることにより、前記変更画像を生成するように動作可能である
    画像処理装置。
  6. 請求項に記載の画像処理装置であって、
    前記シーンの少なくとも一部の所定の3次元モデルが、前記シーンにおける既知の特徴点にマッピングされ、
    上記判断手段は、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を、前記所定の3次元モデルに対する、前記シーンにおける前記オブジェクトの前記検出された位置に基づいて判断するように動作可能である
    画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記判断手段は、前記シーンにおける前記既知の特徴点の位置に対応する、前記撮影画像における所定の画像特徴を検出して、前記3次元モデルを前記既知の特徴点にマッピングするように動作可能である
    画像処理装置。
  8. 請求項に記載の画像処理装置であって、
    前記判断手段は、前記シーンにおける、前記カメラを基準とした前記オブジェクトの位置を検出するように動作可能であり、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を、前記シーンにおける、前記カメラを基準とした前記オブジェクトの位置に基づいて判断するように動作可能である
    画像処理装置。
  9. 請求項に記載の画像処理装置であって、
    前記受信手段は、前記カメラによって撮影された一連の画像を受信するように動作可能であり、
    前記判断手段は、
    前記シーンにおける、前記カメラを基準として前記オブジェクトの前記検出された位置に基づいて、前記撮影画像における前記オブジェクトの位置を、前記一連の画像にわたって追跡して、追跡データを生成し、
    前記追跡データに基づいて、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を判断するように動作可能である
    画像処理装置。
  10. 請求項に記載の画像処理装置であって、
    前記判断手段は、前記撮影画像を解析することにより、前記距離データを生成するように動作可能である
    画像処理装置。
  11. 請求項に記載の画像処理装置であって、
    前記距離データを距離センサから受信するように動作可能な距離データ受信手段をさらに具備し、
    前記判断手段は、前記距離センサから受信した前記距離データに応じて、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を判断するように動作可能である
    画像処理装置。
  12. 請求項1に記載の画像処理装置であって、
    前記シーンは、平面を有し、
    前記判断手段は、前記シーンにおける前記オブジェクトと、前記平面とが接触する交点を検出し、当該交点と前記基準位置との間の距離を判断するように動作可能であり、
    前記オブジェクトオフセット量は、前記交点と前記基準位置との間の距離に応じて決定される
    画像処理装置。
  13. 請求項1に記載の画像処理装置であって、
    前記生成手段は、前記撮影画像を解析することにより、前記シーンにおける複数のオブジェクトを検出するように動作可能であり、
    前記生成手段は、前記シーンにおける前記複数のオブジェクトの互いの距離が、閾値距離以内であるか否かを検出するように動作可能であり、
    互いの距離が前記閾値距離以内であるとして検出されたオブジェクトは、前記シーンにおける1つのオブジェクトグループに属するとして指定され、
    前記判断手段は、前記シーンにおける前記オブジェクトグループの各オブジェクトと、前記基準位置との間の距離をそれぞれ検出し、当該シーン内の当該オブジェクトグループの各オブジェクトと、前記基準位置との間の距離の平均を示す平均距離値を生成するように動作可能であり、
    前記生成手段は、前記シーンにおける前記複数のオブジェクトの互いの距離が前記閾値距離以内であるとして検出された場合、前記オブジェクトグループの各オブジェクトの位置を、前記シーンにおける前記複数のオブジェクトの前記検出された位置から、前記平均距離値に基づくグループオフセット量だけ変位させることにより、前記変更画像を生成するように動作可能である
    画像処理装置。
  14. 請求項1に記載の画像処理装置であって、
    前記基準位置は、前記カメラの位置である
    画像処理装置。
  15. 請求項1に記載の画像処理装置であって、
    前記基準位置は、前記カメラの光軸に直交し、且つ前記カメラの位置を通る基準線上に位置し、
    前記基準位置は、前記基準線と直交し、且つ前記オブジェクトを通るオブジェクト位置線と、前記基準線とが交わる前記基準線上の位置に位置する
    画像処理装置。
  16. 請求項15に記載の画像処理装置であって、
    前記基準線は、前記シーンにおけるシーン特徴と平行である
    画像処理装置。
  17. 請求項1に記載の画像処理装置であって、
    前記受信手段は、互いに交わる光軸を有する複数の異なるカメラから、前記シーンの複数の異なる画像に対応する複数の撮影画像を受信するように動作可能であり、
    前記判断手段は、前記複数の異なるカメラから受信した前記複数の異なる撮影画像を解析することにより、前記シーンにおける前記オブジェクトと、前記基準位置との間の距離を判断するように動作可能である
    画像処理装置。
  18. 請求項1に記載の画像処理装置であって、
    前記シーンは、スポーツのグラウンドを有するスポーツスタジアムを含み、
    前記シーンにおける前記オブジェクトは、前記スポーツグラウンド上の選手であるか、又は当該スポーツにおいて用いられるスポーツオブジェクトである
    画像処理装置。
  19. シーンの画像を撮影して撮影画像を生成するように動作可能な1台又は複数台のカメラと、
    請求項1に記載の画像処理装置と
    を具備する画像処理システム。
  20. 請求項19に記載の画像処理システムであって、
    前記変更画像と前記撮影画像とを一対の画像として表示するように動作可能なディスプレイをさらに具備する
    画像処理システム。
  21. カメラから、当該カメラにより撮影された、少なくとも1つのオブジェクトを含むシーンの画像に対応する撮影画像を受信し、
    前記シーンにおける前記オブジェクトと、前記カメラを基準として規定された基準位置との間の距離を、当該基準位置と当該シーンにおける当該オブジェクトとの間の距離を示す距離データに基づいて判断し、
    前記撮影画像における前記オブジェクトの位置を検出し、
    前記シーンにおける前記オブジェクトに対応する、前記撮影画像における画像特徴に基づいて、前記変更画像における前記オブジェクトの位置を、前記撮影画像において判断された前記オブジェクトの位置から、前記シーンにおける前記オブジェクトと、前記基準位置との間の前記判断された距離に基づくオブジェクトオフセット量だけ変位させることにより、前記撮影画像から変更画像を生成し、当該変更画像と前記撮影画像とがディスプレイ上で一対の画像として一緒に見られた場合、前記オブジェクトが、前記ディスプレイから所定の距離だけ離れた位置にあるように知覚されるようにし、
    前記距離データは、前記撮影画像における各画素について、前記シーンにおける当該各画素に対応するシーン特徴と、前記基準位置との間の距離を示す距離マッピングデータを含む
    画像処理方法。
  22. コンピュータに、請求項21に記載の画像処理方法の各ステップを実行させるためのプログラム。
JP2010035384A 2009-02-19 2010-02-19 画像処理装置、画像処理システム及び画像処理方法 Expired - Fee Related JP5468933B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0902841A GB2467932A (en) 2009-02-19 2009-02-19 Image processing device and method
GB0902841.6 2009-02-19

Publications (2)

Publication Number Publication Date
JP2010193458A JP2010193458A (ja) 2010-09-02
JP5468933B2 true JP5468933B2 (ja) 2014-04-09

Family

ID=40565407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010035384A Expired - Fee Related JP5468933B2 (ja) 2009-02-19 2010-02-19 画像処理装置、画像処理システム及び画像処理方法

Country Status (6)

Country Link
US (1) US8477995B2 (ja)
EP (1) EP2222089A3 (ja)
JP (1) JP5468933B2 (ja)
CN (1) CN101815227A (ja)
BR (1) BRPI1001472A2 (ja)
GB (1) GB2467932A (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
GB2475730A (en) * 2009-11-27 2011-06-01 Sony Corp Transformation of occluding objects in 2D to 3D image generation
US8786415B2 (en) 2010-02-24 2014-07-22 Sportvision, Inc. Tracking system using proximity and/or presence
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
JP2012068380A (ja) * 2010-09-22 2012-04-05 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US9736462B2 (en) * 2010-10-08 2017-08-15 SoliDDD Corp. Three-dimensional video production system
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US9007463B2 (en) * 2010-12-22 2015-04-14 Sportsvision, Inc. Video tracking of baseball players which identifies merged participants based on participant roles
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
JP5780764B2 (ja) * 2011-01-17 2015-09-16 オリンパス株式会社 撮像装置
WO2012117729A1 (ja) * 2011-03-03 2012-09-07 パナソニック株式会社 追体験映像を提供することができる映像提供装置、映像提供方法、映像提供プログラム
US8907968B2 (en) 2011-03-31 2014-12-09 Panasonic Corporation Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images
US8457355B2 (en) * 2011-05-05 2013-06-04 International Business Machines Corporation Incorporating video meta-data in 3D models
EP2527784A1 (de) * 2011-05-19 2012-11-28 Hexagon Technology Center GmbH Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9286678B2 (en) * 2011-12-28 2016-03-15 Pelco, Inc. Camera calibration using feature identification
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
EP2805523B1 (en) * 2012-01-19 2019-03-27 VID SCALE, Inc. Methods and systems for video delivery supporting adaption to viewing conditions
US8988519B2 (en) * 2012-03-20 2015-03-24 Cisco Technology, Inc. Automatic magnification of data on display screen based on eye characteristics of user
GB2500712A (en) 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
US20140125806A1 (en) * 2012-05-14 2014-05-08 Sstatzz Oy Sports Apparatus and Method
US9020189B2 (en) * 2012-12-07 2015-04-28 The Nielsen Company (Us), Llc Methods and apparatus to monitor environments
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US20150189191A1 (en) * 2013-12-27 2015-07-02 Telemetrio LLC Process and system for video production and tracking of objects
US20150271467A1 (en) * 2014-03-20 2015-09-24 Neal Weinstock Capture of three-dimensional images using a single-view camera
US9846961B2 (en) 2014-04-30 2017-12-19 Intel Corporation System and method of limiting processing by a 3D reconstruction system of an environment in a 3D reconstruction of an event occurring in an event space
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
KR102329814B1 (ko) * 2014-12-01 2021-11-22 삼성전자주식회사 3d 디스플레이를 위한 양안 거리 인식 장치
RU2599699C1 (ru) * 2015-04-20 2016-10-10 государственное бюджетное образовательное учреждение высшего профессионального образования "Омская государственная медицинская академия" Министерства здравоохранения Российской Федерации (ГБОУ ВПО ОмГМА Минздрава России) Способ регистрации и анализа соревновательных игровых действий спортсменов
US10642349B2 (en) * 2015-05-21 2020-05-05 Sony Interactive Entertainment Inc. Information processing apparatus
US10298905B2 (en) 2015-06-16 2019-05-21 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an angle
WO2017103674A1 (en) 2015-12-17 2017-06-22 Infinity Cube Ltd. System and method for mobile feedback generation using video processing and object tracking
US9984451B2 (en) * 2015-12-18 2018-05-29 Michael Gormish Linear grouping of recognized items in an image
KR101634283B1 (ko) * 2015-12-18 2016-06-30 주식회사 싸인텔레콤 단일영상에서의 3차원 카메라교정을 통한 3차원 공간모델링 형성제어장치 및 방법
JP6548306B2 (ja) * 2016-02-23 2019-07-24 Kddi株式会社 カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法
US10389935B2 (en) 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
WO2019021375A1 (ja) 2017-07-25 2019-01-31 富士通株式会社 映像生成プログラム、映像生成方法および映像生成装置
US10922871B2 (en) * 2018-01-19 2021-02-16 Bamtech, Llc Casting a ray projection from a perspective view
US10659698B2 (en) * 2018-09-19 2020-05-19 Canon Kabushiki Kaisha Method to configure a virtual camera path
US10872459B2 (en) * 2019-02-05 2020-12-22 X Development Llc Scene recognition using volumetric substitution of real world objects
US11092456B2 (en) * 2019-03-08 2021-08-17 Aptiv Technologies Limited Object location indicator system and method
JP7401199B2 (ja) * 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11176691B2 (en) * 2019-07-01 2021-11-16 Sas Institute Inc. Real-time spatial and group monitoring and optimization
US11967086B2 (en) * 2019-07-31 2024-04-23 Intel Corporation Player trajectory generation via multiple camera player tracking
WO2021232329A1 (en) * 2020-05-21 2021-11-25 Intel Corporation Virtual camera friendly optical tracking
CN115702383A (zh) * 2020-06-17 2023-02-14 索尼集团公司 成像控制装置、成像控制方法和程序
JP7519933B2 (ja) 2021-02-18 2024-07-22 三菱電機株式会社 オブジェクト検出装置及び方法、並びに学習データ収集装置、並びにプログラム及び記録媒体
CN115272088A (zh) * 2021-04-29 2022-11-01 Oppo广东移动通信有限公司 图像处理方法、图像处理器、电子设备及存储介质
GB2620629A (en) 2022-07-15 2024-01-17 Sony Europe Bv A device, computer program and method
CN115712118B (zh) * 2022-11-07 2023-08-11 江苏省水利科学研究院 一种像素偏移量追踪监测及校正方法
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9706000D0 (en) * 1997-03-22 1997-05-07 Philips Electronics Nv Multiple viewpoint image generation
WO2001049028A1 (en) 1999-12-27 2001-07-05 Diamondback Vision, Inc. Scene model generation from video for use in video processing
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
JP2004040445A (ja) * 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
JP3868450B2 (ja) * 2005-01-31 2007-01-17 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4741650B2 (ja) * 2005-03-17 2011-08-03 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー ビデオシーケンスにおけるオブジェクト追跡の方法
WO2006111893A1 (en) * 2005-04-19 2006-10-26 Koninklijke Philips Electronics N.V. Depth perception
US8253740B2 (en) * 2006-02-27 2012-08-28 Koninklijke Philips Electronics N.V. Method of rendering an output image on basis of an input image and a corresponding depth map
WO2008068456A2 (en) * 2006-12-06 2008-06-12 Sony United Kingdom Limited A method and an apparatus for generating image content
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion

Also Published As

Publication number Publication date
EP2222089A2 (en) 2010-08-25
BRPI1001472A2 (pt) 2012-01-24
GB0902841D0 (en) 2009-04-08
CN101815227A (zh) 2010-08-25
GB2467932A (en) 2010-08-25
JP2010193458A (ja) 2010-09-02
US8477995B2 (en) 2013-07-02
EP2222089A3 (en) 2010-12-29
US20100208942A1 (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP5468933B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US8965043B2 (en) Method, client device and server
JP2009064445A (ja) 画像処理装置及び方法
JP2009077394A (ja) 通信システム及び通信方法
AU2016355215B2 (en) Methods and systems for large-scale determination of RGBD camera poses
CN102262725B (zh) 三维场景的分析
RU2498404C2 (ru) Способ и устройство для генерирования регистрационной записи события
CN102938844B (zh) 利用立体成像生成自由视点视频
US9118845B2 (en) Method, apparatus and handset
US8509521B2 (en) Method and apparatus and computer program for generating a 3 dimensional image from a 2 dimensional image
US8805007B2 (en) Integrated background and foreground tracking
US8745258B2 (en) Method, apparatus and system for presenting content on a viewing device
US8160302B2 (en) Image processing apparatus and method for estimating orientation
US20120250980A1 (en) Method, apparatus and system
GB2452512A (en) Object Tracking Including Occlusion Logging
US12026903B2 (en) Processing of depth maps for images
Lee et al. Estimating scene-oriented pseudo depth with pictorial depth cues
GB2425910A (en) Introducing a third, depth dimension into amusement devices
Bokov et al. Toward fully automatic channel-mismatch detection and discomfort prediction for S3D video
JP2023114238A (ja) 情報処理装置および情報処理方法
KR20140086779A (ko) 깊이 정보를 획득하는 방법 및 디스플레이 장치
Uematsu et al. Multi-layered see-through movie in diminished reality
JP2004094697A (ja) 高精度ステレオ画像処理

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees