JP2014504074A - 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 - Google Patents
立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 Download PDFInfo
- Publication number
- JP2014504074A JP2014504074A JP2013541469A JP2013541469A JP2014504074A JP 2014504074 A JP2014504074 A JP 2014504074A JP 2013541469 A JP2013541469 A JP 2013541469A JP 2013541469 A JP2013541469 A JP 2013541469A JP 2014504074 A JP2014504074 A JP 2014504074A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fixed object
- data set
- dimensional image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本発明は、2次元イメージまたはビデオから、立体3次元イメージおよび/またはビデオを生成する方法、システム、装置、および、関連する処理論理回路を含む。本発明のいくつかの実施形態によれば、第1の2次元イメージおよび/またはビデオから、2次元補完イメージおよび/またはビデオを推定およびレンダリングするよう適合化された立体3次元生成システムを提供する。ここで、補完イメージまたはビデオは、第1のイメージまたはビデオ、あるいは、第2の補完イメージまたはビデオと結合され、第1のイメージまたはビデオにおいてキャプチャされたシーンの立体イメージを生成する。換言すると、本システムは、観察者が一方の目で第1のイメージまたは第2の補完イメージを観察し、もう一方の目で補完イメージを観察することで、イメージの中に奥行きがあると錯覚させるように、補完イメージまたはビデオを生成する。
Description
本発明は画像処理に関し、特に、立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路に関する。
従来の三次元立体撮影は、典型的にはそれぞれのレンズの光学軸を平行にかつ一定の距離を離して配置された2台のカメラを用いる。これらの2台のカメラは一般的に一対のイメージを生成し、これらのイメージは、既知の立体表示技術または表現技術によって表示される。これらの技術は、右側のレンズによって撮影されたイメージを観察者の右目に、左側のレンズによって撮影されたイメージを左目に表示するという原理に基づいている。
例えば、テキサス・インスツルメンツ社に帰する、“Digital formatter for 3−dimensional display applications”という名称の米国特許第6,906,687号には、右目および左目用の加工映像データの保存および読込処理を行う4部分からなるメモリバッファを有する三次元デジタル投射表示装置が開示されている。この処理では映像データは48fps(frame/sec)で処理され、96(最大120)fpsのフラッシュ率を提供するために2度(繰り返し)読み出される。ここで、前記フラッシュ率はフリッカー閾値を超える値である。このデータは、知覚3次元イメージを生成できるように右目と左目のフレームで正確に位相がずらされて、ヘッドセットやゴーグルと同期される。
立体動画は様々な異なった方法で生成することができる。アナグリフは1948年以前より使用されたにも関わらず、1950年代における“3次元映画の黄金期”の初期の間、米国における多くの長編映画作品では偏光システムが用いられた。偏光システムが備えられていない映画館のために、60年代、70年代の間にいくつかの古典映画がアナグリフに変換されたりもしたが、21世紀に入っても偏光3次元システムは優位性を保持し続けており、3次元テレビにおいても見ることができる。80年代中期後、いくつかの映画がアナグリフ3次元技術を用いて作られた。以下で、開発された、いくつかの主な3次元映画システムの詳細と原理を説明する。
アナグリフ
アナグリフイメージは大掛かりな3次元を表示する最も古い手法であり、コミック本や偏光技術が実用化される前の3次元テレビ放送のような大掛かりではない立体表示で用いられたことから、立体表示技術として大衆から広く認識されている。アナグリフイメージは、制作や展示の容易さからポピュラーとなった。最初のアナグリフ映画は1915年に製作された。初期の大掛かりな表示はこのシステムによって行われたが、50年代から80年代の多くの3次元映画では元々は偏光方式によって表示されていた。
アナグリフイメージは大掛かりな3次元を表示する最も古い手法であり、コミック本や偏光技術が実用化される前の3次元テレビ放送のような大掛かりではない立体表示で用いられたことから、立体表示技術として大衆から広く認識されている。アナグリフイメージは、制作や展示の容易さからポピュラーとなった。最初のアナグリフ映画は1915年に製作された。初期の大掛かりな表示はこのシステムによって行われたが、50年代から80年代の多くの3次元映画では元々は偏光方式によって表示されていた。
アナグリフでは、1つは赤、もうひとつはシアンのフィルタを通すことで色が添加された2つのイメージが重ね合わせられている。除去される光の設定において、2つのイメージは白紙上に互いに補色関係にある色で印刷される。それぞれの目に対してカラーフィルタを備えたメガネによって、イメージ中のフィルタの色がキャンセルされえ、黒色に表示されることにより、適切なイメージに分離される。
アナグリフイメージは、最新のものでは明るさと正確な色も表現でき、特に赤色では彩度も表現できるにも関わらず、平行法または交差法による立体写真よりも容易に立体視を行うことができる。アナクロームとして知られる代替技術は、僅かに透過率が高いシアンフィルタをこの技術に関連し、特許化されたメガネに使用している。処理プロセスは、典型的なアナグリフイメージを、視差を抑えるように再処理する。
代替技術であるColorCode3次元は、赤とシアンのフィルタを使用する特許化されたアナグリフシステムであり、このアナグリフシステムは赤色チャネルがしばしば欠落してしまうNTSC映像方式においてアナグリフイメージを提供するために考案された。ColorCodeではスクリーン上の色には補色の関係にある黄色と濃い青を用い、メガネのレンズの色にはアンバーと濃い青を用いる。
アナグリフ3次元システムは大掛かりな表示に用いられた最も古いシステムであり、特別な装置を要求しない。
アナグリフは印刷媒体や偏光が使われていないテレビでの3次元放映などにも用いられる。偏光を用いた3次元テレビや他の表示装置は2008年にいくつかの製品においてのみ可能になった。これらの装置は、受信機側で偏光を生成できる。
偏光システム
初期のImax上映では点滅方式が使われていたり、60年代と70年代には特別上映のためにしばしば3次元の古典映画がアナグリフ方式に変換されたりしていたが、偏光3次元システムは1952年の映画“Bwana Devil”で使用されてから、映画上映の標準となった。偏光システムはアナグリフ方式に比べて、色再現性が高く、ゴーストが少ないという特徴がある。
初期のImax上映では点滅方式が使われていたり、60年代と70年代には特別上映のためにしばしば3次元の古典映画がアナグリフ方式に変換されたりしていたが、偏光3次元システムは1952年の映画“Bwana Devil”で使用されてから、映画上映の標準となった。偏光システムはアナグリフ方式に比べて、色再現性が高く、ゴーストが少ないという特徴がある。
立体動画を表示するために、2つのイメージがそれぞれ異なる偏光フィルタを通して、同一のスクリーン上に重ねて投射される。視聴者は低コストのグラスを装着し、このグラスは方向が異なる一対の偏光フィルタを有している(右回り/左回りの円偏光、または、90度の角を成す、普通は45度と135度の直線偏光)。それぞれのフィルタはフィルタと偏光方向が同じ光を透過させ、異なる光を遮断し、それぞれの目は異なるイメージを見る。これは、わずかに異なる視点から見た同じシーンの映像を両目に映すことで3次元的な効果を生み出すために用いられる。この方式では、顔を追従させる必要が無いため、複数の観客が同時に立体映像を見ることができる。加えて、一対のレンズはいずれも同じ色であるため、2つの色に分かれていた以前の方式には抵抗があった一方の目が悪い(弱視)の人でも、3次元効果を見ることができる。
RealDの場合、1秒当たり144回偏光状態を切り替えられる液晶円偏光フィルタが投射レンズの前に置かれている。右目用と左目用のイメージが交互に表示されるため、プロジェクタは一つだけあればよい。ソニーが開発した2つの円偏光を同時に見せるRealD XLSと呼ばれる新しいシステムは、光を偏光させて投射する特別なレンズが装着された1つの4Kプロジェクタ(解像度4096×2160)が、2つの2K(解像度2048×858)のイメージを互いに重ねて同時に表示する。
トムソンテクニカラーは、伝統的な35mmプロジェクタにより、35mm以上/以下のフィルムを用いて3次元イメージを投射するよう適合化された分割レンズを用いたシステムを開発した。このシステムで必要となるレンズと、スクリーンの金属(シルバー)スクリーンへの交換は、映像をデジタルに変換する方法に比べて費用対効果が非常に高い。このシステムでは、非金属スクリーンを用いることで偏光状態が解消されて光が反射されるのを防ぐために金属スクリーンが必要となる。
偏光立体写真は1936年頃に登場し、エドウィン・H・ランドが初めて動画に応用した。“3次元映画流行(3次元 movie craze)”と呼ばれた1952年から1955年には、ほとんどの映画館で直線偏光投射およびメガネを用いた上映が行われた。この間、アナグリフ方式を用いた3次元映画の上映は僅かであった。また、直線偏光は家庭向けのステレオプロジェクタにおいても使用された。偏光方式は80年代の3次元映画の再流行時にも使用された。
2000年代においては、コンピュータアニメーションや、DVDや他のメディアにおけるコンテンツ競争、デジタルプロジェクション、そして、洗練されたIMAXの70mmフィルムプロジェクタが、偏光3次元映画の新しいブームのきっかけを作った。
点滅方式
点滅方式では、片方の目に対応した映像がスクリーンに投射されている時に、もう片方の目への光を遮断している。プロジェクタは右と左のイメージを交互に投射し、メガネやビューワのシャッタがスクリーン上のイメージに同期して開閉される。これは、1922年に一時的に用いられたテレビューシステムに基づいている。
点滅方式では、片方の目に対応した映像がスクリーンに投射されている時に、もう片方の目への光を遮断している。プロジェクタは右と左のイメージを交互に投射し、メガネやビューワのシャッタがスクリーン上のイメージに同期して開閉される。これは、1922年に一時的に用いられたテレビューシステムに基づいている。
点滅方式のバリエーションとして、LCDシャッタメガネを用いる方法がある。メガネは液晶を有しており、この液晶は交互フレームシーケンスの原理を用いて、映画館やテレビ、コンピュータスクリーン上のイメージに同期して光を透過させる。これは、nVidia、XpanD 3次元、初期のIMAXシステムにおいて用いられた方式である。この方式の欠点は、それぞれの視聴者が、表示機器と無線または有線で接続して同期をとるための電子機器を搭載した高価なメガネを装着する必要があることである。このシャッタメガネは、サングラスや一部の偏光メガネに比べて軽い軽量モデルもあるが、多くのモデルはほとんどの偏光メガネよりも重い。しかしながら、このシステムではイメージを投射するためにシルバースクリーンを用いる必要が無い。
干渉フィルタ技術
Dolby 3次元は、右目用に赤と緑、青の決まった波長を用い、左目用には異なる波長の赤と緑、青の波長を用いる。メガネは遮断する波長が厳密に決められており、これにより装着者に3次元イメージを見せている。この技術は映画館で最も広く用いられており、このシステムでは、RealDなどの偏光システムで必要とされる高価なシルバースクリーンが不要となる。しかしながら、この方式では偏光システムで用いられるものよりも高価なメガネが必要となる。この方式はスペクトル選択フィルタリングや波長多重方式としても知られている。
Dolby 3次元は、右目用に赤と緑、青の決まった波長を用い、左目用には異なる波長の赤と緑、青の波長を用いる。メガネは遮断する波長が厳密に決められており、これにより装着者に3次元イメージを見せている。この技術は映画館で最も広く用いられており、このシステムでは、RealDなどの偏光システムで必要とされる高価なシルバースクリーンが不要となる。しかしながら、この方式では偏光システムで用いられるものよりも高価なメガネが必要となる。この方式はスペクトル選択フィルタリングや波長多重方式としても知られている。
最近登場したPanavision 3次元システムにおいてもこの技術が使用されている。ただし、スペクトルはより広く、波長選択性が細かく設定されている(Panavisionシステムでは、片方の目にそれぞれ5つの波長が用いられる)。また、PanavisionではDolbyで用いられたものよりも安いメガネを用いる。
プルフリッヒ効果
プルフリッヒ効果は、暗いレンズを通して見たときなど、明りが少ない場合に人間の目の画像処理速度が遅くなる現象に基づいている。
プルフリッヒ効果は、暗いレンズを通して見たときなど、明りが少ない場合に人間の目の画像処理速度が遅くなる現象に基づいている。
位置Xから位置Yまで右側に移動するカメラを考えてみる。観察者が左目を暗いレンズを通してこのカメラの映像を観察した場合、右目がカメラが位置Yにある時に記録したイメージを見ている時、左目は数ミリ秒遅れた位置Xで記録したイメージを見ることになる。これにより、一つのカメラをシフトさせて静止イメージを生成する場合と同じように、左右の目で3次元を認知するための視差を発生させる。この効果の度合いは、カメラが撮影対象に対してどれくらい速く動くかに依存し、カメラが速く動くほど大きな視差が発生する。同様の効果は、静止したカメラと連続的に回転させたオブジェクト(撮影対象)を用いることによっても得ることができる。もし動きが止まったら、暗いレンズを通して見ている目(左右どちらの目かは、カメラが動く方向に依存する)が動きに追い付いて、この効果は消失する。このシステムの利点は、観察者はメガネをかけずに普通の写真を見て立体的に見ることができることである。
もちろん、オブジェクトの偶発的な動きは歪んだイメージを生み出し、この偶発的な動きは対象の実際の奥行きではなく見かけの奥行きに影響を与える。残念ながら、意図的にプルフリッヒ効果を生じさせたアプリケーションの多くでこの種の効果が生じており、この技術の評判は良くない。動きがカメラの横の動きの場合においてのみ、他の立体視の方法と同様の立体感を発生させるが、それ以外の不自然な状況においては、ほとんど立体感は得られない。
プルフリッヒ効果はしばしばテレビやコンピュータゲームで用いられるが、大規模な表示で用いられることはめったにない。
スペクトル分割
ChromaDepthでは、メガネの中にホログラフィックフィルムを使用し、分散プリズムのような効果を発生させる。これは赤色のものは近くに、青色に近いものは遠くにあるように知覚させる。
ChromaDepthでは、メガネの中にホログラフィックフィルムを使用し、分散プリズムのような効果を発生させる。これは赤色のものは近くに、青色に近いものは遠くにあるように知覚させる。
レンチキュラーまたはバリアスクリーン
レンチキュラープリンティングと視差バリア技術では、細く、交互に配置された縞の中にあるシートに2つ(あついはそれ以上)の重なったイメージを用い、2つの縞状イメージのうちの1つを遮蔽する(視差バリア)、あるいは、同じ細さのレンズを配置することにより、全体で補完されたイメージを生成する(レンチキュラープリント)。立体効果を生み出すために、観察者は一方のイメージを一方の目で、もう片方のイメージをもう片方の目で見るように位置取りをしなければならない。この方法では、立体視を行うためにメガネは必要ない。
レンチキュラープリンティングと視差バリア技術では、細く、交互に配置された縞の中にあるシートに2つ(あついはそれ以上)の重なったイメージを用い、2つの縞状イメージのうちの1つを遮蔽する(視差バリア)、あるいは、同じ細さのレンズを配置することにより、全体で補完されたイメージを生成する(レンチキュラープリント)。立体効果を生み出すために、観察者は一方のイメージを一方の目で、もう片方のイメージをもう片方の目で見るように位置取りをしなければならない。この方法では、立体視を行うためにメガネは必要ない。
両方のイメージは高い輝度で、波型のスクリーンに投射され、大きな角度で反射される。立体イメージを見るために、観察者はスクリーン対して垂直に、とても狭い角度内に座らなければならず、観客席の大きさは制限される。レンチキュラーは、1940〜1948年にロシアにおいて多数のショートフィルムの上映に用いられ、1954年には長編映画の“Crystal”、“Machine 22−12”、“The Pencil on Ice”にて使用された。
この方式は、大掛かりな上映には多少の制限が必要であるが、レンチキュラーはノベルティアイテムや3次元写真愛好家の間において広く用いられている。
これらの上記の方法は共通の欠点がある。それは、全て立体的な撮影が必要であることである。これは、特別な装置を用いた写真/映像のイメージにおいてのみ3次元的に見ることができることを意味する。このことから、従来の撮像装置(例えば、単一開口)を用いた従来のイメージ/撮影されたビデオ/映画から、立体イメージ/ビデオを生成することが望ましい。
本発明は2次元イメージまたはビデオから立体3次元イメージまたはビデオを生成するための方法、システム、装置、および、関連の処理論理回路を含む。本発明のいくつかの実施形態によれば、第1の2次元イメージおよび/またはビデオから2次元補完イメージを推定およびレンダリングするよう適合化された立体3次元イメージ生成システムを提供する。この補完イメージおよび/またはビデオが、第1のイメージまたはビデオ、或いは第2の補完イメージと結合することにより、第1のイメージ内にキャプチャされたシーンの立体イメージが生成される。立体3次元生成システムは、観察者が一方の目で第1のイメージまたは(第1の補完イメージとは異なる他方の方向にシフトした)第2の補完イメージを見て、もう一方の目で補完イメージ見た時に、イメージに奥行きがあると知覚または錯覚させる(例えば、立体3次元イメージ)ように、1以上の補完イメージを生成する。2つの補完イメージフレームは1つの立体フレームを構成する。
本発明の他の実施形態によれば、立体3次元生成システムは、更に、第1の一連の2次元イメージ(ビデオ)から一連の2次元補完イメージを推定およびレンダリングするよう適合化されている。この一連の補完イメージが第1の一連のイメージと結合することにより、第1の一連のイメージ内にキャプチャされたシーンの一連の立体イメージを生成する。3次元生成システムは、観察者が一方の目で第1の一連のイメージを見て、もう一方の目で一連の補完イメージ見た時に、イメージに奥行きがあると錯覚させるように、一連の補完イメージを生成する(例えば、立体3次元イメージ/ビデオ)。
本発明のいくつかの実施形態によれば、立体イメージ生成方法は、以下のステップを備える:(1)シーンの2次元イメージを表す第1の2次元イメージデータセットを受け取る受け取りステップ;(2)第1の2次元イメージデータセット内の第1の非固定オブジェクトを識別する識別ステップ;(3)第1の非固定オブジェクトの3次元骨格モデルを関連付ける関連付けステップ;(4)骨格モデルの少なくとも一部に基づいて第1の非固定オブジェクトに関する奥行き情報を決定する決定ステップ;(5)第1の非固定オブジェクトに関する決定された奥行き情報に基づいて、第2の観察位置(viewing position)および観察方向(viewing angle)に対応したシーン内のおける第1の非固定オブジェクトの位置のシフト量を計算する計算ステップ;(6)第2の観察位置および観察方向から見えるシーンを表す補完2次元イメージデータセットを生成する生成ステップ、ここで前記生成ステップは、シーン内における第1の非固定オブジェクトの位置を、計算されたシフト量に応じてシフトするシフトステップを備える;(7)少なくとも部分的に第1の3次元骨格モデルに基づいて、第2の観察方向から見る第1の非固定オブジェクトの外観を表すように、第1の非固定オブジェクトの外観を変更し、および/または、固定オブジェクトの端に沿った1以上の画素のテクスチャを隣接画素に複製することにより、第2の観察方向に対応するように第1のイメージデータセット内において固定オブジェクトの外観を変更する変更ステップ。
他の実施形態によれば、本システムは、第1の2次元イメージデータセットの中から固定オブジェクトを識別し、固定オブジェクトと第1の非固定オブジェクトとの空間的な位置関係に基づいて、固定オブジェクトの奥行きを見積もるよう適合化されている。シーンの立体イメージは補完2次元イメージデータセットを第1の2次元イメージデータセットと結合することで生成される。オプションとして、シーンの立体イメージを結合(一緒に表示)する時に、第1のイメージデータセットは2つの異なる補完2次元イメージデータセットを生成するために用いても良い。第1の補完2次元イメージデータセットと第2の補完イメージデータセットの両方が、上記の第1の2次元イメージデータセットに対する方法を用いて生成される。
また、本システムおよび方法は動画像列を構成する一連のイメージに適用しても良い。
また、この方法はリアルタイムで実行されても良い。
本発明の他の実施形態によれば、立体イメージを生成するシステムは以下の要素を備える:(1)シーンの2次元イメージを表す第1の2次元イメージデータセットを受け取る受け取りモジュール;(2)第1の2次元イメージデータセット内の第1の非固定オブジェクトを識別するために、受け取りモジュールと機能的に関連付けられた個別オブジェクト識別モジュール;(3)第1の非固定オブジェクトを3次元骨格モデルに関連付けるために、識別モジュールと機能的に関連付けられた参照モデル関連付け部;(4)関連付けられた骨格モデルの少なくとも一部に基づいて第1の非固定オブジェクトに関する奥行き情報を決定する奥行き推定モジュール;(5)決定された第1の非固定オブジェクトに関する奥行き情報に基づいて、シーン内のおける第1の非固定オブジェクトの第2の観察方向から見たシーンに対応した位置のシフト量を計算する水平シフト計算部;(6)少なくとも部分的に第1の3次元骨格モデルに基づいて、第2の観察方向から見た第1の非固定オブジェクトの外観を表すように、第1の非固定オブジェクトの外観を変更する、および/または、固定オブジェクトの端に沿った1以上の画素のテクスチャを隣接画素に複製することにより、第2の観察方向に対応するように第1のイメージデータセット内において固定オブジェクトの外観を変更する変更観察角度(angle of view)生成部。また、第2の観察位置および観察方向から見えるシーンを表す補完2次元イメージデータセットを生成するためのレンダリングモジュールを備えても良い。ここで、前記補完2次元イメージデータを生成するステップは、計算されたシフト量に基づいて、シーン内において、第1の非固定オブジェクトの位置をシフトするステップを含む。
本発明の他の実施形態によれば、2つの2次元イメージデータセットから立体イメージを生成する方法は以下のステップを備える:(1)2次元イメージデータセットの中の1以上の個々のオブジェクトを識別する識別ステップ;(2)少なくとも1つの識別されたオブジェクトに対して、識別されたオブジェクトの少なくとも1つの視認可能な特徴を表す少なくとも1つのパラメータを含む参照モデル(2次元または3次元モデル)を選択する選択ステップ;(3)イメージ内の識別されたオブジェクトの少なくとも1つの視認可能な特徴の外観を、選択された参照モデルと比較することによって、2次元イメージ内の識別されたオブジェクトの奥行きを推定する推定ステップ;(4)推定された奥行きに基づいて、生成された立体イメージフレームのそれぞれの補完イメージフレームのペアにおける、識別されたオブジェクトのインスタンス間の水平方向シフト量を計算する計算ステップ。
他の実施形態によれば、参照モデルの選択ステップは、2次元イメージに関するメタデータの考慮または、少なくとも一部が、既に実行された参照モデルの選択に基づいて、第2の識別されたオブジェクトのための参照モデルを選択する行程を含む。
他の実施形態によれば、3次元モデルはモデルの要素間の空間的な制約を含んだ骨格モデルであり、少なくとも一部が、奥行きの推定は骨格モデルの制約に基づいている。
実施形態によれば、少なくとも一部の人体などの非固定オブジェクトの絶対的または相対的な奥行き情報を見積もるステップは、取得した2次元イメージデータセットにおける非固定の人体の非固定の構造物を識別するために構造識別を用いて実行される。骨格モデル挿入部は、3次元骨格モデルの要素を、取得した2次元イメージデータセット内において対応する、識別された構造物に関連づけるよう適合化されている。さらに、骨格モデル挿入部は、3次元骨格モデル上に制約を課すことにより、2次元イメージ内の人体の構造の少なくとも一部の奥行き情報を見積もるよう適合化されている。ここで、このモデルでは、骨格モデルの要素間の位置関係の制約と、取得した2次元イメージデータセット内の識別された非固定の人体の構造体間の空間的な位置関係が定義されている。このモデルは、モデルを2次元イメージデータセットに適合し、前記の非固定の胴体の構造物の少なくとも一つの3次元座標を見積もるために用いられる。
2次元イメージデータから人体の奥行きまたは位置を見積もるステップは、取得したイメージに関連付けられた2次元イメージデータを受け取るステップを含む。ここで、取得したイメージは少なくとも人体の一部をキャプチャしたイメージである。2次元データ内の人体の解剖学的な構造は、計算により識別する。3次元骨格モデルの要素を2次元データ内の識別された構造物に適用する。ここで、骨格モデルは、2以上の人体の解剖学的な構造物間における空間的な制約を定義する。そして、適用した骨格モデルの要素の2次元投射と、受け取ったイメージデータ内の識別された解剖学的な構造物の位置との比較に基づいて、少なくとも一つの識別された構造物の位置情報を見積もる。ここで、位置情報は、取得したイメージがキャプチャされた時の構造物の物理的な位置に関連付けられている。
本発明とみなされる主題は、本明細書の結びの部分において具体的に規定され、明確に請求されている。しかしながら、本発明は、動作の機構および方法の両方に関して、その目的、特徴および利点と共に、添付の図面と以下の詳細な説明を参照して最も理解することができる。
図1は、本発明のいくつかの実施形態における、2次元イメージ/ビデオから立体的なイメージ/ビデオを生成するためのプロセスのフローチャート一例である。
図2は、本発明のいくつかの実施形態における、2次元イメージ/ビデオから立体イメージ/ビデオを生成するシステムのブロックダイアグラムの一例である。
図3Aは、本発明のいくつかの実施形態における、異なる奥行きのオブジェクトの、イメージと補完イメージ間との間の水平シフトの一例を示す図である。
図3Bは、本発明のいくつかの実施形態における、異なる奥行きのオブジェクトの、イメージと補完イメージ間との間の水平シフトの一例を示す図である。
図4Aは、本発明のいくつかの実施形態における、異なる奥行きのオブジェクトの、イメージと補完イメージ間との間の水平シフトの一例を示す図であり、オブジェクトが視界の中心に配置されている時のシフトの効果を示している。
図4Bは、本発明のいくつかの実施形態における、異なる奥行きのオブジェクトの、イメージと補完イメージ間との間の水平シフトの一例を示す図であり、オブジェクトが視界の中心に配置されている時のシフトの効果を示している。
図5は、本発明のいくつかの実施形態における、異なる奥行きにあるオブジェクト要素の、イメージと補完イメージ間との間の水平シフトの一例を示す図である。
図6は、本発明のいくつかの実施形態における、イメージと補完イメージに対応する観察角度の変更の一例を示す図である。
図7は、本発明のいくつかの実施形態における、イメージと補完イメージに対応する観察角度の変更の一例を示す図であり、オブジェクトに関連する事前に保存された3次元データを用いた例を示している。
図8は、本発明のいくつかの実施形態における、シーンの一例と、結果イメージ、生成された補完イメージを示す図である。
図9Aは、本発明のいくつかの実施形態における、人の2次元イメージの一例である。
図9Bは、本発明のいくつかの実施形態における、人の補完イメージを加えた人の2次元イメージの一例である。
図面を簡素かつ明瞭にするために、図中に示される部材にスケールを表示する必要はないことを理解されたい。例えば、図面を明瞭にするために、いくつかの部材の寸法は他の部材よりも誇張して描かれていてもよい。さらに、適切と判断される場合には、対応の又は類似の要素を示す図の間では、参照番号は繰り返し使用されてもよい。
添付の図面は、発明の詳細を明確にするために示された例示的なものであり、本発明の可能な組み合わせを全て含んでいるものではない。
以下の説明は、当該分野における技術を有する者が本発明を実施するために記載されているものであり、特定のアプリケーションおよびその要件に関するものである。開示された実施形態の様々な変形例があることは当該技術分野における当業者にとって明らかであり、ここで定義されている基本的な原理は、本発明の主旨を越えない範囲で他の実施形態とアプリケーションに適用できる。そのため、本発明はここで開示された実施形態に限定されるものではなく、ここで開示されている原理および特徴と整合する最も広い範囲に適用できる。
以下の詳細な説明では、本発明に対する理解を深めるために、詳細を具体的に多数示している。しかしながら、本発明はこれらの具体的な詳細が無くても当該技術分野における当業者によって実施されうることを理解されたい。一方、既知の方法、手順、構成要素および回路については、本発明の特徴を不明瞭にしないために詳細は記載していない。
特に述べられていない限り、以下の説明から明らかなように、本明細書を通じて、「処理する(processing)」「コンピュータで計算する(computing)」「計算する(calculating)」「決定する(determining)」などの用語を用いた説明は、携帯電話やその他の携帯機器を含むコンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作またはプロセスを参照し、かつ/または、コンピュータシステムのレジスタまたはメモリ内の物理的に、たとえば電子的な量として表されたデータを操作し、かつ/または、コンピュータシステムのメモリ、レジスタ、あるいは他の情報記憶装置、転送または表示機器内において同様に表された他のデータに変換することを意味する。
本発明の実施例は、本書に述べる動作を実行する装置を含むものである。この装置は、所望の目的に対して特別に構成されていてもよく、または、コンピュータまたは携帯電話またはその他のコンピュータ機器に保存されているコンピュータプログラムによって選択的に起動または再構築される汎用コンピュータを備えていてもよい。このようなコンピュータプログラムは、コンピュータにて読取可能な記憶媒体に記憶されていてもよい。当該記憶媒体は、例えば、フロッピィディスク、光学ディスク、CD−ROM、光磁気ディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電子的にプログラム可能な読み取り専用メモリ(EPROM)、電子的に消去可能かつプログラム可能な読み取り専用メモリ(EEPROM)、磁気あるいは光学カード、あるいは電子インストラクションの保存に適し、かつ、コンピュータシステムバスに接続可能ないかなるタイプの媒体でもよいが、これらに限定はされない。
本明細書で示す処理および表示は、特定のコンピュータまたはその他の装置とは本質的には関連していない。様々な汎用システムにおいて本明細書の教示に基づいたプログラムを用いることができ、また、所望の方法を実行するために、より特化された装置を構成する方が有用であるとこともありうる。これらのシステムに望ましい様々な構成は、以下の記載から明らかとなると考えられる。さらに、本発明の実施形態は、任意の特定のプログラム言語に関して記載はされていない。様々なプログラム言語を使用して本明細書に記載された本発明を実施できることを理解されたい。
現在知られている、あるいは今後考え出されるいずれのトポロジー、技術、コンピュータ通信の規格(例えば、メッシュネットワーク、インフィニバンドコネクション、RDMAなど)においても、本発明は適用されうることを理解されたい。
本発明は、2次元イメージまたはビデオから3次元イメージまたはビデオを生成する方法およびシステム、デバイス、処理論理回路を含む。本発明のいくつかの実施形態によれば、立体3次元生成システムは、第1の2次元イメージまたはビデオから2次元補完イメージまたはビデオを推定および生成するよう適合化されている。ここで補完イメージまたはビデオは、第1のイメージまたはビデオ、または、第2の補完イメージまたはビデオと結合した時に、第1のイメージまたはビデオでキャプチャされたシーンの立体イメージを生成する。言い換えると、立体3次元生成システムは一つまたは複数の補完イメージを生成し、観察者が一方の目で第1のイメージまたは(第1の補完イメージから逆方向へシフトさせた)第2の補完イメージを観察し、もう一方の目で補完イメージを観察した時に、イメージの中に奥行きがあるように錯覚させる(例えば、立体3次元イメージ)。
本発明の他の実施形態によれば、立体3次元システムは複数の第1の一連の2次元イメージ(ビデオ)から一連の2次元補完イメージを推定およびレンダリングするように適合化されている。ここで、一連の補完イメージは、第1の一連のイメージを結合した時に、第1の一連のイメージでキャプチャされたシーンの一連の立体イメージを生成する。言い換えると、3次元生成システムは一連の補完イメージを生成し、観察者が一方の目で第1の一連のイメージを観察し、もう一方の目で一連の補完イメージを観察した時に、イメージの中に奥行きがあるように錯覚させる(例えば、立体3次元映画/ビデオ)。
本発明の実施形態によれば、(図1に示す)立体3次元イメージの生成プロセスは、以下のプロセスを含む。
a.立体3次元イメージに変換する第1の2次元データセットを受け取る受け取りステップ。
b.2次元イメージデータセットの中から1以上の各オブジェクトを識別する識別ステップ。
c.識別されたオブジェクトを特徴付ける特徴付けステップ。オブジェクトを特徴付ける特徴付けステップは、多重プロセスであっても良い。ここで、オブジェクトは、まず、固定または非固定のオブジェクトとして、または、静止した/動いているオブジェクトとして、または、人か/人でないかなどによって、補助的に特徴付けられ、さらに、識別したオブジェクトの視認可能な特徴に基づいて第1のサブグループ内で特徴付けられる。さらに、あるオブジェクトは、同じイメージ内の他のオブジェクトの特徴から影響を受け、または、アシストされて特徴付けられる(例えば、もし、すでに特徴付けられたテーブルが明らかになっていれば、イスとして特徴付けられる、あるいは、人の胴体として特徴付けられたオブジェクトの上の丸いオブジェクトは、胴体とは別に、頭として特徴付けられる、あるいは、信号機が特徴付けられているイメージ上のものは、車として特徴付けられる、など)。さらに別の実施形態では、特徴付けは参照モデルに基づいている。参照モデルは、関連するデータベースに記憶されている、または、モデルパラメ−タとオブジェクトの要素/特徴との関連性に基づいて外部から提供される。本プロセスは‘958出願において詳細に記載されている。本願は、‘958出願の一部継続出願であり、‘958出願に記されている全ての関連記載は、本プロセスにも関連する可能性があり、ここで本明細に組み込まれる。
d.特徴付けられたオブジェクトまたはオブジェクト要素を可能な参照モデルへ関連付ける関連付けステップ。いくつかの実施形態によれば、参照モデルは2次元または3次元モデルである(‘958出願に記載の骨格モデルも含むが、それに限られない)。更に他の実施形態によれば、クラウドベースのオブジェクト認証の実現を目的としている(例えば、適切なデータネットワークを通してアクセスされる外部データベースやオブジェクト認証、モデリングリソースなど)。
e.イメージデータセット内の識別されたオブジェクトの物理的特徴に基づいて、イメージデータセット内の識別されたオブジェクトへ関連する参照モデルを挿入する挿入ステップ。このプロセスは関連する参照モデルの歪曲化や変換、スケーリングを含んでいる。本プロセスは‘958出願において詳細に記載されている。本願は、‘958出願の一部継続出願であり、‘958出願に記されている全ての関連記載は、本プロセスにも関連する可能性があり、必要に応じて変形したものも含めて、ここで本明細に組み込まれる。
f.第1のイメージをキャプチャした撮像装置、所望の視点、または、他のオブジェクトに関係して、識別されたオブジェクトとオブジェクト要素に関する奥行き情報の推定または見積りを行う見積もりステップ。第1のイメージをキャプチャした撮像装置からのイメージ内における各画素の一部どうしの距離が、逐次的にまたは同時並行で決定される。他の実施形態においては、参照モデルと関連付けられたオブジェクト(モデル化オブジェクト)に対するプロセスと、参照モデルに関連付けられないオブジェクト(非モデル化オブジェクト)に対するプロセスとは分けて実行される。
(i).モデル化オブジェクト‐いくつかの実施形態によれば、モデル化オブジェクトおよびオブジェクト要素に関する奥行き情報は、イメージデータセット内のオブジェクトの空間的な特徴とモデル化オブジェクトの既知のパラメータとの関係から推定される(例えば、もし、モデル化オブジェクトが54年式のマスタングである場合、撮像装置とオブジェクト間の距離は、イメージ内のマスタングのタイヤの大きさと、既知の54年式マスタングのタイヤの大きさとの比に基づいて決定される。同様に、具体的な事例がほとんど無い場合でも、多くの車のタイヤは同程度のサイズであることから距離が見積もられ、このような見積もりはどのような車に関しても可能である)。さらに別の実施形態では、‘958出願で詳細に記載されているように、非固定のオブジェクト(例えば、人)についても奥行き情報を見積もることができる。本願は、‘958出願の一部継続出願であり、‘958出願に記されている全ての関連記載は、本プロセスにも関連する可能性があり、ここで本明細に組み込まれる。更に、あるオブジェクトに関する奥行き情報は、当該オブジェクトと既に奥行き情報が決定された他のオブジェクト間の空間的な関係に基づいて見積もられる(例えば、イメージの中で人がイスに座っている場合、イスに関する奥行きデータは座っている人に関する奥行き情報と同じである)。さらに他の実施形態では、あるオブジェクトの奥行き情報は、一連のイメージ(例えば、ビデオ映像)のうち、前のイメージ内の同一オブジェクトに関する奥行き情報に基づいて決定される。さらに、あるオブジェクトの奥行き情報は、一連のイメージ内での空間的な位置に基づいて決定される(例えば、もし撮像装置がイメージ間で既知の距離だけ移動したと判断される場合、または、他のオブジェクトがイメージ内で既知の距離だけ移動した場合、単純な三角測量によって当該オブジェクトの奥行きを決定できる)。上記の方法の如何なる組み合わせ、および/または、上記の方法の繰り返しも使用できることも理解されたい。他の実施形態によれば、モデル化オブジェクトの異なる要素それぞれの奥行き情報は、イメージ内の(目的とする)要素の外観や、当該要素の同一オブジェクトの異なる要素の外観との関係や、当該要素のイメージ内の他のオブジェクトとの関係に基づいて推定されてもよい(例えば、図9A、9Bの例では、人間の手は胴体よりも撮像装置の近くにあると判断され得るし、図5の例では、あるテーブルの脚は他の脚よりも撮像装置の近くにあると判断され得るし、立方体のある側面は他の側面よりも撮像装置の近くに存在し得る)。
(ii).非モデル化オブジェクト‐非モデル化オブジェクトの距離を決定する本発明の他の実施形態は、上記の方法に加えて、モデル化オブジェクトの空間的な位置関係、それらの位置、または、一連のイメージを通した位置の変化に基づいて、これらのオブジェクトの距離を見積もる見積もりステップを含んでいる(例えば、多重イメージをキャプチャしている間にカメラの配置または位置が変わる場合は、静止オブジェクトの奥行きの計算は容易に実行できる。それと同様に、奥行き情報を持ち得る非静止オブジェクトが一連のイメージを通して動いた場合、静止オブジェクトとオブジェクト情報を持ち得るオブジェクトとの空間的な位置関係の変化に基づいて、静止オブジェクトの奥行きを見積もることができる)。
g.決定された撮像装置からの距離/オブジェクトの所望の視点/オブジェクト要素/第1のイメージの画素/エピポーラ幾何学に基づいて、それぞれのオブジェクト/オブジェクト要素/画素の右側※への水平シフト量を計算する計算ステップ。言い換えると、水平移動はオブジェクト/オブジェクト要素/画素のそれぞれについて計算され、この移動は第2の視点を得るために必要である。ここで、第2の視点は、元イメージが右目で見たイメージである場合、左目から見たイメージに対応する。すなわち、オブジェクトの水平シフトは、イメージをキャプチャしている時に撮像装置が右目の位置から左目の位置に移動した場合(オリジナルイメージと結合する補完イメージを生成する場合)に生じるイメージ内でのオブジェクトの視認可能な水平シフトに対応し、基礎的な幾何学に基づいて明らかに、このシフトはオブジェクトの撮像装置からの距離に依存する(遠くのオブジェクトほどシフト量は小さくなる。逆もしかり)。あるいは、左目用と右目用の2つの補完イメージを結合する場合、1つは中心から左目側へ、2つ目は中心から右目側へシフトする。
図3Aと3Bは、上述の水平シフトを図示したものである。これらの図は、左目と右目の視野(field−of−view:FOV)内にある3つの異なる奥行きにあるオブジェクト100(A、B、C)についての2つの例を示している。この3つのケースは、観察面101からの距離が異なる3つのオブジェクト100を表している。両方の例において、両目の視野内における位置が互いに近くにあるオブジェクト(例えば、それぞれの目の間で水平シフトが小さいオブジェクト)は、観測面101から離れたオブジェクトとして見える。逆に、両目の視野内における位置が互いに離れている位置にあるオブジェクトは、観測面101に近いオブジェクトとして見える。もし、左目と右目の視野の間で同じ位置にあるオブジェクトがあれば、そのオブジェクトは無限遠にあるように見える。右目の視野内で左寄りにあるオブジェクトは、左目の視野内にあるオブジェクトと比較してより観測面に近くにあるように見える。
また、図3Aと3Bから、カメラからより遠いオブジェクトの外観は視野内で小さく見え、カメラに近いオブジェクトの外観は視野内で大きく見えることが分かる。例えば、図3Aでは、位置Aのオブジェクト100は、位置Aよりもカメラ102に近い位置Cにある同じオブジェクトよりも、両目の視野内で小さく現れる。位置Aにあるオブジェクトのイメージは、左目と右目の視野内において中心に近い位置にあり、これによりオブジェクトは遠くに見える。位置Cにあるオブジェクトは左目の視野内の右端、および、右目の視野内の左端にあり、これによりオブジェクトは観測者に近くにあるように見える。
図4Aと4Bは、水平シフト量が、撮像装置の前(例えば、両目の間の領域内)に直接置かれたオブジェクトに依存していることについて説明するものである。図4Bに示しているように、このようなオブジェクトは、水平シフトが生じた結果、補完イメージ内で逆方向(鏡面)に表われる。
異なる奥行きに配置されたオブジェクト要素に関する水平シフトの追加の計算例が図5に示されている。この例では、カメラによってキャプチャされ、左目に表示されたオブジェクト120の2次元イメージがある。オブジェクト120のオブジェクト要素a、b、c、d、e、fが識別されており、オブジェクト要素c、d、e、fはカメラに近く、オブジェクト要素a、bはカメラから離れていると判断されるように、これらの奥行きが見積もられている。その結果、それぞれのオブジェクト要素の左側へのシフト量が計算される‐オブジェクト要素a、bのカメラから離れる方向へのシフト量は2と計算される(オブジェクト要素aに対してはx=11からx=9、オブジェクト要素bに対してはx=23からx=21へのシフト量が計算される)。また、カメラに近いオブジェクト要素c、d、e、fのシフトは4と計算される(オブジェクト要素dとfはx=26からx=22へシフトし、オブジェクト要素cとeはx=10からx=6へシフトする)。その結果、右目に表示されるシフトされたイメージ121がレンダリングされる。
h.それぞれのオブジェクト/オブジェクト要素に適用される変更観察角度(angle of view:AOV)を計算する計算ステップ。この変更は第1の2次元イメージ内におけるオブジェクト/オブジェクト要素の位置と、それぞれのオブジェクトまたはオブジェクト要素間の間隔に基づいており、この間隔は(1)第1のイメージをキャプチャした撮像装置、(2)所望の(仮想的な)視点、または、(3)お互いの関連性、から決定される。言い換えると、イメージをキャプチャした時(元のイメージに結合させる補完イメージを生成する場合)に、撮像装置が右目の位置から左目の位置(仮想的な観測点)へ移動した場合、所望の視点からのそれぞれのオブジェクトの奥行きに基づいて、観測されるオブジェクトの観察角度の変更が計算される。一方、左目用のイメージと右目用のイメージの2つの補完イメージが結合される場合、1つは中心から左目の方へ、2つ目は中心から右目の方へシフトする。基礎的な幾何学から明らかに、この変更は撮像装置からの距離(遠くのオブジェクトの変更は小さくなる。逆もしかり。)と、視野内の位置に依存している。図5、6に典型的なオブジェクトの変更観察角度を示している。
i.それぞれのオブジェクトに対する変更観察角度を生成する生成ステップ。いくつか実施形態によると、3次元参照モデルと関連付けられたモデル化オブジェクトに対応する変更した観察角度(仮想的な視点)は、各オブジェクト/オブジェクト要素の適用された3次元モデルおよび所望の要求角度(例えば、仮想的な視点)から見たモデルの最適な2次元投射(オブジェクト/オブジェクト要素の見ため)に基づいて生成される。本プロセスは‘958出願において詳細に記載されている。本願は、‘958出願の一部継続出願であり、‘958出願に記されている全ての関連記載は、本プロセスにも関連する可能性があり、ここで本明細に組み込まれる。本発明のいくつかの実施形態によれば、オブジェクトに関連する3次元データは、メモリに記憶された複数の時空間フレーム内において、複数の角度からキャプチャされたオブジェクトから構成されている。
3次元データは、第1の2次元イメージではカメラには映っておらず、2次元補完イメージの中で表示されるべきオブジェクト要素を補完するために使用される。言い換えると、第2のイメージにおいて表示されていないオブジェクトの一部に関連する1つのイメージのデータは、必要に応じて第2のイメージの変更観察角度を構成するために用いられる**。
図6と7は、観察角度の変更の例を示しており、これらの生成は本発明のいくつかの実施形態に基づいている。図6aは、異なった角度からキャプチャされ、メモリに記録された立方体オブジェクトのモデルを示している。図6bは、キャプチャされた立方体オブジェクトを示している。本システムは、キャプチャされたイメージを左目の視野内に表示する。図6cは、右目の視野に適するように変更された観察角度を示している。
図7は、システムメモリに記憶されたオブジェクトイメージから生成した2次元補完イメージの例を示している。
図7aは、メモリに記憶されたオブジェクトの3次元データセットの例を示している。オブジェクトまたはカメラが互いに相対的に動くことで、複数の角度からオブジェクトのイメージをキャプチャした多重時空間ビデオを構成する間に、本システムによってオブジェクトの3次元データが収集される。図7bは、カメラによって撮影された図7aに示すオブジェクトのイメージを表しており、このイメージは左目の視野内に表示される。3次元データはシステムメモリに記憶されているため、オブジェクトの2次元イメージは任意の観察角度でレンダリングされる。図7cは、図7bのイメージの角度を相対的にシフトさせてレンダリングした図7aのオブジェクトを示している。この表示イメージは、オブジェクトの立体3次元イメージを生成するために右目の視野に表示される。
その他の実施形態によれば、オブジェクトの変更観察角度を生成することは、オブジェクトの異なる観察角度を生成するために、オブジェクトのエッジの画素/テクスチャをコピーまたは引き延ばすことを含んでいる。例えば、変更観察角度において視認可能なオブジェクトの一部に関連したデータが利用できない場合、このデータはオブジェクトの最も近い視認可能なエッジのテクスチャに置きかえられる。言い換えると、3次元データが利用できないオブジェクトに対する変更観察角度を生成することは、変更観察角度の形の基礎的な幾何学計算を含む変更観察角度の見積もりに基づいており、ここで、テクスチャは、表示されている部分から“新たに表示される”部分へコピーされる。
j.第1の2次元イメージにおいてキャプチャされたシーンを表す補完2次元イメージデータを生成する生成ステップ。ここでは、(1)各オブジェクト/オブジェクト要素/画素に対して計算されたシフト量に基づいて、第1の2次元イメージ内の各オブジェクト/オブジェクト要素/画素の位置が右側にシフトされる※、そして、(2)生成されたそれぞれのオブジェクトまたはオブジェクト要素の変更されたイメージが表示される。
図8は、本発明のいくつかの実施形態に関連した補完2次元イメージデータの例を示している。図8aは、異なる奥行きに配置されたオブジェクト111、112、および113を含むシーンの例を示している。102A、B、およびCは、3つの異なる観察方向(viewing angle)を表しており、102Bは元のイメージをキャプチャした位置、102Aと102Cは(それぞれ)左目側と右目側にシフトさせた観察方向を表している。図8Bは生成された補完イメージを示しており、ここでBは元々のキャプチャイメージ、Aは左目用の補完イメージ、Cは右目用の補完イメージを示している。見ての通り、オブジェクト111と112、113の外観は相対的な奥行きに基づいて水平方向にシフトし、それによって、それぞれの観察角度は変化している(シフトと観察角度の変更は説明するために誇張して示している。)。
k.生成した補完2次元イメージデータをレンダリングするレンダリングステップ。
l.第1の2次元イメージ内でキャプチャされたシーンの立体3次元イメージを生成するため、レンダリングされた補完2次元イメージを、第1の2次元イメージまたは第2の補完イメージへ結合する結合ステップ。
m.レンダリングされた立体3次元イメージを保存する保存ステップ。
図9Aと9Bは、本願発明の他の実施形態における、元の2次元イメージから3次元立体イメージを生成する他の例を示している。この例(図9A)では、カメラの方へ右腕(105)を伸ばしている人の2次元イメージが示されている。この例において、イメージ内の左腕(106)の長さは、人体の物理的な寸法に対する解剖学的な比率内にあり、左腕が胴体の横に置かれ、胴体と同じ平面上にあることを示している。この平面上にある左腕と胴体とはカメラまでの距離が同じである。右腕(105)のイメージは左腕(106)のイメージよりも短く、これは右腕がカメラの方を指しているまたはカメラから遠ざかった位置にあることを示している。しかしながら、右手の掌と指は左手の掌と指よりも大きく、人体の物理的な比率からすると不釣り合いに大きい。これは腕がカメラの方を指していることを示している。相対的な掌と指の大きさと腕の長さは、カメラから胴体までの距離に対する、右の掌まで相対的な距離を示している。
本発明のいくつかの実施形態によれば、第2のイメージは、体の他のパーツのカメラからの相対的な距離に応じてシフト量が異なることを用いて推定される。カメラに近い体のパーツのシフト量はより大きく、カメラから離れている体のパーツのシフト量はより小さくなる。
図9Bは、図9Aに示す体の元イメージの例を示しており、カメラでキャプチャされたイメージは‘a’、生成された補完イメージは‘b’とマークされている。図から分かるように、カメラからの距離がほぼ同じである体のパーツは左側へ同じ量だけシフトしている(“小さい水平シフト”とマークされている)。右手(105)の掌(107)は胴体よりも多くシフトしている(“大きい水平シフト”とマークされている)。腕の左側へのシフト量は、胴体の横の肩の近くの同じシフト量(“小さい水平シフト”とマークされている)から、掌の近くの最も大きいシフト量(“大きい水平シフト”とマークされている)まで徐々に大きくなっている。人の3次元立体映像を生成するために、キャプチャされたイメージ(添え字‘a’)は左目に表示され、シフトしたイメージ(添え字‘b’)は右目に表示される。
本発明の他の実施形態によれば、3次元ビデオ/フィルムを生成するために、一連のイメージ(例えばビデオ)に対して上述の処理を順次実行してもよい。また、本発明のさらに他の実施形態によれば、上述の一連のイメージに対して上述の処理を実施する時、一連の中の任意のイメージ関して、蓄積され、計算が実行されたデータは、一連のイメージに対して実行される処理に用いてもよい(例えば、静止イメージが解析される時、または、軌跡と速度が見積もられる時に、1つのイメージから収集された任意のオブジェクトの一部分に関するテクスチャデータは、当該特定部分が視界から隠れているような第2のイメージにおいて当該オブジェクトの変更観察角度を生成するために用いられてもよい。また、1つのイメージから得た奥行き情報は第2のイメージのために用いられてもよい。この詳細は全て‘958出願に記載されている。)。更に、いくつかの計算は合成された一連のイメージ上で実行される(例えば、一連のイメージ上でのオブジェクトの動きは、イメージに関するデータの確認に用いられる)。
※本明細を通して、観測者の左目に表示するイメージを得るために、オブジェクトまたはオブジェクト要素、画素を右へシフトすることについて記載している。ここで、右へシフトすることについての記載は任意に選択されうるものであり、代わりに観測者の右目に表示するイメージを得るために左へシフトさせるように実行され得ることは明らかであることを理解されたい。その結果、右へのシフトに関するいかなる記載も、本説明を適宜変更して左へシフトすることも含んでいるとみなされたい。さらに、本開示内容を通した記載は、立体視を生成するために、一方の目に表示する補完イメージを生成しつつ、もう一方の目に元イメージを表示するものである。元イメージから互いに反対方向にシフトさせた2つの補完イメージ(一つは右目用、もう一つは左目用)についても同様に、立体イメージを生成するために用いられると理解されるべきであり、ここでの開示内容を必要に応じて変形したものも含むと理解されたい。
※※本明細を通して、本出願人による米国出願番号No.11/742,958、名称“SYSTEM AND METHOD FOR 3D SPACE−DIMENSION BASED IMAGE PROCESSING”を参照しており、これは、ここで全て本明細に組み込まれる。本発明に記載されているオブジェクトの骨格3次元モデルについての説明、および、このようなモデルのオブジェクトへ関連付け、オブジェクトへのモデルの適用、これらのモデルに基づいた計算および見積もりは、‘958出願の記載を参照して理解されたい。
本発明のいくつかの実施形態によれば、2次元イメージまたはビデオから立体3次元イメージまたはビデオを生成するための(図2に示される)立体3次元生成システムは、以下と機能的に関連付けられている、または、以下の機能から構成される。
a.‘958出願に記載されているデータの3次元表示を行う装置。
b.1以上の一連の2次元イメージデータセットを受け取る受け取りモジュール。この受け取りモジュールは、受け取ったイメージを記憶するための記憶手段またはバッファを含んでいる。
c.以下のデータを受け取る3次元表示装置インターフェースモジュール:(1)受け取ったイメージ内に表われている1以上のオブジェクトに関する奥行き情報、または、(2)受け取ったイメージ内の1以上のオブジェクトに関連する、3次元モデル、または、関連するデータベースに登録されたモデルとの関連性。
d.1以上の個々のオブジェクト識別モジュール ※※ 。これは、受け取ったイメージ内の個々のオブジェクト(例えば、テーブル)またはオブジェクト要素(例えば、テーブルの脚)を識別するよう適合化されている。
e.上記の段落0056のステップcに記載されているプロセスを実行するための処理論理回路を備えるオブジェクトキャラクタライザ ※※ 。オブジェクトキャラクタライザは、その機能を補助する外部サービスと通信する分散型データネットワークと機能的に関連している。
f.上記の段落0057のステップdに記載されているような、識別されたオブジェクトを最適な参照モデルに関連付けるための処理論理回路を備える、参照モデル相関部 ※※ 。参照モデル相関部は、この目的のために選択されたモデルを記憶している最適なデータストレージと機能的に関連しており、更に、その機能を補助する外部サービスと通信する分散型データネットワークと機能的に関連している。あるいは、関連するデータネットワークを検索し、最適な参照モデルを読み出して関連付けるよう適合化されたクラウドベースのオブジェクト認識モジュールと関連している。
g.参照モデルを、受け取ったイメージデータ内の識別されたオブジェクトの外観の特徴に適用する(変形、変換、拡大縮小を含む)よう適合化された処理論理回路を備えるモデル挿入ユニット。このコンポーネントについては‘958出願内に記載されている(骨格挿入ユニット)。本願は、‘958出願の一部継続出願であり、‘958出願に記されている全ての関連記載は、本プロセスにも関連する可能性があり、必要に応じて変形したものも含めて、ここで本明細に組み込まれる。
h.(上記の段落0059のステップfに記載されているような)第1のイメージをキャプチャした撮像装置、または、互いの関係、または、所望の視点から、各オブジェクトおよびオブジェクト要素の距離を決定する処理論理回路を備えるオジェクト奥行き推定/見積もりモジュール ※※ 。あるいは、または、同時に、オジェクト奥行き推定/見積もりモジュールは、第1のイメージをキャプチャした撮像装置から、イメージ内のそれぞれの画素または画素の一部までの距離を推定するまたは見積もる処理論理回路を備える。他の実施形態によれば、上記の段落0060および段落0061のステップf(i)とf(ii)に記載されているように、モデル化オブジェクトと非モデル化オブジェクトの奥行きを決定するための、オブジェクト奥行き推定/見積もりモジュールまたは処理論理回路は、別々に提供されている。
i.以下の要素から構成される補完イメージデータ計算部:(1)イメージ内のオブジェクト/オブジェクト要素/画素の決定された距離に基づいて、イメージの各オブジェクト/オブジェクト要素/画素に対する右へのシフト量※を計算するための処理論理回路を備える水平シフト計算部。このシフトは、左目からの視界に対応する第2視点を得るために、各オブジェクト/オブジェクト要素/画素に対して適用される(上記の段落0062ないし段落0066のステップgに全て記載されている);(2)イメージ内の識別された各オブジェクト/オブジェクト要素に適用する観察角度の変更を計算するための変更観察角度計算部。この計算は、イメージ内のオブジェクト/オブジェクト要素の位置およびイメージをキャプチャする撮像装置からそれぞれのオブジェクトとオブジェクト要素までの決定された距離、またはお互いの関係性、または所望の視点に基づいて行われる(上記の段落0067のステップhに全て記載されている)。
j.オブジェクト/オブジェクト要素の変更イメージ(modified view)を生成する変更観察角度生成部 ※※ 。ここで、変更イメージは補完イメージデータ計算部によって実行される計算に基づいて変更される。変更観察角度生成部は以下の要素を備える:(1)オブジェクトの3次元モデル、および、これらのモデルの異なる2次元投射に基づいてオブジェクトの変更した観察角度を生成するための観察角度生成プロセス。ここで、このプロセスは‘958出願において詳細に述べられており、そこに記載されている本プロセスに関連する内容は、ここで本明細に組み込まれる。さらに、‘958出願における非固定オブジェクトの観察角度の変更に関する記載は、本発明の3次元モデルに関わる任意のオブジェクトにも関連し、同様の原理に基づいて、必要に応じて変更させながら、任意のオブジェクトの変更観察角度が生成される;(2)(段落0068のステップiに記載されているような)あるオブジェクトの異なる観察角度によるイリュージョンを生成するために当該オブジェクトの端部の画素またはテクスチャをコピーまたは引き延ばすことによって、非モデル化オブジェクト、および/または、必要データを含まないモデルと相関のあるオブジェクトの変更観察角度を生成する処理論理回路。
k.任意の2次元イメージ内でキャプチャされたシーンを表す、補完2次元イメージデータセットを生成するための処理論理回路を備える、補完イメージデータ生成部。ここでは、(1)補完イメージデータ計算部で計算されたオブジェクト/オブジェクト要素/画素のシフト量に基づいて、各オブジェクト/オブジェクト要素/画素が、当該2次元イメージ内での位置から右側へシフトされる。そして、(2)補完イメージデータ計算部の計算に基づいて変更観察角度生成部で生成された、各オブジェクト/オブジェクト要素の変更イメージが表示される。
l.補完イメージデータ生成部で生成されたイメージデータセットをレンダリングするための処理論理回路を備える、レンダリングモジュール。
m.元の2次元イメージ内でキャプチャされたシーンの立体3次元イメージを生成するために、レンダリングされた補完2次元イメージを、生成された2次元イメージまたは第2の補完2次元イメージと結合するよう適合化された立体イメージ生成部。
n.ディスプレイやデータストレージ、ユーザーインターフェース、コントローラ、あるいはその他の補助的な装置などのシステムの制御を補助する補助モジュールおよびハードウェア。
本発明のいくつかの実施形態によれば、オブジェクトの特徴付け、または、その後の参照モデルとの関連付けを含んでいる。
整合/識別/認証アルゴリズムのうち、1以上は、コンテンツについての追加の特徴情報が生成されたときに、イメージのコンテンツに関する既知の特徴情報(例えば、タイトルや俳優などの様々なコンテンツパラメータを示すメタデータタグ)、または、以前のコンテンツについての特徴情報(例えば、メタデータや特徴パラメータ)を参照して実行される。特徴付けられるコンテンツと共に受け取った既知の特徴情報は、コンテンツと共に受け取った特徴データに基づいて外部のデータベースから読み出される、あるいは、1以上のアルゴリズムの一つによって生成/抽出される。本発明の他の実施形態によれば、既知の特徴情報は、与えられた整合/識別/認証アルゴリズムの調整や重み付けまたはその他の条件付けに用いられる。1以上のアルゴリズムの一つによって生成された特徴情報は、有効かそうでないかに分類される。
本発明のいくつかの実施形態によれば、1回目の整合/認識/認証の解析が反復して実行される間に、1以上のアルゴリズムによって有効ではない特徴情報が生成される。1回目の反復解析時に、コンテンツと共に受け取った、または、外部データベースから読み出した特徴情報によって、解析の調整、重み付けまたはその他の条件付けがされる。本発明の他の実施形態によれば、1回目の反復解析が実行された時点で生成されたいずれの特徴情報も、1回目の反復解析の後に、1以上のアルゴリズムの調整、重み付けまたはその他の条件付けに用いられる。
本発明の他の実施形態によれば、1以上のアルゴリズムのいくつかまたは全てはコンテンツの2回目の反復解析を実行するために用いられ、1回目が有効または非有効のいずれであっても、2回目の反復の間に非有効な特徴情報が生成される。2回目の反復の間、コンテンツと共に受け取った、または、外部データベースから読み出された、または、1回目の反復時に生成された特徴情報のうちのいくつかまたは全ては、1以上のアルゴリズムの調整、重み付けまたはその他の条件付けに用いられる。
本発明の他の実施形態によれば、コンテンツは1つ以上のシーンまたは1つ以上のシーンの断片(例えば、同じシーンに対して複数のカメラが設置された場合)を含んでおり、このコンテンツはシーン/断片間の境界が定義またはマークされるように分割される。コンテンツを特徴付ける1回目または2回目または両方の反復解析でシーン/断片の分割が実行され、または、1以上のアルゴリズムによる解析の調整、重み付けまたはその他の条件付けを行うために、または、シーン/断片の境界を考慮して解析が実行される。
本発明のいくつかの実施形態によれば、以下のものが提供される:(1)特徴付けされるマルチメディアコンテンツを受け取るように適合化されたコンテンツ受け取りモジュール;(2)受け取ったコンテンツのうち、すでにあるコンテンツを特徴付けるタグまたはメタデータ(例えば、映画やテレビ番組のタイトルや俳優のリスト、コンテンツ内の音楽のタイトルなど)を抽出するように適合化されたメタデータ抽出モジュール;(3)受け取ったコンテンツに関する特徴情報の追加のために、1以上の(外部)データベースリソース(例えば、Google、flixterなど)を検索するように適合化された外部データベース照会モジュール(例えば、もし映画/番組のタイトルのみが分かっている場合、キャラクターや関連する俳優のリストが読みだされる。分かっている俳優/キャラクターの顔のイメージや声などが読み出される、など。);(4)1以上の整合/認識/認証アルゴリズムを動かすよう構成された処理論理回路エンジン(例えば、プロセッサー)の1以上のクラスター。ここでアルゴリズムは以下のものに適合化されている:(a)音の動きの追尾(オブジェクトの位置の推定)、(b)顔の認証(映画内の俳優の顔の整合を試みる)、(c)声の認証(すなわち、話している話者を識別する)、(d)オブジェクト追尾(動き、位置)、(e)話し声の認識(話し声をテキストに変換する)、(f)効果音認識(爆発音や飛行機、ヘリコプターなどを識別する)、(g)オブジェクト認証(瓶、缶、車など)、(h)動き認証(キャラクターの動き、オブジェクトの動き、カメラの動きなど);(5)1以上のアルゴリズムから特徴データを受け取る、および、1以上のアルゴリズムに特徴データを提供するよう適合化されたデータ操作モジュール(例えば、コンテンツと共に受け取った特徴データを保存するテーブルを含むデータベースを有するデータベースアプリケーションのインターフェース。この特徴データはグローバルデータベースから受け取ったもので、一つまたは複数のアルゴリズムによって生成される)。
言い換えると、本発明のいくつかの実施形態によれば、オブジェクトの特徴には任意のシーンに関連する状況のデータが考慮される。
上記の要素のそれぞれ異なる多くの可能な組み合わせを含むそれぞれ異なる実施形態に基づいたシステムおよび方法によって、特徴の異なる組み合わせが得られることは明らかである。また、本システムの一つの要素によって実行されるように記載されているいくつかの機能が、本発明の他の実施形態において、本システムの異なる要素によって実行されうることは、当該技術分野における当業者によって理解されるべきである。
本発明の実施形態の詳細な説明および請求項における、“備える(comprise)”や、“含む(include)”、“有する(have)”という各単語およびこれらの単語を用いた文は、これらの単語に関連付けられたリスト内の部材に限定されるわけではない。
本開示内容に記載または記述されている内容は、本発明の一例および少数の応用例のみである。本発明は、他の様々な組み合わせや用途に対して適用可能であり、ここで記載されている本発明の範囲内で変更または変形を行うことができると理解されたい。
本発明のいくつかの特徴がここで記載および記述されたことによって、当該技術分野における当業者によって多くの変更例、代替例、変形例、均等物の実施が可能になると考えられる。そのため、添付の請求項は本発明の精神を逸脱しない範囲で、そのような全ての変更例、変形例をカバーすることを目的としていることを理解されたい。
Claims (18)
- 立体イメージを生成する方法であって、
シーンの2次元イメージを表す第1の2次元イメージデータセットを受け取る受け取りステップと、
前記第1の2次元イメージデータセット内の第1の非固定オブジェクトを識別する識別ステップと、
前記第1の非固定オブジェクトに3次元骨格モデルを関連付ける関連付けステップと、
前記骨格モデルの少なくとも一部に基づいて前記第1の非固定オブジェクトに関する奥行き情報を決定する決定ステップと、
前記シーンの第2の観察方向に対応したシフト量であって、前記シーン内のおける、前記第1の非固定オブジェクトの位置のシフト量を、前記第1の非固定オブジェクトに関する決定された前記奥行き情報に基づいて、計算する計算ステップと、
第2の観察方向から見た前記シーンを表す補完2次元イメージデータセットを生成する生成ステップと、を備え、
前記生成ステップは、計算されたシフトに基づいて、前記シーン内において、第1の非固定オブジェクトの位置をシフトするシフトステップを備える
ことを特徴とする立体イメージ生成方法。 - 動画像列を構成する一連のイメージに対して、前記方法を実行する実行ステップを更に備える、
ことを特徴とする請求項1に記載の方法。 - 前記補完2次元イメージデータセットと前記第1の2次元イメージデータセットを結合することにより、前記シーンの立体的なイメージを生成する生成ステップを更に備える、
ことを特徴とする請求項1に記載の方法。 - 前記補完2次元イメージデータセットと、前記第1の2次元イメージデータセットから前記請求項1の方法の手順に従って生成した第2の補完2次元イメージデータセットとを結合することにより、前記シーンの立体イメージを生成する生成ステップを更に備える
ことを特徴とする請求項1に記載の方法。 - 前記第1の3次元骨格モデルの少なくとも一部に基づいて、第2の観察方向から見た前記第1の非固定オブジェクトの外観を表すように、前記第1の非固定オブジェクトの外観を変更する変更ステップを更に備える
ことを特徴とする請求項1に記載の方法。 - 前記第1の2次元イメージデータセット内の固定オブジェクトを識別する識別ステップと、
前記固定オブジェクトと前記第1の非固定オブジェクトとの間の空間的な関係に基づいて前記固定オブジェクトの奥行きを推定する推定ステップと、を更に備える
ことを特徴とする請求項1に記載の方法。 - 前記固定オブジェクトの端に沿った1以上の画素のテクスチャを隣接画素に複製することにより、第2の観察方向に対応するように、前記第1のイメージデータセット内において、固定オブジェクトの外観を変更する変更ステップを更に備える
ことを特徴とする請求項1に記載の方法。 - 前記方法がリアルタイムで実行される、
ことを特徴とする請求項1に記載の方法。 - 立体イメージを生成するシステムであって、
シーンの2次元イメージを表す第1の2次元イメージデータセットを受け取る受け取りモジュールと、
前記第1の2次元イメージデータセット内の第1の非固定オブジェクトを識別するために、前記受け取りモジュールと機能的に関連付けられた個別オブジェクト識別モジュールと、
前記第1の非固定オブジェクトを3次元骨格モデルに関連付けるために、前記識別モジュールと機能的に関連付けられた参照モデル関連付け部と、
前記骨格モデルの少なくとも一部に基づいて前記第1の非固定オブジェクトに関する奥行き情報を決定する奥行き推定モジュールと、
第2の観察方向から見た前記シーンに対応したシフト量であって、前記シーン内のおける、前記第1の非固定オブジェクトの位置のシフト量を、前記第1の非固定オブジェクトに関する決定された前記奥行き情報に基づいて計算する水平シフト計算モジュールと、
第2の観察方向から見た前記シーンを表す補完2次元イメージデータセットを生成するレンダリングモジュールと、を備え、
前記生成する工程は、計算された前記シフト量に基づいて、前記シーン内において、第1の非固定オブジェクトの位置をシフトする工程を含む、ことを特徴とする立体イメージ生成システム。 - 前記第1の3次元骨格モデルの少なくとも一部に基づいて、第2の観察方向から見た前記第1の非固定オブジェクトの外観を表すように、前記第1の非固定オブジェクトの外観を変更する変更観察角度生成部を更に備える
ことを特徴とする請求項9に記載のシステム。 - 前記固定オブジェクトの端に沿った1以上の画素のテクスチャを隣接画素に複製することにより、前記第2の観察方向に対応するように、第1のイメージデータセット内において、固定オブジェクトの外観を変更するための変更観察角度生成部を更に備える
ことを特徴とする請求項9に記載の方法。 - 従来の2次元イメージデータセットから立体イメージを生成する方法であって、
前記2次元イメージデータセット内の1以上のオブジェクトを識別する識別ステップと、
少なくとも1つの識別されたオブジェクトに対して、前記識別されたオブジェクトの少なくとも1つの視認可能な特徴を表す少なくとも1つのパラメータを含む参照モデルを選択する選択ステップと、
前記イメージ内の識別されたオブジェクトの前記少なくとも1つの視認可能な特徴の外観を、選択された前記参照モデルのパラメータと比較することによって、 前記2次元イメージ内の識別されたオブジェクトの奥行きを推定する推定ステップと、
前記推定された奥行きに基づいて、生成されている立体イメージフレームの補完イメージフレームの各ペアにおける識別されたオブジェクトのインスタンス間の水平方向シフト量を計算する計算ステップと、を備える
ことを特徴とする方法。 - 前記選択ステップは、前記2次元イメージに関するメタデータを考慮する工程を含む
ことを特徴とする請求項12に記載の方法。 - 少なくとも部分的に、既に実施された前記参照モデルの選択に基づいて、第2の識別されたオブジェクトに対する参照モデルを選択する選択ステップを更に備える
ことを特徴とする請求項12に記載の方法。 - 前記参照モデルは3次元モデルである
ことを特徴とする請求項12に記載の方法。 - 前記3次元モデルは前記モデルの要素間の空間的な制約を含んだ骨格モデルである
ことを特徴とする請求項15に記載の方法。 - 前記奥行きの推定が、少なくとも部分的に、前記骨格モデルの制約に基づいている
ことを特徴とする請求項16に記載の方法。 - 前記選択ステップは、前記2次元イメージに関する背景を考慮する工程を含む
ことを特徴とする請求項12に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161435311P | 2011-01-23 | 2011-01-23 | |
US61/435,311 | 2011-01-23 | ||
PCT/IB2012/050308 WO2012098534A1 (en) | 2011-01-23 | 2012-01-23 | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014504074A true JP2014504074A (ja) | 2014-02-13 |
Family
ID=46515219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013541469A Pending JP2014504074A (ja) | 2011-01-23 | 2012-01-23 | 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8928654B2 (ja) |
EP (1) | EP2628303A1 (ja) |
JP (1) | JP2014504074A (ja) |
KR (1) | KR20140030138A (ja) |
CA (1) | CA2806520C (ja) |
WO (1) | WO2012098534A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018160853A (ja) * | 2017-03-23 | 2018-10-11 | 直人 横内 | 動画変換システム、動画変換方法及び動画変換プログラム |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
US8872899B2 (en) | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
US8114172B2 (en) | 2004-07-30 | 2012-02-14 | Extreme Reality Ltd. | System and method for 3D space-dimension based image processing |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US20070285554A1 (en) | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
KR101577106B1 (ko) | 2009-09-21 | 2015-12-11 | 익스트림 리얼리티 엘티디. | 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템 |
KR20110134327A (ko) * | 2010-06-08 | 2011-12-14 | 엘지전자 주식회사 | 영상 처리 방법 및 그에 따른 영상 표시 장치 |
US9053562B1 (en) * | 2010-06-24 | 2015-06-09 | Gregory S. Rabin | Two dimensional to three dimensional moving image converter |
US8581962B2 (en) * | 2010-08-10 | 2013-11-12 | Larry Hugo Schroeder | Techniques and apparatus for two camera, and two display media for producing 3-D imaging for television broadcast, motion picture, home movie and digital still pictures |
WO2012029371A1 (ja) * | 2010-08-30 | 2012-03-08 | シャープ株式会社 | 立体画像生成方法、立体画像生成装置、およびそれを備える表示装置 |
JP2014504074A (ja) | 2011-01-23 | 2014-02-13 | エクストリーム リアリティー エルティーディー. | 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
KR101779423B1 (ko) * | 2011-06-10 | 2017-10-10 | 엘지전자 주식회사 | 영상처리방법 및 영상처리장치 |
US9118902B1 (en) * | 2011-07-05 | 2015-08-25 | Lucasfilm Entertainment Company Ltd. | Stereoscopic conversion |
US8666145B2 (en) * | 2011-09-07 | 2014-03-04 | Superfish Ltd. | System and method for identifying a region of interest in a digital image |
US8937646B1 (en) * | 2011-10-05 | 2015-01-20 | Amazon Technologies, Inc. | Stereo imaging using disparate imaging devices |
JP2013123153A (ja) * | 2011-12-12 | 2013-06-20 | Sony Corp | 画像処理装置、その制御方法およびプログラム |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US9501831B2 (en) * | 2012-10-02 | 2016-11-22 | Google Inc. | Identification of relative distance of objects in images |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
CA2820305A1 (en) | 2013-07-04 | 2015-01-04 | University Of New Brunswick | Systems and methods for generating and displaying stereoscopic image pairs of geographical areas |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
US20230156350A1 (en) * | 2013-09-30 | 2023-05-18 | Duelight Llc | Systems, methods, and computer program products for digital photography |
US10303242B2 (en) | 2014-01-06 | 2019-05-28 | Avegant Corp. | Media chair apparatus, system, and method |
US10409079B2 (en) | 2014-01-06 | 2019-09-10 | Avegant Corp. | Apparatus, system, and method for displaying an image using a plate |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
US9823474B2 (en) | 2015-04-02 | 2017-11-21 | Avegant Corp. | System, apparatus, and method for displaying an image with a wider field of view |
US9995857B2 (en) | 2015-04-03 | 2018-06-12 | Avegant Corp. | System, apparatus, and method for displaying an image using focal modulation |
CN108369639B (zh) * | 2015-12-11 | 2022-06-21 | 虞晶怡 | 使用多相机和深度相机阵列的基于图像的图像渲染方法和*** |
US11409239B2 (en) * | 2016-02-17 | 2022-08-09 | De La Rue Authentication Solutions Inc. | Method for determining authenticity using images that exhibit parallax |
JP6652004B2 (ja) * | 2016-07-04 | 2020-02-19 | 富士通株式会社 | 情報処理装置、インタラクション方法、およびインタラクションプログラム |
CN108694740A (zh) * | 2017-03-06 | 2018-10-23 | 索尼公司 | 信息处理设备、信息处理方法以及用户设备 |
US10735707B2 (en) | 2017-08-15 | 2020-08-04 | International Business Machines Corporation | Generating three-dimensional imagery |
CN111768496B (zh) * | 2017-08-24 | 2024-02-09 | Oppo广东移动通信有限公司 | 图像处理方法、装置、服务器及计算机可读存储介质 |
GB2573170B (en) * | 2018-04-27 | 2021-12-29 | Canon Kk | 3D Skeleton reconstruction from images using matching 2D skeletons |
US11127189B2 (en) | 2018-02-23 | 2021-09-21 | Canon Kabushiki Kaisha | 3D skeleton reconstruction from images using volumic probability data |
EP3834167A4 (en) * | 2018-08-06 | 2022-05-04 | Olive Seed Industries, LLC | METHODS AND SYSTEMS FOR CUSTOMIZING LOCATION-LEVEL VISITOR EXPERIENCES |
US10440294B1 (en) * | 2018-09-05 | 2019-10-08 | Google Llc | Compact color and depth imaging system |
CN110035270A (zh) * | 2019-02-28 | 2019-07-19 | 努比亚技术有限公司 | 一种3d图像显示方法、终端及计算机可读存储介质 |
CN115486062A (zh) * | 2019-12-19 | 2022-12-16 | 艾伊3D公司 | 用于展示立体图像的方法及显示*** |
US11361508B2 (en) * | 2020-08-20 | 2022-06-14 | Qualcomm Incorporated | Object scanning using planar segmentation |
US20230237730A1 (en) * | 2022-01-21 | 2023-07-27 | Meta Platforms Technologies, Llc | Memory structures to support changing view direction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH057373A (ja) * | 1991-01-22 | 1993-01-14 | Olympus Optical Co Ltd | 立体電子スチルカメラ |
JP2004040445A (ja) * | 2002-07-03 | 2004-02-05 | Sharp Corp | 3d表示機能を備える携帯機器、及び3d変換プログラム |
JP2008508590A (ja) * | 2004-07-30 | 2008-03-21 | エクストリーム リアリティー エルティーディー. | 3d空間次元に基づく画像処理のためのシステムおよび方法 |
JP2010515303A (ja) * | 2006-12-22 | 2010-05-06 | クゥアルコム・インコーポレイテッド | 複雑適応2D−to−3Dビデオシーケンス変換 |
Family Cites Families (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4376950A (en) | 1980-09-29 | 1983-03-15 | Ampex Corporation | Three-dimensional television system using holographic techniques |
US5130794A (en) | 1990-03-29 | 1992-07-14 | Ritchey Kurtis J | Panoramic display system |
US5515183A (en) | 1991-08-08 | 1996-05-07 | Citizen Watch Co., Ltd. | Real-time holography system |
US5691885A (en) | 1992-03-17 | 1997-11-25 | Massachusetts Institute Of Technology | Three-dimensional interconnect having modules with vertical top and bottom connectors |
JP3414417B2 (ja) | 1992-09-30 | 2003-06-09 | 富士通株式会社 | 立体画像情報伝送システム |
US5745719A (en) | 1995-01-19 | 1998-04-28 | Falcon; Fernando D. | Commands functions invoked from movement of a control input device |
US5748199A (en) * | 1995-12-20 | 1998-05-05 | Synthonics Incorporated | Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture |
US5835133A (en) | 1996-01-23 | 1998-11-10 | Silicon Graphics, Inc. | Optical system for single camera stereo video |
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
US5909218A (en) | 1996-04-25 | 1999-06-01 | Matsushita Electric Industrial Co., Ltd. | Transmitter-receiver of three-dimensional skeleton structure motions and method thereof |
JP3337938B2 (ja) | 1996-04-25 | 2002-10-28 | 松下電器産業株式会社 | 3次元骨格構造の動き送受信装置、および動き送受信方法 |
US6445814B2 (en) | 1996-07-01 | 2002-09-03 | Canon Kabushiki Kaisha | Three-dimensional information processing apparatus and method |
US5852450A (en) | 1996-07-11 | 1998-12-22 | Lamb & Company, Inc. | Method and apparatus for processing captured motion data |
US5831633A (en) | 1996-08-13 | 1998-11-03 | Van Roy; Peter L. | Designating, drawing and colorizing generated images by computer |
JPH10188028A (ja) | 1996-10-31 | 1998-07-21 | Konami Co Ltd | スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体 |
US6243106B1 (en) | 1998-04-13 | 2001-06-05 | Compaq Computer Corporation | Method for figure tracking using 2-D registration and 3-D reconstruction |
US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6529643B1 (en) | 1998-12-21 | 2003-03-04 | Xerox Corporation | System for electronic compensation of beam scan trajectory distortion |
US6303924B1 (en) | 1998-12-21 | 2001-10-16 | Microsoft Corporation | Image sensing operator input device |
US6657670B1 (en) | 1999-03-16 | 2003-12-02 | Teco Image Systems Co., Ltd. | Diaphragm structure of digital still camera |
DE19917660A1 (de) | 1999-04-19 | 2000-11-02 | Deutsch Zentr Luft & Raumfahrt | Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts |
US6597801B1 (en) | 1999-09-16 | 2003-07-22 | Hewlett-Packard Development Company L.P. | Method for object registration via selection of models with dynamically ordered features |
US7123292B1 (en) | 1999-09-29 | 2006-10-17 | Xerox Corporation | Mosaicing images with an offset lens |
JP2001246161A (ja) | 1999-12-31 | 2001-09-11 | Square Co Ltd | ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体 |
GB2358098A (en) | 2000-01-06 | 2001-07-11 | Sharp Kk | Method of segmenting a pixelled image |
EP1117072A1 (en) | 2000-01-17 | 2001-07-18 | Koninklijke Philips Electronics N.V. | Text improvement |
US6674877B1 (en) | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
US6554706B2 (en) | 2000-05-31 | 2003-04-29 | Gerard Jounghyun Kim | Methods and apparatus of displaying and evaluating motion data in a motion game apparatus |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US6906687B2 (en) | 2000-07-31 | 2005-06-14 | Texas Instruments Incorporated | Digital formatter for 3-dimensional display applications |
JP4047575B2 (ja) | 2000-11-15 | 2008-02-13 | 株式会社セガ | 情報処理装置における表示物体生成方法、これを実行制御するプログラム及びこのプログラムを格納した記録媒体 |
IL139995A (en) | 2000-11-29 | 2007-07-24 | Rvc Llc | System and method for spherical stereoscopic photographing |
US7116330B2 (en) | 2001-02-28 | 2006-10-03 | Intel Corporation | Approximating motion using a three-dimensional model |
US7061532B2 (en) | 2001-03-27 | 2006-06-13 | Hewlett-Packard Development Company, L.P. | Single sensor chip digital stereo camera |
US6862121B2 (en) | 2001-06-05 | 2005-03-01 | California Institute Of Technolgy | Method and apparatus for holographic recording of fast phenomena |
JP4596220B2 (ja) | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7680295B2 (en) | 2001-09-17 | 2010-03-16 | National Institute Of Advanced Industrial Science And Technology | Hand-gesture based interface apparatus |
CA2359269A1 (en) | 2001-10-17 | 2003-04-17 | Biodentity Systems Corporation | Face imaging system for recordal and automated identity confirmation |
WO2003039698A1 (en) | 2001-11-02 | 2003-05-15 | Atlantis Cyberspace, Inc. | Virtual reality game system with pseudo 3d display driver & mission control |
US20050063596A1 (en) | 2001-11-23 | 2005-03-24 | Yosef Yomdin | Encoding of geometric modeled images |
US6833843B2 (en) | 2001-12-03 | 2004-12-21 | Tempest Microsystems | Panoramic imaging and display system with canonical magnifier |
AU2002361483A1 (en) | 2002-02-06 | 2003-09-02 | Nice Systems Ltd. | System and method for video content analysis-based detection, surveillance and alarm management |
AU2003280516A1 (en) | 2002-07-01 | 2004-01-19 | The Regents Of The University Of California | Digital processing of video images |
JP3866168B2 (ja) | 2002-07-31 | 2007-01-10 | 独立行政法人科学技術振興機構 | 多重構造を用いた動作生成システム |
US8013852B2 (en) | 2002-08-02 | 2011-09-06 | Honda Giken Kogyo Kabushiki Kaisha | Anthropometry-based skeleton fitting |
US8460103B2 (en) | 2004-06-18 | 2013-06-11 | Igt | Gesture controlled casino gaming system |
AU2003292490A1 (en) * | 2003-01-17 | 2004-08-13 | Koninklijke Philips Electronics N.V. | Full depth map acquisition |
US9177387B2 (en) | 2003-02-11 | 2015-11-03 | Sony Computer Entertainment Inc. | Method and apparatus for real time motion capture |
US7257237B1 (en) | 2003-03-07 | 2007-08-14 | Sandia Corporation | Real time markerless motion tracking using linked kinematic chains |
US7738725B2 (en) * | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
AU2003289108A1 (en) | 2003-04-22 | 2004-11-19 | Hiroshi Arisawa | Motion capturing method, motion capturing device, and motion capturing marker |
EP1627294A2 (en) | 2003-05-01 | 2006-02-22 | Delta Dansk Elektronik, Lys & Akustik | A man-machine interface based on 3-d positions of the human body |
US7418134B2 (en) | 2003-05-12 | 2008-08-26 | Princeton University | Method and apparatus for foreground segmentation of video sequences |
US7831088B2 (en) | 2003-06-13 | 2010-11-09 | Georgia Tech Research Corporation | Data reconstruction using directional interpolation techniques |
JP2005020227A (ja) | 2003-06-25 | 2005-01-20 | Pfu Ltd | 画像圧縮装置 |
JP2005025415A (ja) | 2003-06-30 | 2005-01-27 | Sony Corp | 位置検出装置 |
US7755608B2 (en) | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
JP2007531113A (ja) | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
US20070183633A1 (en) | 2004-03-24 | 2007-08-09 | Andre Hoffmann | Identification, verification, and recognition method and system |
US8036494B2 (en) | 2004-04-15 | 2011-10-11 | Hewlett-Packard Development Company, L.P. | Enhancing image resolution |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7366278B2 (en) * | 2004-06-30 | 2008-04-29 | Accuray, Inc. | DRR generation using a non-linear attenuation model |
US8432390B2 (en) | 2004-07-30 | 2013-04-30 | Extreme Reality Ltd | Apparatus system and method for human-machine interface |
US8872899B2 (en) | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
GB0424030D0 (en) | 2004-10-28 | 2004-12-01 | British Telecomm | A method and system for processing video data |
US7386150B2 (en) | 2004-11-12 | 2008-06-10 | Safeview, Inc. | Active subject imaging with body identification |
US7903141B1 (en) | 2005-02-15 | 2011-03-08 | Videomining Corporation | Method and system for event detection by multi-scale image invariant analysis |
WO2006099597A2 (en) | 2005-03-17 | 2006-09-21 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
US7774713B2 (en) | 2005-06-28 | 2010-08-10 | Microsoft Corporation | Dynamic user experience with semantic rich objects |
US20070285554A1 (en) | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US8265349B2 (en) | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
US9395905B2 (en) | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
JP2007302223A (ja) | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
CN101479765B (zh) * | 2006-06-23 | 2012-05-23 | 图象公司 | 对2d电影进行转换用于立体3d显示的方法和*** |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US7783118B2 (en) | 2006-07-13 | 2010-08-24 | Seiko Epson Corporation | Method and apparatus for determining motion in images |
US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
US7936932B2 (en) | 2006-08-24 | 2011-05-03 | Dell Products L.P. | Methods and apparatus for reducing storage size |
US8356254B2 (en) | 2006-10-25 | 2013-01-15 | International Business Machines Corporation | System and method for interacting with a display |
US20080104547A1 (en) | 2006-10-25 | 2008-05-01 | General Electric Company | Gesture-based communications |
US8756516B2 (en) | 2006-10-31 | 2014-06-17 | Scenera Technologies, Llc | Methods, systems, and computer program products for interacting simultaneously with multiple application programs |
US7885480B2 (en) | 2006-10-31 | 2011-02-08 | Mitutoyo Corporation | Correlation peak finding method for image correlation displacement sensing |
US8793621B2 (en) | 2006-11-09 | 2014-07-29 | Navisense | Method and device to control touchless recognition |
US8075499B2 (en) | 2007-05-18 | 2011-12-13 | Vaidhi Nathan | Abnormal motion detector and monitor |
US7916944B2 (en) | 2007-01-31 | 2011-03-29 | Fuji Xerox Co., Ltd. | System and method for feature level foreground segmentation |
CA2684020C (en) | 2007-04-15 | 2016-08-09 | Extreme Reality Ltd. | An apparatus system and method for human-machine-interface |
WO2008134745A1 (en) | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
US8432377B2 (en) | 2007-08-30 | 2013-04-30 | Next Holdings Limited | Optical touchscreen with improved illumination |
US8094943B2 (en) | 2007-09-27 | 2012-01-10 | Behavioral Recognition Systems, Inc. | Background-foreground module for video analysis system |
US8005263B2 (en) | 2007-10-26 | 2011-08-23 | Honda Motor Co., Ltd. | Hand sign recognition using label assignment |
US9451142B2 (en) | 2007-11-30 | 2016-09-20 | Cognex Corporation | Vision sensors, systems, and methods |
US8107726B2 (en) | 2008-06-18 | 2012-01-31 | Samsung Electronics Co., Ltd. | System and method for class-specific object segmentation of image data |
US9189886B2 (en) | 2008-08-15 | 2015-11-17 | Brown University | Method and apparatus for estimating body shape |
CA2735992A1 (en) | 2008-09-04 | 2010-03-11 | Extreme Reality Ltd. | Method system and software for providing image sensor based human machine interfacing |
EP2350925A4 (en) | 2008-10-24 | 2012-03-21 | Extreme Reality Ltd | METHOD, SYSTEM AND ASSOCIATED MODULES AND SOFTWARE COMPONENTS FOR PRODUCING A MAN-MACHINE INTERFACE BASED ON IMAGE SENSOR |
US8289440B2 (en) | 2008-12-08 | 2012-10-16 | Lytro, Inc. | Light field data acquisition devices, and methods of using and manufacturing same |
CA2748037C (en) | 2009-02-17 | 2016-09-20 | Omek Interactive, Ltd. | Method and system for gesture recognition |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8466934B2 (en) | 2009-06-29 | 2013-06-18 | Min Liang Tan | Touchscreen interface |
US8270733B2 (en) | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Identifying anomalous object types during classification |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
KR101577106B1 (ko) | 2009-09-21 | 2015-12-11 | 익스트림 리얼리티 엘티디. | 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템 |
US8659592B2 (en) * | 2009-09-24 | 2014-02-25 | Shenzhen Tcl New Technology Ltd | 2D to 3D video conversion |
US20110292036A1 (en) | 2010-05-31 | 2011-12-01 | Primesense Ltd. | Depth sensor with application interface |
JP2014504074A (ja) | 2011-01-23 | 2014-02-13 | エクストリーム リアリティー エルティーディー. | 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 |
WO2013069023A2 (en) | 2011-11-13 | 2013-05-16 | Extreme Reality Ltd. | Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response |
-
2012
- 2012-01-23 JP JP2013541469A patent/JP2014504074A/ja active Pending
- 2012-01-23 WO PCT/IB2012/050308 patent/WO2012098534A1/en active Application Filing
- 2012-01-23 CA CA2806520A patent/CA2806520C/en not_active Expired - Fee Related
- 2012-01-23 US US13/355,643 patent/US8928654B2/en active Active
- 2012-01-23 EP EP12736201.0A patent/EP2628303A1/en not_active Withdrawn
- 2012-01-23 KR KR1020137022408A patent/KR20140030138A/ko not_active Application Discontinuation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH057373A (ja) * | 1991-01-22 | 1993-01-14 | Olympus Optical Co Ltd | 立体電子スチルカメラ |
JP2004040445A (ja) * | 2002-07-03 | 2004-02-05 | Sharp Corp | 3d表示機能を備える携帯機器、及び3d変換プログラム |
JP2008508590A (ja) * | 2004-07-30 | 2008-03-21 | エクストリーム リアリティー エルティーディー. | 3d空間次元に基づく画像処理のためのシステムおよび方法 |
JP2010515303A (ja) * | 2006-12-22 | 2010-05-06 | クゥアルコム・インコーポレイテッド | 複雑適応2D−to−3Dビデオシーケンス変換 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018160853A (ja) * | 2017-03-23 | 2018-10-11 | 直人 横内 | 動画変換システム、動画変換方法及び動画変換プログラム |
JP2021192541A (ja) * | 2017-03-23 | 2021-12-16 | 株式会社Free−D | 動画変換システム、動画変換方法及び動画変換プログラム |
JP2022031304A (ja) * | 2017-03-23 | 2022-02-18 | 株式会社Free-D | 動画変換システム、動画変換方法及び動画変換プログラム |
Also Published As
Publication number | Publication date |
---|---|
CA2806520A1 (en) | 2012-07-26 |
EP2628303A1 (en) | 2013-08-21 |
WO2012098534A1 (en) | 2012-07-26 |
US8928654B2 (en) | 2015-01-06 |
KR20140030138A (ko) | 2014-03-11 |
US20120176477A1 (en) | 2012-07-12 |
CA2806520C (en) | 2016-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014504074A (ja) | 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路 | |
Terzić et al. | Methods for reducing visual discomfort in stereoscopic 3D: A review | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
TWI523488B (zh) | 處理包含在信號中的視差資訊之方法 | |
JP6208455B2 (ja) | 3dディスプレイ装置およびその映像処理方法 | |
US20110216160A1 (en) | System and method for creating pseudo holographic displays on viewer position aware devices | |
Devernay et al. | Stereoscopic cinema | |
WO2010084724A1 (ja) | 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 | |
CN105723705B (zh) | 用于自动立体多视图显示器的图像的生成 | |
CN102929091A (zh) | 数字球幕立体电影的制作方法 | |
CN107005689B (zh) | 数字视频渲染 | |
JP5396877B2 (ja) | 画像処理装置、プログラム、画像処理方法、および記録方法 | |
CN101697597A (zh) | 产生3d影像的方法 | |
KR101177058B1 (ko) | 마커 기반 3차원 입체 시스템 | |
JP2011529285A (ja) | 再現描写メディア中への両眼ステレオ情報の包含のための合成構造、メカニズムおよびプロセス | |
US10110876B1 (en) | System and method for displaying images in 3-D stereo | |
WO2009109804A1 (en) | Method and apparatus for image processing | |
WO2013069624A1 (ja) | 立体画像処理装置および立体画像処理方法 | |
Regalbuto | Remote Visual Observation of Real Places through Virtual Reality Headsets | |
CN113382225B (zh) | 一种基于全息沙盘的双目全息展示方法及装置 | |
JP4591997B2 (ja) | 立体視映像表示装置 | |
Bouchard | Perception and detection of occlusion-stereopsis conflicts in stereoscopic imagery | |
Rastogi et al. | StereoCam3D (An Android App. That Lets You Capture Realtime 3D Pics And Videos) | |
JP2007017558A (ja) | 立体画像表示装置および立体画像表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140411 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140912 |