JP2018500690A - 拡大3d画像を生成するための方法およびシステム - Google Patents

拡大3d画像を生成するための方法およびシステム Download PDF

Info

Publication number
JP2018500690A
JP2018500690A JP2017534734A JP2017534734A JP2018500690A JP 2018500690 A JP2018500690 A JP 2018500690A JP 2017534734 A JP2017534734 A JP 2017534734A JP 2017534734 A JP2017534734 A JP 2017534734A JP 2018500690 A JP2018500690 A JP 2018500690A
Authority
JP
Japan
Prior art keywords
image
magnified
enlarged
camera
magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017534734A
Other languages
English (en)
Inventor
シュナイダー,ロン
ゼイトウニー,アブラハム
Original Assignee
エルビット システムズ リミテッド
エルビット システムズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルビット システムズ リミテッド, エルビット システムズ リミテッド filed Critical エルビット システムズ リミテッド
Publication of JP2018500690A publication Critical patent/JP2018500690A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

倍率に従って修正された視差を有する物体の拡大3次元(3D)画像を生成するための方法であって、物体の第1の画像を第1のカメラによって取得し、物体の第2の画像を第2のカメラによって取得すること、倍率パラメータを決定すること、物体を含む第1の画像の部分および物体を含む第2の画像の部分を倍率パラメータに従ってそれぞれ拡大することにより、第1の拡大画像および第2の拡大画像を生成すること、第1の拡大画像および第2の拡大画像の幾何形状を、倍率パラメータの関数として修正し、それにより、第1の修正画像および第2の修正画像を生成すること、ならびに、拡大3D画像をユーザーに対して第1の修正画像および第2の修正画像を表示することにより表示することの手順を含む。【選択図】図3

Description

本開示の技術は、一般に、立体画像の拡大に関し、具体的には、特に、拡大3次元(3D)画像を生成するために、倍率に従って拡大した立体画像を修正するための方法およびシステムに関する。
視差は、(物体と直線上に位置していない)2つの異なる点から見た物体の、見かけの変位、すなわち、見かけの方向における差異である。視差は、奥行き知覚に対する視覚的な手掛かりを提供し、立体視のために人間の脳によって採用される。具体的には、近くの物体は遠くの物体よりも大きな視差を表す。
瞳孔間距離(IPD)は、システム、または人の瞳孔の間の距離である。異なる人々は異なるIPDを有し、従って、同じ物体を、同じ距離から、若干異なる視差で見得る。
ここで、Sawachiに対する、「Image Processing Device, Imaging Capturing Device,and Method for Processing Image」という名称の米国特許出願公開第2013/0100253号を参照する。本公開は、画像取得部、ズーム値取得部、視差量算出部、および視差量補正部を含む、画像処理装置に関する。画像取得部は、立体画像を取得する。ズーム値取得部は、立体画像のズーム値を取得する。視差量算出部は、視点画像間の各画素の視差量を算出する。視差量算出部は、視差量算出部によって算出した視差量に従い、かつ、ズーム値取得部によって取得したズーム値に従って、立体画像(例えば、左目用画像および右目用画像)の各画素の視差量を補正するための視差量補正値を算出する。
ここで、Jinらに対して発行され、「Stereoscopic Display System with Flexible Rendering of Disparity Map According to The Stereoscopic Fusing Capability of The Observer」という名称の米国特許第8,094,927号を参照する。本公開は、所与の立体表示のために、ユーザーに従い、場面コンテンツをカスタマイズするための方法に関する。本方法は、ユーザーに関するカスタマイズ情報を取得するステップ、場面視差マップを取得するステップ、ユーザーに対して目標視差範囲を決定するステップ、カスタマイズした視差マップを生成するステップ、およびカスタマイズした視差マップを適用するステップを含む。カスタマイズ情報は、特定のユーザー個別であり、各ユーザーに対して取得すべきである。場面視差マップは、一対の所与のステレオ画像から取得される。目標視差範囲は、ユーザーに対するカスタマイズ情報から決定される。カスタマイズした視差マップは、所与の立体表示をユーザーの融合能力と相関させるために生成される。カスタマイズした視差マップは、ステレオ画像を後続の表示用にレンダリングするために適用される。
ここで、Stateらに対する、「Methods and Systems for Dynamic Virtual Convergence and Head Mountable Display」という名称の米国特許出願公開第2004/0238732号を参照する。本公開は、近距離の物体の立体視を可能にするために、ビデオシースルー方式のヘッドマウント可能ディスプレイに対する動的仮想収束の方法に関する。本方法は、第1および第2のカメラを用いて画像をサンプリングするステップ、見る人に対して視距離を推定するステップ、フラスタムの表示(display frustum)を推定した視距離で収束するように変換するステップ、カメラによってサンプリングされた画像をフラスタムの表示に再投影するステップ、および再投影した画像を表示するステップを含む。各カメラは、第1の視野を有する。再投影した画像は、(カメラの)第1の視野よりも小さい、第2の視野をもつディスプレイ上で見る人に対して表示され、それにより、近距離の物体の立体視を可能にする。
本開示の技術の目的は、倍率に従って修正された視差を有する物体の拡大3次元(3D)画像を生成するための新規の方法およびシステムを提供することである。本開示の技術によれば、従って、物体の拡大3D画像を生成するための方法が提供される。本方法は、物体の画像を取得するステップ、倍率パラメータを決定するステップ、取得した画像から倍率パラメータに従って拡大画像を生成するステップ、拡大画像の幾何形状を倍率パラメータの関数として修正するステップ、および修正した画像を3D拡大画像として表示するステップを含む。修正した画像における物体の視差は、倍率パラメータに従って修正される。
本開示の技術の別の実施形態によれば、従って、物体の拡大3D画像を生成するための方法が提供される。本方法は、物体の画像のステップ、前記物体の3Dモデルを生成するステップ、倍率パラメータを決定するステップ、拡大撮影距離(magnified object distance)を決定するステップ、拡大画像を生成するステップ、および拡大画像を3D拡大画像として表示するステップを含む。物体は、画像を取得するカメラから撮影距離に位置している。拡大撮影距離は、物体がその位置で倍率パラメータに従って拡大され得る、カメラからの物体のシミュレートした距離である。拡大撮影距離は、倍率パラメータに従って決定される。拡大画像は、3Dモデルから生成される。拡大画像は、拡大撮影距離から見え得るような物体を含む。
本開示の技術の更なる実施形態によれば、従って、物体の拡大3D画像を生成するためのシステムが提供される。本システムは、カメラ、ディスプレイ、および画像プロセッサを含む。カメラは、カメラから撮影距離に位置している物体の画像を取得する。画像プロセッサは、倍率パラメータに従って物体の拡大画像を生成する。拡大画像における物体の視差は、倍率に従って修正される。ディスプレイは拡大画像を3D画像として表示する。
本開示の技術は、図面と併せると、以下の詳細な説明から更に十分に理解されるであろう。
本開示の技術の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の別の実施形態に従って構築されて機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するためのシステムの略図である。 本開示の技術の更なる実施形態に従って機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するための方法の略図である。 本開示の技術の更に別の実施形態に従って機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するための方法の略図である。
本開示の技術は、倍率パラメータに従って拡大3次元(3D)画像を生成するための方法を提供することにより従来技術の欠点を克服する。左画像および右画像が、それぞれ、空間的に分離された左カメラおよび右カメラによって(または2つのチャネルを有する単一のカメラによって)取得される。左画像および右画像の各々は、物体を含む。左および右カメラの異なる視点に起因して、物体は、左画像および右画像内で異なって見える(例えば、各画像内で異なる位置に見える−視差)。
拡大システムにおいて、画像拡大は、視点(すなわち、観点)の変化と同様の効果を引き起こし、その場合、場面はより近い距離から観察される。言い換えれば、拡大画像は、物体からより近距離で取得された画像をシミュレートする。従って、ユーザーが物体をもっと近距離から見たい場合、その物体の画像が拡大できる。ユーザーは倍率パラメータを提供し、それに応じて、画像が拡大される。すなわち、その物体を含む画像の部分が拡大される。画像は、当技術分野で既知の任意の方法で(例えば、光学的に、またはデジタル処理で)拡大できる。
画像の拡大中にカメラは動いていないので、物体のそれらの視点は変わらないままである。例えば、画像内の物体の視差は変わらないままである。しかし、拡大された物体は、より短い撮影距離の印象を与える。従って、拡大画像を見ているユーザーは、矛盾する視覚的な手掛かりを受け取り、不快感を経験して、疲労、吐き気、および同様のものに悩まされ得る。従って、拡大画像の幾何形状は、ユーザーの不快感を低減する拡大3D画像を生成するために修正すべきである。
本開示の技術の一実施形態によれば、拡大3D画像を生成するための方法は、所望の倍率(または所望の視点もしくは撮影距離)を示す倍率パラメータをユーザーから受信することを伴う。左右の画像が拡大され、具体的には、少なくとも物体を含む部分が拡大される。
拡大画像の幾何形状が次いで修正される。幾何修正は、倍率パラメータの関数である。言い換えれば、幾何修正関数(すなわち、倍率パラメータの関数)が拡大画像に適用される。例えば、幾何修正は、拡大された物体の画素の変位によって、またはそうでなければ画像のワーピングによって行うことができる。拡大画像の幾何形状は、物体が、あたかもより近くの視点(すなわち、カメラの元の位置よりも近く)から撮像されたかのように見えるように修正される。言い換えれば、拡大画像は、より短い撮影距離(すなわち、本明細書では拡大撮影距離(magnified−object distance)と呼ぶ)で取得された画像をシミュレートする。
画素変位による修正の場合、画像の拡大部分は、均一に(倍率の関数として)変位できる。すなわち、画素は、画素位置に関わらず、倍率のみに応じて、直線的に変位される。すなわち、(補正後)再定義された画像は、画素全体を、垂直、水平、または回転軸方向に同じ量だけ移動させて作成される。この均一の変位は、本明細書では、零次修正、または線形修正と呼ぶ。
修正は、1次修正、2次修正など、より高次で行うことができる。より高次(すなわち、零次よりも高次)の修正の各々では、変位される画素の変位は、画像内でのその元の位置に依存する。従って、より高次の修正は、相当な奥行きの範囲をもつ画像に対してより良い結果をもたらし得る。
本開示の技術の別の実施形態によれば、拡大3D画像を生成するための方法は、物体の3次元(3D)モデルを生成することを伴う。3Dモデルは、物体(および場合により、画像内の他の物体)の要素の奥行きをマッピングする。ユーザーから倍率パラメータを受信した後、拡大撮影距離が決定される。拡大撮影距離は、物体が、倍率パラメータによって示されるように拡大されたように見える距離である。例えば、所望の倍率は2倍の拡大である。拡大撮影距離は、物体が元の画像内の2倍に見えるような、カメラからの物体の距離である。
その後、物体の3Dモデルから一対の拡大画像が生成される。拡大画像は、拡大撮影距離から取得されたであろう画像をシミュレートする。すなわち、生成された拡大画像は、物体を、あたかも拡大撮影距離から(すなわち、その物体が拡大撮影距離に位置していた場合のカメラの視点から)撮像したかのように見せる。それにより、生成された拡大画像は、物体を所望の倍率で、かつ自然な視差で見せ、その結果、立体視を促進する。生成された拡大画像は一緒に、拡大3D画像を形成する。
ここで、図1A、図1B、図1C、図1Dおよび図1Eを参照すると、本開示の技術の一実施形態に従って構築されて機能する、倍率パラメータに従い拡大3D画像を生成するための、全体が100で示される、拡大3D画像システムの略図が示されている。図1Aは、拡大3D画像システムおよび撮像された物体を示す。図1Bは、拡大3D画像システムのカメラによって取得された左右の画像を示す。図1Cは、拡大3D画像システムおよび拡大した撮像物体の表現を示す。図1Dは、拡大した左画像および拡大した右画像を示す。図1Eは、修正した左画像および修正した右画像を示す。
拡大3D画像システム100は、第1のカメラ102(例えば、左カメラ102)および第2のカメラ104(例えば、右カメラ104)を含み、各々が視野(FOV)と関連付けられている。図1Aで説明する例では、カメラ102のFOVは、2本の点線で示されており、カメラ104のFOVは、2本の破線で示されている。各カメラは、画像センサーおよび光学組立体(両方とも図示せず)を含む。カメラ102および104の各々は、画像プロセッサ(例えば、図2の画像プロセッサ206)と結合される。
カメラ102および104の各々は、カメラから距離Dobjにある物体106の画像を取得する。カメラ102からの物体の距離は、カメラ104からの距離とはわずかに異なり得ることに留意されたい。しかし、これらのわずかな差は無視できるほどであり、具体的には、カメラ102とカメラ104との間の距離自体よりもはるかに小さい。従って、本明細書中以下、Dobjは、物体106とカメラ102との間の距離として、また物体106とカメラ104との間の距離として(または単に物体とカメラとの間の距離として)関連付けられる。カメラからの物体の距離(Dobj)は、カメラの視点(例えば、視点は撮影距離に対応する)によっても記述できる。例えば、カメラの視点が物体から1.5メートルに置かれると、従って、撮影距離は1.5メートルである。
図1Aから分かるように、カメラ102および104の各々は、物体のそれぞれの画像をわずかに異なる視点から取得する。カメラのFOVの各々内で物体106の位置が異なることから分かるように、物体106は、各画像内でわずかに異なる位置に現れるであろう。すなわち、物体106は、左画像内でのその位置と、右画像内でのその位置との間で視差を表すであろう。
図1Bを参照すると、左画像110および右画像112が提示されている。図に示すように、左画像110および右画像112の各々は、物体106を含む。物体106は、各画像内で異なる位置に現れる(すなわち、視差を表している)。具体的には、左画像110では、物体106の中心が画像の中心の左に位置し、右画像112では、物体106の中心が画像の中心の右に位置している。画像110および112内の物体106の視差は、カメラ102および104の各々の位置によって、およびカメラに対する物体106の位置−Dobjによって定義される。
物体106は拡大できる。拡大は、光学的またはデジタル的のいずれかであり得る。光学拡大は、物体106をユーザーが見るように、カメラで検出するように、またはディスプレイで表示するように、拡大するために、光学要素(例えば、望遠レンズ組立体またはズームレンズ組立体)を採用する。デジタル拡大は、拡大された画像部分を切り取り、画素値を潜在的に推定するための画像処理技術を採用する。物体106が拡大されると、物体106がカメラに近づくように見える。すなわち、物体106の拡大は、より短い撮影距離(すなわち、より近いカメラの視点)をシミュレートする。
図1Cを参照すると、左拡大画像120および右拡大画像122は拡大された物体116(およびその周囲)を示している。図1Cから分かるように、拡大された物体116は、画像120および122内で、画像110および112内の物体106と同じ視差を表す。言い換えれば、各画像120および122内の拡大された物体116の中心は、画像110および112内の物体106の中心と同じ位置にある。物体の拡大が、デジタル的または光学的に行われたかどうかに関わらず、撮影距離ならびにカメラ位置および向き(すなわち、カメラの視点)は変わらなかったので、視差は物体の拡大と共に変化しなかった。
しかし、物体の拡大は、拡大された物体116が、物体106よりも近くに見える(すなわち、カメラ102および104に近づく)ようにすることに留意されたい。図1Dを参照すると、拡大された物体116は、(その新しい拡大されたサイズに従って)あたかもカメラから拡大撮影距離−Dmagに位置しているかのように見え、その場合、DmagはDobjより小さい。言い換えれば、カメラ102および104の視点は、物体106よりも拡大された物体116に近いように見える。
拡大画像120および122は、見る人に矛盾する視覚的な奥行き手掛かりを与える。一方では、拡大された物体116のサイズは、その物体が拡大撮影距離Dmagに位置していることを示し、他方では、画像120および122内の拡大された物体116の視差は、物体116が撮影距離Dobjに位置していることを示す。それにより、拡大画像120および122は、見る人に視覚的不快感を引き起こし得る。本開示の技術は、かかる視覚的不快感を防ぐために、倍率に従って拡大画像を調整する。
図1Eを参照すると、左の調整した画像130および右の調整した画像132が示されている。拡大された物体116は、各画像130および132内で(画像120および122に対して)、相対する方向に変位され、変位された物体126として示されている。具体的には、画像120および122の画素の少なくとも一部が変位される。
本開示の技術の一実施形態によれば、拡大された物体はシフトされ、シフトは、倍率の関数として決定される。具体的には、全ての画素は、画素位置に関わらず、均一にシフトされる。かかる均一なシフトは、本明細書では、零次修正と呼ぶ。それにより、本開示の技術は、立体視を促進するために、拡大された物体の視差が物体の拡大されたサイズに対応するように、拡大画像を修正する。
例示的な変位関数は、[Ddisplacement=倍率a(ミリメートル)]によって与えられ、式中「a」は、0.1などの一定係数である。従って、物体を2の拡大係数で拡大する場合、変位は2ミリメートルである。別の例示的な変位関数は、[Ddisplacement=倍率*a+b(ミリメートル)]によって与えられ、式中「a」および「b」は一定係数である。従って、a=1.5およびb=3に対して、選択した場面を2の拡大係数で拡大する場合、シフト量は7.5ミリメートルである。代替として、変位は、任意の他の関数による拡大に関連できる。このようにして、画像130および132の奥行きの視覚的な手掛かりが、立体視を促進するために調整される(例えば、拡大された物体126のサイズが画像内の物体126の視差に対応するように調整される)。
本開示の技術の他の実施形態によれば、異なる画素が異なって変位できる。具体的には、画素(または1組の画素)の変位が、倍率だけでなく、画素の位置にも依存する。かかる不均一な変位は、本明細書では、より高次の修正(例えば、1次修正、2次修正、3次修正など)と呼ぶ。より高次の修正は、相当な奥行きの範囲をもつ拡大画像に対してより良い結果を与え得る。
1次変位の例は、[Ddisplacement=aX+b]によって与えられる。2次変位の例は、[Ddisplacement=aX+bX+c]によって与えられる。2次変位の別の例は、[Ddisplacement=aX+bY+c]によって与えられる。式中、「X」はX軸に沿った画素座標であり、「Y」はY軸に沿った画素座標であり、「a」、「b」および「c」は係数である。係数の少なくとも1つは、物体の倍率に依存することに留意されたい。1次修正の例は、[Ddisplacement=f(倍率)X+g(倍率)]によって与えられ、式中「f」および「g」は倍率の関数である。
本開示の技術の他の実施形態によれば、拡大画像の幾何修正は、拡大画像をワーピングする他の方法を伴う。例えば、画像(または画像の異なる部分)は、引き伸ばし、縮小、回転、およびそれらの任意の組合せを行うことができる。幾何修正は、倍率パラメータの関数であり、拡大された物体が、あたかも拡大撮影距離から撮像されたかのように見えるように、画像を修正することを目的とする。
更に別の実施形態によれば、幾何修正に加えて他の修正も拡大画像に適用される。例えば、色相および色を修正するか、または色調を修正するための画素値の修正である。
本開示の技術の更に別の実施形態によれば、画像修正システムは、既に拡大された画像を修正する代わりに、拡大(および修正した)画像を生成する。画像修正システムは、所望の倍率をユーザーから受信する。画像修正システムは、物体の3次元(3D)モデルを左右の画像から生成する。場面の3Dモデルは、例えば、カメラの(物体に対する)実際の視点、カメラの相対位置、および2つのカメラからの画像間の相関関係の知識から作成できる。すなわち、画像修正システムは、物体の異なる要素の奥行きをマッピングする。画像修正システムは、調整した画像を、あたかも拡大撮影距離から取得したかのように、3Dモデルから生成する。この実施形態は、図4を参照して、本明細書で更に詳細に以下に説明する。
代替として、3Dモデルは、外部の供給源(例えば、別の撮像または走査装置、構造化照明(structured light)、飛行時間(time of flight)など)から受信したデータ、物体の以前に取得した画像からのデータ、および同様のものなど、追加または代替データから生成できる。かかる追加の3Dデータが受信される場合、3Dモデルは、単一のカメラによって取得した単一の画像から生成できることに留意されたい。あるいは、完全な3Dモデルが外部の供給源から受信されて、カメラの画像からモデルを生成する必要がない。
図1A〜図1Eで説明する例では、物体は、大きく見えるように拡大された。しかし、本開示の技術は、縮小された物体に対しても同様に適用でき(すなわち、拡大ではなく縮小)、その場合、物体は、小さく見えるようにされる。かかる場合、物体の縮小されたサイズに対応する(すなわち、それがより遠くに見える)ように視差が減少されるように、物体の視差が調整される。
ここで図2を参照すると、本開示の技術の別の実施形態に従って構築されて機能する、立体視を促進するために、倍率パラメータに従い拡大3D画像を生成するための、全体が200で示される、システムの略図が示されている。システム200は、左カメラ202、右カメラ204、画像プロセッサ206、ユーザーデータインタフェース208、左ディスプレイ210、右ディスプレイ212、およびユーザーインタフェース214を含む。カメラ202および204の各々は、画像プロセッサ206と結合される。画像プロセッサは更に、ユーザーデータインタフェース208と、左ディスプレイ210および右ディスプレイ212の各々と、ならびにユーザーインタフェース214と結合される。
カメラ202および204の各々は、図1Aのカメラ102および104と実質的に同じであり、同様に置かれている。画像プロセッサ206は、任意のコンピュータシステムによって実装できる。例えば、コンピュータシステムは、1つの処理装置(またはいくつかの処理装置)、システムメモリ(例えば、ランダムアクセスメモリおよび読取り専用メモリ)、大容量記憶装置(例えば、ハードドライブ)、入力/出力装置(例えば、キーボード、マウス、画面、およびスピーカー)、および通信インタフェース(例えば、モデム)を含むことができる。これらの構成要素は、システムバス(または複数のバス)により、それらの間で結合される。これらの構成要素の各々は、当技術分野で知られているように構成されて操作され、従って、本明細書では更に詳述しない。プロセッサ206は、画像修正システム200の構成要素の各々を制御し、追加として、拡大画像を修正する。例えば、プロセッサ206は、カメラ202および204を制御し、ユーザーデータインタフェース208およびユーザーインタフェース214からデータを受信し、ディスプレイ210および212用に画像をレンダリングする。
ユーザーデータインタフェース208は、ユーザーデータをプロセッサ206に提供するためのインタフェースである。ユーザーデータは、ユーザーの瞳孔間距離(IPD)など、ユーザーの視覚特性に関連する。ユーザーデータは、ユーザーデータインタフェース208自体によって決定できるか、または外部の供給源から取得できる。例えば、ユーザーのIPDを決定するために、ユーザーデータインタフェース208はIPD測定ツールを含むことができるか、または選択されたユーザーのIPD測定値を含む医療データベースにアクセスできる。左ディスプレイ210および右ディスプレイ212は、画像をユーザーに提示するための視覚的出力インタフェースである。ユーザーインタフェース214は、システム200がユーザーから入力を受信するのを可能にする。例えば、ユーザーは、ズームノブを用いて、またはキーパッドインタフェースを介して、所望の倍率レベルを示すことができる。
左右のカメラ202および204の各々は、それぞれの画像を取得する。取得された画像の各々は、物体を含む。画像プロセッサ206は、取得された画像を受信し、その画像をディスプレイ210および212を介してユーザーに提示する。左右のカメラ(本明細書では第1および第2のカメラとも呼ぶ)は、2つのチャネルを有する単一のカメラと置き換えることができることに留意されたい。従って、本明細書での第1のカメラおよび第2のカメラに対する任意の言及は、単一のデュアルチャネルカメラも指す。単一のカメラは、2つの別個の画像センサー、または各々の画像を検出するための専用部分を有する単一の画像センサーを持つことができる。
画像プロセッサ206は、画像を拡大するための倍率パラメータを決定する。例えば、画像プロセッサ206は、倍率パラメータをユーザーから受信する。ユーザーは、倍率パラメータをユーザーインタフェース214を経由して提供する。例えば、ユーザーは、選択した係数で拡大された物体を見たいこと、またはもっと近い視点から見たいこと、それに応じて、選択した倍率で画像にズームしたいことを示す。
本開示の技術の一実施形態によれば、画像プロセッサ206は、倍率パラメータに従って、元々取得された画像の拡大画像を生成する。例えば、画像プロセッサ206は、カメラ202および204を操作して、カメラ202および204の焦点距離を変更することにより拡大画像を取得する。代替として、画像プロセッサは、取得された画像の選択した部分をデジタル処理で拡大する(すなわち、物体を拡大する)。物体の拡大は、場面の出現における増加、または減少(すなわち、縮小)に関連できることに留意されたい。
画像プロセッサ206は、ユーザーIPDなどの、ユーザーデータを、ユーザーデータインタフェース208から取得できる。画像プロセッサ206は、倍率に従い、場合によっては更にユーザーデータに従って、拡大画像を修正する。画像プロセッサ206は、修正した拡大画像を生成し、それらを左右のディスプレイ210および212を介して、拡大3D画像として表示する。言い換えれば、画像プロセッサ206は、倍率パラメータに従って修正した拡大画像を生成して、修正した拡大画像内の物体の位置が物体の拡大に対応するようにする。言い換えれば、修正した画像内の拡大画像の視差が、倍率に従って(すなわち、倍率パラメータの関数として)修正されて、修正された視差が倍率に対応するようになる。
本開示の技術の別の実施形態によれば、画像プロセッサ206は、拡大画像を修正する代わりに、修正した拡大画像を生成する。画像プロセッサ206は、左右の画像から物体の3Dモデルを生成して、物体の異なる要素の奥行きをマッピングする。画像プロセッサ206は、ユーザーの倍率パラメータをユーザーインタフェース214から受信する。画像プロセッサ206は、所望の倍率でシミュレートされる拡大撮影距離を決定する。画像プロセッサ206は、物体の3Dモデルから修正した拡大画像を生成する。修正した画像は、その物体がカメラ202および204から拡大撮影距離に位置していた場合(すなわち、カメラが倍率でシミュレートされた、シミュレーション視点に位置していた場合)に取得されたであろう物体の拡大画像である。
本開示の技術の更に別の実施形態によれば、物体は、(倍率に従うことに加えて)ユーザーデータに従って調整できる。例えば、ユーザーIPDは、拡大画像内の物体の調整された視差に影響を及ぼし得る。異なるユーザーは、異なるIPDを有し、従って、同じ物体を、同じ距離から、異なる視差で知覚し得る。拡大画像内の拡大された物体の修正された視差は、特定ユーザーの特定IPDに対して修正でき、それにより、そのサイズに従って拡大された物体の奥行き知覚が、画像内の修正された視差に従って拡大された物体の奥行き知覚に対応するであろう。
図1A〜図1Eおよび図2を参照して本明細書で上述した例では、画像修正システムは、2つのカメラを有する。代替として、更に多くの視点から物体の画像を取得するために、更に多くのカメラが採用できる。拡大画像は、あたかもその画像が拡大撮影距離で取得されたかのように物体が見えるように、調整される。
ここで図3を参照すると、本開示の技術の更なる実施形態に従って機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するための方法の略図が示されている。手順300では、物体の第1の画像および第2の画像が取得される。第1の画像は、第1のカメラによって取得され、第2の画像は、第2のカメラによって取得される。第1の画像内および第2の画像内の物体の位置は、異なるカメラ位置に起因した視差を表す。第1および第2のカメラは、単一のデュアルチャネルカメラで置き換えることができることに留意されたい。図1Aおよび図1Bを参照すると、カメラ102および104はそれぞれ、画像110および112を取得した。画像110および112の各々は物体106を含む。
手順302では、倍率パラメータが決定される。ユーザーは取得された画像を画像ディスプレイを介して見る。ユーザーが物体をもっと近接して見たい場合、ユーザーは倍率パラメータを提供する。倍率パラメータは、ユーザーにより、ユーザーインタフェースを経由して提供される。例えば、ユーザーは、ズームイン/アウトノブを操作する(それに応じて、倍率パラメータが決定される)か、またはキーパッドを経由して倍率出力を提供する。倍率パラメータは、所望の倍率を示す。画像拡大は、視点、または撮影距離における変化(すなわち、カメラと撮像された場面との間の距離における変化)をシミュレートする。図2を参照すると、ユーザーは、ユーザーインタフェース214を介して倍率パラメータを提供する。
追加として、ユーザーデータも受信できる。ユーザーデータは、決定できるか、または外部の供給源から取得できる。ユーザーデータは、ユーザーのIPD、ならびに、視野角、および同様のものなど、そのユーザーの視覚特性に関連し得る。図2を参照すると、ユーザーデータインタフェース208は、ユーザーIPDなどの、ユーザーデータを決定し、そのユーザーデータを画像プロセッサ206に提供する。
手順304では、第1の拡大画像および第2の拡大画像が生成される。第1の拡大画像は、物体を含む、第1の画像の部分を、倍率パラメータに従って(すなわち、倍率パラメータの関数として)拡大することにより生成される。第2の拡大画像は、物体を含む、第2の画像の部分を、倍率パラメータに従って拡大することにより生成される。物体は、光学的に、またはデジタル処理のいずれかで、拡大できる。拡大は、画像内の物体の位置も比率も変更しない。
拡大後、拡大された物体は、(その拡大されたサイズに起因して)カメラに近づいたように見える。しかし、各拡大画像内の物体の比率および位置(例えば、拡大画像内の物体の視差)は、撮影距離における変化、またはカメラの視点における変化を示していない。それ故、拡大画像は矛盾する奥行きの視覚的な手掛かりを与え、それは、ユーザーに不快感を引き起こし得る。図1Cおよび図1Dを参照すると、拡大画像120および122は拡大された物体116を示す。その拡大されたサイズに起因して、拡大された物体116は、カメラから距離Dmagに位置しているように見え、それは、実際の距離Dobjよりも近い。
手順306では、第1の拡大画像および第2の拡大画像の幾何形状が、倍率パラメータの関数として、修正される。その結果、第1の修正画像および第2の修正画像が生成される。修正画像内の拡大された物体の視差が、倍率パラメータに従って修正される。このようにして、拡大された物体の視差は、拡大された物体の倍率に対応し、結果として、見る人の不快感を減らして、立体視を促進する。
幾何修正は、各拡大画像内の物体の画素を、相対する方向に、倍率パラメータに従って決定された変位で、変位することによって実行できる。その結果、例えば、修正された視差は倍率に対応し、見る人は、修正画像を見たときに立体視不快感を経験しない。追加として、変位は、ユーザーIPDなどのユーザーデータに従って更に決定でき、そのため、調整画像はユーザーに対して特別に調整され、それにより、ユーザーの不快感を更に低減する。
拡大された物体の画素は、同じ方法で一緒に変位できる。代替として、各画素または画素の組に対して、それぞれの変位が決定される。変位は、画像内の画素位置に従って決定できる。例えば、変位は、画素のX座標の一次関数であるか、または画素のXおよびY座標両方の二次関数である。このように、物体は、シフトされるだけでなく、ワーピングもされる。拡大された物体をワーピングすると、相当な奥行きの範囲をもつ画像をより良く修正する。このように、修正された拡大された物体を含む修正画像は、あたかも、所望の倍率でシミュレートされた拡大撮影距離から取得されたかのように見える。一般に、任意の画像幾何修正または他の方法による修正は、あたかも(実際の撮影距離よりも近い)拡大撮影距離から取得されたかのように見えるように拡大画像を修正するために、採用できる。修正画像は、一緒に拡大3D画像を形成して、ユーザーが拡大された物体の3Dビューを見るのを可能にする。
本開示の技術の別の実施形態によれば、各画素の変位は、その画素によって表される要素の相対的撮影距離に関連する。例えば、物体が物体のグループで、各々がカメラから異なる距離に位置している場合。より近い距離にある第1の物体を示す画素の変位は、より遠くの距離にある第2の物体を示す画素の変位よりも大きいであろう。それにより、各物体の視差が、その物体の特定の撮影距離に従って調整される。
追加として、画像は、ユーザーIPDなどの、特定のユーザー特性に適合するように(例えば、画素を変位することにより)修正できる。すなわち、画像は、特定のIPDを有する、特定のユーザーが、その物体をシミュレートされた視点から見ているかのように見えるように、調整される。
図2および図1Eを参照すると、画像プロセッサ206は、便利な立体視を可能にするために、倍率に従い(および場合により、ユーザーデータに従って)、拡大された選択した場面の画素を変位する。変位は、あたかも、物体が画像拡大によってシミュレートされた、拡大撮影距離に位置している場合に、取得されたかのように見えるように、拡大画像を幾何的に修正することを目的とする。画像プロセッサ206は、画像130および132を生成し、その画像内で、調整された物体126は、拡大された物体116の位置からシフトされ、それにより、立体視を促進するために画像130および132を幾何的に修正する。
手順308を参照すると、拡大3D画像がユーザーに表示される。拡大修正画像は、一緒に拡大3D画像を形成する。第1の修正画像は、ユーザーの第1の目に対して表示され、第2の修正画像は、ユーザーの第2の目に対して表示される。それにより、拡大3D画像がユーザーに対して表示される。修正画像は、立体視を促進し、ユーザーは物体の拡大3D画像を見る。図2および図1Eを参照すると、第1のディスプレイ210は第1の修正画像130を表示し、第2のディスプレイ212は第2の修正画像132を表示する。
ここで図4を参照すると、本開示の技術の更に別の実施形態に従って機能する、立体視を促進するための、倍率パラメータに従い拡大3D画像を生成するための方法の略図が示されている。手順400では、物体の第1の画像および第2の画像が取得される。第1の画像は、第1のカメラによって取得され、第2の画像は、第2のカメラによって取得される。第1の画像内および第2の画像内の物体の位置は、異なるカメラ位置に起因した視差を表す。図1Aおよび図1Bを参照すると、カメラ102および104はそれぞれ、画像110および112を取得した。画像110および112の各々は物体106を含む。
手順402を参照すると、第1および第2の画像から物体の3次元(3D)モデルが生成される。3Dモデルは、物体の各要素の奥行きをマッピングする。3Dモデルは、例えば、カメラの実際の視点、カメラの相対位置、および2つのカメラからの画像間の相関関係の知識から作成される。代替として、3Dモデルは、外部の供給源から受信したデータ、物体の以前に取得した画像からのデータ、および同様のものなど、追加または代替データから生成できる。かかる場合、3Dモデルは、単一の画像だけから生成できるか、または画像なしで追加のデータから完全に生成できる。図2を参照すると、画像プロセッサ206は、選択した場面の3Dモデルを左画像および右画像から生成する。
手順404では、倍率パラメータが決定される。手順404は、図3の手順302と同様であり、ユーザーIPDなどの、ユーザーデータを受信するステップを同様に含むことができる。図2を参照すると、ユーザーは、ユーザーインタフェース214を介して倍率パラメータを提供する。
手順406では、拡大撮影距離は、倍率パラメータに従って決定される。拡大撮影距離は、カメラからの物体のシミュレートされた距離であり、その位置で物体は倍率パラメータに従って拡大されるであろう。例えば、所望の倍率が2倍である場合、拡大撮影距離は、その位置で物体が、元々取得された画像内での2倍に見えるような、距離である。図1Dおよび図2を参照すると、画像プロセッサ206は、倍率パラメータに従って、拡大撮影距離Dmagを決定する。
手順408では、第1の拡大画像および第2の拡大画像が3Dモデルから生成される。第1の拡大画像および第2の拡大画像の各々は、拡大撮影距離から見え得るような物体を含む。前述のように、画像拡大は、より短い撮影距離をシミュレートする。しかし、カメラの視点は拡大によって変わらないので、拡大画像は、より短い距離で取得された画像とは異なる。拡大修正画像は、倍率に対応する、より近い視点をシミュレートするように生成される。拡大修正画像は、物体の3Dモデルから生成される。拡大修正画像は一緒に、物体の拡大3D画像を形成する。
拡大撮影距離(またはシミュレートされた視点)は倍率パラメータに従って決定される。例えば、距離は、倍率に反比例する。すなわち、2倍の倍率は、元の撮影距離の半分である撮影距離に変換される。倍率と距離との間の他の関係も採用できる。本開示の技術の一実施形態によれば、カメラに対して経験テーブル(empiric table)が作成される。すなわち、カメラが物体から異なる距離に置かれ、各距離での物体拡大がルックアップテーブルに格納される。前述のように、修正画像は、IPDなどの、特定の視覚特性を有する特定のユーザーに対して調整できる。
本開示の技術の別の実施形態によれば、画像は、各々がカメラから異なる距離に位置した、複数の物体(または物体が複数の要素を含む場合)を含む。この場合、拡大撮影距離は、物体の各々(または物体の各要素)に対して決定できる。拡大画像は、立体視を促進する3D画像を生成するために、各物体が、あたかもそれぞれの拡大撮影距離から撮像されたかのように見えるように、生成される。
図1Eおよび図2を参照すると、画像プロセッサ206は、画像130および132を生成し、それらの図で物体126は、あたかも拡大撮影距離Dmagから撮像されたかのように見える。画像プロセッサ206は、画像130および132をユーザーに対して、拡大3D画像としてディスプレイ210および212を介して提示する。
本開示の技術は、本明細書において上で具体的に示し記述してきたものに限定されないことが当業者によって理解されるであろう。むしろ、本開示の技術の範囲は、以下のクレームによってのみ定義される。

Claims (13)

  1. 倍率に従って修正された視差を有する物体の拡大3次元(3D)画像を生成するための方法であって、以下の手順:
    前記物体の第1の画像を第1のカメラによって取得し、前記物体の第2の画像を第2のカメラによって取得することと、
    倍率パラメータを決定することと、
    前記物体を含む前記第1の画像の部分を前記倍率パラメータに従って拡大することにより第1の拡大画像を生成し、前記物体を含む前記第2の画像の部分を前記倍率パラメータに従って拡大することにより第2の拡大画像を生成することであって、前記第1および第2の拡大画像内の前記物体の視差が、前記第1および第2の画像内の前記物体の視差と同じである、第1の拡大画像および第2の拡大画像を生成することと、
    前記第1の拡大画像および前記第2の拡大画像の幾何形状を、前記倍率パラメータの関数として修正し、それにより、第1の修正画像および第2の修正画像を生成することであって、前記物体は、前記第1の修正画像および前記第2の修正画像内に修正された視差を有し、第1および第2の拡大画像によってシミュレートされた拡大シミュレーション撮影距離は前記修正された視差に対応する、前記第1の拡大画像および前記第2の拡大画像の幾何形状を修正することと、
    前記拡大3D画像をユーザーに対して前記第1の修正画像および前記第2の修正画像を表示することにより表示することと
    を含む、方法。
  2. 前記幾何形状を修正する前記手順は、前記選択された物体の少なくとも1つの画素を変位することによって実行される、請求項1に記載の方法。
  3. 前記少なくとも1つの画素の全ての変位が同じである、請求項2に記載の方法。
  4. 前記少なくとも1つの画素の選択された1つの変位が、前記少なくとも1つの画素の前記選択された1つの位置に依存する、請求項2に記載の方法。
  5. 選択されたユーザーを特性化するユーザーデータを受信する手順を更に含み、かつ、前記幾何形状を修正する前記手順は、更に前記ユーザーデータに従って実行されている、請求項1に記載の方法。
  6. 倍率に従って修正された視差を有する拡大3次元(3D)画像を生成するための方法であって、以下の手順:
    物体が、第1のカメラおよび第2のカメラから撮影距離に置かれていて、前記物体の第1の画像を前記第1のカメラによって取得し、前記物体の第2の画像を前記第2のカメラによって取得することと、
    前記物体の3Dモデルを生成することと、
    倍率パラメータを決定することと、
    拡大シミュレーション撮影距離を前記倍率パラメータに従って決定することであって、前記拡大シミュレーション撮影距離は、前記第1のカメラおよび前記第2のカメラからの前記物体のシミュレートされた距離であり、その位置で、前記物体は、前記倍率パラメータに従って拡大されるであろう、拡大シミュレーション撮影距離を決定することと、
    第1の拡大画像および第2の拡大画像を前記3Dモデルから生成することであって、前記第1の拡大画像および前記第2の拡大画像の各々は、前記拡大シミュレーション撮影距離から見えるであろうように前記物体を含み、前記第1および第2の拡大画像によってシミュレートされた前記拡大シミュレーション撮影距離は前記第1および第2の拡大画像内の修正された視差に対応する、第1の拡大画像および第2の拡大画像を前記3Dモデルから生成することと、
    前記拡大3D画像をユーザーに対して前記第1の拡大画像および前記第2の拡大画像を表示することにより表示することと
    を含む、方法。
  7. 選択されたユーザーを特性化するユーザーデータを受信する前記手順を更に含み、かつ、前記第1の拡大画像および前記第2の拡大画像を前記3Dモデルから生成する前記手順は、更に前記ユーザーデータに従って実行されている、請求項6に記載の方法。
  8. 前記3Dモデルは、前記第1の画像および前記第2の画像から生成される、請求項6に記載の方法。
  9. 前記3Dモデルは、前記第1の画像から、および外部の供給源から受信された3D物体データから生成される、請求項6に記載の方法。
  10. 倍率に従って修正された視差を有する拡大3D画像を生成するためのシステムであって、
    第1のカメラから撮影距離に位置している物体の第1の画像を取得するように構成された前記第1のカメラと、
    第2のカメラから前記撮影距離に位置している前記物体の第2の画像を取得するように構成された前記第2のカメラと、
    第1の拡大画像をユーザーに対して表示するように構成された第1のディスプレイと、
    第2の拡大画像を前記ユーザーに対して表示するように構成された第2のディスプレイと、
    前記第1のカメラ、前記第2のカメラ、前記第1のディスプレイおよび前記第2のディスプレイと結合された画像プロセッサであって、前記画像プロセッサは、前記第1の拡大画像および前記第2の拡大画像を倍率パラメータに従って生成するように構成され、前記物体は、拡大シミュレーション撮影距離ならびに前記第1の拡大画像および前記第2の拡大画像内の修正された視差を有し、前記拡大シミュレーション撮影距離は、前記第1および第2の拡大画像内の前記第1のカメラおよび前記第2のカメラからの前記物体のシミュレートされた距離であり、前記拡大シミュレーション撮影距離は前記修正された視差に対応する、画像プロセッサと
    を含む、システム。
  11. 前記画像プロセッサは、前記物体を含む前記第1の画像の部分を前記倍率パラメータに従って拡大することにより、前記第1の拡大画像を生成し、かつ前記物体を含む前記第2の画像の部分を前記倍率パラメータに従って拡大することにより、前記第2の拡大画像を生成するように構成され、前記画像プロセッサは、前記第1の拡大画像および前記第2の拡大画像の幾何形状を、前記倍率パラメータの関数として、修正するように更に構成されている、請求項10に記載のシステム。
  12. 前記画像プロセッサは、前記物体の3Dモデルを生成するように構成され、前記画像プロセッサは、拡大撮影距離を前記倍率パラメータに従って決定するように更に構成され、前記拡大撮影距離は、その位置で前記物体が前記倍率パラメータに従って拡大されたであろう、前記第1のカメラおよび前記第2のカメラからの前記物体のシミュレートされた距離であり、かつ、前記画像プロセッサは、前記第1の拡大画像および前記第2の拡大画像を前記3Dモデルから生成するように構成され、前記第1の拡大画像および前記第2の拡大画像の各々が、前記物体を、前記拡大撮影距離から見えるであろうように含む、請求項10に記載のシステム。
  13. 選択されたユーザーを特性化するユーザーデータを受信するように構成されたユーザーデータインタフェースを更に含み、かつ前記画像プロセッサは、前記第1の拡大画像および前記第2の拡大画像を更に前記ユーザーデータに従って生成するように更に構成されている、請求項10に記載のシステム。
JP2017534734A 2014-12-23 2015-12-21 拡大3d画像を生成するための方法およびシステム Pending JP2018500690A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL236420A IL236420A (en) 2014-12-23 2014-12-23 Methods and systems for producing an enlarged 3D image
IL236420 2014-12-23
PCT/IL2015/051236 WO2016103255A1 (en) 2014-12-23 2015-12-21 Methods and systems for producing a magnified 3d image

Publications (1)

Publication Number Publication Date
JP2018500690A true JP2018500690A (ja) 2018-01-11

Family

ID=54347963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017534734A Pending JP2018500690A (ja) 2014-12-23 2015-12-21 拡大3d画像を生成するための方法およびシステム

Country Status (7)

Country Link
US (1) US9918066B2 (ja)
EP (1) EP3238178B1 (ja)
JP (1) JP2018500690A (ja)
CN (1) CN107209949B (ja)
ES (1) ES2808873T3 (ja)
IL (1) IL236420A (ja)
WO (1) WO2016103255A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017212720A1 (ja) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6681467B2 (ja) 2016-06-08 2020-04-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US10869026B2 (en) * 2016-11-18 2020-12-15 Amitabha Gupta Apparatus for augmenting vision
US11612307B2 (en) 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
JP7025556B2 (ja) * 2018-01-31 2022-02-24 ミラティ セラピューティクス, インコーポレイテッド Prc2阻害剤

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH08336165A (ja) * 1995-06-09 1996-12-17 Canon Inc 複眼撮像装置
JPH1188910A (ja) * 1997-09-02 1999-03-30 Canon Inc 3次元モデル生成装置、3次元モデル生成方法、3次元モデル生成プログラムを記録した媒体、3次元モデル再生装置、3次元モデル再生方法及び3次元モデル再生プログラムを記録した媒体
WO2011121920A1 (ja) * 2010-03-30 2011-10-06 パナソニック株式会社 撮像制御装置、没入位置情報生成装置、撮像制御方法、没入位置情報生成方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
JPH11102438A (ja) 1997-09-26 1999-04-13 Minolta Co Ltd 距離画像生成装置及び画像表示装置
EP1314138A1 (en) 2000-08-04 2003-05-28 Dynamic Digital Depth Research Pty. Ltd. Image conversion and encoding technique
JP2002354505A (ja) 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2003052058A (ja) 2001-08-06 2003-02-21 Nippon Hoso Kyokai <Nhk> 立体画像撮像装置
WO2003034705A2 (en) 2001-10-19 2003-04-24 University Of North Carolina At Chapel Hill Methods and systems for dynamic virtual convergence and head mountable display
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US8248458B2 (en) 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
JP5450200B2 (ja) 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
JP5491786B2 (ja) * 2009-07-21 2014-05-14 富士フイルム株式会社 画像再生装置及び方法
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
JP2011205358A (ja) 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
DE202010007397U1 (de) 2010-05-31 2011-08-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Anzeigevorrichtung
JP5484577B2 (ja) 2010-06-30 2014-05-07 富士フイルム株式会社 画像処理装置、撮像装置及び画像処理方法
CN102577407B (zh) * 2010-06-30 2014-09-17 富士胶片株式会社 图像处理装置、拍摄装置及图像处理方法
US20130128003A1 (en) 2010-08-19 2013-05-23 Yuki Kishida Stereoscopic image capturing device, and stereoscopic image capturing method
JP5059922B2 (ja) * 2010-09-15 2012-10-31 シャープ株式会社 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
FR2969791B1 (fr) 2010-12-23 2012-12-28 Thales Sa Procede de correction de l'hyperstereoscopie et systeme de visualisation de casque associe
JP5133472B2 (ja) * 2011-04-01 2013-01-30 パナソニック株式会社 立体映像出力装置及び立体映像出力方法
US9191659B2 (en) 2011-11-16 2015-11-17 Christie Digital Systems Usa, Inc. Collimated stereo display system
JP6031755B2 (ja) 2011-12-14 2016-11-24 ソニー株式会社 立体画像撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH08336165A (ja) * 1995-06-09 1996-12-17 Canon Inc 複眼撮像装置
JPH1188910A (ja) * 1997-09-02 1999-03-30 Canon Inc 3次元モデル生成装置、3次元モデル生成方法、3次元モデル生成プログラムを記録した媒体、3次元モデル再生装置、3次元モデル再生方法及び3次元モデル再生プログラムを記録した媒体
WO2011121920A1 (ja) * 2010-03-30 2011-10-06 パナソニック株式会社 撮像制御装置、没入位置情報生成装置、撮像制御方法、没入位置情報生成方法

Also Published As

Publication number Publication date
IL236420A0 (en) 2015-04-30
WO2016103255A1 (en) 2016-06-30
CN107209949A (zh) 2017-09-26
EP3238178B1 (en) 2020-05-13
EP3238178A4 (en) 2018-04-25
US9918066B2 (en) 2018-03-13
ES2808873T3 (es) 2021-03-02
IL236420A (en) 2016-06-30
US20170359562A1 (en) 2017-12-14
EP3238178A1 (en) 2017-11-01
CN107209949B (zh) 2020-01-17

Similar Documents

Publication Publication Date Title
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US8208048B2 (en) Method for high dynamic range imaging
JP2019079552A (ja) イメージ形成における及びイメージ形成に関する改良
US9918066B2 (en) Methods and systems for producing a magnified 3D image
US9443338B2 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
JP2007052304A (ja) 映像表示システム
US11659158B1 (en) Frustum change in projection stereo rendering
KR102066058B1 (ko) 입체 디스플레이에서 조절 효과로 인한 왜곡 에러를 교정하기 위한 방법 및 장치
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
TW201837893A (zh) 動態顯示系統
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP2005026756A (ja) 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
US20220060680A1 (en) Head mounted display apparatus
JP2017098596A (ja) 画像生成方法及び画像生成装置
KR20170044319A (ko) 헤드 마운트 디스플레이의 시야 확장 방법
KR101779423B1 (ko) 영상처리방법 및 영상처리장치
JP7336871B2 (ja) 全天周映像処理装置及びプログラム
KR20240057994A (ko) 입체 디스플레이 콘텐츠를 생성하기 위한 방법 및 장치
CN115334296A (zh) 一种立体图像显示方法和显示装置
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法
JP2021507655A (ja) 視聴者に合わせて調整された立体画像表示
JP2016054417A (ja) 立体画像処理装置、立体撮像装置、立体表示装置および立体画像処理プログラム
Karwowski Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181212

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190820