JP2006042298A - 立体視画像作成方法および装置 - Google Patents
立体視画像作成方法および装置 Download PDFInfo
- Publication number
- JP2006042298A JP2006042298A JP2004319878A JP2004319878A JP2006042298A JP 2006042298 A JP2006042298 A JP 2006042298A JP 2004319878 A JP2004319878 A JP 2004319878A JP 2004319878 A JP2004319878 A JP 2004319878A JP 2006042298 A JP2006042298 A JP 2006042298A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- stereoscopic
- exclusion
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
【解決手段】 両眼視するときの左視覚像320の点bに対応する融合点は、右視覚像321の点aになる。左眼200と右眼201とが見るものが異なるので、点bを両眼で注視すると両眼視野闘争が起こる。左視覚像320上の点bはシャープな像であるのに対し、右視覚像321上の点aはボケた像である。この結果、シャープな点bの像が優先されて知覚される像となり、同距離にある対象物Bも優先されて知覚される像となる。したがって、ボケている点aおよび周辺の対象物Aの像は排除される像となる。
【選択図】 図3
Description
両眼でそれぞれ視差の付いた画像を観察する両眼立体視では、観察画像が平面であるためピント調節が有効に働かないという問題があるが、この問題を考慮しなくても、左眼位置から撮影した左眼用画像(通常の写真)を左眼で、右眼位置から撮影した右眼用画像(通常の写真)を右眼で観察する単純な立体視は、実世界で外界を両眼で観察している人間にとって、非常に不自然な視覚作用を与えることとなる。これが、既存の立体視がいわゆる疲れる原因の1つであり、1眼に基づく画像を強引に各眼に見させている訳であるから、両眼立体視するときの不自然感が助長されないわけはないのである。特に、写真画像のような広域でピントが合った画像を立体視用画像に用いると、このような不自然感は顕著となる。
上述した両眼視野闘争を低減する機能の1つは、ピント調節が有効に働く実世界で対象物を観察する人間の眼に備わった被写界深度による機能であるが、両眼立体視用画像を観察する立体視の場合でも、立体視用画像の画像内容に写されたボケの量を調節することによりこの機能を利用することが可能である。両眼立体視用画像を観察する場合は、観察者のピント調節位置は両眼立体視用画像上にあり、眼のピント調節が有効に働かない状態である。
「両眼視野闘争の起きる領域」とは、左右の眼で対応する融合点がない領域のこととする。
「両眼視野闘争は暖和する」または「両眼視野闘争は低減する」とは、両眼視野闘争が沈静化することで、その結果、観察者の眼に負担が掛からなくなり疲労感が小さい。
「両眼視野闘争は顕著になる」とは、両眼視野闘争が激しくなることで、その結果、像がゆらいで見え、安定した像が知覚されなくなって眼の疲労感が増す。
次に、被写界深度と像に表れるボケとの関係ついて説明する。観察者が実世界で外界を観察するとき、観察者の注視点の周辺にピントが合い、その結果、注視点がシャープに見え、その前方および後方はピントが合わずボケて見える。焦点が合った位置からの距離に比例して、ボケの量は大きくなる。いわゆる被写界深度に応じたボケの発生である。
このようなピント調節によって発生するボケの現象は、両眼で外界を観察するときに両眼視野闘争を低減する役割をする。日常生活の中で、両眼視野闘争が顕著に発生し脳で融像できなくなって混乱した外界の像を知覚することが少ないことの1つの理由は、左右の眼で異なったものを見たときに、両眼視野闘争が顕著に発生しないように、一方の眼の像がうまくボケてくれるからである。一方の眼の像がボケてくれるから、左右の眼で異なった像を知覚しても、ハッキリ見える像とボケて見える像とで優劣が付き、優先する像が速やかに選択され両眼視野闘争が緩和されるのである。
両眼視野闘争とボケの関係について図を参照して説明する。なお、図1(a)および(b)以外の添付の図面では表記上ボケを正確には表現できないので、線の太さおよび破線でボケの程度を表し、単線で表す。太線はピントが合っている状態を表し、破線はピントがボケている状態を表している。線の太さはボケの量(幅)を表している。細いものほどボケの量(幅)が大きい。
図3aは、図2の平面図で点bを注視する場合を示す図である。左眼200は、点bに焦点を合わせて対象物B上の点bを見ているが、対象物Dおよび点dは対象物Aの陰に隠れているので見えない。ただし対象物Dの上半分は見える。右傾斜のハッチングは左眼200から見えない領域を示す。
以上、図3および図4を参照して検証したことを整理すると、注視点位置と像のボケとは相互関係があり、隠重とボケの量の比較によって、まず両眼視野闘争が発生する領域(対象領域)が抽出され、両眼視するときに起こる両眼視野闘争の優先する領域および排除する領域を特定することができる。すなわち、以下の原理を見出すことができる。
の両眼視野闘争の発生する対象領域を抽出し、排除する領域を特定・抽出する。
[抽出法1]領域Xが領域Yより手前に位置する隠重の関係にあり、領域Yが見える一方の眼で、領域Xが領域Yよりボケていてより目立たなく見えるとき、領域Xは両眼視野闘争時の排除する領域である。
[抽出法2]領域Xが領域Yより手前に位置する隠重の関係にあり、かつ一方の眼のみで見える領域Yが領域Xよりボケていてより目立たなく見えるとき、領域Yは両眼視野闘争時の排除する領域である。
以上の領域を抽出する方法を具体的に適用する例を図5、6を参照して説明する。図3、4では人間が対象物を観察するとき、人間の眼の被写界深度による見え方について説明したが、図5、6は図3、4と同じ被写体を同じ視点位置からカメラで撮影した場合を示す。
図5aは、図3を参照して説明した左右眼の像を移し変えた画像を示す図である。図5aを参照して上述の抽出法1を用いた対象領域の抽出および排除領域の特定・抽出について説明する。左画像360は、左眼200より撮影した画像であり、対象物像AL、BL、DLは、それぞれ対象物A、B、Dが左眼200より撮影した左画像360に写った像である。点aLおよびbLは、それぞれ点aおよびbが左画像360に写った像である。
上述の実施例1では、対象領域の抽出にパターン認識技術およびこれを実装したプログラムを用いたが、これに限られず本発明で示す原理を適用可能ないかなる画像処理技術をも使用することができる。本実施例では、このような適用可能な技術の1つについて説明する。
図5bは、図3を参照して説明した左右眼像を移し変えた画像を示す図である。図5bを参照して上述の抽出法2を用いた対象領域の抽出および排除領域の特定について説明する。図5(b)では、手前の対象物がシャープに見えており、この対象物の後ろの対象物がボケて見えるが、一方の眼では一部が手前の対象物に隠れて見えない状態の画像である。
図5(c)は、一実施形態の対象物Aと対象物Bとの双方にピントが合っている場合を示す図である。既に述べたように、写真画像は被写界深度が深く、ピントが合っている範囲が広いので、このような場合がありうる。
抽出および特定・抽出された排除領域の加工について説明する。本発明は、写真等で作成した立体視左右画像を前提としているので、例えば図5bで示した各画像のハッチングした領域Y1および領域Y2は比較的シャープであり、実世界で直接見るときより目立ってハッキリ写っている場合が多い。そこで、左画像370上の領域Y1および右画像371上の領域Y2を立体視観察者が知覚することを弱めるように加工する。また、図5(a)で示した右画像521上の領域X1は、このボケの量が小さく両眼立体視したとき多少でもチラチラする場合は加工する。一般に両眼立体視における、対象物の前にあるボケは、後ろにあるボケより目立ち、両眼視野闘争が大きくなる傾向にある。両眼視野闘争が起こる領域で、排除される側の画像領域をより目立たなくすることによって、両眼視野闘争を緩和することができる。
原理1または2に従って、両眼視野闘争が起こる領域で、かつ優先されない方の領域を、左画像および右画像で別々に抽出し、この抽出した領域を加工することにより、左右それぞれの1眼に基づいて作成した視差のある左画像と右画像とを、両眼立体視用の左画像と右画像とに加工修正することとなる。
シャープで鮮明な画像より、ボケている画像の方が目立たない(ボカす処理は、本技術分野で知られる種々の方法を用いることができる)。ぼかし方は、図1aおよびbで示したように、後ろのボケはシャープな手前のものを侵食しない。手前のボケは後ろのシャープなものを侵食するようボカす。なお、以下で説明する(2)以降の加工も、ボカす加工と同様の条件で、境界線を侵食して、または侵食しないで加工することができる。
(2)排除領域内のコントラストを低くする
例えば、ボケているか否かにかかわらず、一色で塗られた面より、コントラストの強い方が目立つと考えられる。画像は画素で構成され、画素は色相、彩度、明度(色の3要素)の情報をもっている。コントラストを低くするとは排除領域内の画素を平均化することであり、コントラストを低くするには色相、彩度、明度(色の3要素)のいずれか1つの値を周辺の画素の持つ値に近づけることである。領域内で平均より飛び抜けた情報を持つ画素を平均値に近づけるだけでも、目立たなくなる。
(3)排除領域内の彩度、明度(輝度)を下げる
(4)色相を寒色系に近づける(一般に、寒色系の方が沈んだ色になる)
(5)排除領域内の色相、彩度、明度(色の3要素)を、もう一方の画像の排除領域に対応する領域(両眼視野闘争で優先される領域)に近づける
以上変形処理の一実施例を説明したが、以下に画像処理を実施するためのシステム構成について説明する。
上述の第2実施形態においては、立体視用画像を予め処理したが、立体視用画像を観察する観察者の注視点を検出して、これにボケを追加することも可能である。本実施形態では、注視点が移動するとこれを更新することにより、常に注視点からのボケを追加可能にする方法または装置が提供される。すなわち、ディスプレイに表示した立体視用画像を観察する観察者の注視点を検出して、この位置の元の3次元上の奥行き距離を判定し、3次元上の注視点位置から前後方向に段々ボカすことによって、新たに立体視用画像の観察者の被写界深度を付加することが可能となるのである。なお、ボケの追加の代わりに、排除領域の加工方法で説明した目立たなくする加工方法の少なくとも1つを適用することができ、擬似的な被写界深度の効果を付加することも可能である。
本発明の目的を考慮すると、立体視により立体視像をただ観賞する場合は、立体感のあるイメージが感知されればよいので、必ずしも厳密で正確な位置に立体像を結像する必要はない。このとき、立体視観賞者が左眼で左画像を、右眼で右画像を同時に観察して得られる結像点の輻輳角は、写真測量のように絶対値(測定値)によって認識されるのではなくて、あくまで、比較する2地点以上の結像点の輻輳角の広い方が手前に位置し、輻輳角の狭い方が奥に位置するという相対的な変化量(相対値)に基づいて認識されるものである。
第1の側面は、撮影時の輻輳角および観察時の輻輳角についてであるが、より正確には撮影時に映像に写された個々の三次元の対象物上の点(位置)の輻輳角(以下、この輻輳角を製作時映像輻輳角と定義し、その分布する空間を製作時映像輻輳角空間とする)と、撮影して写された映像を立体視する立体視観察者が知覚する輻輳角(以下、この輻輳角を観察時映像輻輳角と定義し、その分布する空間を観察時映像輻輳角空間と定義する)とである。立体視用の左右の映像に写しこまれている輻輳角であるという意味で、映像輻輳角と呼ぶ。また、観察時映像輻輳角は左右画像で対応する遠点の間隔が両眼幅に等しいときに得られる輻輳角とする。
第2の側面として、観察時の左右画像(基体)の配置される間隔について説明する。一般的には、立体視用左右画像は左右画像の対応する遠点が両眼幅の距離になるように左右に離して配置するが、立体像が飛び出す効果及び引っ込む効果を強調するために、左右画像の間隔を変えて離したり近づけたりすることは、通常よく行なわれている立体像の結像位置を操作する方法の1つである。
観察時映像輻輳角と基体輻輳角との関係について以下に説明する。観察時映像輻輳角は、上述したように立体視観察者の両眼幅だけ立体視左右画像を離して配置した結果画像上の各点と観察者の両眼により形成される輻輳角である。基体輻輳角が形成される点は各画像上に均一に分布しているので、基体輻輳角の基準点を観察時映像輻輳角の遠点に重ね合わせる位置とすることが可能である。
総合輻輳角=観察時映像輻輳角
となる。図7を参照すると、左画像403上の遠点PL1と右画像404上の遠点PR1との距離が両眼幅と等しくなるように左右画像を配置すると、左眼401と左画像403上の近点PL2とを結んだ線の延長線と、右眼402と右画像404上の近点PR2とを結んだ線の延長線とは交差して輻輳角θが形成される。輻輳角θが観察時映像輻輳角である。
θc>θ
となる。
θd>0
となる。ここで、θdは基体輻輳角である。
従って、立体視画像観察者が知覚する輻輳角を総合輻輳角とすると
総合輻輳角=基体輻輳角 + 観察時映像輻輳角
となる。ただし、この式は概念式で単純に両輻輳角を足したものではなく、基体輻輳角と観察時輻輳角とを総合することによって総合輻輳角を得ることができるといった意味である。
Dq2>Dq1
となる。
図13は、一実施形態の仮想傾斜面を模式的に表す図である。変形左右画像1201、1202上の点Ql1と点Qr1とを両眼401、402で融合すると観察者の眼には輻輳角QQQ1が付き、点Ql2と点Qr2とでは輻輳角QQQ2が付く。ここで、
Dq2>Dq1
であるので、輻輳角は
QQQ2<QQQ1
となる。すなわち、変形左右画像の上部では輻輳角が広くなり、下部では輻輳角が狭くなる。したがって、観察者の輻輳角によって形成される仮想面は、下部が観察者側に飛び出し、上部が奥に引っ込むこととなり、図13に示すように観察者の位置からみると上り坂のような仮想傾斜面1301が生成される。このように、元になる左右画像を変形させるだけで、立体視で感知する立体像に仮想傾斜面を生成することができる。この原理を用いれば、変形処理を工夫することによって映像内容を模した仮想傾斜面を生成することもできる。
本実施形態において作成された立体視画像は、左右画像に視差のある立体視用画像を観察する立体視装置であればいずれの装置でも使用可能である。2枚の画像ばかりでなく、多眼式と言われる一対の立体視画像のペアを多数使用した立体使用の装置でも利用可能である。例えば少しずつ視点が移動した4つのペアを組み合わせた8画像式でも良い。
図13においては比較的単調な傾斜を持つ仮想傾斜面であったが、上述の通り、仮想傾斜面はこれに限られず撮影あるいは作成された画像の特性に合わせて種々のものが考えられる。例えば、図14に示すように前記仮想の傾斜角が途中で変化するよう変形処理して左右画像1401、1402を作成し、階段状となるような仮想傾斜面1403とすることもできる。
図15に示すように仮想傾斜面1503が曲面であるものとすることもできる。図15のように、元の変形前の左右画像を変形左右画像1501、1502を形成するように画素の行単位で変形する。前述の歪み変形は、まとまった数の画素の行を変形するときに行なうが、細かな変形をするときは1行ごとに横方向に移動する。例えば、変形左右画像1501、1502は各画素の行を、中心部において最も離れ、上部と下部とにおいて近づける方向に移動して変形し、上下端部が最も近づくようにする。
このようにして形成された上述の仮想傾斜面上に観察時映像輻輳角が配分され、より奥行き感のある総合輻輳角空間を形成することができるが、図16に示すように傾斜面に対し全体的にフラットでない段差の付いた仮想傾斜面1603とすることもできる。これらの種々の仮想傾斜面を生成するための画像の変形処理は上述したように、既存の画像処理ソフトウェアを用いて容易に行うことができるが、変形処理の具体的な内容にかかわらず、仮想傾斜面を生成し立体感を向上させる方法および装置等はいずれも本願発明の範囲に属することは明らかである。
さらに具体的に仮想傾斜面の適用を検討すると、図17に示すような画像に適した変形処理を考えることができる。図17は、大地に立って特に作為がない状態で撮影された写真の例を示す図であり、写真の下部が足元になり、写真の下部から中段は地平線の奥行き方向の面が写り、さらに写真の地平線部分から上が、地平線部分から観察者側に向かってくる空と雲になる。
奥行き方向または左右方向に客観的に傾斜した画面に用いて表示することも可能である。この場合、傾斜した画面傾斜面に表示された画像は、射影変換された画像であるが、左右画像を左右画像を表示する傾斜した画面に射影し射影変換するとき、射影する基点はそれぞれの視点の近傍ではなく、左右視点を結ぶ線上の視点より離れた位置とすると仮想傾斜面が形成される。
図19において、対象物A、B、Cが左画像でAl、Bl、Cl、の位置にあり、右画像ではAr、Br、Crの位置にあり、これら(Al、Bl、Cl、Ar、Br、Cr)が左右画像の基体とそれぞれ一体化している。左画像1901と右画像1902は左右画像の上部をお互いに離れるように歪み変形処理したものである。画像変形処理によって基体輻輳角空間、すなわち仮想傾斜面1903の下部は観察者側に飛び出た上り坂となる。以上は図13の場合と同様である。
本実施形態では仮想対象物Av、Bv、Cvは前後方向に仮想傾斜面1903とほぼ並列に位置しているが、これと異なる場合もある。例えば、図19で示した仮想物Cvが手前にある対象物だとすると、図19の破線で示した仮想傾斜面1903の奥の部分に位置するので、仮想物Cvの映像輻輳角が大きくても、仮想傾斜面の基体輻輳角の影響によって、総合輻輳角は小さくなる。したがって輻輳角のみで立体視による仮想の位置を判断すると本来の位置より奥側となる。
立体視左右画像に全く同一の画像を左右に配置し変形処理して仮想傾斜角を形成することもできる。この場合は、1枚の2次元画像を使用した擬似立体視となる。このとき総合輻輳角は、映像輻輳角が0なので基体輻輳角の値と等しくなる。
103、104 隠重部分
200、401 左眼
201、402 右目
310、340 左視線
311、341 右視線
320、350、360、370、380 左視覚像
321、351、361、371、381 右視覚像
403 左画像
404 右画像
801 表示面
1001、1201、1401、1501、1601、1801、1901、2001 変形左画像
1002、1202、1402、1502、1602、1802、1902、2002 変形右画像
1003、1004 仮想画面
1301、1403、1503、1603、1803、1903 仮想傾斜面
2101 システム
2102 CPU
2103 RAM
2104 ROM
2105 画像入力部
2106 外部記憶装置
2107 画像出力部
Claims (19)
- 立体視用の左画像と右画像とを有する立体視画像作成方法であって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出ステップと、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出ステップと
を備えたことを特徴とする立体視画像作成方法。 - 前記排除領域抽出ステップにおいて抽出された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工ステップをさらに備えたことを特徴とする請求項1に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、両眼立体視用左右画像を使用する前に予め施されることを特徴とする請求項2に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、前記排除領域をぼかす加工であることを特徴とする請求項2または3に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、前記排除領域のコントラストを低くする加工であることを特徴とする請求項2または3に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、前記排除領域の彩度または明度を下げる加工であることを特徴とする請求項2または3に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、前記排除領域の色相を寒色系に近づける加工であることを特徴とする請求項2または3に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、前記排除領域の色相、彩度または明度を前記対象領域から該排除領域を除いた領域の色相、彩度または明度に近づける加工であることを特徴とする請求項2または3に記載の立体視画像作成方法。
- 前記より目立たなくさせる加工は、
(1)前記排除領域をぼかす加工
(2)前記排除領域のコントラストを低くする加工
(3)前記排除領域の彩度または明度を下げる加工
(4)前記排除領域の色相を寒色系に近づける加工、および
(5)前記排除領域の色相、彩度または明度を前記対象領域から該排除領域を除いた領域の色相、彩度または明度に近づける加工
のいずれか1つまたは組み合わせであることを特徴とする請求項2または3に記載の立体視画像作成方法。 - 立体視用の左画像と右画像とを有する立体視画像作成装置であって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出手段と、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出手段と
を備えたことを特徴とする立体視画像作成装置。 - 前記排除領域抽出手段において特定された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工手段をさらに備えたことを特徴とする請求項10に記載の立体視画像作成装置。
- 立体視用の左画像と右画像とを有する立体視画像を立体視する方法であって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出ステップと、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出ステップと
を備えたことを特徴とする立体視する方法。 - 前記排除領域抽出ステップにおいて抽出された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工ステップをさらに備えたことを特徴とする請求項12に記載の立体視する方法。
- 立体視用の左画像と右画像とを有する立体視画像を立体視させる装置であって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出手段と、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出手段と
を備えたことを特徴とする立体視画像を立体視させる装置。 - 前記排除領域抽出手段において抽出された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工手段をさらに備えたことを特徴とする請求項14に記載の立体視画像を立体視させる装置。
- 立体視用の左画像と右画像とを有する立体視画像作成装置を制御するプログラムであって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出ステップと、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出ステップと
を立体視画像作成装置に実行させるプログラム。 - 前記排除領域抽出ステップにおいて抽出された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工ステップをさらに実行させる請求項16に記載のプログラム。
- 立体視用の左画像と右画像とを有し、所定の表示面に表示される該左画像と右画像とにおいて対応する各点により生成される輻輳角によって仮想立体像を形成する立体視画像作成方法であって、
所定の表示面に表示される前記左画像と右画像とでそれぞれ対応する一対の融合点がない左右の対象領域を抽出する対象領域抽出ステップと、
前記左右の対象領域のいずれかの目立たない方の領域を特定して、該目立たない方の領域を排除領域として抽出する排除領域抽出ステップと
前記仮想立体像を形成するよう予め作成された立体視画像の左画像と右画像とを変形処理して、該立体視画像の各点により生成される輻輳角を所定の規則により増減させ、前記仮想立体像の奥行きを変化させて立体視効果を高める輻輳角変更ステップと
を備えたことを特徴とする立体視画像作成方法。 - 前記排除領域抽出ステップにおいて抽出された排除領域に対し、前記対象領域から該排除領域を除いた領域に比較して、より目立たなくさせる加工を施す排除領域加工ステップをさらに備えたことを特徴とする請求項18に記載の立体視画像作成方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004319878A JP4707368B2 (ja) | 2004-06-25 | 2004-11-02 | 立体視画像作成方法および装置 |
US10/562,926 US8000521B2 (en) | 2004-06-25 | 2005-06-24 | Stereoscopic image generating method and apparatus |
KR1020067026824A KR100881800B1 (ko) | 2004-06-25 | 2005-06-24 | 입체시 화상 작성 방법 및 장치, 입체시 화상 표시 장치 및 입체시 화상 작성 장치를 제어하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체 |
PCT/JP2005/011593 WO2006001361A1 (ja) | 2004-06-25 | 2005-06-24 | 立体視画像作成方法および装置 |
CN2005800208121A CN1973556B (zh) | 2004-06-25 | 2005-06-24 | 体视图像生成方法和装置 |
EP05753437A EP1771014A4 (en) | 2004-06-25 | 2005-06-24 | METHOD AND DEVICE FOR CREATING STEREOSCOPIC IMAGE |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004188949 | 2004-06-25 | ||
JP2004188949 | 2004-06-25 | ||
JP2004319878A JP4707368B2 (ja) | 2004-06-25 | 2004-11-02 | 立体視画像作成方法および装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006042298A true JP2006042298A (ja) | 2006-02-09 |
JP2006042298A5 JP2006042298A5 (ja) | 2010-11-25 |
JP4707368B2 JP4707368B2 (ja) | 2011-06-22 |
Family
ID=35781811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004319878A Expired - Fee Related JP4707368B2 (ja) | 2004-06-25 | 2004-11-02 | 立体視画像作成方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8000521B2 (ja) |
EP (1) | EP1771014A4 (ja) |
JP (1) | JP4707368B2 (ja) |
KR (1) | KR100881800B1 (ja) |
CN (1) | CN1973556B (ja) |
WO (1) | WO2006001361A1 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006129016A (ja) * | 2004-10-28 | 2006-05-18 | ▲吉▼良 雅貴 | 立体視画像生成装置および立体視画像生成方法 |
JP2007292956A (ja) * | 2006-04-24 | 2007-11-08 | Denso Corp | 表示装置 |
JP2007318307A (ja) * | 2006-05-24 | 2007-12-06 | Fujifilm Corp | 画像処理方法、撮影装置、および画像処理装置 |
JP2011029700A (ja) * | 2009-07-21 | 2011-02-10 | Fujifilm Corp | 画像再生装置及び方法 |
JP2012023546A (ja) * | 2010-07-14 | 2012-02-02 | Jvc Kenwood Corp | 制御装置、立体映像撮像装置、および制御方法 |
JP2012047995A (ja) * | 2010-08-27 | 2012-03-08 | Fujitsu Ltd | 情報表示装置 |
JP2012060317A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 表示制御装置、表示制御方法、及びプログラム |
WO2012098608A1 (ja) * | 2011-01-17 | 2012-07-26 | パナソニック株式会社 | 立体画像処理装置、立体画像処理方法およびプログラム |
WO2012098607A1 (ja) * | 2011-01-19 | 2012-07-26 | パナソニック株式会社 | 立体画像処理装置および立体画像処理方法 |
JP5002066B1 (ja) * | 2011-04-06 | 2012-08-15 | シャープ株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム、および、記録媒体 |
JP2013042227A (ja) * | 2011-08-11 | 2013-02-28 | Jvc Kenwood Corp | 三次元画像処理装置及び方法 |
JP5942195B2 (ja) * | 2010-10-27 | 2016-06-29 | パナソニックIpマネジメント株式会社 | 3次元画像処理装置、3次元撮像装置および3次元画像処理方法 |
WO2017085803A1 (ja) * | 2015-11-18 | 2017-05-26 | 株式会社日立製作所 | 映像表示装置及び映像表示方法 |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1710852B (zh) * | 2005-07-26 | 2010-08-11 | 北京飞天诚信科技有限公司 | 带有生物特征识别功能的智能密码钥匙及其工作方法 |
KR101396619B1 (ko) * | 2007-12-20 | 2014-05-16 | 삼성전자주식회사 | 3d 영상에 관한 부가 정보를 포함하는 3d 영상파일을생성 및 재생하기 위한 시스템 및 방법 |
US8208009B2 (en) * | 2008-02-05 | 2012-06-26 | Disney Enterprises, Inc. | Stereoscopic image generation using retinal rivalry in scene transitions |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
JP4725595B2 (ja) * | 2008-04-24 | 2011-07-13 | ソニー株式会社 | 映像処理装置、映像処理方法、プログラム及び記録媒体 |
CN102100076B (zh) * | 2008-07-24 | 2013-06-12 | 松下电器产业株式会社 | 能够进行立体视觉再生的再生装置、再生方法 |
US8330802B2 (en) * | 2008-12-09 | 2012-12-11 | Microsoft Corp. | Stereo movie editing |
JP5565001B2 (ja) * | 2010-03-04 | 2014-08-06 | 株式会社Jvcケンウッド | 立体映像撮像装置、立体映像処理装置および立体映像撮像方法 |
US9049434B2 (en) | 2010-03-05 | 2015-06-02 | Panasonic Intellectual Property Management Co., Ltd. | 3D imaging device and 3D imaging method |
WO2011108277A1 (ja) | 2010-03-05 | 2011-09-09 | パナソニック株式会社 | 立体撮像装置および立体撮像方法 |
WO2011108276A1 (ja) * | 2010-03-05 | 2011-09-09 | パナソニック株式会社 | 立体撮像装置、および立体撮像方法 |
JP2011248723A (ja) * | 2010-05-28 | 2011-12-08 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5541974B2 (ja) * | 2010-06-14 | 2014-07-09 | 任天堂株式会社 | 画像表示プログラム、装置、システムおよび方法 |
CN102420997B (zh) * | 2010-09-28 | 2014-07-30 | 承景科技股份有限公司 | 图像处理方法 |
US8687914B2 (en) * | 2010-10-13 | 2014-04-01 | Ability Enterprise Co., Ltd. | Method of producing an image |
JP2012100116A (ja) * | 2010-11-02 | 2012-05-24 | Sony Corp | 表示処理装置、表示処理方法およびプログラム |
KR20120051308A (ko) * | 2010-11-12 | 2012-05-22 | 삼성전자주식회사 | 3d 입체감을 개선하고 시청 피로를 저감하는 방법 및 장치 |
JP2012128662A (ja) * | 2010-12-15 | 2012-07-05 | Samsung Electronics Co Ltd | 表示制御装置、プログラムおよび表示制御方法 |
JP5050094B2 (ja) * | 2010-12-21 | 2012-10-17 | 株式会社東芝 | 映像処理装置及び映像処理方法 |
US8670023B2 (en) * | 2011-01-17 | 2014-03-11 | Mediatek Inc. | Apparatuses and methods for providing a 3D man-machine interface (MMI) |
US9983685B2 (en) | 2011-01-17 | 2018-05-29 | Mediatek Inc. | Electronic apparatuses and methods for providing a man-machine interface (MMI) |
JP5987267B2 (ja) * | 2011-03-28 | 2016-09-07 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP5757790B2 (ja) * | 2011-06-03 | 2015-07-29 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法 |
JP2012253690A (ja) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US8818101B1 (en) | 2012-01-03 | 2014-08-26 | Google Inc. | Apparatus and method for feature matching in distorted images |
US20130241805A1 (en) * | 2012-03-15 | 2013-09-19 | Google Inc. | Using Convergence Angle to Select Among Different UI Elements |
US9007460B2 (en) | 2012-03-30 | 2015-04-14 | General Electric Company | Methods and systems for predicting cloud movement |
CN102722893A (zh) * | 2012-06-29 | 2012-10-10 | 王天珍 | 遮挡存在时双眼图像立体合成的方法 |
US9185387B2 (en) | 2012-07-03 | 2015-11-10 | Gopro, Inc. | Image blur based on 3D depth information |
CN103546736B (zh) * | 2012-07-12 | 2016-12-28 | 三星电子株式会社 | 图像处理设备和方法 |
US9406105B2 (en) * | 2012-08-02 | 2016-08-02 | The Chinese University Of Hong Kong | Binocular visual experience enrichment system |
TWI458530B (zh) * | 2012-08-20 | 2014-11-01 | Au Optronics Corp | 娛樂顯示系統及其互動式立體顯示方法 |
US20140132595A1 (en) * | 2012-11-14 | 2014-05-15 | Microsoft Corporation | In-scene real-time design of living spaces |
TWI605418B (zh) * | 2013-04-15 | 2017-11-11 | 晨星半導體股份有限公司 | 影像編輯方法以及影像處理裝置 |
US9792502B2 (en) | 2014-07-23 | 2017-10-17 | Gopro, Inc. | Generating video summaries for a video using video summary templates |
US9685194B2 (en) | 2014-07-23 | 2017-06-20 | Gopro, Inc. | Voice-based video tagging |
JP5955373B2 (ja) * | 2014-12-22 | 2016-07-20 | 三菱電機株式会社 | 3次元立体表示装置および3次元立体表示信号生成装置 |
US9734870B2 (en) | 2015-01-05 | 2017-08-15 | Gopro, Inc. | Media identifier generation for camera-captured media |
US9979890B2 (en) | 2015-04-23 | 2018-05-22 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US10713501B2 (en) * | 2015-08-13 | 2020-07-14 | Ford Global Technologies, Llc | Focus system to enhance vehicle vision performance |
US9639560B1 (en) * | 2015-10-22 | 2017-05-02 | Gopro, Inc. | Systems and methods that effectuate transmission of workflow between computing platforms |
US10078644B1 (en) | 2016-01-19 | 2018-09-18 | Gopro, Inc. | Apparatus and methods for manipulating multicamera content using content proxy |
US9871994B1 (en) | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
US9787862B1 (en) | 2016-01-19 | 2017-10-10 | Gopro, Inc. | Apparatus and methods for generating content proxy |
US10129464B1 (en) | 2016-02-18 | 2018-11-13 | Gopro, Inc. | User interface for creating composite images |
US9972066B1 (en) | 2016-03-16 | 2018-05-15 | Gopro, Inc. | Systems and methods for providing variable image projection for spherical visual content |
TWI608448B (zh) * | 2016-03-25 | 2017-12-11 | 晶睿通訊股份有限公司 | 計數流道設定方法、具有計數流道設定功能的影像監控系統、及其相關的電腦可讀取媒體 |
US10402938B1 (en) | 2016-03-31 | 2019-09-03 | Gopro, Inc. | Systems and methods for modifying image distortion (curvature) for viewing distance in post capture |
US9838730B1 (en) | 2016-04-07 | 2017-12-05 | Gopro, Inc. | Systems and methods for audio track selection in video editing |
US10229719B1 (en) | 2016-05-09 | 2019-03-12 | Gopro, Inc. | Systems and methods for generating highlights for a video |
US9953679B1 (en) | 2016-05-24 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a time lapse video |
US9716825B1 (en) | 2016-06-12 | 2017-07-25 | Apple Inc. | User interface for camera effects |
US9922682B1 (en) | 2016-06-15 | 2018-03-20 | Gopro, Inc. | Systems and methods for organizing video files |
US9967515B1 (en) | 2016-06-15 | 2018-05-08 | Gopro, Inc. | Systems and methods for bidirectional speed ramping |
US10045120B2 (en) | 2016-06-20 | 2018-08-07 | Gopro, Inc. | Associating audio with three-dimensional objects in videos |
US10395119B1 (en) | 2016-08-10 | 2019-08-27 | Gopro, Inc. | Systems and methods for determining activities performed during video capture |
US9953224B1 (en) | 2016-08-23 | 2018-04-24 | Gopro, Inc. | Systems and methods for generating a video summary |
US10268898B1 (en) | 2016-09-21 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video via segments |
US10282632B1 (en) | 2016-09-21 | 2019-05-07 | Gopro, Inc. | Systems and methods for determining a sample frame order for analyzing a video |
US10044972B1 (en) | 2016-09-30 | 2018-08-07 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10397415B1 (en) | 2016-09-30 | 2019-08-27 | Gopro, Inc. | Systems and methods for automatically transferring audiovisual content |
US10002641B1 (en) | 2016-10-17 | 2018-06-19 | Gopro, Inc. | Systems and methods for determining highlight segment sets |
US10339443B1 (en) | 2017-02-24 | 2019-07-02 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
US9916863B1 (en) | 2017-02-24 | 2018-03-13 | Gopro, Inc. | Systems and methods for editing videos based on shakiness measures |
US10360663B1 (en) | 2017-04-07 | 2019-07-23 | Gopro, Inc. | Systems and methods to create a dynamic blur effect in visual content |
US10395122B1 (en) | 2017-05-12 | 2019-08-27 | Gopro, Inc. | Systems and methods for identifying moments in videos |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
US10614114B1 (en) | 2017-07-10 | 2020-04-07 | Gopro, Inc. | Systems and methods for creating compilations based on hierarchical clustering |
US10402698B1 (en) | 2017-07-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for identifying interesting moments within videos |
US10372298B2 (en) | 2017-09-29 | 2019-08-06 | Apple Inc. | User interface for multi-user communication session |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
DK201870364A1 (en) | 2018-05-07 | 2019-12-03 | Apple Inc. | MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10674072B1 (en) | 2019-05-06 | 2020-06-02 | Apple Inc. | User interfaces for capturing and managing visual media |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11431891B2 (en) | 2021-01-31 | 2022-08-30 | Apple Inc. | User interfaces for wide angle video conference |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11822761B2 (en) | 2021-05-15 | 2023-11-21 | Apple Inc. | Shared-content session user interfaces |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11893214B2 (en) | 2021-05-15 | 2024-02-06 | Apple Inc. | Real-time communication user interface |
US11770600B2 (en) | 2021-09-24 | 2023-09-26 | Apple Inc. | Wide angle video conference |
US11995859B2 (en) | 2021-10-28 | 2024-05-28 | Mineral Earth Sciences Llc | Sparse depth estimation from plant traits |
US20230133026A1 (en) * | 2021-10-28 | 2023-05-04 | X Development Llc | Sparse and/or dense depth estimation from stereoscopic imaging |
US20240012472A1 (en) * | 2022-07-08 | 2024-01-11 | Tencent America LLC | Vergence based gaze matching for mixed-mode immersive telepresence application |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316541A (ja) * | 1992-05-07 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | 両眼立体視装置 |
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
JPH078055B2 (ja) * | 1992-10-21 | 1995-01-30 | 幹次 村上 | 立体撮像支援装置 |
US5768404A (en) * | 1994-04-13 | 1998-06-16 | Matsushita Electric Industrial Co., Ltd. | Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods |
JPH0829725A (ja) * | 1994-05-10 | 1996-02-02 | Canon Inc | 複眼式画像表示装置 |
JP3771964B2 (ja) * | 1996-03-12 | 2006-05-10 | オリンパス株式会社 | 立体映像ディスプレイ装置 |
GB9611939D0 (en) * | 1996-06-07 | 1996-08-07 | Philips Electronics Nv | Stereoscopic image display driver apparatus |
JP3787939B2 (ja) | 1997-02-27 | 2006-06-21 | コニカミノルタホールディングス株式会社 | 立体映像表示装置 |
US6157733A (en) * | 1997-04-18 | 2000-12-05 | At&T Corp. | Integration of monocular cues to improve depth perception |
AUPO894497A0 (en) * | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
US7116323B2 (en) * | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
WO2000013423A1 (en) | 1998-08-28 | 2000-03-09 | Sarnoff Corporation | Method and apparatus for synthesizing high-resolution imagery using one high-resolution camera and a lower resolution camera |
US6714672B1 (en) * | 1999-10-27 | 2004-03-30 | Canon Kabushiki Kaisha | Automated stereo fundus evaluation |
JP4729812B2 (ja) * | 2001-06-27 | 2011-07-20 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
EP1415482A1 (en) * | 2001-07-27 | 2004-05-06 | Koninklijke Philips Electronics N.V. | Autostereoscopic image display with observer tracking system |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP2003284093A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP4069855B2 (ja) * | 2003-11-27 | 2008-04-02 | ソニー株式会社 | 画像処理装置及び方法 |
US7257272B2 (en) * | 2004-04-16 | 2007-08-14 | Microsoft Corporation | Virtual image generation |
JP4530803B2 (ja) | 2004-10-28 | 2010-08-25 | ▲吉▼良 雅貴 | 立体視画像生成装置および立体視画像生成方法 |
-
2004
- 2004-11-02 JP JP2004319878A patent/JP4707368B2/ja not_active Expired - Fee Related
-
2005
- 2005-06-24 KR KR1020067026824A patent/KR100881800B1/ko not_active IP Right Cessation
- 2005-06-24 US US10/562,926 patent/US8000521B2/en not_active Expired - Fee Related
- 2005-06-24 CN CN2005800208121A patent/CN1973556B/zh not_active Expired - Fee Related
- 2005-06-24 EP EP05753437A patent/EP1771014A4/en not_active Withdrawn
- 2005-06-24 WO PCT/JP2005/011593 patent/WO2006001361A1/ja not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316541A (ja) * | 1992-05-07 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | 両眼立体視装置 |
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4530803B2 (ja) * | 2004-10-28 | 2010-08-25 | ▲吉▼良 雅貴 | 立体視画像生成装置および立体視画像生成方法 |
JP2006129016A (ja) * | 2004-10-28 | 2006-05-18 | ▲吉▼良 雅貴 | 立体視画像生成装置および立体視画像生成方法 |
JP2007292956A (ja) * | 2006-04-24 | 2007-11-08 | Denso Corp | 表示装置 |
JP2007318307A (ja) * | 2006-05-24 | 2007-12-06 | Fujifilm Corp | 画像処理方法、撮影装置、および画像処理装置 |
JP2011029700A (ja) * | 2009-07-21 | 2011-02-10 | Fujifilm Corp | 画像再生装置及び方法 |
JP2012023546A (ja) * | 2010-07-14 | 2012-02-02 | Jvc Kenwood Corp | 制御装置、立体映像撮像装置、および制御方法 |
JP2012047995A (ja) * | 2010-08-27 | 2012-03-08 | Fujitsu Ltd | 情報表示装置 |
JP2012060317A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 表示制御装置、表示制御方法、及びプログラム |
JP5942195B2 (ja) * | 2010-10-27 | 2016-06-29 | パナソニックIpマネジメント株式会社 | 3次元画像処理装置、3次元撮像装置および3次元画像処理方法 |
WO2012098608A1 (ja) * | 2011-01-17 | 2012-07-26 | パナソニック株式会社 | 立体画像処理装置、立体画像処理方法およびプログラム |
US8750601B2 (en) | 2011-01-17 | 2014-06-10 | Panasonic Corporation | Three-dimensional image processing device, and three-dimensional image processing method |
JP5820985B2 (ja) * | 2011-01-19 | 2015-11-24 | パナソニックIpマネジメント株式会社 | 立体画像処理装置および立体画像処理方法 |
US9282311B2 (en) | 2011-01-19 | 2016-03-08 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional image processing apparatus and three-dimensional image processing method |
WO2012098607A1 (ja) * | 2011-01-19 | 2012-07-26 | パナソニック株式会社 | 立体画像処理装置および立体画像処理方法 |
JP5002066B1 (ja) * | 2011-04-06 | 2012-08-15 | シャープ株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム、および、記録媒体 |
WO2012137520A1 (ja) * | 2011-04-06 | 2012-10-11 | シャープ株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム、および、記録媒体 |
JP2013042227A (ja) * | 2011-08-11 | 2013-02-28 | Jvc Kenwood Corp | 三次元画像処理装置及び方法 |
WO2017085803A1 (ja) * | 2015-11-18 | 2017-05-26 | 株式会社日立製作所 | 映像表示装置及び映像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1771014A1 (en) | 2007-04-04 |
US8000521B2 (en) | 2011-08-16 |
KR100881800B1 (ko) | 2009-02-03 |
KR20070034506A (ko) | 2007-03-28 |
JP4707368B2 (ja) | 2011-06-22 |
US20060158730A1 (en) | 2006-07-20 |
CN1973556B (zh) | 2011-07-06 |
CN1973556A (zh) | 2007-05-30 |
EP1771014A4 (en) | 2011-06-08 |
WO2006001361A1 (ja) | 2006-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4707368B2 (ja) | 立体視画像作成方法および装置 | |
EP3035681B1 (en) | Image processing method and apparatus | |
US20090066786A1 (en) | Depth Illusion Digital Imaging | |
US9443338B2 (en) | Techniques for producing baseline stereo parameters for stereoscopic computer animation | |
KR20180120801A (ko) | 양안 및 단안시 간의 전환 | |
JP2010154422A (ja) | 画像処理装置 | |
KR102281462B1 (ko) | 전자 디스플레이 앞에 또는 위에 투사한 것처럼 보이는 가상의 3차원 이미지를 생성하는 시스템, 방법 및 소프트웨어 | |
KR20120075829A (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
US10885651B2 (en) | Information processing method, wearable electronic device, and processing apparatus and system | |
TWI589150B (zh) | 3d自動對焦顯示方法及其系統 | |
GB2566276A (en) | A method of modifying an image on a computational device | |
Hansen et al. | Light field rendering for head mounted displays using pixel reprojection | |
EP1875306A2 (en) | Depth illusion digital imaging | |
EP3903278A1 (en) | Device and method for enhancing images | |
JP5428723B2 (ja) | 画像生成装置、画像生成方法、および、プログラム | |
JP2005284183A (ja) | 立体視画像作成方法および装置 | |
US10475233B2 (en) | System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium | |
CN115334296A (zh) | 一种立体图像显示方法和显示装置 | |
JP2021507655A (ja) | 視聴者に合わせて調整された立体画像表示 | |
WO2018187724A1 (en) | System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101008 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110315 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |