JP2000512833A - 単眼視キューの統合による奥行き知覚の改善 - Google Patents

単眼視キューの統合による奥行き知覚の改善

Info

Publication number
JP2000512833A
JP2000512833A JP10545736A JP54573698A JP2000512833A JP 2000512833 A JP2000512833 A JP 2000512833A JP 10545736 A JP10545736 A JP 10545736A JP 54573698 A JP54573698 A JP 54573698A JP 2000512833 A JP2000512833 A JP 2000512833A
Authority
JP
Japan
Prior art keywords
image
objects
foreground
background
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10545736A
Other languages
English (en)
Inventor
カサンドラ ターナー スウェイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AT&T Corp filed Critical AT&T Corp
Publication of JP2000512833A publication Critical patent/JP2000512833A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6646Methods for processing data by generating or executing the game program for rendering three dimensional images for the computation and display of the shadow of an object or character

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 一つ以上の単眼視キューをオリジナル画像から抽出して組み合わせ、奥行き効果を向上させる。オリジナル画像を獲得し、一つ以上のオブジェクトにセグメンテーションする。オブジェクトが、前景または背景のいずれに存在するかが識別され、注目オブジェクトが識別される。次に、一つ以上の奥行きキュー、たとえば、陰影、輝度、ぼかし、および遮蔽などをオリジナル画像より抽出する。奥行きキューは、改善された奥行き効果を有する一つ以上の中間画像とすることができる。次に、奥行きキューが、組み合わされ、または適用され、奥行き効果を向上させた画像が生成される。

Description

【発明の詳細な説明】 単眼視キューの統合による奥行き知覚の改善 背景 本発明は、画像処理に関し、特に、単独の2次元画像から得られる単眼視キュ ー(cue)を使用し奥行き知覚を改善する新規な手法に関する。 従来、2次元画像から奥行きを認識する機能は、両眼視法によって実現されて きた。両眼視法は、D.MarrとT.Poggioによる“Cooperat ive Computation of Stereo Disparity” 、Science、194巻283〜287ページ(1976)およびS.Ba rnardとM.Fischlerによる“Computational St ereo”、Computing Surveys、14巻、4号、553〜5 72ページ(1982年12月)に論じられている。両眼視奥行きキュー、たと えばディスパリティ(disparity)、は多数の画像(すなわち、ステレ オペアの画像)および対応点の突き合わせを必要とし、計算が複雑であり誤りを 犯しやすいタスクである。ごく最近、研究者は、異なるアパーチャを使用し画像 を比較する単眼視法を開発した。この方法は、A.Pentlandによる“a New Sense For Depth of Field”、IEEE T ransactions on Pattern Analysis and Machine Intelligence、9巻、4号(1987年7月)お よびG.SuryaとM.Subbaraoによる“Depth From D efocus By Changing Camera Aperture:S patial Domain Approach”、Proseedings of IEEE Transactions on Pattern Anal ysis and Machine Intelligence、61〜67ペ ージ(1993年)に論じられている。単眼視奥行きキュー、たとえば、ぼかし (blur)は、奥行きを認識するために使用されてきた。これらの手法におい ては、点の突き合わせは必要でないが、奥行き知覚のために多数の画像が必要と される。 研究者は、両眼視キューと単眼視キューの統合に注目し始めた。幾人かの研究 者は、キューを組み合わせた結果によって、2次元画像から奥行きを認識するこ とを研究した。この形式の研究の例には、たとえば、N.Gershonによる “Visualizing 3D PET Images”、IEEE Com puter Graphics and Applications、11巻、 3号、11〜13ページ(1991年)、およびS.MarapaneとM.T rivediによる“An Active Vision System Fo r Depth Extraction Using Multi−Primi tive Hierarchical Stereo Analysis an d Multiple Depth Cues”、SPIE、vol.1956 、250〜262ページ(1993年)などがある。 このほかに、これらの異なるキューが、どのように相互作用し奥行き効果を生 成するかを研究したものもある。これらの研究においては、両眼視キューは、2 次元画像の奥行き知覚において重要であり大きな寄与を果たすものと考えられて きた。しかし、前述したように、これらのキューを抽出するために多数の画像が 必要とされる。この種の研究の例には、R.Surdickらによる“Rele vant Cues For the Visua1 Perception of Depth:Is Where You See It Where I t Is?”、Proceedings on the 38th Meeti ng On Human Factors and Ergonomics S ociety、1305〜1309ページ(1994年)、R.Sriniva sanらによる“Computing Surface Informatio n From Monocular and Binocular Cues For Vision Applications”、Proceedings of the 27th Conference of Decision and Control、1085〜1089ページ(1988年)、および S.Dasらによる“Dynamic Integration of Vis ual Cues For Position Estimation”、SP IE、 vol.1382、341〜352ページ(1990年)が含まれる。 したがって、単独の画像から得られる単眼視キューのみを使用して奥行き知覚 を改善する方法が必要とされている。 発明の概要 本発明による画像処理方法は、画像を変形し奥行き効果を強調するものであり 、単独の画像から抽出される単眼視キューのみを使用して先行技術を改善する。 本発明による画像処理技術は、単独の2次元画像からの一つ以上の奥行きキュ ーを抽出し、次に、これらのキューを組み合わせ、3次元効果を生成することを 含む。 最初に、オリジナル画像が獲得され、メモリに記憶される。次に、オリジナル 画像中のオブジェクトが識別され、セグメンテーションが行われる。オリジナル 画像中の各オブジェクトを識別するセグメンテーションマップを生成してもよい 。次に、オリジナル画像中の各オブジェクトは、前景または背景のいずれかに存 在するとして識別される。(通常は前景に含まれる)注目オブジェクトが、識別 される。次に、一つ以上の奥行きキュー、たとえば、陰影、輝度、ぼかしおよび 遮蔽のキューが、オリジナル画像から抽出される。奥行きキューは、改善された 奥行き効果を有する一つ以上の中間画像の形式とすることができる。 陰影は、前景の注目オブジェクトに形状を抽出し、この形状を暗色化し陰影の ようにグレーとすることによって生成することができる。中間陰影画像は、暗色 化した陰影を背景または一つ以上の背景オブジェクトに適用し、陰影付け効果を 創成することによって生成される。中間輝度画像は、注目オブジェクトの相対強 度すなわち輝度を増加させることによって生成することができる。中間ぼかし画 像は、オリジナル画像をぼかし処理すること、または注目オブジェクト以外のす べてのオブジェクトをぼかし処理することによって生成される。 一つ以上の中間画像を組み合わせて、組み合わせ画像を生成することができる 。 次に、組み合わせ画像は、注目オブジェクトを拡大することによって、さらに強 調されるので、組み合わせ画像中の他のオブジェクトはさらに隠されることにな る。中間画像を並行して生成するよりもむしろ、中間画像を生成することなく、 4種のキューのそれぞれが順次に抽出され、オリジナル画像に適用されるように することができる。奥行き効果の向上を実現するために、4種の奥行きキューす べてを適用することは必ずしも必要ではない。一つ以上キューを適用し奥行きを 強調することができる。複数の奥行きキューを組み合わせて最適結果を得ること が望ましい。 図面の簡単な説明 図1は、本発明の実施形態に従って、単眼視キューを使用して画像を変形し、 奥行き知覚を改善する作業を示す流れ図である。 図2Aおよび2Bは、本発明の実施形態に従って、注目オブジェクトの陰影を 生成し、背景オブジェクト上に陰影を投影する方法を示す図である。 図3は、本発明の実施形態に従って、画像のサイズを増大または縮小させる方 法を示す図である。 図4Aから4Eまでは、本発明の実施形態に従って、奥行き知覚を向上させる ための、ぼかし、陰影、および輝度奥行きキューの適用処理を説明するための図 である。 図5Aから5Dまでは、本発明の実施形態に従って、奥行き知覚を向上させる ための、ぼかしおよび遮蔽奥行きキューの適用処理を説明するための図である。 図6は、本発明を具体化するために使用することができるコンピュータシステ ムの実施形態を示すブロック図である。 詳細な説明 各図面の符号は、同じ数字は同じ要素を示す。図1は、本発明の実施形態に従 つて、単眼視キューを使用して画像を変形し、奥行き知覚を改善する処理の流れ を示す流れ図である。奥行きキューを使用して、奥行きおよび次元が認識される 。本発明は、単独の2次元画像から奥行きキューを抽出すること、および、次に 、これらのキューを組み合わせ3次元効果を生成することを含む。図1に示す実 施形態においては、奥行き知覚を改善するために使用される奥行きキューは、陰 影、輝度、ぼかし、および遮蔽である。他の奥行きキューも使用することができ る。 図1について述べると、ステップ110において、カメラまたは類似の装置を 使用し、画像が獲得される。このオリジナル画像をディジタル化し(ディジタル 形式になっていない場合)、メモリに記憶させる。画像は、NXN画素のビット マップ画像とすることができる。各画素は、単色画像の場合は、その画素に関連 する強度すなわち輝度を有し(すなわちグレースケール)、カラー画像の場合は 、その画素に関連するカラーを有する。単色画像の各画素は、たとえば、8ビッ トを使用して表すことが可能であり、これによれば、0から255までの256 の強度値が与えられ、0は最も暗いすなわち最低の強度であり、255は最も明 るいすなわち最高の強度である。本発明の実施形態は単色画像の観点から述べる が、本発明はカラー画像にも同様に適用できる。 ステップ120において、オリジナル画像はセグメンテーションにより一つ以 上のオブジェクトに分けられる。画像内のオブジェクトは、利用可能な技術を使 用してセグメンテーションすることができる。 たとえば、ある技術を使用し、幾つかのオブジェクトの別々の画像(たとえば 、人間、本および机)を、別々に獲得しメモリに記憶することができる。次に、 コンピュータによって、別々の各画像のオブジェクトをオリジナル画像のオブジ ェクトと突き合わせる(すなわち、オブジェクトの形状とカラー/強度の少なく とも一方を突き台わせる)ことによって、オリジナル画像の各オブジェクトを識 別することができる。 オブジェクトをセグメンテーションする第2の手法は、同じ(または、ほぼ同 じ)強度またはカラーを有し、互いに極めて近接している画素をセグメンテーシ ョンすなわちグループ化することである。 検出される運動に基づいてオブジェクトをセグメンテーションする第3の手法 を使用することもできる。この第3手法を使用し、同じ画像の複数の連続するフ レームを、一定の期間、同じ点から撮り、記憶させることができる。各フレーム の対応する画素の強度または色を比較し、変化した(運動を示す)画素を識別す る。変化しかつ互いに極めて近接している画素群は、一つ以上のセグメンテーシ ョンされたオブジェクトとして一緒にグループ化することができる。 オブジェクトのセグメンテーションが完了すると、オリジナル画像中の各オブ ジェクトの位置および境界を識別するセグメンテーションマップが、各セグメン テーションされたオブジェクトに対して生成される。セグメンテーションマップ は、たとえば、オブジェクトが白(すなわち、255の画素値)であり他は黒で ある2値画像とすることができる。次に、オリジナル画像の各オブジェクトは、 前景または背景のいずれかに存在するものとして識別される。この識別は、オリ ジナル画像をマニュアルで検査することによって実行することができる。また、 オリジナル画像の一つ以上の注目オブジェクトを識別することもできる。通常、 注目オブジェクトは、画像の前景内の人間またはアイテムである。 ステップ130において、注目オブジェクト(すなわち前景のオブジェクト) の陰影が、オリジナル画像から生成される。陰影処理(すなわち、陰影の使用) によって、奥行き知覚が改善される。なぜなら、陰影を投影するオブジェクトは 、必ず陰影が投影されたオブジェクトの前に見えるためである。陰影は、前景中 の注目オブジェクトの形状を抽出し、それを暗色化し陰影のようなグレーとする ことによって生成することができる。 次に、ステップ140において、生成された陰影は、オリジナル画像の背景オ ブジェクトに適用され、中間陰影画像が生成される。背景オブジェクトが自分の 上に陰影が投影をされるほど十分に接近している場合には、陰影処理を使用し奥 行き知覚を改善することが極めて有効である。背景オブジェクトが注目オブジェ クトから余りにも離れているときは、結果として、陰影キューを使用することが 有効でない場合がある。 ステップ150において、オリジナル画像の前景の注目オブジェクトの輝度ま たは強度が増加され、中間輝度画像が生成される。輝度キューの場合は、比較的 近いオブジェクトは、遠いオブジェクトより明るく見える。したがって、本発明 によって、比較的近いオブジェクトの強度を増大させることによって、それらの オブジェクトの輝度が誇張される。たとえば、一つ以上の注目オブジェクトのす べての画素を、20だけ増大させることができる(0から255の範囲の画素強 度に対して)。前景の注目オブジェクトの位置に比べて背景オブジェクトの相対 位置の如何に関わらず、常に、輝度を使用して奥行き知覚を改善することができ る。代替方法としては、注目オブジェクト以外のすべてのオブジェクトの強度を 低下させて輝度効果を実現することができる。 ステップ160において、一つ以上のオブジェクトがぼかし処理され、中間ぼ かし画像が生成される。ぼかしは、画像の詳細を失わせる手法である。ぼかしキ ューの場合は、オブジェクトに焦点が合わされると、他のオブジェクトはぼかさ れることになる。ぼかしの量は、焦点の合わされたオブジェクトからの奥行きに よって変わる。本発明においては、一つ以上のオブジェクト(またはその一部) がぼかし処理され、画像中のオブジェクトの奥行きが誇張される。ぼかし処理は 、注目オブジェクトの相対位置に関係なく、常時、使用することができる。ぼか し処理は、奥行き知覚を向上させる場合に、最も有効なキューである。 異なるぼかし処理技術を使用し、画像中のオブジェクトの奥行きを誇張するこ とができる。第1のぼかし処理技術においては、注目する前景オブジェクトはオ リジナル画像から除去される。残りの画像が、次に、ぼかし処理される。次に、 注目オブジェクトが残りの画像の上にスーパーインポーズされ、中間ぼかし画像 が生成される。この代わりの方法においては、注目する前景オブジェクトを除去 することが必要でない。(焦点を合わされた)注目の前景オブジェクトをコピー し、次に、それを、全体的にぼかし処理した画像の上にスーパーインポーズし、 所望の奥行き効果を実現することができる。 第2のぼかし処理技術は、画像の放射状ぼかしを使用する。オリジナル画像上 の観察者に最も近い点、たとえば、本の端部または人間の鼻が選択される。選択 された点はぼかし処理されない。なぜなら、この点は画像の最も近い点であり、 焦点を合わされた状態のままであるためである。オリジナル画像全体は、選択さ れた点から外側になるほど強く、すなわち放射状に強くぼかし処理される。画像 のぼかし処理の量は、選択された点からの距離に比例して増大される。この代わ りの方法として、画像全体(選択された点または領域以外)を固定量だけぼかし 処理することもできる。 また、ぼかし処理画像は、単独点光源に対するカメラの応答である。この応答 は、カメラ点像分布関数(PSF)、h(x、y)と呼ばれる。 この関数はガウス関数として近似することが可能であり、ぼかし処理された画像 g(x、y)は、焦点を合わされたオリジナル画像f(x、y)をPSF h( x、y)によってコンボリューション演算することによって生成することができ る。 g(x、y)=f(x、y)*h(x、y) ここで、xおよびyは画像中の位置を示す指標であり、σはぼかしに影響を及ぼ すために利用者によって選択される定数である。ガウス関数においては、σは分 散である。前述したh(x、y)に関する式において、σはぼかし処理される画 素の幅すなわち範囲に影響を及ぼす。 ステップ170において、3種の奥行き強調した中間画像のすべてが組み合わ される。それら中間画像は、3種の中間奥行き強調画像から得られる互いに対応 する画素の値同士を加算することによって、加法的に組み合わせることができる 。次に、累積された画素値の各々は3で除算される。したがって、組み合わせ画 像を生成するために、陰影キュー、輝度キュー、およびぼかしキューからの寄与 が等しく存在する。 代わりの方法として、キューを不均等に重み付けすることもできる。たとえば 、ぼかしは最も有効なキューであるので、ぼかしキューに他のキューより大きな 重みを与えることができる。たとえば、これは、中間ぼかし画像の画素値に2を 乗じ、この中間ぼかし画像の画素値を他の中間画素値に加え、次に、累積された 画素値を4で除し、ぼかしキューにより大きい重みを付けることができる。この 例において、ぼかしキューの寄与は50%であるが、一方、陰影キューおよび輝 度キューの寄与はそれぞれ25%である。 ステップ180において、前景の注目オブジェクトがサイズを増大され、組み 合わせ画像におけるさらにより多くの他のオブジェクトを遮蔽すなわち遮る。遮 蔽は、被遮蔽オブジェクトが遮蔽オブジェクト(注目オブジェクト)からさらに 引き離されることを意味する。本発明による一実施形態によれば、前景の注目オ ブジェクトを拡大またはサイズを増大させることによって遮蔽効果を生成し、前 景の注目オブジェクトが一層近接したように見せる。代わりの方法として、残り の(背景)オブジェクトのサイズを縮小することにより、同じ遮蔽効果を与える ことができる。要求はされないが、ステップ180(遮蔽)は、他の3種のキュ ーを組み合わせた後(奥行きの質を向上させた中間画像)、実行することが望ま しい。なぜなら、ステップ180は画像の幾何形状を変更するからである。 図1の方法は、単独の画像から抽出される単眼視キューを使用し、画像の奥行 き知覚を改善する本発明による一実施形態を示すに過ぎない。本発明によれば、 単眼視キューを使用する、図1に類似の別の方法を使用して奥行き知覚を改善す ることができる。たとえば、図1の実施形態は4種のキュー(陰影、輝度、ぼか しおよび遮蔽)をすべて使用し、奥行き知覚を改善するが、一つ以上の奥行きキ ューの任意の組み合わせを使用して奥行き知覚を改善することができる。これら のキューは、オリジナル画像に対しいかなる順序で実行または適用してもよい。 また、図1に示す方法によれば、ステップ140、150、および160と並行 して3種の中間画像が生成される。この代わりに方法、中間画像を生成すること なしに、各奥行きキューをオリジナル画像に対し、連続的すなわち逐次的に、適 用することもできる。 図2Aおよび2Bは、注目オブジェクトの陰影を生成し、陰影を、背景オブジ ェクト上に投影する実施形態を示す図である(図1のステップ130および14 0)。図2Aおよび2Bについて述べると、注目オブジェクト(たとえば、人間 )210は、前景に位置する。人間の陰影220は、背景中の人間210の後ろ 奥行きZmoveの所に位置し、奥行き知覚が改善される。光源(たとえば、太陽ま たはランプ)が存在し、Z方向に対して角度θで下方に照射し(図2A)、Y方 向に対して角度αで下方に照射する(図2B)ものと仮定する。Zmove、α、お よびθは、例えば、実験に基づいて、最も効果的に奥行き知覚を改善するように 、人間により選択される。 一度、陰影220の奥行きZmove、角度α、およびθが選択されると、三角法 を使用し、画像中の人間210から、陰影220をどの程度X(高さ)方向に変 位すべきか(Xmove)、および陰影をどの程度Y(幅)方向に変位すべきか(Ymove )を、決定することができる。言い換えれば、値XmoveおよびYmoveは、人 間210を基準とする陰影220の画像中の位置を示す。 三角法を使用し、Xmoveは、 Xmove=Zmovetanθ として求めることができる。したがって、利用者が、光源または太陽をθ=10 °として、画像中の人間210の背後5フィート(1.52m)に陰影を投影す ることを望む場合は、陰影220は、 Xmove=5フィート(tan10°)=0.88フィート(0.27m) だけ、人間210より短いことになる。 画像に陰影を配置するために、フィート単位のXmoveの値を画素に変換する必 要がある。X方向の陰影220の画素変位は、次式によって求めることができる 。 Xpixels=(Xmove)(1フィート当たりの画素の数) たとえば、画像中に1フィートごとに100画素が存在する場合は、陰影22 0は、 Xpixels=0.88(100画素/フィート)=88画素 だけ画像中の人間210より低い。 同様に、Ymoveは、次式により求めることができる。 Ymove=Xmove/tanα また、画素単位の陰影220のY変位は、同様に、次式によって求めることがで きる。 Ypixels=(Ymove)(1フィート当たりの画素の数) 陰影220は、人間210の形状を抽出し、人間210の形状中の画素を暗色 化し、陰影220を生成することによって、生成され画像に適用される。暗色化 され陰影220を生成する画素は、画像中において、計算された陰影位置(Xpi xels ,Ypixels)に配置されることになる。たとえば、計算された陰影位置に配 置される画素は、50画素値(0〜255のスケール上において)だけ暗色化( 暗く)され、人間210の形状の陰影220を生成する。生成された陰影は、画 素を相対陰影位置(Xpixels,Ypixels)においてあるグレーレベルまで暗色化 することによって、オリジナル画像中のその相対陰影位置に配置される。 前景には、陰影を背景オブジェクト上に投影することが望ましい幾つかのオブ ジェクトが存在する場合がある。このような場合、前記オブジェクトの組み合わ された形状を使用して陰影を生成し、背景上に投影することが望ましい。 図3は、注目オブジェクトの相対サイズを増大させ、組み合わせ画像中のさら に多くの他のオブジェクトを遮蔽する実施形態を示す図である(図1のステップ 180)。図3について述べると、ステップ310において、通常、0から2の 範囲のズーム係数が選択される。たとえば、0.8のズーム係数は、画像をオリ ジナルのサイズの80%に縮小し、一方、1.5のズーム係数は、画像のサイズ をオリジナルのサイズの150%に増大させる。たとえば、1.3のズーム係数 を使用し、前景の注目オブジェクトのサイズを30%だけ増大させることができ るので、画像中のより多くの残りオブジェクトが遮蔽される。このような場合、 注目オブジェクトのみがサイズを増大される。拡大された前景オブジェクトは、 次に、画像にスーパーインポーズ(重畳)され、遮蔽効果が得られる。 たとえば、0.7のズーム係数を使用し、注目オブジェクト以外のすべてのオ ブジェクトのサイズを縮小することができる。このような場合、画像(注目オブ ジェクト以外の)は、オリジナルのサイズの70%に縮小(すなわち、逆ズーム )されることになる。次に、前景の注目オブジェクト(オリジナルのサイズを有 する)が、縮小された画像にスーパーインポーズされ、遮蔽効果が生成される。 図3のステップ320において、ズーム係数が1以上であるか否かが決定され る。ズーム係数が1以上である場合は、これはズーム操作(オブジェクトまたは 画像のサイズの増大)を示し、流れはステップ330に進む。ステップ330に おいて、注目オブジェクトは、ズーム係数に基づいて、ズーム、すなわちサイズ を拡大される。 ズーム係数が1未満である場合は、これは画像またはオブジェクトに関する逆 ズーム操作を示し、流れはステップ340に進む。ステップ340において、画 像またはオブジェクトは、逆ズーム(縮小)される。 画像をスーパーサンプリングすることによって、画像をズームすることができ る。この技術を使用し、オリジナル画像の各画素を1回以上複製し、画像のサイ ズが増大される。 画像をサブサンプリングすることによって、画像は、サイズを逆ズームすなわ ち縮小することができる。この技術を使用し、画像中の複数の画素を抽出し、単 一の画素に置換することができる。たとえば、オリジナル画像を3画素ごとに複 製して、逆ズーム(縮小)された画像を生成(他の2画素は削除)することが可 能であり、また、3画素ごとに平均して単一の画素値を求め、それら3画素と置 換することができる。 本発明によるズーム/逆ズーム操作のために、下記のアルゴリズムすなわちコ ードを使用することができる。 1 zoom=1.2;(この例においては、ズームは1.2に設定される) 2 for(i=x;i<x+sizeX; ++i) 3 { 4 for(j=y;j<y+sizeY; ++j) 5 { 6 for(k=0.0;k<zoom;k+=1.0); 7 For(L=0.0,L<zoom;L+=1.0); (ズームされる必要がある水平及び垂直空間に対して) 9 { 10 if((int)segmentMap[i][j] ==255) 11 NewImage[(int)(m+k)][(in t)(n+L)]= 12 OldImage[i][j]; 13 } 14 n+=zoom;(新画像の次の水平位置に移動する;ズームを繰 15 り返す。) 16 } 17 m+=zoom;n=0.0; 18 } (新画像の次の垂直位置に移動する;ズームを繰 19 り返す)。 前記のアルゴリズムによって、ズームが1より大きいか(ズーム操作の場合) または1未満であるか(逆ズーム)により、オブジェクトをスーパーサンプリン グまたサブサンプリングする一実施形態が提供される。オリジナル画像すなわち 旧画像は、(sizeX,sizeY)のサイズである。この例において、20 %だけズームされる予定(zoom=1.2)である旧画像のオブジェクトは、 セグメンテーションマップ(segmentMap)によって識別される。ズー ムする必要があるオブジェクトは、セグメンテーションマップにおいて白(25 5の画素値)であり、マップ中の他のすべては黒である。前記のアルゴリズムの 10行から12行までにおいて、画素i、jがズームされるべきオブジェクトの 一部である場合は、次に、画素i、jは、新画像(newImage)の位置m +k、n+1に複写される。オリジナル画像(oldImage)の画素i、j は、新画像に、垂直および水平方向に“zoom”回、コピーされる。 図4Aから4Eまでは、ぼかし、陰影、および輝度奥行きキューを適用し、奥 行き知覚を向上させる例を示す図である。図4Aは、人のオリジナル画像であり 、人は画像の前景にある注目オブジェクトである。図4Bは、中間ぼかし画像を 示す図であり、この図においては、人間の鼻の部分を除いてオリジナル画像全体 がぼかし処理されている。この図によって、鼻が、画像の他の項目よりも観察者 に近接した外観が提供されるので、奥行きが強調される。図4Cは、人間の形状 の陰影をオリジナル画像に投影することによって実現される中間陰影画像を示す 図である。この場合、陰影は、人間の外形すなわちプロフィールの一部の形状で ある。図4Dは、中間輝度画像を示す図であり、この図は、オリジナル画像の人 間の強度すなわち輝度を増大させ、一方、画像の残りの部分(すなわち、画像の 背景)の強度を減少させて実現される。図4Eは、図4B、4C、および4Dに 示した奥行きキューに基づいて、奥行き知覚を向上させた画像を示す図である。 図4Eの画像は、図4B、4C、および4Dの中間画像を組み合わせることによ って実現される。 図5Aから5Dまでは、ぼかしおよび遮蔽奥行きキューの適用によって、奥行 き知覚を向上させる例を示す図である。 図5Aは、オリジナル画像であり、前景にある本の一部(注目オブジェクト) 、およびMATLABボックスなどの幾つかの背景オブジェクトを含む。図5B は、オリジナル画像のすべてのオブジェクトがぼかし処理された中間ぼかし画像 を示 す図である。図5Cは、中間遮蔽画像を示す図であり、この図においては、前景 の本(注目オブジェクト)のみがズーム、すなわちサイズを増大されている。図 5Dは、図5Bおよび5Cに示した奥行きキューに基づいて、奥行き知覚を向上 させた画像を示す図である。図5Dの画像は、図5Bおよび5Cの中間画像を組 み合わせることによって実現される。図5Bおよび5Cを組み合わせるために、 拡大すなわちズームされた前記オブジェクトのみが、図5Bの中間ぼかし画像に スーパーインポーズされるので、背景のオブジェクトがさらに遮蔽されるととも に、背景オブジェクトのぼかしが強化されている。 図6は、本発明を実施するために使用できるコンピュータシステムの実施形態 を示すブロック図である。コンピュータシステム600は、従来のコンピュータ システムであり、内部のプロセッシング構成要素および記憶構成要素を収容する コンピュータシャシ602を備え、シャシ602は、ソフトウェアおよび他の情 報を記憶するハードディスクドライブ(HDD)604、HDD604に接続さ れる中央演算処理装置(CPU)606を含み、中央演算処理装置は、たとえば 、Intel Corporation製のPentium(登録商標)であり 、ソフトウェアを実行し、コンピュータシステム600の操作全体を制御する。 画像プロセッサ607は、CPU606に接続され、受け取った画像を処理する 。コンピュータシステム600は、ランダムアクセスメモリ(RAM)608、 読み取り専用メモリ(ROM)610、アナログディジタル(A/D)変換器6 12、およびディジタルアナログ(D/A)変換器614も備え、これらもCP U606および画像プロセッサ607に接続される。コンピュータシステム60 0は、CPU606および画像プロセッサ607に接続される幾つかの追加構成 要素、たとえば、ビデオ画像などの情報を利用者に表示するモニタ616、たと えば、ビデオ画像を撮像するためのカメラ、スキャナなどのビデオ入力装置61 8、オーディオを出力するためのスピーカ620、オーディオを入力するための マイクロホン622、キーボード624、およびマウス626も備える。コンピ ュータシステム600は、また、コンピュータシステム600をコンピュータネ ットワークリンクを経由して他のコンピュータに接続するネットワークインタフ ェース628を備える。コンピュータネットワークリンクは、一つ以上の多様な ネッ トワークリンク、たとえば、インターネット、およびイントラネット、ローカル エリアネットワーク(LAN)、広域ネットワーク(WAN)など含むことがで きる。ネットワークインタフェース628は、従来のインタフェース、たとえば 、ローカルエリアネットワーク(LAN)に接続するためのイーサネットカード 、インターネットに接続するためのモデム、などとすることができる。コンピュ ータシステム600の幾つかの構成要素は、従来の様式によって、たとえば、デ ータバス、アドレスバス、および制御バスなどの一つ以上のバスを経由して互い に接続することができる。 ビデオ入力装置618は、一つ以上のビデオ画像を受け取る。受け取った画像 がアナログ形式である場合は、各画像はA/D変換器612に送られ、ビットマ ップ画像が生成される。ディジタルビットマップ画像は、次に、HDD604に 記憶され処理される。ビデオ入力装置618がディジタルビットマップ画像を出 力する場合は、この画像は、A/D変換器612を使用することなく、HDD6 04に記憶される。 CPU606の制御下において、画像プロセッサ607は、受け取った画像に 変更を加え、奥行き効果を向上させる。一実施形態においては、画像プロセッサ 607は、複数の奥行きキュー、たとえば、陰影、輝度、ぼかし、および遮蔽の ためのキューを生成する。各奥行きキューは、中間奥行き強調画像の形をとり、 メモリに記憶することができる。次に、それら各奥行きキューが組み合わされ、 奥行き効果が向上した画像が生成される。 本発明の利点は、単一の2次元画像から得られる単眼視キューを使用し奥行き 効果を向上させることである。たとえば、2次元画像を獲得し、一つ以上の単眼 視キューをその画像から得ることができる。次に、単眼視キューを組み合わせて 奥行き効果を向上させ、擬似3次元画像を生成することができる。結果は、非常 に改善された奥行き知覚性能を有する2次元画像(すなわち、擬似3次元画像) である。次に、この擬似3次元画像は、コンピュータネットワークを経由し、他 のコンピュータネットワークに伝送し、表示することができる。 3次元形式の奥行き効果が望ましい多数の応用分野が存在する。しかし、実際 の3次元(3D)画像を提供することは、3次元画像の伝送に必要とされる高い ビット速度、または帯域要求のために、多くの場合に実際的でない。このような 応用分野には、リアルタイムビデオ伝送、たとえば、コンピュータネットワーク によるビデオ会議、およびバーチャルリアリティゲームなどのバーチャルアプリ ケーションが含まれる。また、本発明による方法は、低ビットレートビデオコー ディングおよびビデオ合成において、MPEG4にとって非常に魅力的である。

Claims (1)

  1. 【特許請求の範囲】 1.単一の2次元画像において単眼視奥行きキューを使用し、前記画像の奥行き 知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記画像の前景にあり、前記オブジェクトのどれが 前記画像の背景にあるかを識別するステップと、 前記画像内において、一つ以上の前記前景オブジェクトの輝度を、一つ以上の 前記背景オブジェクトの輝度に比べて増大させるステップと、 前記画像内の一つ以上の前記背景オブジェクトをぼかし処理するステップと、 を含み、前記輝度増大およびぼかし処理のステップによって、前記画像に関する 奥行き知覚を改善することを特徴とする方法。 2.請求の範囲1に記載の方法において、さらに、 前記画像内の一つ以上の前記前景オブジェクトの陰影を生成するステップと、 前記画像内の一つ以上の前記背景オブジェクト上に、生成された陰影を投影す るステップと、 を含むことを特徴とする方法。 3.請求の範囲1に記載の方法において、さらに、前記画像において、一つ以上 の前記前景オブジェクトのサイズを、一つ以上の前記背景オブジェクトのサイズ に比べて、増大させるステップを含むことを特徴とする方法。 4.単一の画像において単眼視奥行きキューを使用し、前記画像に関する奥行き 知覚を改善する方法であって、前記方法は、 画像は一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背 景のいずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記画像の前景にあり、前記オブジェクトのどれが 前記画像の背景にあるかを識別するステップと、 前記画像内において、一つ以上の前記前景オブジェクトの輝度を、一つ以上の 前記背景オブジェクトの輝度に比べて増大させるステップと、 前記画像内において、一つ以上の前記前景オブジェクトの陰影を生成するステ ップと、 前記生成された陰影を、前記画像内の一つ以上の前記背景オブジェクト上に投 影するステップと、 を含み、前記輝度増大、陰影生成、および陰影投影のステップによって、前記画 像に関する奥行き知覚を改善することを特徴とする方法。 5.請求の範囲4に記載の方法において、さらに、前記画像において、一つ以上 の前記前景オブジェクトのサイズを、一つ以上の前記背景オブジェクトのサイズ に比べて増大させるステップを含むことを特徴とする方法。 6.単一の画像について、単眼視奥行きキューを使用し、前記画像に関する奥行 き知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記画像の前景にあり、前記オブジェクトのどれが 前記画像の背景にあるかを識別するステップと、 前記画像内の一つ以上の前記背景オブジェクトをぼかし処理するステップと、 前記画像内の一つ以上の前記前景オブジェクトの陰影を生成するステップと、 前記生成された陰影を、前記画像内の一つ以上の前記背景オブジェクトに投影 するステップと、 を含み、前記ぼかし処理、陰影生成、陰影投影のステップによって、前記画像に 関する奥行き知覚を改善することを特徴とする方法。 7.請求の範囲6に記載の方法において、さらに、前記画像内において、一つ以 上の前記前景オブジェクトのサイズを、一つ以上の前記背景オブジェクトのサイ ズに比べて増大させるステップを含むことを特徴とする方法。 8.単一の画像において単眼視奥行きキューを使用し、前記画像の奥行き知覚を 改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記画像内において、一つ以上の前記前景オブジェクトの輝度を、一つ以上の 前記背景オブジェクトの輝度に比べて増大させるステップと、 前記画像内において、一つ以上の前記前景オブジェクトのサイズを、一つ以上 の前記背景オブジェクトのサイズに比べて増大させるステップと、 を含み、前記輝度増大およびサイズ増大のステップによって、前記画像に関する 奥行き知覚を改善することを特徴とする方法。 9.単一の画像において、単眼視奥行きキューを使用し、前記画像の奥行き知覚 を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記画像内の一つ以上の前記背景オブジェクトをぼかし処理するステップと、 前記画像内において、一つ以上の前記前景オブジェクトのサイズを、一つ以上 の前記背景オブジェクトのサイズに比べて増大させるステップと、 を含み、前記ぼかし処理およびサイズ増大のステップによって、前記画像に関す る奥行き知覚を向上させることを特徴とする方法。 10.単一の画像において単眼視奥行きキューを使用し、前記画像に関する奥行 き知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記画像内の一つ以上の前記前景オブジェクトの陰影を生成するステップと、 前記生成された陰影を、前記画像内の一つ以上の前記背景オブジェクトに投影 するステップと、 前記画像内において、一つ以上の前記前景オブジェクトのサイズを、一つ以上 の前記背景オブジェクトのサイズに比べて増大させるステップと、 を含み、前記陰影生成、陰影投影、およびサイズ増大のステップによって、前記 画像に関する奥行き知覚を向上させることを特徴とする方法。 11.単一の画像において単眼視奥行きキューを使用し、前記画像の奥行き知覚 を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記画像内において、一つ以上の前記前景オブジェクトの輝度を、一つ以上の 前記背景オブジェクトの輝度に比べて増大させるステップと、 前記画像内の一つ以上の前記背景オブジェクトをぼかし処理するステップと、 前記画像内の一つ以上の前記前景オブジェクトの陰影を生成するステップと、 前記生成された陰影を、前記画像内の一つ以上の前記背景オブジェクトに投影 するステップと、 前記画像内において、一つ以上の前記前景オブジェクトのサイズを、一つ以上 の前記背景オブジェクトのサイズに比べて増大させるステップと、 を含み、前記輝度増大、ぼかし処理、陰影生成、陰影投影およびサイズ増大のス テップによって、前記画像に関する奥行き知覚を向上させることを特徴とする方 法。 12.請求の範囲11に記載の方法において、前記セグメンテーションのステッ プは、強度に基づいて、互いに極めて接近している類似の画素をまとめてグルー プ化するステップを含み、前記画素グループの各々はセグメンテーションされた 1つのオブジェクトを含むことを特徴とする方法。 13.請求の範囲11に記載の方法において、前記セグメンテーションのステッ プは、 同一点から、画像の複数の連続するフレームを得るステップと、 前記複数のフレームの各々の対応画素同士を比較するステップと、 この比較のステップに基づいて、変化した画素を識別するステップと、 近接しており変化した画素群をまとめてグループ化するステップと、 を含み、前記画素グループの各々はセグメンテーションされた1つのオブジェク トを含むことを特徴とする方法。 14.単一の画像において単眼視奥行きキューを使用し、前記画像に関する奥行 き知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置するオリジナル画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記オリジナル画像内において、一つ以上の前記前景オブジェクトの輝度を、 一つ以上の前記背景オブジェクトの輝度に比べて増大させることによって中間輝 度画像を生成するステップと、 前記オリジナル画像内の一つ以上の前記背景オブジェクトを選択してぼかし処 理することによって中間ぼかし画像を生成するステップと、 中間陰影画像を生成するステップであって、 a)前記オリジナル画像内の一つ以上の前記前景オブジェクトの陰影を生成す るステップ、および b)前記生成された陰影を、前記オリジナル画像内の一つ以上の前記背景オブ ジェクトに投影するステップ、 を実行するステップと、 前記中間輝度画像、前記中間ぼかし画像、および前記中間陰影画像を組み合わ せ、奥行き知覚を向上させた単一の最終画像とするステップと、 を含むことを特徴とする方法。 15.単一の画像において単眼視奥行きキューを使用し、前記画像に関する奥行 き知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それらオブジェクトのうち少なくとも一つが 注目オブジェクトである画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトから、注目オブジェクトと、注目オブジェクトでない残りの オブジェクトとを識別するステップと、 前記一つ以上の注目オブジェクトの輝度を、前記注目オブジェクトでない前記 画像内の残りのオブジェクトの輝度に比べて増大させるステップと、 前記注目オブジェクトでない残りのオブジェクトをぼかし処理するステップと 、 前記画像内において、前記一つ以上の注目オブジェクトの陰影を生成するステ ップと、 生成された前記注目オブジェクトの陰影を、前記注目オブジェクトでない前記 画像内の前記一つ以上の残りのオブジェクト上に、投影するステップと、 前記一つ以上の注目オブジェクトのサイズを、前記注目オブジェクトでない前 記画像内の前記一つ以上の残りのオブジェクトのサイズに比べて増大させるステ ップと、 を含み、前記輝度増大、ぼかし処理、陰影生成、陰影投影、およびサイズ増大の ステップによって、前記画像に関する奥行き知覚を向上させることを特徴とする 方法。 16.単一の画像において単眼視奥行きキューを使用し、前記画像に関する奥行 き知覚を改善する方法であって、前記方法は、 一つ以上のオブジェクトを含み、それら各オブジェクトが前景または背景のい ずれかに位置する画像を獲得するステップと、 前記画像内の前記一つ以上のオブジェクトをセグメンテーション処理するステ ップと、 前記オブジェクトのどれが前記前景にあり、前記オブジェクトのどれが前記背 景にあるかを識別するステップと、 前記画像内において前景オブジェクトの背景オブジェクトに対する見え方を調 整するために、以下のa)からd)までよりなるグループ、すなわち a)前記画像内において、一つ以上の前記前景オブジェクトの輝度を、一つ以 上の前記背景オブジェクトの輝度に比べて増大させるステップ、 b)前記画像内において、一つ以上の前記背景オブジェクトをぼかし処理する ステップ、 c)前記画像内の一つ以上の前景オブジェクトの陰影を生成し、生成された陰 影を、前記画像内の一つ以上の前記背景オブジェクト上に投影するステップ、お よび d)前記画像内において、一つ以上の前記前景オブジェクトのサイズを、一つ 以上の前記背景オブジェクトのサイズと比べて増大させるステップ、 からなるグループから選択される少なくとも2つの処理を実行するステップと 、を含むことを特徴とする方法。
JP10545736A 1997-04-18 1998-03-09 単眼視キューの統合による奥行き知覚の改善 Pending JP2000512833A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/844,422 1997-04-18
US08/844,422 US6157733A (en) 1997-04-18 1997-04-18 Integration of monocular cues to improve depth perception
PCT/US1998/004559 WO1998048381A1 (en) 1997-04-18 1998-03-09 Integration of monocular cues to improve depth perception

Publications (1)

Publication Number Publication Date
JP2000512833A true JP2000512833A (ja) 2000-09-26

Family

ID=25292682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10545736A Pending JP2000512833A (ja) 1997-04-18 1998-03-09 単眼視キューの統合による奥行き知覚の改善

Country Status (5)

Country Link
US (1) US6157733A (ja)
EP (1) EP0919042A1 (ja)
JP (1) JP2000512833A (ja)
CA (1) CA2258014C (ja)
WO (1) WO1998048381A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339696A (ja) * 2005-05-31 2006-12-14 Ims:Kk 写真シール払出装置及びその画像処理方法
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
WO2008126200A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体画像処理装置およびプログラム
JP2009147922A (ja) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd 画像処理方法、画像表示システム、およびコンピュータプログラム
JP2009239903A (ja) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd 画像処理方法、画像処理システム、およびコンピュータプログラム
JP2010050502A (ja) * 2008-08-19 2010-03-04 Ricoh Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2010206362A (ja) * 2009-03-02 2010-09-16 Sharp Corp 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
JP2011119926A (ja) * 2009-12-02 2011-06-16 Sharp Corp 映像処理装置、映像処理方法及びコンピュータプログラム
US8106939B2 (en) 2005-11-02 2012-01-31 Sony Corporation Image processing method, image processing device and image display apparatus employing the image processing device
JP2012050889A (ja) * 2005-06-03 2012-03-15 Straumann Holding Ag 多部品からなる歯科インプラントシステムのために改良したカップリング
JP2012235314A (ja) * 2011-04-28 2012-11-29 Furyu Kk 画像処理装置および画像処理方法
JP2013051621A (ja) * 2011-08-31 2013-03-14 Semiconductor Energy Lab Co Ltd 画像処理方法

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020010019A1 (en) * 1998-03-16 2002-01-24 Kazukuni Hiraoka Game machine, and image processing method for use with the game machine
JP2976963B2 (ja) * 1998-03-19 1999-11-10 コナミ株式会社 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
US6646687B1 (en) * 1999-04-16 2003-11-11 Ultimatte Corporation Automatic background scene defocusing for image compositing
JP3417883B2 (ja) 1999-07-26 2003-06-16 コナミ株式会社 画像作成装置、画像作成方法、画像作成プログラムが記録されたコンピュータ読み取り可能な記録媒体およびビデオゲーム装置
WO2001011880A1 (en) * 1999-08-10 2001-02-15 Peter Mcduffie White Communications system
JP4389371B2 (ja) * 2000-09-28 2009-12-24 株式会社ニコン 画像修復装置および画像修復方法
JP3428581B2 (ja) * 2000-12-22 2003-07-22 株式会社スクウェア ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムを記録したコンピュータ読取り可能な記録媒体。
US6965379B2 (en) * 2001-05-08 2005-11-15 Koninklijke Philips Electronics N.V. N-view synthesis from monocular video of certain broadcast and stored mass media content
GB2382940A (en) * 2001-11-27 2003-06-11 Nokia Corp Encoding objects and background blocks
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
US8643667B2 (en) * 2002-08-02 2014-02-04 Disney Enterprises, Inc. Method of displaying comic books and similar publications on a computer
US7302096B2 (en) * 2002-10-17 2007-11-27 Seiko Epson Corporation Method and apparatus for low depth of field image segmentation
GB0307307D0 (en) * 2003-03-29 2003-05-07 Atelier Vision Ltd Image processing
RU2320016C2 (ru) * 2003-03-29 2008-03-20 Этельер Вижн Лимитед Обработка изображений
US7489821B2 (en) * 2003-04-08 2009-02-10 International Business Machines Corporation Method, system and program product for representing a perceptual organization of an image
CA2454290C (en) * 2003-12-29 2013-05-21 Ibm Canada Limited-Ibm Canada Limitee Graphical user interface (gui) script generation and documentation
US9826159B2 (en) 2004-03-25 2017-11-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
US8331723B2 (en) 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
US10721405B2 (en) 2004-03-25 2020-07-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
CN101297545B (zh) 2005-10-28 2012-05-02 株式会社尼康 摄影装置、图像处理装置
US7496851B2 (en) * 2006-04-24 2009-02-24 International Business Machines Corporation Selective coloring of a drawing surface to indicate a logical grouping
US7612795B2 (en) * 2006-05-12 2009-11-03 Anthony Italo Provitola Enhancement of visual perception III
US20080059904A1 (en) * 2006-08-30 2008-03-06 Christopher Patrick Abbey Method, apparatus, and computer program product for implementing enhanced window focus in a graphical desktop
KR100846498B1 (ko) * 2006-10-18 2008-07-17 삼성전자주식회사 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템
US7764286B1 (en) * 2006-11-01 2010-07-27 Adobe Systems Incorporated Creating shadow effects in a two-dimensional imaging space
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
US8472699B2 (en) * 2006-11-22 2013-06-25 Board Of Trustees Of The Leland Stanford Junior University Arrangement and method for three-dimensional depth image construction
KR100829581B1 (ko) * 2006-11-28 2008-05-14 삼성전자주식회사 영상 처리 방법, 기록매체 및 장치
KR100873638B1 (ko) * 2007-01-16 2008-12-12 삼성전자주식회사 영상 처리 방법 및 장치
JP2008250813A (ja) * 2007-03-30 2008-10-16 Konami Digital Entertainment:Kk 画像生成装置、画像処理方法、および、プログラム
US8384769B1 (en) * 2007-05-23 2013-02-26 Kwangwoon University Research Institute For Industry Cooperation 3D image display method and system thereof
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US8712139B2 (en) * 2008-03-21 2014-04-29 General Electric Company Methods and systems for automated segmentation of dense cell populations
US20090252398A1 (en) * 2008-04-07 2009-10-08 Compucyte Corporation Method and System for Creating a Three-Dimensionally-Perceived Image of a Biological Sample
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
WO2010050914A1 (en) * 2008-10-31 2010-05-06 Hewlett-Packard Development Company, L.P. Method and system for enhancing image signals to alter the perception of depth by human viewers
TWI457853B (zh) * 2009-03-24 2014-10-21 Ind Tech Res Inst 提供深度資訊之影像處理方法及其影像處理系統
EP2309463A3 (en) 2009-10-07 2011-07-27 Thomson Licensing Method of displaying a 3D video with insertion of a graphic item and terminal for implementing the method
US8406510B2 (en) * 2010-03-10 2013-03-26 Industrial Technology Research Institute Methods for evaluating distances in a scene and apparatus and machine readable medium using the same
US8692870B2 (en) 2010-06-28 2014-04-08 Microsoft Corporation Adaptive adjustment of depth cues in a stereo telepresence system
JP5175910B2 (ja) * 2010-09-16 2013-04-03 株式会社東芝 画像処理装置、画像処理方法およびプログラム
TWI532009B (zh) 2010-10-14 2016-05-01 華晶科技股份有限公司 產生淺景深影像的方法及裝置
GB201114591D0 (en) 2011-08-23 2011-10-05 Tomtom Int Bv Methods of and apparatus for displaying map information
WO2013086601A1 (en) * 2011-12-12 2013-06-20 The University Of British Columbia System and method for determining a depth map sequence for a two-dimensional video sequence
US9390532B2 (en) 2012-02-07 2016-07-12 Nokia Technologies Oy Object removal from an image
KR20130098042A (ko) * 2012-02-27 2013-09-04 삼성전자주식회사 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치
US9600888B2 (en) * 2012-09-14 2017-03-21 Sony Corporation Image processing device, image processing method, and program
WO2014053165A1 (en) * 2012-10-01 2014-04-10 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for generating a depth cue
KR20140088465A (ko) * 2013-01-02 2014-07-10 삼성전자주식회사 디스플레이 방법 및 디스플레이 장치
US9436357B2 (en) * 2013-03-08 2016-09-06 Nook Digital, Llc System and method for creating and viewing comic book electronic publications
US9123172B2 (en) * 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
US9288396B2 (en) * 2014-05-30 2016-03-15 Apple Inc. Camera timer
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
US10823950B2 (en) 2016-01-07 2020-11-03 Digital Surigcals PTE. LTD. Camera system with balanced monocular cues for use in digital stereo microscopes
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
US10321069B2 (en) * 2017-04-25 2019-06-11 International Business Machines Corporation System and method for photographic effects
CN108024057B (zh) * 2017-11-30 2020-01-10 Oppo广东移动通信有限公司 背景虚化处理方法、装置及设备
EP4260553A4 (en) 2020-12-09 2024-05-22 Elbit Systems Ltd. METHODS AND SYSTEMS FOR IMPROVING DEPTH PERCEPTION OF A NON-VISIBLE SPECTRUM IMAGE OF A SCENE
CN112785489B (zh) * 2020-12-29 2023-02-17 温州大学 一种单目立体视觉图像生成方法及装置
CN113112537A (zh) * 2021-04-22 2021-07-13 温州大学 一种基于深度网络目标分割的立体视觉生成方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731864A (en) * 1986-02-21 1988-03-15 Rca Corporation Photographic camera simulation systems working from computer memory
US5548667A (en) * 1991-05-24 1996-08-20 Sony Corporation Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
EP0669034B1 (de) * 1992-11-10 1997-01-15 Siemens Aktiengesellschaft Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz
CA2176726A1 (en) * 1993-12-08 1995-06-15 Mark J. Brady Method and apparatus for background determination and subtraction for a monocular vision system
JPH0816812A (ja) * 1994-06-24 1996-01-19 Hudson Soft Co Ltd 遠近感表現のための画像処理方法
JP3192561B2 (ja) * 1994-10-20 2001-07-30 シャープ株式会社 画像処理装置
US5982926A (en) * 1995-01-17 1999-11-09 At & T Ipm Corp. Real-time image enhancement techniques
US5960111A (en) * 1997-02-10 1999-09-28 At&T Corp Method and apparatus for segmenting images prior to coding

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4648092B2 (ja) * 2005-05-31 2011-03-09 株式会社アイ・エム・エス 写真シール払出装置及びその画像処理方法
JP2006339696A (ja) * 2005-05-31 2006-12-14 Ims:Kk 写真シール払出装置及びその画像処理方法
JP2012050889A (ja) * 2005-06-03 2012-03-15 Straumann Holding Ag 多部品からなる歯科インプラントシステムのために改良したカップリング
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
US8106939B2 (en) 2005-11-02 2012-01-31 Sony Corporation Image processing method, image processing device and image display apparatus employing the image processing device
WO2008126200A1 (ja) * 2007-03-23 2008-10-23 Ntt Comware Corporation 立体画像処理装置およびプログラム
JP2009147922A (ja) * 2007-11-22 2009-07-02 Semiconductor Energy Lab Co Ltd 画像処理方法、画像表示システム、およびコンピュータプログラム
KR101552475B1 (ko) 2007-11-22 2015-09-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 화상 처리 방법, 화상 표시 시스템, 및 컴퓨터 프로그램
US9123132B2 (en) 2007-11-22 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image display system, and computer program
JP2009239903A (ja) * 2008-03-05 2009-10-15 Semiconductor Energy Lab Co Ltd 画像処理方法、画像処理システム、およびコンピュータプログラム
US8687918B2 (en) 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
JP2010050502A (ja) * 2008-08-19 2010-03-04 Ricoh Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2010206362A (ja) * 2009-03-02 2010-09-16 Sharp Corp 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
JP2011119926A (ja) * 2009-12-02 2011-06-16 Sharp Corp 映像処理装置、映像処理方法及びコンピュータプログラム
JP2012235314A (ja) * 2011-04-28 2012-11-29 Furyu Kk 画像処理装置および画像処理方法
JP2013051621A (ja) * 2011-08-31 2013-03-14 Semiconductor Energy Lab Co Ltd 画像処理方法
US9602800B2 (en) 2011-08-31 2017-03-21 Semiconductor Energy Laboratory Co., Ltd. Image processing method

Also Published As

Publication number Publication date
EP0919042A1 (en) 1999-06-02
CA2258014C (en) 2003-08-05
WO1998048381A1 (en) 1998-10-29
US6157733A (en) 2000-12-05
CA2258014A1 (en) 1998-10-29

Similar Documents

Publication Publication Date Title
JP2000512833A (ja) 単眼視キューの統合による奥行き知覚の改善
JP6561216B2 (ja) 光学フローを使用した中間ビューの生成
JP6611837B2 (ja) 映像呈示装置、その方法、プログラム
Banterle et al. Inverse tone mapping
US8698796B2 (en) Image processing apparatus, image processing method, and program
Longhurst et al. A gpu based saliency map for high-fidelity selective rendering
WO2019135979A1 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
Nguyen et al. Depth image-based rendering from multiple cameras with 3D propagation algorithm
US6157387A (en) Image generating apparatus and method
CN113039576A (zh) 图像增强***和方法
Mulder et al. Fast perception-based depth of field rendering
GB2612881A (en) Techniques for re-aging faces in images and video frames
CN116612263B (zh) 一种感知潜视觉合成一致性动态拟合的方法及装置
JP2008084338A (ja) 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム
Jorge et al. Dynamic occlusion handling for real-time ar applications
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
CN114418872A (zh) 一种基于mGANprior的真实图像美感增强方法
Cho et al. Depth image processing technique for representing human actors in 3DTV using single depth camera
CN113837945A (zh) 一种基于超分辨率重建的显示画质优化方法及***
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
US12051150B2 (en) Computer implemented method and system for classifying an input image for new view synthesis in a 3D visual effect, and non-transitory computer readable storage medium
US20230196659A1 (en) Computer implemented method and system for classifying an input image for new view synthesis in a 3d visual effect, and non-transitory computer readable storage medium
JP4075778B2 (ja) 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム
KR102559691B1 (ko) 뉴럴 렌더링 기반 형상 색상 통합 3d 메시 복원 방법 및 장치
CN112070881B (zh) 一种基于物联网的机电设备数字化重建方法及***

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040810