JP2004510272A - Automatic 2D and 3D conversion method - Google Patents

Automatic 2D and 3D conversion method Download PDF

Info

Publication number
JP2004510272A
JP2004510272A JP2002531371A JP2002531371A JP2004510272A JP 2004510272 A JP2004510272 A JP 2004510272A JP 2002531371 A JP2002531371 A JP 2002531371A JP 2002531371 A JP2002531371 A JP 2002531371A JP 2004510272 A JP2004510272 A JP 2004510272A
Authority
JP
Japan
Prior art keywords
image
images
dimensional
file
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002531371A
Other languages
Japanese (ja)
Inventor
カーツェス ウィリアム エム
ニムス ジェリー シー
ピーターズ ポール エフ
ブリンガム トム
Original Assignee
オラシー コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オラシー コーポレイション filed Critical オラシー コーポレイション
Publication of JP2004510272A publication Critical patent/JP2004510272A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は、単一マスター像(1)を複数の像へと変換し、視差シフト(1.1 − 1.4)を実行し、そして像を単一のマスター像(1.5)へと相互整相するために既知の光学的原理を制御する方法を提供する。マスター像は、MOM(2.3)を経て見たときに、三次元、フリップ、形態、ズーム及びアクションを含む(これに限定されない)多数の種々の視覚用途及び使用目的を有する。The present invention converts a single master image (1) into multiple images, performs a parallax shift (1.1-1.4), and converts the images to a single master image (1.5). A method is provided for controlling known optical principles for mutual phasing. The master image has a number of different visual and intended uses when viewed via MOM (2.3), including but not limited to three-dimensional, flip, form, zoom and action.

Description

【0001】
【発明の背景】
本出願の優先権は、参考としてここに援用する2000年9月14日に出願された米国プロビジョナル特許出願第60/232,410号に基づく。
【0002】
【発明の分野】
本発明は、像処理及び定着に係り、より詳細には、二次元像を多数の像に変換しそして単一像へと相互整相(interphasing)して戻し、三次元像として定着及び表示するための方法に係る。
【0003】
【関連技術の説明】
三次元写真は、良く知られているが、特殊なカメラ、特殊な処理、及び訓練を受けた人間を必要とすることで問題がある。三次元の見掛けを有する像を表示するために多数のレンズのオーバーレイが使用されているが、これらも同じ問題があり、即ち特殊な装置、及び特別に訓練された人間を必要とする。
【0004】
従って、本出願人は、既存の二次元像を容易に且つ経済的に三次元的に見られるようにすると同時に、最低限の熟練度があれば、高質の像を発生できるという要望があることを認めている。この方法は、ハードウェアに何ら変更を伴わずに従来のプログラム可能な汎用コンピュータ(PC)を使用するのが好ましい。
【0005】
【発明の開示】
本発明の実施形態は、複数のオブジェクトを反映するピクセルデータを有する二次元ピクセル像データファイルをデータ記憶装置に受け取る段階と、この二次元ピクセル像データファイルを検索する段階と、その像ファイルに対応する像をビデオディスプレイに表示する段階とを備えている。その次の段階は、少なくとも1つのオブジェクトに対する初期境界線を指示するセグメント化コマンドを受け取る。その次の段階は、少なくとも1つのオブジェクトに対する最終境界線を発生するためのパラメータを有する境界線精錬コマンドを受け取り、上記パラメータは、色、ノイズ周波数及び縁のなだらかさの1つ以上より成るグループから選択される。
【0006】
第1の実施形態の次の段階は、像ファイルを、上記セグメント化コマンド及び境界線精錬コマンドに基づいて複数の像へとセグメント化する。次いで、上記複数の像の少なくとも1つのイン・ペインティングを実行し、これは、少なくとも1つの像の一部分に、少なくとも1つの像ファイルで表わされたオブジェクト内のピクセルに基づいて発生されたピクセルを充填する。その後の段階は、上記複数の像の少なくとも第1及び第2に対し第1深さデータ及び第2深さデータを受け取る。次いで、視差シフト段階において、上記複数の像の少なくとも第1及び第2の各々に対し少なくとも2つの位相シフトされた像を発生し、これら2つの位相シフトされた像は、互いに且つ上記複数の像の少なくとも1つの他の像に対して視差シフトを有し、該視差シフトは、その像に対する深さデータに基づくものである。次いで、複数の位相シフトされた像が、出力及び印刷のために単一の相互整相された像ファイルへと相互整相される。
【0007】
本発明による方法の更に別の特徴は、複数の二次元像ファイルを受け取り、そしてそれらをセグメント化段階のために単一の二次元像ファイルへとオーバーレイするという更に別の段階を備えている。
光学及び三次元写真の原理をコンピュータプログラムアルゴリズムに応用するときには、上記要望を満足しなければならない。このプログラムの支脈は、多数の枝葉、例えば、薬品、広告、写真、新製品、仮想現実ハードコピー等へと拡張される。
本発明は、単一のデジタル入力像を多数の像へ変換し、そして単一のマスター像へと相互整相して戻すために光学的な原理によって制御されるソフトウェアパッケージを提供する。新たな像が形成されると、プログラムは、増強された情報を有する。この像は、光学的材料を通して見たときに、三次元、フリップ、形態、ズーム及びアクションを含む(これに限定されない)種々様々な用途及び使用目的を有する。
【0008】
更に、本発明のソフトウェアプログラムでは、多数の像が入力されたときに、同じ相互整相セグメントを使用して、多数の像カメラから三次元像を形成することができ、或いは異なる即ち逐次像の場合には、フリップ、形態、ズーム及びアクション像が形成される。
【0009】
【発明を実施するための最良の形態】
パーソナルコンピュータ及び大記憶容量の出現に伴い、単一の像を多数の像に変換し、次いで、それらの像をマスターファイルへと相互整相(interphase)して戻すことができるようになった。このファイルは、MOMと組み合わされた特殊な写真原理を使用することによって写真として出力され、多像出力、及び/又は増強視覚データを伴う多層出力を形成することができる。図1.1ないし4.4を参照されたい。
【0010】
本発明の1つのソフトウェアパッケージ(図示せず)は、単一のデジタル入力即ち図1の二次元像を、図1.1−1.4の多数の像に変換し、次いで、それらの像1.1−1.4を、情報が増強された図1.5の単一マスターの三次元像へ相互整相(interphase)して戻す。この像1.5は、特殊な写真プリンターを使用して写真として出力することもできるし、或いは標準的なPCプリンターでマスターに直接プリントして、図1.1−1.4の4つの入力像の各々を明確に見ることもできる。
【0011】
以下に述べるように、図2.0において、MOM(図2.3)を経てオブジェクト2.1及び2.2を表示するときには、それにより得られる像(図2.4)は、観察者(図2.5)にとって、三次元、アクション、フリップ又はズームを有するように見える。
【0012】
図1.5において、次の手順を実行するのが好ましい。最初は、二次元像1であり、次いで、準備段階を受け、即ち像がセグメント化を受け、これは、像の各オブジェクト(図2.1−2.2)に縁検出方法、例えば、「インテリジェント・シザーズ」によりマスキングすることを含む。これは、図3.1−3.4のマグネチック・ラッソー(Magnetic Lasso)である。それにより得られるオブジェクト(図3.5)は、別々の層にセグメント化される。
【0013】
セグメント化は、単一の2D像をシーンにおける深さに基づいて層に分離するプロセスである。これは、視差を模擬するように層を異なる量だけシフトできるようにする。
【0014】
セグメント化プロセスを開始するために、ユーザは、先ず、分離されるべきオブジェクトの周りにおおよその境界線を引く(図3.1−3.4)。次いで、セグメント化アルゴリズムに対してスレッシュホールドパラメータを調整することにより、ユーザは、手でペイントする必要なくそのエリアを動的に精錬することができる。これらの調整は、像全体に対して精錬することもできるし、或いは更に正確なセグメント化を許すように特定の領域のみに対して精錬することもできる。パラメータは、色(色合い、飽和度及び輝度)、ノイズ周波数及び縁のなだらかさである。ユーザは、ユーザが「焼く」ことのできるおおよその点を調整するか又はパラメータをおおよその境界線に適用することができ、その結果、新たな更に正確なおおよその縁境界線が得られ、これは、調整可能なパラメータを使用するか、又はパースペクティブにおけるハンドペインティング及び像を生じる移動により更に精錬される(図1.1−1.4)。次いで、像は、「イン・ペインティング(in−painting)」を受ける(図4.1−4.4)(ペインティングと、セグメント化段階中に形成された穴の除去とを含む)。
【0015】
視差を模擬するように層がシフトされるときには、下の層にブランクエリアが生じることが考えられる。本発明のソフトウェアは、これらのブランクに「イン・ペインティング」スペースを自動的に充填する。
【0016】
アルゴリズムは、充填を必要とするピクセルを計算する。これは、現在層の上の層のマスク又はアルファチャンネルにおける交差点及び減算計算によって行われる。
【0017】
次いで、ソフトウェアは、走査線アルゴリズムを使用し、エリアが充填されるまで1ピクセル/交差点/走査線のみを充填する。各ピクセルの色は、オリジナル像から又はこのアルゴリズムの初期の実行から既に色を有している周囲のピクセルの重み付けされた平均値をベースとする。各ピクセルの重みは、最初の実行に対しては上/下及び左/右ピクセルに均一に依存し、そしてオリジナルピクセルへの距離が増加するにつれて左/右ピクセルに大きく依存するように、各実行後に調整される。
【0018】
各層に対し、ユーザは、与えられたGUI編集フィールドに値を入力することにより深さを選択する。前景から始めて、ソフトウェアは、層をそれらが選択された順序で取り出すことにより層の順序を指定する。次いで、ソフトウェアは、相互整相段階に必要なフレームを正確に発生する。図1.1−1.4を参照されたい。
【0019】
多数の像が入力されるときには、多数の像カメラから三次元像を形成するように使用することができ、異なる即ち逐次像の場合には、フリップ、形態、ズーム又はアクション像が形成される。
【0020】
上述した変換工程を実行するために、本発明のソフトウェアパッケージは、三次元写真に使用される同じ光学的原理により制御される。このような原理は、例えば、参考としてここに援用する米国特許第3,852,787号;第3,895,867号;及び第3,960,563号に開示されている。
【0021】
添付図面に示して説明した特定の実施形態は、本発明を単に例示するものに過ぎず、本発明を何ら限定するものではない。
【図面の簡単な説明】
【図1】
ピクセル像ファイルに対応する第1の例示的2オブジェクトの斜視図である。
【図1.1】
図1の像の本発明による視差シフト段階に対応する第1の視差シフト像を示す図である。
【図1.2】
図1の像の本発明による視差シフト段階に対応する第2の視差シフト像を示す図である。
【図1.3】
図1の像の本発明による視差シフト段階に対応する第3の視差シフト像を示す図である。
【図1.4】
図1の像の本発明による視差シフト段階に対応する第4の視差シフト像を示す図である。
【図1.5】
図1.1ないし図1.4の像の本発明による相互整相処理に基づいて相互整相された像を示す図である。
【図1.6】
図1.5に示された相互整相された像の一部分のクローズアップである。
【図2】
媒体に定着された図1.5の像を示す図である。
【図2.1】
図2.0の像内に定着された図1に示す像内からの前景オブジェクトを例示する図である。
【図2.2】
図2.0の像内に定着された図1に示す像内からの背景オブジェクトを例示する図である。
【図2.3】
図2.0の定着された像にオーバーレイするための薄膜多レンズシートを例示する図である。
【図2.4】
観察者が図2.3の多レンズオーバーレイを通して図2.0の像を見たときの像を例示する図である。
【図2.5】
図2.4における観察者の目を示す図である。
【図3.1】
二次元像を複数のオブジェクトにセグメント化するための本発明の方法のセグメント化及び境界線精錬段階を例示する図である。
【図3.2】
二次元像を複数のオブジェクトにセグメント化するための本発明の方法のセグメント化及び境界線精錬段階を例示する図である。
【図3.3】
二次元像を複数のオブジェクトにセグメント化するための本発明の方法のセグメント化及び境界線精錬段階を例示する図である。
【図3.4】
二次元像を複数のオブジェクトにセグメント化するための本発明の方法のセグメント化及び境界線精錬段階を例示する図である。
【図3.5】
二次元像を複数のオブジェクトにセグメント化するための本発明の方法のセグメント化及び境界線精錬段階を例示する図である。
【図4.1】
本発明の方法による複数の視差シフトに対応する背景オブジェクト像のギャップを示す図である。
【図4.2】
本発明の方法による複数の視差シフトに対応する背景オブジェクト像のギャップを示す図である。
【図4.3】
本発明の方法による複数の視差シフトに対応する背景オブジェクト像のギャップを示す図である。
【図4.4】
本発明の方法による複数の視差シフトに対応する背景オブジェクト像のギャップを示す図である。
【図5.1】
図4.1に示されたギャップを本発明による溶接マウントダブルクリップで充填するための本発明の方法により実行されるイン・ペインティング段階を示す図である。
【図5.2】
図4.2に示されたギャップを本発明による溶接マウントダブルクリップで充填するための本発明の方法により実行されるイン・ペインティング段階を示す図である。
【図5.3】
図4.3に示されたギャップを本発明による溶接マウントダブルクリップで充填するための本発明の方法により実行されるイン・ペインティング段階を示す図である。
【図5.4】
図4.4に示されたギャップを本発明による溶接マウントダブルクリップで充填するための本発明の方法により実行されるイン・ペインティング段階を示す図である。
[0001]
BACKGROUND OF THE INVENTION
The priority of this application is based on US Provisional Patent Application No. 60 / 232,410, filed Sep. 14, 2000, which is incorporated herein by reference.
[0002]
FIELD OF THE INVENTION
The present invention relates to image processing and fusing, and more particularly, to transforming a two-dimensional image into multiple images and interphasing back into a single image for fusing and displaying as a three-dimensional image. Pertaining to the method.
[0003]
[Description of Related Technology]
Three-dimensional photography is well known, but is problematic in that it requires specialized cameras, specialized processing, and trained people. Numerous lens overlays have been used to display images having a three-dimensional appearance, but they also have the same problem, ie, require specialized equipment and specially trained humans.
[0004]
Accordingly, the Applicant has a desire to be able to easily and economically view existing two-dimensional images in three dimensions, while at the same time producing high quality images with minimum skill. Admit that. The method preferably uses a conventional programmable general purpose computer (PC) without any changes to the hardware.
[0005]
DISCLOSURE OF THE INVENTION
An embodiment of the present invention includes receiving a two-dimensional pixel image data file having pixel data reflecting a plurality of objects into a data storage device, retrieving the two-dimensional pixel image data file, and corresponding to the image file. Displaying an image to be displayed on a video display. The next step receives a segmentation command indicating an initial boundary for at least one object. The next step receives a border refinement command having parameters for generating a final border for at least one object, the parameters comprising a group consisting of one or more of color, noise frequency and edge smoothness. Selected.
[0006]
The next step in the first embodiment is to segment the image file into a plurality of images based on the segmentation command and the boundary refinement command. Then, performing at least one in-painting of the plurality of images, wherein the pixels generated based on the pixels in the object represented by the at least one image file in a portion of the at least one image Is filled. Subsequent steps include receiving first and second depth data for at least a first and a second of the plurality of images. Then, in a parallax shifting step, at least two phase-shifted images are generated for at least a first and a second of the plurality of images, respectively, and the two phase-shifted images are combined with each other and the plurality of images. Has a parallax shift with respect to at least one other image of the image, wherein the parallax shift is based on depth data for that image. The plurality of phase-shifted images are then cross-phased into a single cross-phased image file for output and printing.
[0007]
Yet another feature of the method according to the invention comprises the further step of receiving a plurality of two-dimensional image files and overlaying them onto a single two-dimensional image file for a segmentation step.
The above needs must be satisfied when applying the principles of optics and three-dimensional photography to computer program algorithms. The branch of the program extends to a large number of branches and leaves, such as drugs, advertisements, photographs, new products, virtual reality hard copies, and the like.
The present invention provides a software package that is controlled by optical principles to convert a single digital input image into multiple images, and to phase back to a single master image. When a new image is formed, the program has the augmented information. This image has a variety of uses and uses when viewed through optical materials, including but not limited to three-dimensional, flip, form, zoom and action.
[0008]
In addition, the software program of the present invention can use the same mutual phasing segment to form a three-dimensional image from multiple image cameras when multiple images are input, or to create different or sequential images. In that case, flip, form, zoom and action images are formed.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
With the advent of personal computers and large storage capacities, it has become possible to convert a single image into a number of images and then interphase those images back into a master file. This file can be output as a photograph by using special photographic principles combined with MOM to form a multi-image output and / or a multilayer output with enhanced visual data. Please refer to FIGS. 1.1 to 4.4.
[0010]
One software package (not shown) of the present invention converts a single digital input, the two-dimensional image of FIG. 1, into a number of images of FIGS. .1-1-1.4 are interphased back to the three-dimensional image of the single master of FIG. 1.5 with enhanced information. This image 1.5 can be output as a photograph using a special photo printer, or printed directly on the master with a standard PC printer, and the four inputs shown in FIGS. Each of the images can also be seen clearly.
[0011]
As described below, in FIG. 2.0, when the objects 2.1 and 2.2 are displayed via the MOM (FIG. 2.3), the images (FIG. 2.4) obtained by the observers (FIG. For Figure 2.5), it appears to have three dimensions, action, flip or zoom.
[0012]
In FIG. 1.5, the following procedure is preferably performed. The first is a two-dimensional image 1 and then undergoes a preparatory stage, ie the image undergoes a segmentation, which is applied to each object of the image (FIGS. Includes masking with "Intelligent Scissors". This is the Magnetic Lasso in FIGS. 3.1-3.4. The resulting object (FIG. 3.5) is segmented into separate layers.
[0013]
Segmentation is the process of separating a single 2D image into layers based on depth in the scene. This allows the layers to be shifted by different amounts to simulate parallax.
[0014]
To begin the segmentation process, the user first draws a rough border around the object to be separated (FIGS. 3.1-3.4). Then, by adjusting the threshold parameters to the segmentation algorithm, the user can dynamically refine the area without having to paint by hand. These adjustments can be refined for the entire image, or can be refined only for specific regions to allow for more accurate segmentation. The parameters are color (hue, saturation and brightness), noise frequency and edge smoothness. The user can adjust the approximate point at which the user can "bake" or apply parameters to the approximate border, resulting in a new, more accurate approximate edge border, Can be further refined using adjustable parameters or by hand painting in the perspective and movement resulting in the image (FIGS. 1.1-1.4). The image then undergoes "in-painting" (FIGS. 4.1-4.4) (including painting and removal of holes formed during the segmentation step).
[0015]
When the layers are shifted to simulate parallax, it is possible that a blank area occurs in the layer below. The software of the present invention automatically fills these blanks with "in-painting" space.
[0016]
The algorithm calculates the pixels that need filling. This is done by intersection and subtraction calculations in the mask or alpha channel of the layer above the current layer.
[0017]
The software then uses a scan line algorithm to fill only one pixel / intersection / scan line until the area is filled. The color of each pixel is based on a weighted average of surrounding pixels that already have a color from the original image or from an earlier run of the algorithm. The weight of each pixel is uniformly dependent on the top / bottom and left / right pixels for the first run, and each run is such that it is heavily dependent on the left / right pixels as the distance to the original pixel increases. Will be adjusted later.
[0018]
For each layer, the user selects the depth by entering a value in the provided GUI edit field. Starting from the foreground, the software specifies the order of the layers by retrieving the layers in the order in which they were selected. The software then generates exactly the frames needed for the mutual phasing phase. See FIGS. 1.1-1.4.
[0019]
When multiple images are input, they can be used to form a three-dimensional image from multiple image cameras, and in the case of different or sequential images, a flip, form, zoom or action image is formed.
[0020]
In order to carry out the conversion process described above, the software package of the present invention is controlled by the same optical principles used for 3D photography. Such principles are disclosed, for example, in U.S. Patent Nos. 3,852,787; 3,895,867; and 3,960,563, which are incorporated herein by reference.
[0021]
The specific embodiments illustrated and described in the accompanying drawings are merely illustrative of the invention and do not limit the invention in any way.
[Brief description of the drawings]
FIG.
FIG. 3 is a perspective view of a first exemplary two objects corresponding to a pixel image file.
FIG. 1.1
FIG. 2 shows a first parallax shift image of the image of FIG. 1 corresponding to a parallax shift stage according to the invention.
FIG. 1.2
FIG. 2 shows a second parallax shift image of the image of FIG. 1 corresponding to a parallax shift stage according to the invention.
[Figure 1.3]
FIG. 3 shows a third parallax shift image of the image of FIG. 1 corresponding to a parallax shift stage according to the invention.
[Figure 1.4]
FIG. 4 shows a fourth parallax shift image of the image of FIG. 1 corresponding to a parallax shift stage according to the invention.
FIG. 1.5
FIG. 4 shows the images of FIG. 1.1 to FIG. 1.4 which have been mutually phased based on the mutual phase adjustment process according to the invention.
[Figure 1.6]
FIG. 4 is a close-up of a portion of the mutually phased image shown in FIG. 1.5.
FIG. 2
FIG. 16 is a diagram showing the image of FIG. 1.5 fixed on a medium.
FIG. 2.1
FIG. 2 is a diagram exemplifying a foreground object from within the image shown in FIG. 1 fixed within the image of FIG. 2.0.
[Fig. 2.2]
FIG. 2 illustrates a background object from within the image shown in FIG. 1 fixed within the image of FIG. 2.0.
[Figure 2.3]
FIG. 2 illustrates a thin film multi-lens sheet for overlaying the fixed image of FIG. 2.0.
[Fig. 2.4]
FIG. 12 is a diagram illustrating an image when an observer views the image of FIG. 2.0 through the multi-lens overlay of FIG. 2.3.
[Figure 2.5]
FIG. 5 shows the observer's eyes in FIG. 2.4.
[Fig. 3.1]
FIG. 3 illustrates the segmentation and boundary refining steps of the method of the present invention for segmenting a two-dimensional image into a plurality of objects.
[Fig. 3.2]
FIG. 3 illustrates the segmentation and boundary refining steps of the method of the present invention for segmenting a two-dimensional image into a plurality of objects.
[Fig. 3.3]
FIG. 3 illustrates the segmentation and boundary refinement steps of the method of the present invention for segmenting a two-dimensional image into a plurality of objects.
[Fig. 3.4]
FIG. 3 illustrates the segmentation and boundary refining steps of the method of the present invention for segmenting a two-dimensional image into a plurality of objects.
[Fig. 3.5]
FIG. 3 illustrates the segmentation and boundary refinement steps of the method of the present invention for segmenting a two-dimensional image into a plurality of objects.
[Fig. 4.1]
FIG. 4 is a diagram illustrating gaps of a background object image corresponding to a plurality of parallax shifts according to the method of the present invention.
[Fig. 4.2]
FIG. 4 is a diagram illustrating gaps of a background object image corresponding to a plurality of parallax shifts according to the method of the present invention.
[Fig. 4.3]
FIG. 7 is a diagram illustrating gaps of a background object image corresponding to a plurality of parallax shifts according to the method of the present invention.
[Fig. 4.4]
FIG. 7 is a diagram illustrating gaps of a background object image corresponding to a plurality of parallax shifts according to the method of the present invention.
[Figure 5.1]
FIG. 4 shows the in-painting step performed by the method of the invention for filling the gap shown in FIG. 4.1 with a weld mount double clip according to the invention.
FIG. 5.2
FIG. 4 shows an in-painting step performed by the method according to the invention for filling the gap shown in FIG. 4.2 with a welding mount double clip according to the invention.
[Fig. 5.3]
FIG. 4 shows an in-painting step performed by the method of the invention for filling the gap shown in FIG. 4.3 with a weld mount double clip according to the invention.
FIG. 5.4
FIG. 5 shows an in-painting step performed by the method of the invention for filling the gap shown in FIG. 4.4 with a weld mount double clip according to the invention.

Claims (2)

二次元像ファイルを三次元像ファイルへ変換するための方法において、
複数のオブジェクトを反映するピクセルデータを有する二次元ピクセル像データファイルをデータ記憶装置に受け取り、
この二次元ピクセル像データファイルを上記記憶装置から検索し、
その像ファイルに対応する像をビデオディスプレイに表示し、
少なくとも1つのオブジェクトに対する初期境界線を指示するセグメント化コマンドを受け取り、
上記セグメント化コマンドに基づいて上記少なくとも1つのオブジェクトに対する境界線を表示し、
上記像ファイルを、上記セグメント化コマンドに基づいて複数の像へとセグメント化し、
上記複数の像の少なくとも1つをイン・ペインティングして、上記複数の像の少なくとも1つの一部分に充填ピクセルを充填し、これら充填ピクセルは、上記少なくとも1つの像ファイルで表わされたオブジェクト内のピクセルに基づいて発生され、
上記複数の像の少なくとも第1及び第2に対して第1深さデータ及び第2深さデータを受け取り、
上記複数の像の上記少なくとも第1及び第2の各々に対して少なくとも2つの位相シフトされた像を発生し、これら2つの位相シフトされた像は、互いに且つ上記複数の像の少なくとも1つの他の像に対して視差シフトを有し、該視差シフトは、その像に対する深さデータに基づくものであり、そして
上記位相シフトされた像を、出力及び印刷のために単一の相互整相された像ファイルへと相互整相する、
という段階を備えた方法。
In a method for converting a two-dimensional image file to a three-dimensional image file,
Receiving a two-dimensional pixel image data file having pixel data reflecting a plurality of objects into a data storage device;
Retrieving the two-dimensional pixel image data file from the storage device,
Display the image corresponding to the image file on the video display,
Receiving a segmentation command indicating an initial boundary for at least one object;
Displaying a boundary line for the at least one object based on the segmentation command;
Segmenting the image file into a plurality of images based on the segmentation command;
Inpainting at least one of the plurality of images to fill at least a portion of the plurality of images with fill pixels, wherein the fill pixels are within an object represented by the at least one image file. Is generated based on the pixels of
Receiving first depth data and second depth data for at least first and second of the plurality of images;
Generating at least two phase-shifted images for each of the at least first and second of the plurality of images, wherein the two phase-shifted images are mutually and at least one other of the plurality of images; Have a parallax shift, which is based on depth data for that image, and the phase-shifted image is single-phased for output and printing. Phasing into image files,
A method with a stage.
少なくとも1つのオブジェクトに対する最終境界線を発生するためのパラメータを有する境界線精錬コマンドを受け取る段階を更に備え、それらパラメータは、色、ノイズ周波数及び縁のなだらかさの1つ以上より成るグループから選択され、そして上記セグメント化は、少なくとも一部分は上記境界線精錬コマンドにおいて実行される請求項1に記載の方法。Receiving a boundary refinement command having parameters for generating a final boundary for at least one object, wherein the parameters are selected from a group consisting of one or more of color, noise frequency, and edge smoothness. The method of claim 1, wherein the segmenting is performed at least in part in the boundary refinement command.
JP2002531371A 2000-09-14 2001-09-14 Automatic 2D and 3D conversion method Pending JP2004510272A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US23241000P 2000-09-14 2000-09-14
PCT/US2001/028563 WO2002027667A1 (en) 2000-09-14 2001-09-14 Method for automated two-dimensional and three-dimensional conversion

Publications (1)

Publication Number Publication Date
JP2004510272A true JP2004510272A (en) 2004-04-02

Family

ID=22872982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002531371A Pending JP2004510272A (en) 2000-09-14 2001-09-14 Automatic 2D and 3D conversion method

Country Status (6)

Country Link
EP (1) EP1323135A1 (en)
JP (1) JP2004510272A (en)
CN (1) CN1524249A (en)
AU (1) AU2001290838A1 (en)
RU (1) RU2003110175A (en)
WO (1) WO2002027667A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602005006836D1 (en) * 2004-11-16 2008-06-26 Koninkl Philips Electronics Nv IMAGE PLAYBACK BASED ON PICTURE SEPARATION
JP4463215B2 (en) * 2006-01-30 2010-05-19 日本電気株式会社 Three-dimensional processing apparatus and three-dimensional information terminal
EP1991963B1 (en) * 2006-02-27 2019-07-03 Koninklijke Philips N.V. Rendering an output image
KR100753536B1 (en) * 2006-05-04 2007-08-30 주식회사 아이너스기술 Method for detecting 2 dimension sketch data of source model data for 3 dimension reverse modeling
US7719531B2 (en) * 2006-05-05 2010-05-18 Microsoft Corporation Editing text within a three-dimensional graphic
CN101206767B (en) * 2006-12-22 2010-12-15 财团法人资讯工业策进会 Image conversion device and method for transforming flat picture to three-dimensional effect image
CN101809627A (en) * 2007-06-01 2010-08-18 埃克森美孚上游研究公司 The generation of constrained voronoi grid in the plane
CN101350016B (en) * 2007-07-20 2010-11-24 富士通株式会社 Device and method for searching three-dimensional model
CN101271578B (en) * 2008-04-10 2010-06-02 清华大学 Depth sequence generation method of technology for converting plane video into stereo video
EP2308241B1 (en) * 2008-07-24 2017-04-12 Koninklijke Philips N.V. Versatile 3-d picture format
CN101593349B (en) * 2009-06-26 2012-06-13 福州华映视讯有限公司 Method for converting two-dimensional image into three-dimensional image
US8502862B2 (en) * 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
CN101860767B (en) * 2010-05-18 2011-10-19 南京大学 Lattice-based three-dimensional moving image display method and realization device thereof
WO2012014009A1 (en) * 2010-07-26 2012-02-02 City University Of Hong Kong Method for generating multi-view images from single image
US9305398B2 (en) 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
CN102469318A (en) * 2010-11-04 2012-05-23 深圳Tcl新技术有限公司 Method for converting two-dimensional image into three-dimensional image
CN102469323B (en) * 2010-11-18 2014-02-19 深圳Tcl新技术有限公司 Method for converting 2D (Two Dimensional) image to 3D (Three Dimensional) image
TWI463434B (en) * 2011-01-28 2014-12-01 Chunghwa Picture Tubes Ltd Image processing method for forming three-dimensional image from two-dimensional image
US9594384B2 (en) 2012-07-26 2017-03-14 Honeywell International Inc. Method of associating an HVAC controller with an external web service
US9477239B2 (en) 2012-07-26 2016-10-25 Honeywell International Inc. HVAC controller with wireless network based occupancy detection and control
CN105117021A (en) * 2015-09-24 2015-12-02 深圳东方酷音信息技术有限公司 Virtual reality content generation method and playing device
CN105631938B (en) * 2015-12-29 2019-12-24 联想(北京)有限公司 Image processing method and electronic equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems

Also Published As

Publication number Publication date
CN1524249A (en) 2004-08-25
WO2002027667A1 (en) 2002-04-04
EP1323135A1 (en) 2003-07-02
RU2003110175A (en) 2004-08-27
AU2001290838A1 (en) 2002-04-08

Similar Documents

Publication Publication Date Title
JP2004510272A (en) Automatic 2D and 3D conversion method
US7162083B2 (en) Image segmentation by means of temporal parallax difference induction
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
US20190379883A1 (en) Stereoscopic video generation method based on 3d convolution neural network
JP2010154422A (en) Image processor
US20020118275A1 (en) Image conversion and encoding technique
JP4661824B2 (en) Image processing apparatus, method, and program
US6760021B1 (en) Multi-dimensional image system for digital image input and output
JP2009282979A (en) Image processor and image processing method
US20150348273A1 (en) Depth modification for display applications
JPH09504131A (en) Image processing system for handling depth information
JPH11509998A (en) Method for converting an image into a stereoscopic image, and an image and a series of images obtained by the method
US6828973B2 (en) Method and system for 3-D object modeling
Stavrakis et al. Image-based stereoscopic painterly rendering
JP3091644B2 (en) 3D image conversion method for 2D images
EP1069452A2 (en) Lenticular image product with zoom image effect
KR101121979B1 (en) Method and device for stereoscopic image conversion
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
KR101619327B1 (en) Joint-adaptive bilateral depth map upsampling
KR101633634B1 (en) Method and system for color matching between left and right images acquired from stereoscopic camera in digital cinemas
JPWO2020066008A1 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JP3992607B2 (en) Distance image generating apparatus and method, program therefor, and recording medium
US20080063275A1 (en) Image segmentation by means of temporal parallax difference induction
CN116033137A (en) Display screen processing method and device, nonvolatile storage medium and electronic equipment
Istead et al. Layer-based disparity adjustment in stereoscopic 3D media