JP2000057380A - Image processor, image processing method and storage medium - Google Patents

Image processor, image processing method and storage medium

Info

Publication number
JP2000057380A
JP2000057380A JP10224848A JP22484898A JP2000057380A JP 2000057380 A JP2000057380 A JP 2000057380A JP 10224848 A JP10224848 A JP 10224848A JP 22484898 A JP22484898 A JP 22484898A JP 2000057380 A JP2000057380 A JP 2000057380A
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
generated
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10224848A
Other languages
Japanese (ja)
Inventor
Meiki Okujima
明希 奥嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10224848A priority Critical patent/JP2000057380A/en
Publication of JP2000057380A publication Critical patent/JP2000057380A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a three-dimensional(3D) image from a two-dimensional(2D) image using simple operation by finding out the depth information of an object in accordance with the color information of the 2D image and generating the 3D image corresponding to the 2D image in accordance with the found depth information. SOLUTION: A 3D image generation part 124 generation a 3D image from a modeling image to be a 2D image stored in a modeling image storing part 123. A shape formation part 125 in the generation part 124 forms a wire frame modeling image to be 3D shape data from the modeling image to be a 2D image stored in the storing part 123. A color setting part 126 generates a 3D image corresponding to a 2D texture image stored in a texture image storing part 122 by sticking the 2D texture image to the wire frame modeling image formed by the shape formation part 125.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及び画
像処理方法並びに記録媒体に係り、特に、3次元画像を
生成する画像処理装置及び画像処理方法並びに記録媒体
に関する。
The present invention relates to an image processing apparatus, an image processing method, and a recording medium, and more particularly, to an image processing apparatus, an image processing method, and a recording medium that generate a three-dimensional image.

【0002】[0002]

【従来の技術】3次元画像のモデリングには、主に、ワ
イヤフレームモデルによるモデリング、及び、ソリッド
モデルによるモデリングがある。まず、ワイヤフレーム
モデルによるモデリングについて説明する。図1は従来
のワイヤモデルによるモデリングの一例の動作説明図を
示す。
2. Description of the Related Art Three-dimensional image modeling mainly includes modeling using a wire frame model and modeling using a solid model. First, modeling using a wire frame model will be described. FIG. 1 is an operation explanatory diagram of an example of modeling by a conventional wire model.

【0003】制御点p10、p11は3次元空間(X、Y、
Z)上の得ようとする3次元画像に対応した位置に設定
される。3次元画像を生成する際には、制御点p11を矢
印A方向に移動させることにより凹凸を付け、3次元画
像を得ていた。次に、ソリッドモデルによるモデリング
について説明する。図2は従来のソリッドモデルによる
モデリングの一例の動作説明図を示す。
The control points p10 and p11 are in a three-dimensional space (X, Y,
Z) It is set at a position corresponding to the three-dimensional image to be obtained. When generating the three-dimensional image, the control point p11 is moved in the direction of arrow A to make the three-dimensional image uneven. Next, modeling using a solid model will be described. FIG. 2 is a view for explaining an operation of an example of modeling using a conventional solid model.

【0004】ソリッドモデルによりモデリングでは、例
えば、直方体や球体などの基本的な3次元モデルを複数
種類用意し、選択した上で、3次元モデル1上の所望の
位置をカーソルを使用してドラッグ操作することで凹凸
2を形成することによりモデリングを行っていた。
In modeling with a solid model, for example, a plurality of basic three-dimensional models such as a rectangular parallelepiped or a sphere are prepared, selected, and a desired position on the three-dimensional model 1 is dragged using a cursor. In this case, modeling is performed by forming the unevenness 2 by doing.

【0005】[0005]

【発明が解決しようとする課題】しかるに、従来のワイ
ヤフレームによるモデリング、及び、ソリッドモデルに
よるモデリングのいずれの場合も、複雑な形状のモデル
をモデリングする場合には、制御点を多くする必要があ
り、制御点の設定に時間がかかる等の問題点があった。
However, in both conventional modeling using a wire frame and modeling using a solid model, it is necessary to increase the number of control points when modeling a model having a complicated shape. And it takes time to set control points.

【0006】また、作成された3次元モデリング画像に
対して写真画像などの2次元画像のテクスチャ画像を張
り付けようとすると、作成した3次元画像とテクスチャ
画像が一致せず、画像を一致させる作業、誤った一致の
ための修正作業に時間がかかる等の問題点があった。さ
らに、3次元モデリング画像と2次元のテクスチャ画像
とが別々に設定されるので、一方に修正を行った場合
に、他方の画像の対応する部分に修正をかけるとき、そ
の対応がとれず、修正に時間がかかるなどの問題点があ
った。
If a texture image of a two-dimensional image such as a photographic image is to be pasted on the created three-dimensional modeling image, the created three-dimensional image and the texture image do not match. There was a problem that it took a long time to correct the erroneous match. Further, since the three-dimensional modeling image and the two-dimensional texture image are set separately, when one of the corrections is made, the corresponding portion of the other image is not corrected. And it takes time.

【0007】本発明は上記の点に鑑みてなされたもの
で、簡単な操作で2次元画像から3次元画像を得ること
ができる画像処理装置及び画像処理方法並びに記録媒体
を提供することを目的とする。
The present invention has been made in view of the above points, and has as its object to provide an image processing apparatus, an image processing method, and a recording medium that can obtain a three-dimensional image from a two-dimensional image by a simple operation. I do.

【0008】[0008]

【課題を解決するための手段】本発明は、3次元画像を
生成するときに、2次元画像の色情報に応じて物体の奥
行き情報を求め、求められた奥行き情報に応じて2次元
画像に対応する3次元画像を生成する。また、本発明
は、生成された複数の3次元画像を合成可能とする。
According to the present invention, when a three-dimensional image is generated, depth information of an object is obtained in accordance with color information of the two-dimensional image, and a two-dimensional image is generated in accordance with the obtained depth information. Generate a corresponding three-dimensional image. Further, the present invention enables a plurality of generated three-dimensional images to be combined.

【0009】また、本発明は、2次元画像を生成された
3次元画像に貼り付けることにより、2次元画像を3次
元画像とする。さらに、本発明は、2次元画像と3次元
画像との互いに対応する位置を指定し、2次元画像を3
次元画像に張り付ける。また、本発明は、生成された3
次元画像を編集する。
According to the present invention, the two-dimensional image is converted to a three-dimensional image by pasting the two-dimensional image on the generated three-dimensional image. Further, the present invention specifies the positions of the two-dimensional image and the three-dimensional image that correspond to each other, and
Attach to a two-dimensional image. Also, the present invention relates to the generated 3
Edit dimensional images.

【0010】本発明は、2次元画像と3次元画像とで異
なる編集を行えるようにする。さらに、本発明は奥行き
を検出するための色情報を2次元画像の濃淡とする。以
上本発明によれば、2次元画像で生じる奥行きに応じた
画像の色に濃淡、例えば、近い位置では、色が薄くな
り、奥に行くほど色が濃くなることを利用して、色情
報、すなわち、2次元画像の色の濃淡に応じて奥行きを
認識することにより、2次元画像に対応した3次元画像
を作成する。
The present invention enables different editing to be performed between a two-dimensional image and a three-dimensional image. Further, according to the present invention, the color information for detecting the depth is defined as the density of the two-dimensional image. As described above, according to the present invention, by utilizing the fact that the color of an image corresponding to the depth generated in a two-dimensional image is lighter and darker, for example, at a position nearer, the color becomes lighter, and the color becomes deeper at a deeper position. That is, a three-dimensional image corresponding to the two-dimensional image is created by recognizing the depth in accordance with the shade of the color of the two-dimensional image.

【0011】また、本発明によれば、生成された複数の
3次元画像を合成することにより、同一の物体の複数の
2次元画像から得られた3次元画像を合成することがで
き、物体の裏面や内部などの画像を得ることができる。
さらに、本発明によれば、2次元画像と3次元画像との
互いに対応する位置を指定して、2次元画像を3次元画
像に張り付けることにより、オペレータの指示により2
次元画像を3次元画像に張り付けることができる。
Further, according to the present invention, by synthesizing a plurality of generated three-dimensional images, a three-dimensional image obtained from a plurality of two-dimensional images of the same object can be synthesized. Images on the back, inside, etc. can be obtained.
Further, according to the present invention, by specifying the positions of the two-dimensional image and the three-dimensional image that correspond to each other and pasting the two-dimensional image to the three-dimensional image, the two-dimensional image can be specified by the operator.
A three-dimensional image can be attached to a three-dimensional image.

【0012】また、本発明によれば、生成された3次元
画像を編集可能とすることにより、オペレータの指示に
より所望の3次元画像を得ることができる。さらに、本
発明によれば、2次元画像と3次元画像とで異なる編集
を行えるようにすることにより、オペレータの指示によ
り2次元画像と3次元画像とでそれぞれ異なる画像に編
集でき、2次元画像の色の薄い部分を3次画像で奥に位
置させたり、3次元画像の奥の位置の色を薄くすること
ができ、オペレータの思うように編集が行える。
Further, according to the present invention, a desired three-dimensional image can be obtained by an instruction of an operator by making the generated three-dimensional image editable. Further, according to the present invention, different editing can be performed between the two-dimensional image and the three-dimensional image, so that the two-dimensional image and the three-dimensional image can be respectively edited into different images according to the instruction of the operator. Can be located at the back of the tertiary image, or the color at the back of the three-dimensional image can be lightened, and editing can be performed as desired by the operator.

【0013】[0013]

【発明の実施の形態】図3は本発明の一実施例のブロッ
ク構成図を示す。本実施例の画像処理装置100は、C
PU101、RAM102、ROM103、HDD10
4、FDD105、CD−ROMドライブ106、ディ
スプレイ107、グラフィックスボード108、インタ
フェース109、キーボード110、マウス111、バ
ス112から構成される。
FIG. 3 is a block diagram showing an embodiment of the present invention. The image processing apparatus 100 according to the present embodiment
PU 101, RAM 102, ROM 103, HDD 10
4, FDD 105, CD-ROM drive 106, display 107, graphics board 108, interface 109, keyboard 110, mouse 111, and bus 112.

【0014】CPU101は、RAM102からプログ
ラムを読み出して実行する。RAM102は、プログラ
ムや処理中のデータを一時的に記憶する。RAM102
に記憶された内容は、電源切断時に失われる。ROM1
03は、装置の起動に必要なプログラムやデータが記憶
されており、電源切断時にもその内容は保持される。
The CPU 101 reads out a program from the RAM 102 and executes it. The RAM 102 temporarily stores programs and data being processed. RAM 102
Are lost when the power is turned off. ROM1
Reference numeral 03 stores programs and data necessary for starting the apparatus, and the contents are retained even when the power is turned off.

【0015】HDD104は、固定式の磁気ディスクに
プログラムやデータを磁気的に記憶する。このため、H
DD104の内容は、電源切断時でも保持される。ま
た、HDD104の内容は、CPU101の処理により
容易に変更可能である。FDD105には、フロッピー
ディスク113が装着される。FDD105は、装着さ
れたフロッピーディスク113に記憶されたプログラム
やデータを読み出すとともに、CPU101で処理され
たデータやプログラムを装着されたフロッピーディスク
113に記憶する。
The HDD 104 magnetically stores programs and data on a fixed magnetic disk. For this reason, H
The contents of the DD 104 are retained even when the power is turned off. The contents of the HDD 104 can be easily changed by the processing of the CPU 101. A floppy disk 113 is mounted on the FDD 105. The FDD 105 reads out the programs and data stored in the mounted floppy disk 113, and stores the data and programs processed by the CPU 101 on the mounted floppy disk 113.

【0016】CD−ROMドライブ106には、CD−
ROM114が装着される。CD−ROMドライブ10
6は、装着されたCD−ROM114に記憶されたプロ
グラムやデータを読み出す。ディスプレイ107は、グ
ラフィックスボード108を介してバス112に接続さ
れており、CPU101で処理されてた2次元画像又は
3次元画像を表示する。グラフィックスボード108は
CPU101での処理データをディスプレイ107に表
示するための画像データに変換する。
The CD-ROM drive 106 contains a CD-ROM drive.
The ROM 114 is mounted. CD-ROM drive 10
Reference numeral 6 reads out programs and data stored in the mounted CD-ROM 114. The display 107 is connected to the bus 112 via the graphics board 108, and displays a two-dimensional image or a three-dimensional image processed by the CPU 101. The graphics board 108 converts the processing data of the CPU 101 into image data to be displayed on the display 107.

【0017】また、バス112にはインタフェース10
9を介してキーボード110、マウス111が接続され
る。キーボード110及びマウス111は、プログラム
の実行の指示やデータの入力を行う。本実施例の画像処
理は、CPU101により画像処理プログラムを実行す
ることにより行われる。画像処理プログラムは、例え
ば、HDD104に記憶され、キーボード110やマウ
ス111からの指示によりRAM102に展開されて、
CPU101に実現される。HDD104には、フロッ
ピーディスク113からFDD105によりインストー
ル、又は、CD−ROM114からCD−ROMドライ
ブ106によりインストールしてもよい。また、通信装
置などを介して外部記憶媒体からインストールしてもよ
い。
The bus 112 has an interface 10
9, a keyboard 110 and a mouse 111 are connected. The keyboard 110 and the mouse 111 are used to issue instructions for executing programs and input data. The image processing of the present embodiment is performed by the CPU 101 executing an image processing program. The image processing program is stored in, for example, the HDD 104, expanded in the RAM 102 in accordance with an instruction from the keyboard 110 or the mouse 111,
This is realized by the CPU 101. The HDD 104 may be installed from the floppy disk 113 by the FDD 105 or may be installed from the CD-ROM 114 by the CD-ROM drive 106. Alternatively, the program may be installed from an external storage medium via a communication device or the like.

【0018】さらに、フロッピーディスク113、CD
−ROM114、外部記憶媒体からFDD105、CD
−ROMドライブ106、通信装置などにより直接RA
M102に展開して実行するようにしてもよい。なお、
画像処理装置100とした本発明のコンピュータシステ
ムは、オペレーティングシステムや周辺装置なども含
む。
Further, a floppy disk 113, a CD
-ROM 114, FDD 105 from external storage medium, CD
A direct RA by the ROM drive 106, a communication device, etc.
The program may be developed in M102 and executed. In addition,
The computer system of the present invention as the image processing apparatus 100 includes an operating system, peripheral devices, and the like.

【0019】図4に本発明の一実施例の画像処理プログ
ラムの機能ブロック図を示す。CPU101により実行
される画像処理プログラム120は、編集部121、テ
クスチャ画像保持部122、モデリング画像作成部12
3、3次元画像作成部126から構成される。また、3
次元画像作成部126は、形状生成部124、色設定部
125から構成される。
FIG. 4 is a functional block diagram of an image processing program according to one embodiment of the present invention. The image processing program 120 executed by the CPU 101 includes an editing unit 121, a texture image holding unit 122, a modeling image creation unit 12
It comprises a three-dimensional image creation unit 126. Also, 3
The two-dimensional image creation unit 126 includes a shape generation unit 124 and a color setting unit 125.

【0020】編集部121は、オペレータの指示により
テクスチャ画像保持部122に保持されたテクスチャ画
像、及び、モデリング画像保持部124に保持されたモ
デリング画像に対して編集に対してオペレータの指示に
より編集を行う。その編集は、例えば、モデリング画像
となる2次元画像の作成およびその色の変更や、テクス
チャ画像の加工およびその色の変更などである。また、
モデリング画像は後述する3次元画像を生成するための
形状データを作成するために用いられ、その作成された
3次元形状データに貼り付ける色柄としてテクスチャ画
像が用いられる。
The editing unit 121 edits the texture image held in the texture image holding unit 122 and the modeling image held in the modeling image holding unit 124 according to the operator's instruction. Do. The editing includes, for example, creation of a two-dimensional image serving as a modeling image and change of its color, processing of a texture image and change of its color, and the like. Also,
The modeling image is used for creating shape data for generating a three-dimensional image described later, and a texture image is used as a color pattern to be pasted on the created three-dimensional shape data.

【0021】3次元画像作成部125は、モデリング画
像保持部123により保持された2次元画像であるモデ
リング画像から3次元画像を作成するものであり、その
3次元画像作成部125は形状生成部124と色設定部
125から構成される。その形状作成部124は、後述
する処理により、モデリング画像保持部123により保
持された2次元画像であるモデリング画像から3次元形
状データであるワイヤフレームモデリング画像を生成す
るものである。また、色設定部125は、形状生成部1
24により生成されたワイヤフレームモデリング画像に
対し、前記テクスチャ画像をテクスチャマッピングによ
り貼り付ける処理を行うものである。
The three-dimensional image creation unit 125 creates a three-dimensional image from the two-dimensional model image held by the modeling image holding unit 123. The three-dimensional image creation unit 125 includes a shape generation unit 124. And a color setting unit 125. The shape creating unit 124 generates a wire frame modeling image as three-dimensional shape data from the two-dimensional image held by the modeling image holding unit 123 by a process described later. Further, the color setting unit 125 includes the shape generation unit 1
24, a process of pasting the texture image by texture mapping to the wire frame modeling image generated by 24.

【0022】ここで、2次元のモデリング画像から3次
元形状データ、すなわち、ワイヤフレームモデリング画
像を作成する形状作成部124の処理について説明す
る。図5は本発明の一実施例の形状生成部の処理フロー
チャート、図6、図7は本発明の一実施例の形状生成部
の動作説明図を示す。また、図7(A)は2次元のテク
スチャ画像、図7(B)は3次元のワイヤフレームモデ
リング画像を示す。
Here, the processing of the shape creating unit 124 for creating three-dimensional shape data, that is, a wire frame modeling image from a two-dimensional modeling image will be described. FIG. 5 is a processing flowchart of the shape generation unit according to one embodiment of the present invention, and FIGS. 6 and 7 are operation explanatory diagrams of the shape generation unit according to one embodiment of the present invention. FIG. 7A shows a two-dimensional texture image, and FIG. 7B shows a three-dimensional wire frame modeling image.

【0023】モデリング画像作成部123では、2次元
モデリング画像の座標(x,y)が座標(0,0)から
座標(X0 ,Y0 )になるまで(ステップS1−1、S
1−2)、以下の処理を繰り返す。2次元モデリング画
像の座標が(x,y)のとき、座標(x,y,f(x,
y))、(x+1,y,f(x+1,y))、(x+
1,y+1,f(x+1,y+1))、(x,y+1,
f(x,y+1))から構成される四角形を物体の表面
とする(ステップS1−3)。
The modeling image creation unit 123 changes the coordinates (x, y) of the two-dimensional modeling image from the coordinates (0, 0) to the coordinates (X0, Y0) (steps S1-1 and S1-1).
1-2), the following processing is repeated. When the coordinates of the two-dimensional modeling image are (x, y), the coordinates (x, y, f (x,
y)), (x + 1, y, f (x + 1, y)), (x +
1, y + 1, f (x + 1, y + 1)), (x, y + 1,
A rectangle formed by f (x, y + 1)) is set as the surface of the object (step S1-3).

【0024】このとき、f(x,y)、すなわち、Z方
向の座標は、座標(x,y)のRGB値に基づいて求め
られる。ここで、座標(x,y)のRGB値が例えば、 0<=R<=255 0<=G<=255 0<=B<=255 を取り得るものとする。
At this time, f (x, y), that is, the coordinates in the Z direction, are obtained based on the RGB values of the coordinates (x, y). Here, it is assumed that the RGB values of the coordinates (x, y) can take, for example, 0 <= R <= 255 0 <= G <= 255 0 <= B <= 255.

【0025】Z方向の座標f(x,y)は、以下のよう
にして求められる。 f(x,y)={(R+G+B)/3}×α ・・・(1) なお、αは定数を示し、Z軸方向に突出する度合いを示
す。αは、例えば、α=(100/255)に設定され
る。例えば、上記f(x,y)の値は、CPU101で
座標(x,y)の色情報(R,G,B)を式(1)に代
入して求める。なお、色情報(R,G,B)に対応した
f(x,y)のマップを作成しておき、座標(x,y)
の色情報(R,G,B)に応じてCPU101が色情報
(R,G,B)に対応したf(x,y)のマップを参照
して、f(x,y)を求めるようにしてもよい。
The coordinates f (x, y) in the Z direction are obtained as follows. f (x, y) = {(R + G + B) / 3} × α (1) where α indicates a constant and indicates a degree of protrusion in the Z-axis direction. α is set to, for example, α = (100/255). For example, the value of f (x, y) is obtained by the CPU 101 substituting the color information (R, G, B) of the coordinates (x, y) into equation (1). In addition, a map of f (x, y) corresponding to the color information (R, G, B) is created, and the coordinates (x, y) are created.
The CPU 101 obtains f (x, y) by referring to a map of f (x, y) corresponding to the color information (R, G, B) according to the color information (R, G, B) of You may.

【0026】このとき、式(1)では、図6に示すよう
に明るい、すなわち、RGB値が大きいほどf(x,
y)が大きくなり、手前に突出し、暗い、すなわち、R
GB値が小さいほどf(x,y)が小さくなり、奥に引
っ込むような3次元画像が得られる。また、f(x,
y)は、式(1)に限られるものではなく、例えば、R
の値だけ、Gの値だけ、Bの値だけで決定するようにし
てもよく、要するに、R,G,Bのいずれか又は全ての
値の大小に対応してZ軸方向の値を決定できる計算式で
あればよい。
At this time, in the equation (1), as shown in FIG. 6, the brighter, that is, the larger the RGB value, the larger f (x,
y) becomes large and protrudes forward and is dark, that is, R
As the GB value is smaller, f (x, y) is smaller, and a three-dimensional image that is recessed deep is obtained. F (x,
y) is not limited to the formula (1).
, Only the value of G, or only the value of B. In short, the value in the Z-axis direction can be determined according to the magnitude of any or all of R, G, and B. Any formula can be used.

【0027】さらに、2次元画像の各ドットの色情報で
あるRGB値を色の三属性である明度、色相の各値に変
換し、それら属性情報の値に基づき各ドットの奥行き情
報を求めるようにしてもよい。この色の三属性である、
明度は色の明るさを、彩度は色みの強弱を、色相は色み
の系統を示し、色情報であるRGB値から色の三属性の
明度、彩度、色相の各値を求める方法は公知であるた
め、その説明は省略する。
Further, the RGB values which are the color information of each dot of the two-dimensional image are converted into three values of lightness and hue which are three attributes of color, and depth information of each dot is obtained based on the values of these attribute information. It may be. The three attributes of this color,
The lightness indicates the brightness of the color, the saturation indicates the strength of the tint, the hue indicates the system of the tint, and a method of calculating the three values of the lightness, chroma, and hue of the three attributes of the color from RGB values as color information. Is well-known, and its description is omitted.

【0028】さらに、オペレータが任意に奥行き情報を
求めるための色情報を設定し、その設定情報に基づいて
2次元画像から3次元画像を生成させることも可能であ
る。例えば、奥行き情報が0となる色を赤とし、奥行き
情報が最大となる色として青として、その間の奥行き情
報は赤色(R)と青色(B)との値を変化させたものに
対応させるように設定すればよい。また、前記の色の三
属性に変換して奥行き情報と色情報の対応を設定するこ
とも可能である。
Further, it is also possible for an operator to arbitrarily set color information for obtaining depth information and generate a three-dimensional image from a two-dimensional image based on the set information. For example, a color in which the depth information is 0 is set to red, a color in which the depth information is maximum is set to blue, and the depth information between the colors corresponds to a change in the value of red (R) and blue (B). Should be set to. It is also possible to set the correspondence between the depth information and the color information by converting them into the three attributes of the color.

【0029】ステップS1−1〜S1−3で、座標
(0,0)〜(X0 ,Y0 )の範囲のテクスチャ画像に
対してワイヤフレームモデルが作成されると、次に、Z
軸方向の成分が0となる四角形、すなわち、座標(x,
y,0)、(x+1,y,0)、(x+1,y+1,
0)、(x,y+1,0)から構成される四角形を削除
する(ステップS1−4)。
In steps S1-1 to S1-3, when a wire frame model is created for a texture image in the range of coordinates (0, 0) to (X0, Y0), then Z
A quadrangle whose axial component is 0, that is, coordinates (x,
y, 0), (x + 1, y, 0), (x + 1, y + 1,
0), and deletes the rectangle composed of (x, y + 1, 0) (step S1-4).

【0030】以上により、2次元テクスチャ画像を3次
元化したワイヤモデリング画像が得られる。例えば、図
7(A)に示すような4×4画素の2次元のテクスチャ
画像の場合、梨地部分G1で色が濃く、白地部分G2で
色が薄いとすると、図7(B)に示すように梨地部分G
1に対応する座標p1では奥に引っ込み、白地部分G2
に対応する座標p2では手前に突出するようなワイヤフ
レームモデリング画像が得られることになる。
As described above, a three-dimensional wire modeling image of the two-dimensional texture image is obtained. For example, in the case of a two-dimensional texture image of 4 × 4 pixels as shown in FIG. 7A, if the color is dark in the satin portion G1 and light in the white portion G2, as shown in FIG. Nashiji part G
At the coordinates p1 corresponding to 1, the recessed portion G2
Is obtained at a coordinate p2 corresponding to the above.

【0031】3次元画像作成部125の色設定部125
では、以上にようにして求められたワイヤフレームモデ
リング画像にテクスチャ画像保持部122に保持された
2次元のテクスチャ画像を貼り付けることにより2次元
のテクスチャ画像に対応した3次元画像を生成する。図
8は本発明の一実施例の色設定部の処理フローチャート
を示す。
The color setting unit 125 of the three-dimensional image creating unit 125
Then, a three-dimensional image corresponding to the two-dimensional texture image is generated by pasting the two-dimensional texture image held in the texture image holding unit 122 to the wire frame modeling image obtained as described above. FIG. 8 is a flowchart illustrating a process performed by the color setting unit according to the embodiment of the present invention.

【0032】色設定部125では、編集部121により
テクスチャ画像保持部124に保持されたテクスチャ画
像の各座標(x,y)の色情報g(x,y)が設定され
る(ステップS2−1)。色設定部125では、3次元
画像、ここでは、ワイヤフレームモデリング画像の座標
(x,y)が座標(0,0)から座標(X0 ,Y0 )に
なるまで(ステップS2−2、S2−3)、以下の処理
を繰り返す。
In the color setting section 125, color information g (x, y) of each coordinate (x, y) of the texture image held in the texture image holding section 124 by the editing section 121 is set (step S2-1). ). In the color setting unit 125, the coordinates (x, y) of the three-dimensional image, here, the wire frame modeling image are changed from the coordinates (0, 0) to the coordinates (X0, Y0) (steps S2-2, S2-3). ), And repeat the following processing.

【0033】まず、3次元画像の指定された座標(x,
y,f(x,y))のZ座標(f(x,y))が0か否
かを判定する(ステップS2−4)。ステップS2−4
により、凹凸のない色情報が不要な部分に着色しないよ
うにできる。ステップS2−4で、モデリング画像の指
定された座標(x,y,f(x,y))のZ座標(f
(x,y))が0の場合には、何ら変更は行わず、次の
座標に対し同様な判定を行う。
First, the designated coordinates (x,
It is determined whether or not the Z coordinate (f (x, y)) of y, f (x, y)) is 0 (step S2-4). Step S2-4
Accordingly, it is possible to prevent color information having no irregularities from coloring an unnecessary portion. In step S2-4, the Z coordinate (f) of the designated coordinates (x, y, f (x, y)) of the modeling image
When (x, y)) is 0, no change is made and a similar determination is made for the next coordinate.

【0034】また、ステップS2−4で、モデリング画
像の指定された座標(x,y,f(x,y))のZ座標
(f(x,y))が0でない場合には、座標(x,y,
f(x,y))の色情報をg(x,y)に変更する(ス
テップS2−5)。上記動作を3次元画像の座標(x,
y)が座標(0,0)から座標(X0 ,Y0 )になるま
で繰り返す。
In step S2-4, if the Z coordinate (f (x, y)) of the designated coordinate (x, y, f (x, y)) of the modeling image is not 0, the coordinate ( x, y,
The color information of f (x, y)) is changed to g (x, y) (step S2-5). The above operation is performed using the coordinates (x,
Repeat until y) changes from coordinates (0,0) to coordinates (X0, Y0).

【0035】ステップS2−2〜S2−5が繰り返さ
れ、3次元画像の色情報がすべて編集部121で設定さ
れた色情報g(x,y)に変更されると、次に、色が設
定されなかった部分に対してその周囲の色情報を平均化
した色情報が設定される。すなわち、色補間が行われ
る。図9は本発明の一実施例による3次元画像の生成例
を示す図を示す。図9(A)はモデリング画像、図9
(B)はモデリング画像から生成される形状データ、す
なわち、ワイヤフレームモデリング画像、図9(C)は
テクスチャ画像、図9(D)は3次元画像を示す。
Steps S2-2 to S2-5 are repeated, and when all the color information of the three-dimensional image is changed to the color information g (x, y) set by the editing unit 121, the color is set. Color information obtained by averaging the surrounding color information is set for the part that has not been subjected to the processing. That is, color interpolation is performed. FIG. 9 is a diagram showing an example of generating a three-dimensional image according to one embodiment of the present invention. FIG. 9A is a modeling image, and FIG.
9B shows shape data generated from the modeling image, that is, a wire frame modeling image, FIG. 9C shows a texture image, and FIG. 9D shows a three-dimensional image.

【0036】モデリング画像は、図9(A)に示すよう
に半球状に突出し、さらに、その中心部に突出部が形成
された3次元形状が設定されている。ここで、編集部1
21により図9(B)に示すような2次元のテクスチャ
画像を作成、すなわち、色情報g(x,y)を指定す
る。以上により、図9(C)に示すように図9(A)に
示す3次元モデリング画像に図9(B)に示す2次元テ
クスチャ画像が張り付けられる。このとき、図9(A)
の白地部分のf(x,y)が0となる部分、すなわち、
凹凸のない部分は着色されず、3次元モデリングされた
部分だけが着色される。
As shown in FIG. 9A, the modeling image has a three-dimensional shape in which a hemisphere protrudes and a protruding portion is formed at the center thereof. Here, editing unit 1
21 creates a two-dimensional texture image as shown in FIG. 9B, that is, designates color information g (x, y). As described above, as shown in FIG. 9C, the two-dimensional texture image shown in FIG. 9B is pasted on the three-dimensional modeling image shown in FIG. 9A. At this time, FIG.
Where the f (x, y) of the white background portion of is 0, that is,
The part without the unevenness is not colored, and only the three-dimensionally modeled part is colored.

【0037】なお、上記操作では、図9(B)に示す編
集部121によりテクスチャ画像を変更し、既に作成さ
れたモデリング画像に張り付けたが、編集部121によ
り図9(A)に示すモデリング画像を変更して、図9
(B)に示す既に作成されたテクスチャ画像を張り付け
るようにすることもできる。上記操作によれば、既に作
成されたモデリング画像と既に作成されたテクスチャ画
像をそれぞれ独立に編集して張り付けて、3次元画像を
作成できる。
In the above operation, the texture image is changed by the editing unit 121 shown in FIG. 9B and pasted on the already created modeling image. However, the editing image shown in FIG. Is changed to FIG.
It is also possible to paste the already created texture image shown in FIG. According to the above operation, a three-dimensional image can be created by independently editing and pasting the created modeling image and the already created texture image.

【0038】なお、上記操作では、モデリング画像又は
テクスチャ画像のいずれか一方だけを変更するものであ
ったが、モデリング画像又はテクスチャ画像のいずれか
一方を変更することにより、他方の画像も変更するよう
にしてもよい。モデリング画像又はテクスチャ画像のい
ずれか一方を変更することにより、他方の画像も変更す
るような操作を行う場合、編集部121を同時編集モー
ドに設定する。
In the above operation, only one of the modeling image and the texture image is changed. However, by changing one of the modeling image and the texture image, the other image is changed. It may be. When performing an operation of changing either the modeling image or the texture image to change the other image, the editing unit 121 is set to the simultaneous editing mode.

【0039】図10は本発明の一実施例の同時編集モー
ド時の動作説明図を示す。図10(A)は編集前のモデ
リング画像、図10(B)は編集前のテクスチャ画像、
図10(C)は編集前の3次元画像、図10(D)は編
集後のモデリング画像、図10(E)は編集後のテクス
チャ画像、図10(F)は編集後の3次元画像を示す。
FIG. 10 is a diagram for explaining the operation in the simultaneous editing mode according to one embodiment of the present invention. 10A is a modeling image before editing, FIG. 10B is a texture image before editing,
10C shows a three-dimensional image before editing, FIG. 10D shows a modeling image after editing, FIG. 10E shows a texture image after editing, and FIG. 10F shows a three-dimensional image after editing. Show.

【0040】図10(A)に示すモデリング画像に編集
部121により操作を行い凹凸130を付け、図10
(D)に示すような画像を編集すると、図10(E)に
示すように図10(D)の凹凸130に対応した形状1
31がテクスチャ画像に表示される。3次元画像作成部
125では、図10(D)に示すモデリング画像に図1
0(E)に示すテクスチャ画像が張り付けられ、図10
(F)に示すような3次元画像が作成される。
An operation is performed by the editing unit 121 on the modeling image shown in FIG.
When an image as shown in FIG. 10D is edited, as shown in FIG. 10E, the shape 1 corresponding to the unevenness 130 in FIG.
31 is displayed on the texture image. In the three-dimensional image creation unit 125, the modeling image shown in FIG.
The texture image shown in FIG.
A three-dimensional image as shown in FIG.

【0041】また、図10(B)に示すテクスチャ画像
に編集部121により操作を行い形状131を編集し、
図10(E)に示すような画像を編集すると、図10
(D)に示すように図10(E)の形状131に対応し
た凹凸130がモデリング画像に編集される。3次元画
像作成部125では、図10(D)に示すモデリング画
像に図10(E)に示すテクスチャ画像が張り付けら
れ、図10(F)に示すような3次元画像が作成され
る。
The shape 131 is edited by operating the texture image shown in FIG.
Editing an image as shown in FIG.
As shown in FIG. 10D, the unevenness 130 corresponding to the shape 131 in FIG. 10E is edited into a modeling image. In the three-dimensional image creation unit 125, the texture image shown in FIG. 10E is attached to the modeling image shown in FIG. 10D, and a three-dimensional image as shown in FIG. 10F is created.

【0042】なお、上記実施例では、1つのテクスチャ
画像から3次元画像を作成する場合について説明した
が、複数の3次元画像を合成して、物体の表裏や内部の
画像を作成するようにすることもできる。図11は本発
明の一実施例の3次元画像合成時の動作説明図を示す。
図11(A)はテクスチャ画像、図11(B)はモデリ
ング画像、図11(C)は合成後のモデリング画像を示
す。
In the above-described embodiment, a case has been described in which a three-dimensional image is created from one texture image. However, a plurality of three-dimensional images are combined to create an image of the front, back, and inside of an object. You can also. FIG. 11 is an explanatory diagram of the operation when synthesizing a three-dimensional image according to one embodiment of the present invention.
11A shows a texture image, FIG. 11B shows a modeling image, and FIG. 11C shows a modeling image after synthesis.

【0043】図11(A)に示すような4×4画素の2
次元のテクスチャ画像の場合、梨地部分G1で色が薄
く、斜線部分G3で色が濃いとすると、図11(B)に
示すように梨地部分G1に対応する座標p1は手前とな
り、斜線部分G3に対応する座標p3では奥に引っ込む
ようなワイヤフレームモデリング画像が得られる。次
に、編集部121の指示により図11(B)に示すワイ
ヤフレームモデリング画像の座標p1を図7(B)に示
すワイヤフレームモデリング画像の座標p1に対応さ
せ、図7(B)に示すワイヤフレームモデリング画像と
図11(B)に示すワイヤフレームモデリング画像とを
合成することにより図11(C)に示すような表裏を有
するワイヤフレームモデリング画像を得ることができ
る。
As shown in FIG. 11A, 2 × 4 × 4 pixels
In the case of a two-dimensional texture image, assuming that the color is light in the satin portion G1 and dark in the hatched portion G3, the coordinate p1 corresponding to the satin portion G1 is in the foreground as shown in FIG. At the corresponding coordinates p3, a wireframe modeling image that is recessed into the back is obtained. Next, the coordinates p1 of the wireframe modeling image shown in FIG. 11B are made to correspond to the coordinates p1 of the wireframe modeling image shown in FIG. By combining the frame modeling image and the wire frame modeling image shown in FIG. 11B, a wire frame modeling image having the front and back as shown in FIG. 11C can be obtained.

【0044】図11(C)に示すワイヤフレームモデリ
ング画像の表裏、及び、内部にテクスチャ画像を張り付
けることにより、表裏及び内部を有する3次元画像を作
成できる。以上のように複数の画像の互いに一致する点
を指定し、合成することにより表裏、及び、内部にも画
像を有する3次元画像を作成できる。
By attaching a texture image to the front and back and inside of the wire frame modeling image shown in FIG. 11C, a three-dimensional image having front and back and inside can be created. As described above, three-dimensional images having images on the front, back, and inside can be created by designating and combining points that match each other in a plurality of images.

【0045】[0045]

【発明の効果】上述の如く、本発明によれば、2次元画
像で生じる奥行きに応じた画像の色に濃淡、例えば、近
い位置では、色が薄くなり、奥に行くほど色が濃くなる
ことを利用して、色情報、すなわち、2次元画像の色の
濃淡に応じて奥行き情報を求めることにより、2次元画
像に対応した3次元画像を自動的に作成することがで
き、よって、制御点の移動や対応する2次元画像の位置
の指定などの操作が不要となり、2次元画像に対応した
3次元画像を簡単に作成できる等の特長を有する。
As described above, according to the present invention, the color of an image corresponding to the depth generated in a two-dimensional image becomes lighter and darker, for example, at a close position, the color becomes lighter, and as the depth goes, the color becomes darker. Is used to obtain depth information in accordance with the color information, that is, the depth of color of the two-dimensional image, so that a three-dimensional image corresponding to the two-dimensional image can be automatically created. This eliminates the need for operations such as moving the image and specifying the position of the corresponding two-dimensional image, and makes it easy to create a three-dimensional image corresponding to the two-dimensional image.

【0046】また、本発明によれば、生成された複数の
3次元画像を合成することにより、同一の物体の複数の
2次元画像から得られた3次元画像を合成することがで
き、物体の裏面や内部などの画像を容易に得ることがで
きるため、よって、制御点の移動や対応する2次元画像
の位置の指定などの操作なしに複雑な形状の3次元画像
を簡単に作成できる等の特長を有する。
Further, according to the present invention, by synthesizing a plurality of generated three-dimensional images, a three-dimensional image obtained from a plurality of two-dimensional images of the same object can be synthesized. Since it is possible to easily obtain an image of the back surface, the inside, or the like, it is possible to easily create a three-dimensional image having a complicated shape without performing operations such as moving a control point and specifying a position of a corresponding two-dimensional image. Has features.

【0047】さらに、本発明によれば、2次元画像と3
次元画像との互いに対応する位置を指定して、2次元画
像を3次元画像に貼り付けることにより、オペレータの
指示により2次元画像を3次元画像に貼り付けることが
でき、オペレータの思うような3次元画像を容易に作成
できる等の特長を有する。また、本発明によれば、生成
された3次元画像を編集可能とすることにより、オペレ
ータの指示によりオペレータの望む3次元画像を得るこ
とができる等の特長を有する。
Further, according to the present invention, the two-dimensional image
By specifying a position corresponding to the two-dimensional image and pasting the two-dimensional image to the three-dimensional image, the two-dimensional image can be pasted to the three-dimensional image according to the operator's instruction. It has features such as easy creation of two-dimensional images. Further, according to the present invention, the generated three-dimensional image can be edited, so that a three-dimensional image desired by the operator can be obtained by an instruction from the operator.

【0048】さらに、本発明によれば、2次元画像と3
次元画像とで異なる編集を行えるようにすることによ
り、オペレータの指示により2次元画像と3次元画像と
でそれぞれ異なる画像に編集でき、2次元画像の色と3
次画像で奥行きとを異ならせることができ、オペレータ
の思うように編集が行え、オペレータの望む3次元画像
を得ることができる等の特長を有する。
Further, according to the present invention, the two-dimensional image
By enabling different editing with the two-dimensional image, it is possible to edit the two-dimensional image and the three-dimensional image into different images according to the instruction of the operator, and to edit the color of the two-dimensional image and the three-dimensional image.
The depth of the next image can be made different, editing can be performed as desired by the operator, and a three-dimensional image desired by the operator can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の一例の動作説明図である。FIG. 1 is an explanatory diagram of an operation of an example of the related art.

【図2】従来の他の一例の動作説明図である。FIG. 2 is an operation explanatory diagram of another example of the related art.

【図3】本発明の一実施例のブロック構成図である。FIG. 3 is a block diagram of an embodiment of the present invention.

【図4】本発明の一実施例の画像処理プログラムの機能
ブロック図である。
FIG. 4 is a functional block diagram of an image processing program according to an embodiment of the present invention.

【図5】本発明の一実施例の形状作成部の処理フローチ
ャートである。
FIG. 5 is a processing flowchart of a shape creating unit according to an embodiment of the present invention.

【図6】本発明の一実施例の形状作成部の動作説明図で
ある。
FIG. 6 is an explanatory diagram of an operation of a shape creating unit according to an embodiment of the present invention.

【図7】本発明の一実施例の形状作成部の動作説明図で
ある。
FIG. 7 is an explanatory diagram of an operation of a shape creating unit according to one embodiment of the present invention.

【図8】本発明の一実施例の色設定部の処理フローチャ
ートである。
FIG. 8 is a processing flowchart of a color setting unit according to an embodiment of the present invention.

【図9】本発明の一実施例の3次元画像作成部の動作説
明図である。
FIG. 9 is an explanatory diagram of an operation of the three-dimensional image creating unit according to one embodiment of the present invention.

【図10】本発明の一実施例の同時編集モード時の動作
説明図である。
FIG. 10 is an explanatory diagram of an operation in a simultaneous editing mode according to an embodiment of the present invention.

【図11】本発明の一実施例の3次元画像合成時の動作
説明図である。
FIG. 11 is an explanatory diagram of an operation when synthesizing a three-dimensional image according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 画像処理装置 101 CPU 102 RAM 103 ROM 104 HDD 105 FDD 106 CD−ROMドライブ 107 ディスプレイ 108 グラフィックスボード 109 インタフェース 110 キーボード 111 マウス 112 バス 113 フロッピーディスク 114 CD−ROM 120 画像処理プログラム 121 編集部 122 テクスチャ画像保持部 123 モデリング画像作成部 124 モデリング画像保持部 125 3次元画像作成部 REFERENCE SIGNS LIST 100 image processing apparatus 101 CPU 102 RAM 103 ROM 104 HDD 105 FDD 106 CD-ROM drive 107 display 108 graphics board 109 interface 110 keyboard 111 mouse 112 bus 113 floppy disk 114 CD-ROM 120 image processing program 121 editing unit 122 texture image Holding unit 123 Modeling image creation unit 124 Modeling image holding unit 125 3D image creation unit

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 3次元画像を生成する画像処理装置にお
いて、 処理対象の2次元画像の色情報に応じて物体の奥行き情
報を求める処理手段と、 前記処理手段で求めた奥行き情報に基づいて3次元画像
を生成する生成手段とを有することを特徴とする画像処
理装置。
1. An image processing apparatus for generating a three-dimensional image, comprising: processing means for obtaining depth information of an object according to color information of a two-dimensional image to be processed; and 3 based on depth information obtained by the processing means. An image processing apparatus comprising: a generation unit configured to generate a two-dimensional image.
【請求項2】 前記生成手段で生成された複数の3次元
画像を合成する合成手段を有することを特徴とする請求
項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, further comprising a synthesizing unit that synthesizes a plurality of three-dimensional images generated by said generating unit.
【請求項3】 前記生成手段で生成された3次元画像に
2次元画像を貼り付ける貼付手段を有することを特徴と
する請求項1又は2記載の画像処理装置。
3. The image processing apparatus according to claim 1, further comprising a pasting unit that pastes a two-dimensional image onto the three-dimensional image generated by the generating unit.
【請求項4】 前記貼付手段は、前記貼り付ける2次元
画像と前記生成手段で生成された3次元画像との互いに
対応する位置を指定する位置指定手段を有することを特
徴とする請求項3記載の画像処理装置。
4. The apparatus according to claim 3, wherein said pasting means has position specifying means for specifying positions of the two-dimensional image to be pasted and the three-dimensional image generated by said generating means, which correspond to each other. Image processing device.
【請求項5】 前記生成手段で生成された3次元画像を
編集する編集手段を有することを特徴とする請求項1乃
至4のいずれか一項記載の画像処理装置。
5. The image processing apparatus according to claim 1, further comprising an editing unit configured to edit the three-dimensional image generated by the generation unit.
【請求項6】 前記編集手段は、前記処理対象の2次元
画像と前記貼り付ける2次元画像とで異なる編集が行え
ることを特徴とする請求項5記載の画像処理装置。
6. The image processing apparatus according to claim 5, wherein the editing unit can perform different editing between the two-dimensional image to be processed and the two-dimensional image to be pasted.
【請求項7】 前記色情報は、前記処理対象の2次元画
像の濃淡情報であることを特徴とする請求項1乃至6の
いずれか一項記載の画像処理装置。
7. The image processing apparatus according to claim 1, wherein the color information is density information of the two-dimensional image to be processed.
【請求項8】 前記生成手段は、前記処理手段で求めら
れた前記奥行き情報に基づいて前記3次元画像のための
形状データを生成することを特徴とする請求項1乃至7
のいずれか一項記載の画像処理装置。
8. The apparatus according to claim 1, wherein said generating means generates shape data for said three-dimensional image based on said depth information obtained by said processing means.
The image processing device according to any one of claims 1 to 7.
【請求項9】 3次元画像を生成する画像処理方法にお
いて、 処理対象の2次元画像の色情報に応じて前記物体の奥行
き情報を求め、求めた奥行き情報に基づいて3次元画像
を生成することを特徴とする画像処理方法。
9. An image processing method for generating a three-dimensional image, comprising: obtaining depth information of the object according to color information of a two-dimensional image to be processed; and generating a three-dimensional image based on the obtained depth information. An image processing method characterized by the following.
【請求項10】 前記生成された3次元画像に2次元画
像を張り付けることを特徴とする請求項9記載の画像処
理方法。
10. The image processing method according to claim 9, wherein a two-dimensional image is pasted on the generated three-dimensional image.
【請求項11】 前記貼り付ける2次元画像と前記生成
された3次元画像との互いに対応する位置を指定し、 指定された位置が対応するように前記2次元画像を前記
生成された3次元画像に張り付けることを特徴とする請
求項10記載の画像処理方法。
11. A position corresponding to the two-dimensional image to be pasted and the generated three-dimensional image are designated, and the two-dimensional image is generated so that the designated positions correspond to each other. The image processing method according to claim 10, wherein the image processing method is applied to an image.
【請求項12】 前記貼り付ける2次元画像と前記3次
元画像とで異なる編集を行い、前記編集された2次元画
像と前記編集された3次元画像とを合成することを特徴
とする請求項10又は11記載の画像処理方法。
12. The edited two-dimensional image and the three-dimensional image are edited differently, and the edited two-dimensional image and the edited three-dimensional image are combined. Or the image processing method according to 11.
【請求項13】 前記求められた奥行き情報に基づいて
前記3次元画像のための形状データを生成することを特
徴とする請求項9乃至12のいずれか一項記載の画像処
理方法。
13. The image processing method according to claim 9, wherein shape data for the three-dimensional image is generated based on the obtained depth information.
【請求項14】 コンピュータに、 2次元画像の色情報に応じて前記物体の奥行きを検出
し、検出した奥行き情報を求める処理手順と、 前記処理手順で求められた奥行き情報に基づいて3次元
画像を生成する生成手順とを実行させるプログラムを記
憶したコンピュータで読み取り可能な記録媒体。
14. A computer which detects a depth of the object in accordance with color information of a two-dimensional image, obtains the detected depth information, and a three-dimensional image based on the depth information obtained in the processing procedure. And a computer-readable recording medium storing a program for executing a generating procedure for generating a program.
【請求項15】 前記生成手順で生成された複数の3次
元画像を合成する合成手順を実行させる請求項14記載
のプログラムを記憶したコンピュータで読み取り可能な
記録媒体。
15. A computer-readable recording medium storing a program according to claim 14, wherein the computer executes a synthesizing procedure for synthesizing a plurality of three-dimensional images generated in the generating procedure.
【請求項16】 前記生成手順で生成された3次元画像
に2次元画像を貼り付ける貼付手段を実行させる請求項
14又は15記載のプログラムを記憶したコンピュータ
で読み取り可能な記録媒体。
16. A computer-readable recording medium storing a program according to claim 14 or 15, which executes a pasting means for pasting a two-dimensional image onto the three-dimensional image generated in the generation procedure.
【請求項17】 前記貼付手順は、前記貼り付ける2次
元画像と前記生成された3次元画像との互いに対応する
位置を指定する位置指定手順を有する請求項16記載の
プログラムを記憶したコンピュータで読み取り可能な記
録媒体。
17. The computer-readable storage program according to claim 16, wherein the attaching step includes a position specifying step of specifying a position of the two-dimensional image to be pasted and the generated three-dimensional image corresponding to each other. Possible recording medium.
【請求項18】 前記3次元画像生成手順で生成された
3次元画像を編集する編集手順を有することを特徴とす
る請求項14乃至17のいずれか一項記載のプログラム
を記憶したコンピュータで読み取り可能な記録媒体。
18. A computer readable program stored in a computer according to claim 14, further comprising an editing procedure for editing a three-dimensional image generated in said three-dimensional image generating procedure. Recording medium.
【請求項19】 前記編集手順は、前記貼り付ける2次
元画像と前記生成手順で生成される3次元画像とで異な
る編集が行えることを特徴とする請求項18記載のプロ
グラムを記憶したコンピュータで読み取り可能な記録媒
体。
19. The computer-readable program according to claim 18, wherein in the editing procedure, different editing can be performed between the two-dimensional image to be pasted and the three-dimensional image generated in the generation procedure. Possible recording medium.
【請求項20】 前記生成手順は、前記処理手順で求め
られた前記奥行き情報に基づいて前記3次元画像のため
の形状データを生成することを特徴とする請求項14乃
至19のいずれか一項記載のプログラムを記憶したコン
ピュータで読み取り可能な記録媒体。
20. The method according to claim 14, wherein the generating step generates shape data for the three-dimensional image based on the depth information obtained in the processing step. A computer-readable recording medium storing the program described above.
JP10224848A 1998-08-07 1998-08-07 Image processor, image processing method and storage medium Withdrawn JP2000057380A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10224848A JP2000057380A (en) 1998-08-07 1998-08-07 Image processor, image processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10224848A JP2000057380A (en) 1998-08-07 1998-08-07 Image processor, image processing method and storage medium

Publications (1)

Publication Number Publication Date
JP2000057380A true JP2000057380A (en) 2000-02-25

Family

ID=16820122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10224848A Withdrawn JP2000057380A (en) 1998-08-07 1998-08-07 Image processor, image processing method and storage medium

Country Status (1)

Country Link
JP (1) JP2000057380A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100450823B1 (en) * 2001-11-27 2004-10-01 삼성전자주식회사 Node structure for representing 3-dimensional objects using depth image
US10569589B2 (en) 2016-12-20 2020-02-25 Casio Computer Co., Ltd. Three-dimensional printer, print data creation device, method of creating print data, and computer-readable storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100450823B1 (en) * 2001-11-27 2004-10-01 삼성전자주식회사 Node structure for representing 3-dimensional objects using depth image
US10569589B2 (en) 2016-12-20 2020-02-25 Casio Computer Co., Ltd. Three-dimensional printer, print data creation device, method of creating print data, and computer-readable storage medium

Similar Documents

Publication Publication Date Title
US5611036A (en) Apparatus and method for defining the form and attributes of an object in an image
EP0990223B1 (en) Method and apparatus for changing a color of an image
US6271848B1 (en) Image processing device, image processing method and storage medium for storing image processing programs
US7542033B2 (en) Method and program for generating a two-dimensional cartoonish picturization of a three-dimensional object
JP3467725B2 (en) Image shadow removal method, image processing apparatus, and recording medium
JP3777149B2 (en) Program, information storage medium, and image generation apparatus
JP2009104570A (en) Data structure for image formation and method of forming image
CN103065357A (en) Manufacturing method of shadow figure model based on common three-dimensional model
US20090033674A1 (en) Method and apparatus for graphically defining surface normal maps
CN116363288A (en) Rendering method and device of target object, storage medium and computer equipment
US9558571B2 (en) Contour gradients using three-dimensional models
JP4850676B2 (en) Image generating apparatus and image generating method
CN109767384B (en) Method for manufacturing seamless collage pattern simulation litchi grain leather surface
JP2000057380A (en) Image processor, image processing method and storage medium
JP4174133B2 (en) Image generation method
JP2009093287A (en) Image processor, image processing method, and program
JP3945524B2 (en) Key signal generation apparatus and method, image composition apparatus, and recording medium
US7006103B2 (en) System and method for editing parametric texture maps
JP2000331175A (en) Method and device for generating border line generating data, recording system, computer readable execution medium stored with data and entertainment system for adding outline to object according to data
JP2004246877A (en) Program projecting image onto game character, game machine incorporating program, storage medium storing program
JP3356865B2 (en) Map making method and apparatus
JP3062488B1 (en) Texture mapping apparatus, method, and recording medium
JP2701056B2 (en) Secondary representation method for three-dimensional objects
JP3866587B2 (en) Program, information storage medium, and image generation apparatus
JP2575705B2 (en) Architectural perspective drawing animation creation device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101