JPH10307926A - Generating method of three-dimensional image data - Google Patents

Generating method of three-dimensional image data

Info

Publication number
JPH10307926A
JPH10307926A JP13159197A JP13159197A JPH10307926A JP H10307926 A JPH10307926 A JP H10307926A JP 13159197 A JP13159197 A JP 13159197A JP 13159197 A JP13159197 A JP 13159197A JP H10307926 A JPH10307926 A JP H10307926A
Authority
JP
Japan
Prior art keywords
dimensional
image data
image
data
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP13159197A
Other languages
Japanese (ja)
Other versions
JP3067097B2 (en
Inventor
Kazunari Era
一成 江良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP13159197A priority Critical patent/JP3067097B2/en
Publication of JPH10307926A publication Critical patent/JPH10307926A/en
Application granted granted Critical
Publication of JP3067097B2 publication Critical patent/JP3067097B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a three-dimensional image of high quality with use of a small number of polygons by generating the framework data on a three- dimensional space based on the photographic image information and mapping the photographic image to the framework data. SOLUTION: It's possible to consider that a frame PT, a center point P and a screen BT of an object photographed at the center of a photographic image PP are expressed in a two-dimensional way where a cylindrical three- dimensional space is crushed in its depth direction and pushed into the frame PT. The three-dimensional polygon cubic data are generated by adding the distance information on a border line to the mesh image data which are acquired from the radial division, frame and border lines starting at the center point P. The mapping processing is carried out in a sticking mode of the color image data, and the 1st three-dimensional data are obtained. The lettering processing, etc., is carried out for production of the 1st and 2nd correction image data. Then the correction image data are mapped for production of the 2nd correction three-dimensional data. The 2nd correction three-dimensional data are deformed into the 2nd three-dimensional image data and outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、少ない情報量で、
視覚的に効果の高い三次元ポリゴン立体データを作成す
るための三次元画像データ作成方法に関する。
BACKGROUND OF THE INVENTION The present invention relates to an information processing system with a small amount of information.
The present invention relates to a method for creating three-dimensional image data for creating three-dimensional polygon three-dimensional data that is visually effective.

【0002】[0002]

【従来の技術】近年、コンピュータシステムの内部に精
細な三次元立体モデルを構築し、その三次元立体モデル
に対して、ユーザの視点を設定し、その設定した視点か
ら望むユーザの視野に対して画面を形成し、その形成し
た画面で切り取られる三次元立体モデルの内容を表示す
るような三次元画像表示システムが実用されており、種
々に応用されている。かかる三次元画像表示システムの
応用の1つには、いわゆる仮想現実(バーチャルリアリ
ティ)システムがある。
2. Description of the Related Art In recent years, a detailed three-dimensional solid model has been constructed inside a computer system, a user's viewpoint has been set for the three-dimensional solid model, and a user's view desired from the set viewpoint has been set. A three-dimensional image display system that forms a screen and displays the contents of a three-dimensional solid model cut out from the formed screen has been put to practical use, and has been applied in various ways. One application of such a three-dimensional image display system is a so-called virtual reality system.

【0003】この三次元画像表示システムでは、ユーザ
が違和感なく表示内容を受け入れられるように、例え
ば、表示画面中に含まれる物体の形状や表面の視覚的な
質感が、同一対象について現実の世界で観念される程度
の形状や視覚的な質感となるように、種々の表示技法が
用いられている。
In this three-dimensional image display system, for example, the shape of an object included in a display screen and the visual texture of the surface of the same object are changed in the real world so that the user can accept the displayed content without discomfort. Various display techniques are used so as to have a shape and visual texture that can be thought of.

【0004】例えば、上述した三次元画像表示システム
で、表示画面の内容を精細にするために、三次元立体モ
デルに含まれる物体、例えば、立木、自動車、家、道
路、空、雲等は、それぞれ独立した三次元立体モデルと
して設定される。
For example, in the above-described three-dimensional image display system, objects included in a three-dimensional model, such as a tree, a car, a house, a road, the sky, clouds, etc. Each is set as an independent three-dimensional solid model.

【0005】そして、おのおのの物体を独立した三次元
立体モデルとして表現するための技法としては、1つの
物体の表面を、微細な三角形の集合として定義するいわ
ゆる三次元ポリゴン技法と、その微細な三角形(ポリゴ
ン)のおのおのに、同一物体が現実世界で有する表面の
質感に応じたテクスチャを貼るいわゆるテクスチャマッ
ピング技法が適用されている。
[0005] As a technique for expressing each object as an independent three-dimensional solid model, a so-called three-dimensional polygon technique for defining the surface of one object as a set of fine triangles, A so-called texture mapping technique of applying a texture according to the texture of the surface of the same object in the real world is applied to each (polygon).

【0006】[0006]

【発明が解決しようとする課題】しかしながら、このよ
うな従来方法では、次のような不都合を生じていた。
However, such a conventional method has the following disadvantages.

【0007】すなわち、表示する三次元立体モデルのリ
アリティをより大きくするには、表示する対象の物体
を、より細かなポリゴンで表現し、より微妙なテクスチ
ャをマッピングする必要がある。例えば、1つの乗用車
の表面を表現するには、25,000個程度のポリゴン
を必要とし、ある場面に含まれる全ての物体について同
一の精細度で三次元立体モデルを構築すると、その場面
に含まれる物体の数にもよるが、例えば、必要なポリゴ
ンの総数が数千万程度になる。
That is, in order to increase the reality of the three-dimensional solid model to be displayed, it is necessary to represent the object to be displayed with finer polygons and map more subtle textures. For example, to represent the surface of one passenger car, about 25,000 polygons are required. If a three-dimensional solid model is constructed with the same definition for all the objects included in a scene, it is included in the scene. Although it depends on the number of objects, for example, the total number of necessary polygons is about tens of millions.

【0008】このように膨大なポリゴン数で表現される
三次元立体モデルの表示データを形成するためには、非
常に多くのコンピュータ能力が必要となり、ユーザの視
点を実時間的に切り換える必要のある応用分野、例え
ば、インターネット上でVRMLにより実現される仮想
的な街中を、ユーザが任意の操作により視点を移動する
ような応用には、到底適用することが困難であった。
[0008] In order to form display data of a three-dimensional solid model represented by an enormous number of polygons, a great deal of computer power is required, and it is necessary to switch the user's viewpoint in real time. It has been difficult to apply to an application field, for example, an application in which a user moves a viewpoint by an arbitrary operation in a virtual city realized by VRML on the Internet.

【0009】このような事態は、インターネットによる
データの転送速度が大幅に改善された場合でも、三次元
立体モデルを表示させる端末側の画像処理能力が小さい
限り改善されない。
[0009] Such a situation is not improved even if the data transfer speed over the Internet is greatly improved, as long as the image processing capability of the terminal for displaying the three-dimensional stereo model is small.

【0010】本発明は、かかる実情に鑑みてなされたも
のであり、少ないポリゴン数で高品質な三次元立体画像
を実現できる三次元画像データ作成方法を提供すること
を目的としている。
The present invention has been made in view of such circumstances, and has as its object to provide a three-dimensional image data creating method capable of realizing a high-quality three-dimensional three-dimensional image with a small number of polygons.

【0011】[0011]

【課題を解決するための手段】本発明は、写真画像を所
定ビット深さでカラー画像読取し、それによって得たカ
ラー画像データを、所定倍率でカラー画像として記録出
力し、それによって得たカラー拡大画像について、枠
線、および、写真の中心点を起点とする等距離の輪郭線
を、1つ以上、用紙に写し取り、その枠線および輪郭線
を写し取った用紙上に、上記中心点を起点とする所定数
の放射状の区画線を描き、上記枠線、上記輪郭線および
上記区画線からなるメッシュ画像が描かれた上記用紙の
画像を画像読取し、それによって得たメッシュ画像デー
タに、上記輪郭線の距離情報を付加して、三次元ポリゴ
ン立体データを形成し、上記三次元ポリゴン立体データ
により構成される三次元ポリゴン立体の内側に上記カラ
ー画像データを貼り付ける態様にマッピング処理して第
1の三次元画像データを得た後に、上記第1の三次元画
像データのおのおののポリゴンを形成する頂点につい
て、三次元座標情報を二次元座標情報に変換する写像処
理を行うとともに、その写像後に形成されるポリゴンの
変形に応じて上記第1の三次元画像データを変形してな
る修正三次元画像データを作成し、上記修正三次元画像
データをレンダリング処理して第1の修正画像データを
作成し、その第1の修正画像データに、少なくとも、上
記写真画像にはあらわれないがその写真画像にあらわれ
る物体で隠蔽された物体の画像データを付加した第2の
修正画像データを作成し、その作成した第2の修正画像
データを上記修正三次元画像データにマッピングして第
2の修正三次元画像データを作成し、その第2の修正三
次元画像データのおのおののポリゴンを形成する頂点の
座標を、上記第1の三次元画像データと同じ値に写像変
換するとともに、その写像変換後のポリゴンの変形に応
じて上記第2の修正三次元画像データを変形して第2の
三次元画像データを作成し、その第2の三次元画像デー
タを出力するようにしたものである。
According to the present invention, a photographic image is read at a predetermined bit depth as a color image, and the color image data obtained thereby is recorded and output as a color image at a predetermined magnification. For the enlarged image, a frame line and one or more equidistant contour lines starting from the center point of the photograph are copied on a sheet of paper, and the center point is placed on the sheet on which the frame line and the contour line are copied. Draw a predetermined number of radial division lines as a starting point, read the image of the paper on which the mesh image composed of the frame lines, the contour lines and the division lines is drawn, and obtain mesh image data obtained by the image reading. Three-dimensional polygon three-dimensional data is formed by adding the contour distance information, and the color image data is pasted inside the three-dimensional polygon three-dimensional data formed by the three-dimensional polygon three-dimensional data. After the first three-dimensional image data is obtained by performing the mapping process to convert the three-dimensional coordinate information into two-dimensional coordinate information for the vertices forming each polygon of the first three-dimensional image data. Performs processing, creates modified three-dimensional image data by deforming the first three-dimensional image data according to the deformation of the polygon formed after the mapping, and renders the corrected three-dimensional image data. A second modification in which first modified image data is created, and at least image data of an object that does not appear in the photographic image but is hidden by an object that appears in the photographic image is added to the first modified image data. Image data is created, and the created second modified image data is mapped to the modified three-dimensional image data to create second modified three-dimensional image data. The coordinates of the vertices forming each polygon of the second modified three-dimensional image data are mapped to the same value as the first three-dimensional image data, and the second coordinate is transformed according to the polygon after the transformation. The second modified three-dimensional image data is modified to create second three-dimensional image data, and the second three-dimensional image data is output.

【0012】また、前記写真画像を読み取って得たカラ
ー画像データは、前記三次元ポリゴン立体データには不
要な部分を修正削除されたものである。また、前記三次
元ポリゴン立体データは、前記輪郭線がそれぞれ略同一
の二次元範囲を占めるように、拡大処理されたものであ
る。また、前記拡大処理後の三次元ポリゴン立体データ
の二次元方向の拡大率に応じて、前記マッピング処理の
前に、上記拡大処理前の三次元ポリゴン立体データに貼
り付ける前記画像データを拡大処理するとよい。また、
前記写真画像は、写真的技法により描かれた絵画を用い
ることもできる。
The color image data obtained by reading the photographic image is obtained by correcting and deleting unnecessary portions in the three-dimensional polygon three-dimensional data. The three-dimensional polygon three-dimensional data has been subjected to enlargement processing so that the contour lines occupy substantially the same two-dimensional range. In addition, before the mapping process, the image data to be pasted on the three-dimensional polygon three-dimensional data before the enlargement process is enlarged according to a two-dimensional enlargement ratio of the three-dimensional polygon three-dimensional data after the enlargement process. Good. Also,
The photographic image may be a painting drawn by a photographic technique.

【0013】また、写真画像を所定ビット深さでカラー
画像読取し、それによって得たカラー画像データを、所
定倍率でカラー画像として記録出力し、それによって得
たカラー拡大画像について、枠線、および、写真の中心
点を起点とする等距離の輪郭線を、1つ以上、用紙に写
し取り、その枠線および輪郭線を写し取った用紙上に、
上記中心点を起点とする所定数の放射状の区画線を描
き、上記枠線、上記輪郭線および上記区画線からなるメ
ッシュ画像が描かれた上記用紙の画像を画像読取し、そ
れによって得たメッシュ画像データに、上記輪郭線の距
離情報を付加して、三次元ポリゴン立体データを形成
し、上記三次元ポリゴン立体データにより構成される三
次元ポリゴン立体の内側に上記カラー画像データを貼り
付ける態様にマッピング処理して第1の三次元画像デー
タを得た後に、上記第1の三次元画像データを適宜な数
の平面に分割して複数の分割平面画像データを作成し、
おのおのの分割平面画像データをレンダリング処理して
対応する複数の第1の分割平面修正画像データを作成
し、おのおのの第1の分割平面修正画像データに、少な
くとも、上記写真画像にはあらわれないがその写真画像
にあらわれる物体で隠蔽された物体の画像データを付加
してなる複数の第2の分割平面修正画像データを作成
し、その複数の第2の分割平面修正画像データを、上記
三次元ポリゴン立体にマッピングしてなる三次元画像デ
ータを出力するようにしたものである。
Further, a photographic image is read in a color image at a predetermined bit depth, and the color image data obtained by the reading is recorded and output as a color image at a predetermined magnification. , One or more equidistant outlines starting from the center point of the photograph are copied on a sheet of paper, and the frame lines and outlines are copied on the sheet,
A predetermined number of radial division lines starting from the center point are drawn, and the image of the paper on which the mesh image composed of the frame lines, the contour lines, and the division lines is drawn is read, and the mesh obtained thereby is read. In a mode in which the distance information of the contour is added to the image data to form three-dimensional polygon three-dimensional data, and the color image data is pasted inside the three-dimensional polygon three-dimensional data constituted by the three-dimensional polygon three-dimensional data. After obtaining the first three-dimensional image data by performing the mapping process, the first three-dimensional image data is divided into an appropriate number of planes to generate a plurality of divided plane image data,
Each of the divided plane image data is rendered to generate a corresponding plurality of first divided plane corrected image data, and each of the first divided plane corrected image data includes at least the above-mentioned photographic image which does not appear. A plurality of second divided plane corrected image data is created by adding image data of an object concealed by an object appearing in a photographic image, and the plurality of second divided plane corrected image data is converted to the three-dimensional polygon solid image. Is output as three-dimensional image data that is mapped to.

【0014】また、写真画像を所定ビット深さでカラー
画像読取し、それによって得たカラー画像データを、所
定倍率でカラー画像として画面表示出力し、それによっ
て得たカラー拡大画像について、枠線、および、写真の
中心点を起点とする等距離の輪郭線を、1つ以上、画面
に記入し、その枠線および輪郭線を記入した画面に、上
記中心点を起点とする所定数の放射状の区画線を描き、
上記枠線、上記輪郭線および上記区画線からなるメッシ
ュ画像が描かれた上記画面からメッシュ画像データを作
成し、それによって得たメッシュ画像データに、上記輪
郭線の距離情報を付加して、三次元ポリゴン立体データ
を形成し、上記三次元ポリゴン立体データにより構成さ
れる三次元ポリゴン立体の内側に上記カラー画像データ
を貼り付ける態様にマッピング処理して第1の三次元画
像データを得た後に、上記メッシュ画像のおのおののポ
リゴンを形成する頂点について、三次元座標情報を二次
元座標情報に変換する写像処理を行うとともに、その写
像後に形成されるポリゴンの変形に応じて上記第1の三
次元画像データを変形してなる修正三次元画像データを
作成し、上記修正三次元画像データをレンダリング処理
して第1の修正画像データを作成し、その第1の修正画
像データに、少なくとも、上記写真画像にはあらわれな
いがその写真画像にあらわれる物体で隠蔽された物体の
画像データを付加した第2の修正画像データを作成し、
その作成した第2の修正画像データを上記修正三次元画
像データにマッピングして第2の修正三次元画像データ
を作成し、その第2の修正三次元画像データのおのおの
のポリゴンを形成する頂点の座標を、上記第1の三次元
画像データと同じ値に写像変換するとともに、その写像
変換後のポリゴンの変形に応じて上記第2の修正三次元
画像データを変形して第2の三次元画像データを作成
し、その第2の三次元画像データを出力するようにした
ものである。
Further, a photographic image is read in a color image at a predetermined bit depth, and the color image data obtained by the reading is output as a color image on a screen at a predetermined magnification. Also, one or more equidistant outlines starting from the center point of the photograph are written on the screen, and a predetermined number of radial lines starting from the center point are displayed on the screen on which the frame lines and outlines are written. Draw lot lines,
A mesh image data is created from the screen on which the mesh image including the frame line, the contour line, and the division line is drawn, and the distance information of the contour line is added to the mesh image data obtained by the mesh image data. After forming original polygon three-dimensional data and performing mapping processing on the inside of the three-dimensional polygon three-dimensional data composed of the three-dimensional polygon three-dimensional data to obtain the first three-dimensional image data, The vertex forming each polygon of the mesh image is subjected to a mapping process of converting the three-dimensional coordinate information into the two-dimensional coordinate information, and the first three-dimensional image is formed according to the deformation of the polygon formed after the mapping. Creating modified three-dimensional image data by transforming the data, rendering the modified three-dimensional image data, Data is created, and second modified image data is created by adding at least image data of an object not appearing in the photographic image but hidden by an object appearing in the photographic image to the first modified image data. ,
The created second modified image data is mapped to the modified three-dimensional image data to create second modified three-dimensional image data, and a vertex of each vertex forming a polygon of the second modified three-dimensional image data is created. The coordinates are transformed into the same value as the first three-dimensional image data, and the second modified three-dimensional image data is transformed according to the transformation of the polygon after the transformation to form a second three-dimensional image. Data is created and the second three-dimensional image data is output.

【0015】また、前記写真画像として、所定の三次元
画像データを所定方向からレンダリング処理して得られ
る画像を用いることができる。
Further, as the photographic image, an image obtained by rendering predetermined three-dimensional image data from a predetermined direction can be used.

【0016】[0016]

【発明の実施の形態】以下、添付図面を参照しながら、
本発明の実施例を詳細に説明する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG.
Embodiments of the present invention will be described in detail.

【0017】はじめに本願発明の原理について説明す
る。
First, the principle of the present invention will be described.

【0018】まず、本願発明者は、写真(いわゆる銀塩
写真)の画像が、非常に精細で高品質であることに着目
した。また、写真画像は、カメラを中心点とする透視図
画法的な画面を有しており、実質的に奥行き情報を含ん
でいる。したがって、写真画像には、本来の二次元的情
報のみならず、三次元的空間情報が含まれていると考え
ることができる。
First, the inventor of the present application has noticed that images of photographs (so-called silver halide photographs) are very fine and of high quality. Further, the photographic image has a perspective drawing screen centered on the camera, and substantially includes depth information. Therefore, it can be considered that the photographic image contains not only the original two-dimensional information but also three-dimensional spatial information.

【0019】そこで、この写真画像が持っている三次元
的空間情報を抽出し、その三次元的空間情報に基づいて
三次元空間の枠組みデータを形成し、その三次元空間の
枠組みデータに写真画像をマッピングすることで、写真
画像にあらわれている三次元空間を表現できる三次元画
像データが得られる。
Therefore, three-dimensional space information of the photographic image is extracted, and frame data of the three-dimensional space is formed based on the three-dimensional space information. Is obtained, three-dimensional image data that can represent a three-dimensional space appearing in a photographic image can be obtained.

【0020】例えば、図1に示すように、写真画像PP
の枠PT、中心点P、および、中心に写っている被写体
の画面BTを考えると、この1枚の写真画像PPは、図
2に示すように、天井PL1、左壁PL2、地面PL
3、右壁PL4、および、底面BTを有した筒状の三次
元空間を、奥行き方向に押しつぶして枠PTに押し込め
た二次元的に表現したものと考えることができる。
For example, as shown in FIG.
Considering a frame PT, a center point P, and a screen BT of a subject appearing in the center, as shown in FIG. 2, this one photographic image PP includes a ceiling PL1, a left wall PL2, and a ground PL.
3, a cylindrical three-dimensional space having the right wall PL4 and the bottom surface BT can be considered to be expressed two-dimensionally by being crushed in the depth direction and pushed into the frame PT.

【0021】また、図3に示すように、カメラで撮影さ
れる画面を考えると、カメラの画角は一定であり、カメ
ラ位置PCは、中心点Pの延長上に位置する。そこで、
カメラ位置PCから距離P1に位置する画角一杯の画面
を枠PTの画面とし、同一の大きさの枠PT’をカメラ
位置PCから距離P2(>P1)に移動すると、この枠
PT’で切り取られる画像を見込むカメラの画角は、枠
PTの画角よりも小さくなる。
As shown in FIG. 3, considering a screen shot by a camera, the angle of view of the camera is constant, and the camera position PC is located on an extension of the center point P. Therefore,
When a screen with a full angle of view located at a distance P1 from the camera position PC is a screen of the frame PT, and a frame PT 'of the same size is moved from the camera position PC to a distance P2 (> P1), the frame PT' is cut out. The angle of view of the camera that sees the image to be obtained is smaller than the angle of view of the frame PT.

【0022】したがって、カメラ位置PCから距離P1
に位置する枠PTの画面上では、後方の枠PT’の画面
は、より画角の小さい画面PTa’としてあらわれる。
Therefore, the distance P1 from the camera position PC
On the screen of the frame PT located at the frame PT, the screen of the rear frame PT ′ appears as a screen PTa ′ having a smaller angle of view.

【0023】このようにして、写真画像PPにおいて、
より中心点Pに近い位置にあらわれている画像ほど、こ
の写真画像PPを撮影したカメラから遠い位置にあるも
のと考えることができる(図4(a),(b)参照)。
Thus, in the photographic image PP,
An image appearing closer to the center point P can be considered to be located farther from the camera that captured the photographic image PP (see FIGS. 4A and 4B).

【0024】この意味で、カメラ位置PCから等しい距
離に位置する画像を結ぶと、写真画像PPの枠PTから
内側に対して、等遠線ともいうべき輪郭線を描くことが
できる。
In this sense, by connecting images located at the same distance from the camera position PC, it is possible to draw a contour line, which may be called an equidistant line, from the inside of the frame PT of the photographic image PP.

【0025】このようにして、写真画像PPにあらわれ
ている画像は、枠PTから中心点Pに向かうほど遠景の
画像であるので、その距離に応じて縮小してあらわれて
いる。言い換えれば、写真画像PPは、同一サイズの枠
PTをカメラから遠ざけながらそれぞれの距離で枠PT
によって切り取った画面の画像を、カメラからの距離に
応じた縮小率で縮小し、その縮小画像を連続的に合成し
たものと考えることができる。
As described above, since the image appearing in the photographic image PP is a distant image as it goes from the frame PT toward the center point P, it is reduced in size according to the distance. In other words, the photographic image PP has the same size of the frame PT at each distance while keeping the frame PT away from the camera.
It can be considered that the image of the screen cut out by the above is reduced at a reduction ratio corresponding to the distance from the camera, and the reduced images are continuously synthesized.

【0026】したがって、図5に示すように、写真画像
PPにあらわれている先細りの筒状の三次元空間を、全
ての奥行き距離の位置で同一の二次元範囲を占めるよう
に平面方向に拡大することで、写真画像PPが持ってい
る本来の三次元空間情報を復元することができる。
Therefore, as shown in FIG. 5, the tapered cylindrical three-dimensional space appearing in the photographic image PP is enlarged in the plane direction so as to occupy the same two-dimensional range at all depth distance positions. Thus, the original three-dimensional spatial information of the photographic image PP can be restored.

【0027】すなわち、この場合、天井PL1、左壁P
L2、地面PL3、右壁PL4、および、底面BTを有
した筒状の三次元空間は、天井PL1m、左壁PL2
m、地面PL3m、右壁PL4m、および、底面BTm
を有した筒状の三次元空間へと拡大される。
That is, in this case, the ceiling PL1, the left wall P
A cylindrical three-dimensional space having L2, ground PL3, right wall PL4, and bottom surface BT is a ceiling PL1m, a left wall PL2.
m, ground PL3m, right wall PL4m, and bottom BTm
It is expanded to a cylindrical three-dimensional space having.

【0028】このようにして、写真画像PPにあらわれ
る三次元情報から、元の現実世界を表現できる三次元空
間を構成することができるが、一方、写真画像PPにあ
らわれている画像においては、カメラ視点を起点として
一方向に撮影しているため、カメラ位置PCに近い位置
に位置する物体により、その物体よりも遠い位置に位置
する物体は、その全部または部分が隠されたものとな
る。
In this way, a three-dimensional space capable of expressing the original real world can be constructed from the three-dimensional information appearing in the photographic image PP. On the other hand, in the image appearing in the photographic image PP, a camera Since the image is shot in one direction from the viewpoint, the object located at a position farther than the object located at a position closer to the camera position PC has all or part of the object hidden.

【0029】三次元画像データを作成する際、ユーザの
ビュー視点から見込んだこのように物体と物体の重なり
具合を適切に表現するために、いわゆる隠線消去処理が
適用されるが、これは、三次元画像データを見る方向を
決定した際に、ユーザに対して提供するビュー画面の二
次元画像を違和感のないようなものにするための手段で
ある。
When creating three-dimensional image data, so-called hidden line elimination processing is applied to appropriately represent the degree of overlap between objects as seen from the user's viewpoint. This is a means for making the two-dimensional image of the view screen provided to the user without discomfort when the direction of viewing the three-dimensional image data is determined.

【0030】一方、元の三次元画像データでは、ユーザ
のビュー視点の移動に伴って、いかなるビュー画面でも
構成できるように、その三次元画像データが含む全ての
物体について、情報を保持しておく必要がある。
On the other hand, in the original three-dimensional image data, information is held for all the objects included in the three-dimensional image data so that any view screen can be configured as the user moves the view viewpoint. There is a need.

【0031】ところが、写真画像は、カメラ位置PCか
ら見込んだ画像であるため、いわば、三次元画像データ
をカメラ視線方向に見込んだ際のビュー画面の内容のみ
が含まれ、そのビュー画面で隠れている物体の全部また
は部分の画像は含まれていない。
However, since the photographic image is an image viewed from the camera position PC, the photographic image includes only the contents of the view screen when the three-dimensional image data is viewed in the camera line-of-sight direction. Images of all or parts of the object in question are not included.

【0032】そのために、カメラ位置PCとビュー視線
が大幅にずれると、ビュー画面で見えるはずの物体等が
見えないという事態を生じる。
For this reason, if the camera position PC and the view line of sight deviate significantly, a situation arises in which an object or the like that should be seen on the view screen cannot be seen.

【0033】例えば、図6に示すように、窓のある室内
から、窓を見越した風景が写っている写真を考え、上述
した方法により三次元空間を形成すると、窓および窓か
ら見える風景を含んだ部分の画像は、底面BTの画像と
なる。
For example, as shown in FIG. 6, consider a photograph in which a scene in anticipation of a window is taken from a room with a window, and form a three-dimensional space by the above-described method. The image of the flat part is an image of the bottom surface BT.

【0034】しかし、この三次元画像データでは、カメ
ラ位置PCから窓を見越した風景までの距離を、カメラ
位置PCから窓までの距離と同一に取り扱うため、例え
ば、図7に示すように、窓を斜め方向から見るようにユ
ーザのビュー視点を切り換えると、窓から見える風景も
窓と同じように傾斜する不自然な画像が得られる。
However, in this three-dimensional image data, the distance from the camera position PC to the scene in anticipation of the window is treated the same as the distance from the camera position PC to the window. For example, as shown in FIG. When the user's view viewpoint is switched so that is viewed from an oblique direction, an unnatural image in which the scenery seen from the window is inclined in the same manner as the window is obtained.

【0035】すなわち、この写真画像は、図8に示すよ
うに、もともと部屋RMの窓WWから遠方を見た場合に
得られたものであるため、窓WWで切り取られるカメラ
視界は、窓WWから距離LLの位置AL以上の部分のみ
であり、したがって、窓WWの位置BLから位置ALま
での部分の画像は、窓WWの外側の部材および部屋RM
に隠れているので、この写真画像には含まれないのであ
る。
That is, as shown in FIG. 8, since this photographic image is originally obtained when the user looks far from the window WW of the room RM, the camera view cut off by the window WW is from the window WW. The image of the portion from the position BL of the window WW to the position AL of the window WW is only the portion above the position AL of the distance LL, and the member outside the window WW and the room RM
It is not included in this photo image because it is hidden in the image.

【0036】したがって、ユーザのビュー視点を変えて
得られるビュー画面には、写真画像に含まれない近景の
風景画像があらわれないとともに、遠景の風景画像の距
離が窓WWと同じなので、窓WWを見越して得られる風
景がのっぺりとするような不自然な画像が表示されてし
まう。
Therefore, on the view screen obtained by changing the view point of the user, the near view scenery image not included in the photograph image does not appear, and the distance of the far view scene image is the same as the window WW. An unnatural image is displayed such that the scenery obtained in anticipation is soft.

【0037】そこで、かかる事態を解消できるようにす
るために、本実施例では、次のような画像補正(隠れ図
形補正)を行う。
Therefore, in order to eliminate such a situation, in this embodiment, the following image correction (hidden figure correction) is performed.

【0038】まず、窓WWで切り取られる枠の内部の画
像(風景)の距離を、適当な遠距離(例えば、窓WWか
らの距離LL)に設定する。すると、図8と同様なビュ
ー画面には、図9に示すように、窓WWから見える画像
までの距離は適切にあらわれるが、底面BTで隠される
窓WWから見えていない部分の画像が見えない態様の三
次元画像データが形成される。
First, the distance of the image (landscape) inside the frame cut out by the window WW is set to an appropriate long distance (for example, the distance LL from the window WW). Then, on the view screen similar to that of FIG. 8, as shown in FIG. 9, the distance to the image that can be seen from the window WW appears appropriately, but the image of the part that is not seen from the window WW hidden by the bottom surface BT cannot be seen. Three-dimensional image data of the mode is formed.

【0039】次いで、この見えていない部分の画像の画
像データを、図9に示したような画像データに合成す
る。それにより、底面BTで隠される窓WWから見えて
いない部分の画像を見ることのできる三次元画像データ
を形成することができる。
Next, the image data of the image of the unseen part is synthesized with the image data as shown in FIG. Thereby, it is possible to form three-dimensional image data in which an image of a portion not visible from the window WW hidden by the bottom surface BT can be viewed.

【0040】ここでは、底面BTで隠される窓WWから
見えていない部分の画像を補正する場合について説明し
たが、本実施例では、元の写真画像において、手前の物
体に後ろ側の物体が隠れている場合でも、後ろ側の物体
の画像データを、その物体の位置に応じて合成等するよ
うな隠れ図形補正を行う。
Here, a case has been described in which an image of a portion not visible from the window WW hidden by the bottom surface BT is corrected, but in the present embodiment, in the original photographic image, the object on the rear side is hidden by the object on the near side. However, the hidden figure correction is performed such that the image data of the object on the rear side is synthesized according to the position of the object.

【0041】図10は、本発明の一実施例にかかる三次
元画像データ作成方法の手順の一例を示している。な
お、以下の実施例においては、カラースキャナ、カラー
プリンタ、カラーCRTディスプレイ装置、ポインティ
ングデバイス等を備えた一般的なパーソナルコンピュー
タ装置を利用することを想定している。
FIG. 10 shows an example of a procedure of a three-dimensional image data creating method according to one embodiment of the present invention. In the following embodiments, it is assumed that a general personal computer device including a color scanner, a color printer, a color CRT display device, a pointing device, and the like is used.

【0042】まず、原画像をカラースキャナで読み取
り、カラー画像データを形成し(手順101)、そのカ
ラー画像データの画像をカラーCRTディスプレイ装置
に表示し、ポインティングデバイス等を用いて不要な部
分を修正する(手順102)。例えば、原画像が図11
に示すようなものである場合には、人物、鳩、イスなど
の余分な画像を消去し、消去した部分には、その周囲の
画像(形状および色彩等)を用いて、適切な画像を描画
する(図12参照)。なお、この画像修正には、適宜な
描画アプリケーションソフトウェアを利用することがで
きる。
First, an original image is read by a color scanner to form color image data (step 101), an image of the color image data is displayed on a color CRT display device, and unnecessary portions are corrected using a pointing device or the like. (Step 102). For example, FIG.
If the image is as shown in the figure above, delete the extra images of people, pigeons, chairs, etc., and draw appropriate images using the surrounding images (shape, color, etc.) in the deleted area (See FIG. 12). Note that, for this image correction, appropriate drawing application software can be used.

【0043】次に、修正後の画像データに基づいて、最
終的に作成する三次元画像の目的に応じた画像データ
(処理画像データ)を作成する(手順103)。
Next, based on the corrected image data, image data (processed image data) corresponding to the purpose of the finally created three-dimensional image is created (step 103).

【0044】例えば、図12の画像で、木立の幹の間か
ら遠方にある景色などを見せる必要がある場合、木立の
並木の部分が上述した左壁PL2の部分に相当するの
で、木立の幹の間から見える景色の部分(すなわち、不
要な画像部分)を黒色で塗りつぶした第1の画像データ
を形成する(図13参照)。この場合には、底面BTの
部分も不要な画像部分として設定している。次に、この
第1の画像データで黒色に塗りつぶした部分以外の箇所
を白で塗りつぶした第2の画像データを形成する(図1
4参照)。
For example, in the image shown in FIG. 12, when it is necessary to show a scenery or the like which is far from between the trunks of trees, the row of trees is equivalent to the above-described left wall PL2. The first image data is formed by blacking out a portion of the scenery visible from between (that is, an unnecessary image portion) in black (see FIG. 13). In this case, the portion of the bottom surface BT is also set as an unnecessary image portion. Next, second image data is formed by filling the white portions of the first image data other than the black portions (FIG. 1).
4).

【0045】このように形成した第1の画像データと第
2の画像データについて、まず、第2の画像データの黒
色の画素を透明画素に変換する画像処理を行い、その変
換後の画像に、第1の画像データを合成すると、必要な
画像部分のみが有意の色情報を備え、不要な画像部分を
透明画素に変換した処理画像データを得ることができ
る。なお、この際、透明画素に他の色画素を合成した結
果は、透明画素になるという画像処理の特性を利用して
いる。
The first image data and the second image data thus formed are first subjected to image processing for converting black pixels of the second image data into transparent pixels, and the converted image is By synthesizing the first image data, it is possible to obtain processed image data in which only necessary image portions have significant color information, and unnecessary image portions are converted into transparent pixels. At this time, a characteristic of image processing that a result of combining a transparent pixel with another color pixel becomes a transparent pixel is used.

【0046】次に、原画像の写真画像はサイズが小さい
ので、A3サイズ程度の大きさに処理画像データを拡大
し、その拡大画像をカラープリンタより記録出力する
(手順104)。
Next, since the photographic image of the original image is small in size, the processed image data is enlarged to about A3 size, and the enlarged image is recorded and output from the color printer (step 104).

【0047】次に、記録出力した拡大画像に半透明なマ
イラー紙(トレーシングペーパー等)を重ね合わせ(手
順105)、図15に示すように、拡大画像の枠線FL
および水平線ABを目視で確認しながらマイラー紙に加
筆し、次いで、拡大画像に含まれている被写体の傾斜し
ている稜線の交差する点や遠近法的手法から拡大画像の
図柄の中心点Pを決定し、その中心点Pを通り、水平線
ABに直交するクロス線CDをマイラー紙に加筆する
(手順106)。
Next, translucent mylar paper (tracing paper or the like) is superimposed on the recorded and output enlarged image (step 105), and as shown in FIG.
And adding a line to the Mylar paper while visually checking the horizontal line AB. Then, the center point P of the pattern of the enlarged image is determined from the intersection of the inclined ridge lines of the subject included in the enlarged image and the perspective method. Then, a cross line CD passing through the center point P and orthogonal to the horizontal line AB is added to Mylar paper (step 106).

【0048】次に、図16に示すように、拡大画像の底
面に当たる部分の閉矩形線(輪郭線)CL1を、中心点
Pをめあすとして、マイラー紙に加筆する(手順10
7)。したがって、閉矩形線CL1で囲まれた部分は、
この拡大画像での最遠景に当たる。
Next, as shown in FIG. 16, the closed rectangular line (contour line) CL1 at the portion corresponding to the bottom surface of the enlarged image is rewritten on the Mylar paper with the center point P in contact (step 10).
7). Therefore, the portion surrounded by the closed rectangular line CL1 is
This corresponds to the farthest view in this enlarged image.

【0049】次に、図17に示すように、枠線FLとク
ロス線CDの交点から、閉矩形線CL1の最下部とクロ
ス線CDの交点までのクロス線CDを、適宜に分割し、
その分割点Vをマイラー紙に加筆する(手順108)。
このときの分割点Vの間隔は、適宜な間隔でよく、この
間隔を小さくすると、後述するメッシュオブジェクトに
おけるポリゴン数が大きくなる。
Next, as shown in FIG. 17, the cross line CD from the intersection of the frame line FL and the cross line CD to the intersection of the lowermost portion of the closed rectangular line CL1 and the cross line CD is appropriately divided.
The division point V is added to mylar paper (step 108).
The interval between the division points V at this time may be an appropriate interval. If this interval is reduced, the number of polygons in a mesh object described later increases.

【0050】次に、図18に示すように、分割点Vと同
じ奥行きの座標を持つ点を目視で判断し、その点をたど
りながら閉矩形線CL2,CL3,CL4,…をマイラ
ー紙に加筆する(手順109)。この場合、枠線FLか
ら7番目までの閉矩形線は、左右の縦線と上の横線が同
じ軌跡(すなわち、枠線FL)となる。なお、拡大図形
に対して、正確な三次元座標情報がある場合には、その
三次元座標情報のうち、同一Z座標の点を順次結んで閉
矩形線を描く。
Next, as shown in FIG. 18, a point having the same depth coordinate as the division point V is visually judged, and closed rectangular lines CL2, CL3, CL4,. (Step 109). In this case, the right and left vertical lines and the upper horizontal line of the closed rectangular lines from the frame line FL to the seventh line have the same locus (that is, the frame line FL). If there is accurate three-dimensional coordinate information for the enlarged figure, a closed rectangular line is drawn by sequentially connecting points of the same Z coordinate in the three-dimensional coordinate information.

【0051】次に、図19に示すように、中心点Pから
枠線FLの周囲方向に向かって、放射状の線(以下、放
射状線という)をマイラー紙に加筆する(手順11
0)。この場合、放射状線は、水平線ABとクロス線C
Dには加筆しない。また、放射状線の方向は拡大画像の
図柄に合わせて設定してもよく、さらに、放射状線は直
線でなくともよい。また、この放射状線と各閉矩形線C
L1,CL2,CL3,…の交点が、メッシュオブジェ
クトの頂点となるので、放射状線の数を多くすればそれ
だけメッシュオブジェクトの頂点の数が増え、ポリゴン
数が増える。
Next, as shown in FIG. 19, a radial line (hereinafter referred to as a radial line) is added to the Mylar paper from the center point P toward the periphery of the frame line FL (step 11).
0). In this case, the radial lines are the horizontal line AB and the cross line C
Do not add to D. The direction of the radial line may be set according to the design of the enlarged image, and the radial line may not be a straight line. Also, this radial line and each closed rectangular line C
Since the intersection of L1, CL2, CL3,... Becomes the vertex of the mesh object, the number of vertices of the mesh object increases and the number of polygons increases as the number of radial lines increases.

【0052】次に、マイラー紙を拡大画像から外し、マ
イラー紙に記入された画像をカラースキャナで読み込
み、マイラー画像データを形成する(手順111)。
Next, the mylar paper is removed from the enlarged image, and the image written on the mylar paper is read by a color scanner to form mylar image data (step 111).

【0053】次に、マイラー画像データをカラーCRT
ディスプレイ装置に表示し、各閉矩形線CL1,CL
2,CL3,…と放射状線との交点のXY座標を入力し
(手順112)、同一閉矩形線CL1,CL2,CL
3,…におけるそれらの交点を結んでおのおのの閉矩形
線CL1,CL2,CL3,…をあらわすベクトルデー
タを形成し、保存する(手順113)。
Next, the mylar image data is transferred to a color CRT.
Displayed on the display device, each closed rectangular line CL1, CL
The XY coordinates of the intersection of the radial lines with CL2, CL3, ... are input (step 112), and the same closed rectangular lines CL1, CL2, CL
The vector data representing the respective closed rectangular lines CL1, CL2, CL3,... Are formed by connecting the intersections in 3,... And stored (step 113).

【0054】次に、おのおのの閉矩形線CL1,CL
2,CL3,…のZ座標値を算出し、おのおのの閉矩形
線CL1,CL2,CL3,…についてその算出したZ
座標値を保存する(手順114)。
Next, each of the closed rectangular lines CL1, CL
, CL3,... Are calculated, and the calculated Z coordinates are calculated for each of the closed rectangular lines CL1, CL2, CL3,.
The coordinate values are stored (step 114).

【0055】このZ座標値の算出は、次のような方法に
従う。すなわち、図20に示すように、閉矩形線CL
1,CL2,CL3,…が、それぞれカメラ位置PCか
ら距離P1,P2,P3,…に位置している画像の等遠
線であるとし、おのおのの閉矩形線CL1,CL2,C
L3,…が同一の二次元的広がりをもつ枠FLで切り取
られるものと想定すると、距離P1,P2,P3,…に
おいて枠FLで切り取られる平面の最下部とカメラ位置
PCを結んだ線と、クロス線CDとの交点が、図13で
加筆した各分割点Vに相当することとなる。
The calculation of the Z coordinate value is performed according to the following method. That is, as shown in FIG.
, CL2, CL3,... Are the equidistant lines of the images located at distances P1, P2, P3,.
Assuming that L3,... Are cut by a frame FL having the same two-dimensional spread, a line connecting the lowermost part of the plane cut by the frame FL at the distances P1, P2, P3,. The intersection with the cross line CD corresponds to each division point V added in FIG.

【0056】したがって、カメラ位置PCからクロス線
CDまでの距離をL、中心点Pから分割点Vまでの距離
をY1、分割点Vから枠FLまでの距離をY2、各閉矩
形線CL1,CL2,CL3,…のZ座標値をzとする
と、zは枠FLから各閉矩形線CL1,CL2,CL
3,…までの距離に相当するから、次の式(I)であら
わされる。
Therefore, the distance from the camera position PC to the cross line CD is L, the distance from the center point P to the division point V is Y1, the distance from the division point V to the frame FL is Y2, and each of the closed rectangular lines CL1 and CL2 , CL3,..., The z-coordinate value is z, z is the closed rectangular line CL1, CL2, CL from the frame FL.
.. Are represented by the following formula (I).

【0057】 z=(Y2/Y1)×L (I)Z = (Y2 / Y1) × L (I)

【0058】ところで、写真画像の内容だけでは、判断
することが困難であるが、上り坂、下り坂等であること
が判明している場合には、図21に示すように、zの値
が変化するので、適宜に修正することが好ましい。
By the way, it is difficult to judge only from the content of the photographic image, but if it is known that the vehicle is going uphill or downhill, as shown in FIG. Since it changes, it is preferable to correct it appropriately.

【0059】このようにして、各閉矩形線CL1,CL
2,CL3,…を構成する交点の座標値が得られると、
これらの交点の座標に基づいて、図22(a),
(b),(c)に示すようなメッシュオブジェクトのデ
ータを、周知の三次元メッシュオブジェクト作成方法に
より作成する(手順115)。ここで、図22(a)
は、正面から底面を見た図であり、同図(b)は天井か
ら地面を見た図であり、同図(c)は左側の壁より反対
側の壁を見た図である。
In this way, each closed rectangular line CL1, CL
When the coordinate values of the intersections forming 2, CL3,.
Based on the coordinates of these intersections, FIG.
Data of a mesh object as shown in (b) and (c) is created by a well-known three-dimensional mesh object creation method (procedure 115). Here, FIG.
Is a view of the bottom view from the front, FIG. 2B is a view of the ground from the ceiling, and FIG. 2C is a view of the wall opposite to the left wall.

【0060】このようにして作成したメッシュオブジェ
クトに対し、手順103で形成した処理画像データを、
メッシュオブジェクトの内側に貼り付ける態様に合成
(レンダリング)する(手順116)。この合成後の三
次元画像データ(以下、「三次元オブジェクト」とい
う。)の一例を図23(a)〜(d)に示す。また、原
画像データを修正せずに合成した場合の三次元オブジェ
クトの一例を図24(a)〜(d)に示す。
For the mesh object created in this way, the processed image data formed in step 103 is
The image is synthesized (rendered) so as to be pasted inside the mesh object (step 116). FIGS. 23A to 23D show examples of the three-dimensional image data after combining (hereinafter, referred to as “three-dimensional object”). FIGS. 24A to 24D show an example of a three-dimensional object when the original image data is synthesized without correction.

【0061】ここで、この段階では、z座標が大きくな
るに従って、x−y座標方向の広がりが小さくなり、先
細りの三次元オブジェクトとなるので、次に、各閉矩形
線CL1,CL2,CL3,…のz座標値に従って、各
閉矩形線CL1,CL2,CL3,…をx−y方向へ拡
大するメッシュオブジェクト拡大補正処理(手順11
7)を実行する。これにより、メッシュオブジェクト
は、図25(a),(b)に示すような態様に補正され
る。
Here, at this stage, as the z coordinate increases, the spread in the xy coordinate direction decreases, and the object becomes a tapered three-dimensional object. Next, each closed rectangular line CL1, CL2, CL3 The mesh object enlargement correction processing for enlarging each of the closed rectangular lines CL1, CL2, CL3,.
Execute 7). As a result, the mesh object is corrected to a mode as shown in FIGS.

【0062】また、メッシュオブジェクトに貼り付ける
画像データも、メッシュオブジェクトのx−y方向への
拡大態様に応じて拡大するメッシュオブジェクト色補正
処理(手順118)を実行する。ここで、メッシュオブ
ジェクト色補正処理では、x方向とy方向の拡大率に応
じて、それぞれ画素を増やすとともに、その増えた画素
の色は、元々存在していた周囲の画素の色を滑らかにつ
なげるグラディエーション補正処理により決定する。
Further, the image data to be pasted on the mesh object is also subjected to a mesh object color correction process (step 118) in which the image data is enlarged in accordance with the mode of enlargement of the mesh object in the xy directions. Here, in the mesh object color correction processing, the number of pixels is increased in accordance with the enlargement ratio in the x direction and the y direction, and the colors of the increased pixels are smoothly connected to the colors of the surrounding pixels that originally existed. Determined by the gradation correction process.

【0063】次いで、メッシュオブジェクト拡大補正処
理後のメッシュオブジェクトに対し、メッシュオブジェ
クト色補正処理後の画像データを貼り付ける態様に合成
するレンダリング処理を実行し(手順119)、そのレ
ンダリング処理により形成された三次元オブジェクトを
保存する(手順120)。
Next, a rendering process is performed on the mesh object after the mesh object enlargement correction process to combine the image data after the mesh object color correction process into a form to be pasted (procedure 119), and formed by the rendering process. The three-dimensional object is stored (procedure 120).

【0064】そして、その保存した三次元オブジェクト
について、上述したような隠れ図形補正処理を適用し
(手順121)、元の写真画像では隠された部分の画像
データを合成して、最終的な三次元画像データを得る。
Then, the above-described hidden figure correction processing is applied to the stored three-dimensional object (step 121), and the image data of the hidden part in the original photographic image is synthesized to obtain the final tertiary image. Obtain original image data.

【0065】図26(a),(b)は、メッシュオブジ
ェクト拡大補正処理の一例を示している。
FIGS. 26A and 26B show an example of a mesh object enlargement correction process.

【0066】まず、拡大補正の処理対象となる閉矩形線
を1つ選択し(処理201;図27参照)、その選択し
た閉矩形線に含まれる交点のうち、領域DM1,DM2
に位置する点を選択する(処理202)。ここで、図2
8に示すように、水平線ABとクロス線CDで区切られ
る枠FLの4つの領域について、左上に位置する領域を
DM1、右上に位置する領域をDM2、左下に位置する
領域をDM3、右下に位置する領域をDM4とそれぞれ
定義している。
First, one closed rectangular line to be processed for enlargement correction is selected (process 201; see FIG. 27), and among the intersections included in the selected closed rectangular line, the regions DM1, DM2
Is selected (step 202). Here, FIG.
As shown in FIG. 8, with respect to four regions of the frame FL delimited by the horizontal line AB and the cross line CD, the region located at the upper left is DM1, the region located at the upper right is DM2, the region located at the lower left is DM3, and the region at the lower right is DM3. The located area is defined as DM4.

【0067】次に、選択した点のうち(図29参照)、
Y座標値が最も大きい点を選択して、その点から水平線
ABまでのY軸方向の距離を長さy1として算出し(処
理203)、クロス線CDのうち領域DM1および領域
DM2に含まれる部分の長さL1を、長さy1で割り算
して、係数α1の値を算出し(処理204)、そのとき
の選択した各点について、Y座標値に係数α1を乗じた
値を補正値としてそれぞれ算出し、その補正値でY座標
の値を更新する(処理205)。
Next, among the selected points (see FIG. 29),
The point having the largest Y coordinate value is selected, and the distance from the point to the horizontal line AB in the Y-axis direction is calculated as the length y1 (process 203), and the portion of the cross line CD included in the regions DM1 and DM2 Is calculated by dividing the length L1 by the length y1 to calculate the value of the coefficient α1 (step 204). For each selected point at that time, the value obtained by multiplying the Y coordinate value by the coefficient α1 is used as a correction value. The calculated value is used to update the value of the Y coordinate (step 205).

【0068】次に、その選択した閉矩形線に含まれる交
点のうち、領域DM2,DM3に位置する点を選択し
(処理206)、選択した点のうち、X座標値が最も大
きい点を選択して、その点からクロス線CDまでのX軸
方向の距離を長さx1として算出し(処理207)、水
平線ABのうち領域DM2および領域DM3に含まれる
部分の長さL2を、長さx1で割り算して、係数α2の
値を算出し(処理208)、そのときの選択した各点に
ついて、X座標値に係数α2を乗じた値を補正値として
それぞれ算出し、その補正値でX座標の値を更新する
(処理209)。
Next, from the intersections included in the selected closed rectangular line, the points located in the areas DM2 and DM3 are selected (step 206), and the point having the largest X coordinate value is selected from the selected points. Then, the distance in the X-axis direction from that point to the cross line CD is calculated as the length x1 (process 207), and the length L2 of the horizontal line AB included in the regions DM2 and DM3 is calculated as the length x1. To calculate the value of the coefficient α2 (step 208). For each selected point at that time, a value obtained by multiplying the X coordinate value by the coefficient α2 is calculated as a correction value, and the X coordinate is calculated using the correction value. Is updated (step 209).

【0069】次に、その選択した閉矩形線に含まれる交
点のうち、領域DM3,DM4に位置する点を選択し
(処理210)、選択した点のうち、Y座標の絶対値が
最も大きい点を選択して、その点から水平線ABまでの
Y軸方向の距離を長さy2として算出し(処理21
1)、クロス線CDのうち領域DM3および領域DM4
に含まれる部分の長さL3を、長さy2で割り算して、
係数α3の値を算出し(処理212)、そのときの選択
した各点について、Y座標値に係数α3を乗じた値を補
正値としてそれぞれ算出し、その補正値でY座標の値を
更新する(処理213)。
Next, of the intersections included in the selected closed rectangular line, the points located in the areas DM3 and DM4 are selected (step 210), and the point having the largest absolute value of the Y coordinate among the selected points. And the distance in the Y-axis direction from the point to the horizontal line AB is calculated as the length y2 (processing 21).
1) The region DM3 and the region DM4 of the cross line CD
Divided by the length y2 of the length L3 included in
The value of the coefficient α3 is calculated (step 212), and for each selected point at that time, a value obtained by multiplying the Y coordinate value by the coefficient α3 is calculated as a correction value, and the value of the Y coordinate is updated with the correction value. (Process 213).

【0070】次に、その選択した閉矩形線に含まれる交
点のうち、領域DM1,DM3に位置する点を選択し
(処理214)、選択した点のうち、X座標の絶対値が
最も大きい点を選択して、その点からクロス線CDまで
のX軸方向の距離を長さx2として算出し(処理21
5)、水平線ABのうち領域DM1および領域DM3に
含まれる部分の長さL4を、長さx2で割り算して、係
数α4の値を算出し(処理216)、そのときの選択し
た各点について、X座標値に係数α4を乗じた値を補正
値としてそれぞれ算出し、その補正値でX座標の値を更
新する(処理217)。
Next, of the intersections included in the selected closed rectangular line, the points located in the areas DM1 and DM3 are selected (step 214), and the point having the largest absolute value of the X coordinate among the selected points. Is calculated, and the distance in the X-axis direction from the point to the cross line CD is calculated as the length x2 (processing 21).
5) The length L4 of the portion included in the area DM1 and the area DM3 in the horizontal line AB is divided by the length x2 to calculate the value of the coefficient α4 (processing 216), and for each selected point at that time , A value obtained by multiplying the X coordinate value by the coefficient α4 is calculated as a correction value, and the value of the X coordinate is updated with the correction value (process 217).

【0071】このようにして、1つの閉矩形線について
の座標値の補正が終了すると、全ての閉矩形線について
の補正が終了したかどうかを調べ(判断218)、判断
218の結果がNOになるときには、処理201に戻
り、他の閉矩形線を選択して、同様の処理を実行する。
また、判断218の結果がYESになるときには、この
処理を終了する。
When the correction of the coordinate values for one closed rectangular line is completed as described above, it is checked whether the correction for all the closed rectangular lines is completed (decision 218), and the result of the decision 218 is NO. If so, the process returns to the process 201, another closed rectangular line is selected, and the same process is executed.
When the result of determination 218 is YES, this process ends.

【0072】ここで、手順120で保存した三次元画像
データ、および、手順116で合成して得た三次元画像
データは、それぞれのポリゴンの頂点をあらわす座標情
報と、それぞれのポリゴンに張り付ける画像パターンの
テクスチャ情報からなり、1つの頂点についての座標情
報は、図30に示すように、その頂点が含まれる放射状
線に付された放射状線番号、その頂点に振られた交点番
号、交点の座標値をあらわす交点x座標値、交点y座標
値、交点z座標値、中心点または同一放射状線のより中
心点側の隣接頂点までの距離をあらわす2点間距離、隠
れ図形補正処理で一時的に使用する移動後座標値をあら
わす移動後x座標値、y座標値、z座標値からなる1つ
のレコードを構成する。
Here, the three-dimensional image data stored in step 120 and the three-dimensional image data obtained by synthesizing in step 116 include coordinate information representing the vertices of each polygon and an image to be attached to each polygon. As shown in FIG. 30, the coordinate information on one vertex is composed of the texture information of the pattern, the radial line number assigned to the radial line including the vertex, the intersection number assigned to the vertex, and the coordinates of the intersection. Intersection x-coordinate value, intersection y-coordinate value, intersection z-coordinate value representing the value, distance between two points representing the center point or the distance to the adjacent vertex on the center point side of the same radial line, and temporarily in hidden figure correction processing One record is composed of a post-movement x-coordinate value, a y-coordinate value, and a z-coordinate value representing the post-movement coordinate value to be used.

【0073】ここで、交点番号は、中心点に近いものほ
ど若い番号が付与され、最も若い番号は、「0001」
に設定される。そして、このレコードは、放射状線番号
の若い順に、かつ、交点番号の若い番号順にソートさ
れ、座標情報ファイルとして保存される。
Here, as the intersection number is closer to the center point, a smaller number is assigned, and the smallest number is “0001”.
Is set to The records are sorted in ascending order of the radial line numbers and in ascending order of the intersection numbers, and stored as a coordinate information file.

【0074】図31および図32は、隠れ図形補正処理
の一例を示している。
FIGS. 31 and 32 show an example of hidden figure correction processing.

【0075】この隠れ図形補正処理では、まず、ポリゴ
ンの頂点を結ぶ放射線分を三次元から二次元に座標変換
し、三次元オブジェクトを平面上に展開する。
In this hidden figure correction processing, first, the radiation component connecting the vertices of the polygon is coordinate-converted from three-dimensional to two-dimensional, and the three-dimensional object is developed on a plane.

【0076】それにより、元の三次元オブジェクトの各
頂点のz座標値を「0」に変換した変形三次元オブジェ
クトが得られる。ここで、いったん、この変形三次元オ
ブジェクトを保存する。
As a result, a transformed three-dimensional object in which the z-coordinate value of each vertex of the original three-dimensional object is converted to “0” is obtained. Here, the deformed three-dimensional object is once stored.

【0077】なお、この場合、三次元オブジェクトは、
三次元画像データの座標情報からなるメッシュオブジェ
クトに、画像データをマッピングしたものであるので、
三次元オブジェクトを変形三次元オブジェクトに変換す
る際の処理で、画像データのマッピング態様は、メッシ
ュオブジェクトを平面上に展開した際の変形態様に応じ
て変換される。
In this case, the three-dimensional object is
Since the image data is mapped to the mesh object consisting of the coordinate information of the three-dimensional image data,
In the process of converting the three-dimensional object into the deformed three-dimensional object, the mapping mode of the image data is converted according to the deformation mode when the mesh object is developed on a plane.

【0078】次いで、変形三次元オブジェクトを表示
し、底面BTを正面から見た態様のビュー画面を表示し
て、その状態で表示されている画像データを作成し、そ
の作成した画像データについて、原画像である写真画像
で隠れている部分の物体の画像データを合成したり、あ
るいは、適宜に必要な画像修正を加え、修正画像データ
を作成する。
Next, a deformed three-dimensional object is displayed, a view screen in which the bottom surface BT is viewed from the front is displayed, and image data displayed in that state is created. The image data of the object in the portion hidden by the photographic image, which is an image, is synthesized, or the necessary image correction is appropriately made to create corrected image data.

【0079】その修正画像データを、変形三次元オブジ
ェクトにマッピングして、修正変形三次元オブジェクト
を作成する。このとき、修正画像データは、変形三次元
オブジェクトを元にして作られているので、このマッピ
ングでは、修正画像データは、変形三次元オブジェクト
に完全にフィットするので、さらなる、修正作業は不要
となる。
The corrected image data is mapped to a deformed three-dimensional object to create a corrected deformed three-dimensional object. At this time, since the corrected image data is created based on the deformed three-dimensional object, in this mapping, the corrected image data completely fits the deformed three-dimensional object, so that no further correction work is required. .

【0080】そして、修正変形三次元オブジェクトにつ
いて、各頂点の座標値を、移動前の座標値に戻すこと
で、立体的な修正三次元オブジェクトを作成し、その修
正三次元オブジェクトを、補正後の完成された三次元オ
ブジェクトとして保存する。
Then, for the corrected deformed three-dimensional object, the coordinate value of each vertex is returned to the coordinate value before the movement, thereby creating a three-dimensional corrected three-dimensional object, and the corrected three-dimensional object is corrected. Save as a completed 3D object.

【0081】このようにして、この隠れ図形補正処理で
は、三次元オブジェクトを平面的に変形した変形三次元
オブジェクトを作成して、その変形三次元オブジェクト
を正面から見たときの画像データを作成し、その画像デ
ータに対して、隠れ図形の画像データを合成したり、あ
るいは、必要な修正作業を行って、修正画像データを作
成し、その修正画像データを変形三次元オブジェクトに
マッピングして修正変形三次元オブジェクトを作成し、
その修正変形三次元オブジェクトを元の立体的な態様に
戻して、補正後の三次元オブジェクトを得ているので、
その補正後の三次元オブジェクトは、元の写真画像で隠
れている物体の三次元画像データを含み、ユーザのビュ
ー視点を切り換えた際に得られるビュー画面が不自然な
状態になるような事態を回避することができる。
In this way, in the hidden figure correction processing, a deformed three-dimensional object is created by deforming the three-dimensional object two-dimensionally, and image data when the deformed three-dimensional object is viewed from the front is created. The image data of the hidden figure is combined with the image data, or the necessary correction work is performed to create the corrected image data, and the corrected image data is mapped to the deformed three-dimensional object to perform the modified deformation. Create a three-dimensional object,
Since the modified three-dimensional object is returned to the original three-dimensional form and the corrected three-dimensional object is obtained,
The corrected three-dimensional object contains three-dimensional image data of the object hidden in the original photographic image, and the view screen obtained when the user's view viewpoint is switched may become unnatural. Can be avoided.

【0082】また、この場合、変形三次元オブジェクト
を正面から見た際に得られる画像データについて、画像
の合成/修正作業を行うので、画像の合成/修正作業を
二次元データについて行うことができて、その合成/修
正作業に適用するアプリケーションとして、二次元画像
を扱うものを用いることができ、合成/修正作業が容易
になる。
In this case, since the image combining / correcting operation is performed on the image data obtained when the deformed three-dimensional object is viewed from the front, the image combining / correcting operation can be performed on the two-dimensional data. As an application applied to the combining / correcting operation, an application that handles a two-dimensional image can be used, and the combining / correcting operation is facilitated.

【0083】それとともに、修正後に得られる修正画像
データは三次元情報を含む二次元画像データであり、し
たがって、この修正画像データを変形三次元オブジェク
トにマッピングして得られる修正変形三次元オブジェク
トを、元の立体的態様に変換して得られる完成された三
次元オブジェクトは、三次元的に継ぎ目のない空間とし
て得られ、非常に自然な三次元画像データを得ることが
できるようになる。
At the same time, the corrected image data obtained after the correction is two-dimensional image data including three-dimensional information. Therefore, the corrected deformed three-dimensional object obtained by mapping the corrected image data to the deformed three-dimensional object is The completed three-dimensional object obtained by converting to the original three-dimensional aspect is obtained as a three-dimensional seamless space, and very natural three-dimensional image data can be obtained.

【0084】次に、実際の処理について具体的に説明す
る。
Next, the actual processing will be specifically described.

【0085】まず、手順120で保存した三次元オブジ
ェクトの座標情報ファイルから、並び順に、1レコード
分のデータを読み込み(処理301)、その交点番号が
「0001」に一致するかどうかを調べる(判断30
2)。そのときに読み込んだレコードの交点番号が「0
001」に一致する場合で、判断302の結果がYES
になるときには、選択したレコードが中心部に最も近い
閉矩形線CL1の頂点のものであるので(図33,3
4,35,36参照)、次の式(II)を実行して、中
心点から交点までの2点間距離dを算出して、その算出
した2点間距離dを読み出したレコードに保存し(処理
303)、処理301に戻って、次のレコードについて
の処理を実行する。
First, one record of data is read from the three-dimensional object coordinate information file stored in step 120 in the order of arrangement (process 301), and it is checked whether or not the intersection number matches "0001" (determination). 30
2). The intersection number of the record read at that time is "0
001 ”, and the result of judgment 302 is YES
, The selected record is that of the vertex of the closed rectangular line CL1 closest to the center (FIGS. 33, 3).
4, 35, 36), the following formula (II) is executed to calculate the distance d between the two points from the center point to the intersection, and the calculated distance d between the two points is stored in the read record. (Process 303) Returning to process 301, the process for the next record is executed.

【0086】 d=((x**2)+(y**2))**(1/2) (II)D = ((x ** 2) + (y ** 2)) ** (1/2) (II)

【0087】ここで、演算子(a**b)は、aのべき
数bの値をあらわすものである。
Here, the operator (a ** b) represents the value of the exponent b of a.

【0088】また、そのときに読み込んだレコードの交
点番号が「0001」に一致しない場合で、判断302
の結果がNOになるときには、選択したレコードが中心
部に最も近い閉矩形線CL1の頂点以外のものであるの
で、直前に読み込んだレコードのx,y,z座標値と、
このときに読み込んだレコードのx,y,z座標値の差
分値x’,y’,z’を算出して保存し(処理30
4)、この差分値x’,y’,z’に基づいて、次の式
(III)を実行し、2点間距離d’を算出する(処理
305)。
If the intersection number of the record read at that time does not match "0001",
Is NO, since the selected record is other than the vertex of the closed rectangular line CL1 closest to the center, the x, y, z coordinate values of the record read immediately before and
At this time, the difference values x ', y', z 'of the x, y, z coordinate values of the record read are calculated and stored (step 30).
4) Based on the difference values x ', y', z ', the following equation (III) is executed to calculate a distance d' between two points (process 305).

【0089】 d’=((((x**2)+(z**2))**(1/2))+(y**2 ))**(1/2) (III)D '= ((((x ** 2) + (z ** 2)) ** (1/2)) + (y ** 2)) ** (1/2) (III)

【0090】また、差分値x’,y’に基づき、次の式
(IV)を実行して、放射線分の傾きaを算出する(処
理306)。ただし、処理対象の交点と、直前に処理し
た交点のx,y座標値が一致する場合には、さらに1つ
前の交点との間で差分値x’,y’を算出するようにす
るとよい。
Further, the following equation (IV) is executed based on the difference values x 'and y' to calculate the gradient a of the radiation component (step 306). However, when the x, y coordinate values of the intersection to be processed and the just-processed intersection coincide with each other, the difference values x ′, y ′ may be calculated between the immediately preceding intersection. .

【0091】 a=y’/x’ (IV)A = y ′ / x ′ (IV)

【0092】次いで、2点間距離d’、傾きa、およ
び、直前に求めた頂点(放射状線番号が同一で、交点番
号が1つ若い頂点)の移動後x座標値および移動後y座
標値に基づいて、処理対象となっている頂点の移動後x
座標値および移動後y座標値を算出し、その算出した、
移動後x座標値、移動後y座標値、および、移動後z座
標値(「0」に固定)を、座標情報に保存する(処理3
08)。
Next, the distance d 'between the two points, the slope a, and the x-coordinate value after movement and the y-coordinate value after movement of the vertex obtained immediately before (the vertex having the same radial line number and the intersection number being one smaller). After the movement of the vertex being processed, based on
The coordinate value and the y coordinate value after the movement are calculated, and the calculated
The x coordinate value after the movement, the y coordinate value after the movement, and the z coordinate value after the movement (fixed to “0”) are stored in the coordinate information (process 3).
08).

【0093】次いで、全てのレコードについて、座標変
換処理を終了したかどうかを調べ(判断309)、全て
のレコードについて、座標変換処理を終了していない場
合で、判断309の結果がNOになるときには、処理3
01に戻り、次のレコードについて処理を実行する。
Next, it is checked whether or not the coordinate conversion processing has been completed for all the records (decision 309). If the coordinate conversion processing has not been completed for all the records, and the result of the determination 309 is NO, , Processing 3
Returning to 01, the process is executed for the next record.

【0094】また、全てのレコードについて、座標変換
処理を終了した場合で、判断309の結果がYESにな
るときには、変形三次元オブジェクトが得られているの
で、全ての頂点について、移動後x座標値、移動後y座
標値、および、移動後z座標値を適用して、変形三次元
オブジェクトを画面上に表示し(処理310)、その表
示した変形三次元オブジェクトのデータを一旦保存する
(処理311)。
When the coordinate conversion processing has been completed for all records and the result of determination 309 is YES, a deformed three-dimensional object has been obtained. By applying the y-coordinate value after the movement and the z-coordinate value after the movement, the deformed three-dimensional object is displayed on the screen (process 310), and the data of the displayed deformed three-dimensional object is temporarily stored (process 311). ).

【0095】次いで、変形三次元オブジェクトを正面か
ら見た態様のビュー画面を表示して、その画像データを
作成し(処理312)、その表示画像データについて、
原画像である写真画像で隠れている部分の物体の画像デ
ータを合成したり、あるいは、適宜に必要な画像修正を
加え、修正画像データを作成し、保存する(処理31
3)。
Next, a view screen in which the deformed three-dimensional object is viewed from the front is displayed, and its image data is created (process 312).
The image data of the object in the portion hidden by the photographic image as the original image is synthesized, or the necessary image correction is appropriately made to create and store the corrected image data (process 31).
3).

【0096】次に、その修正画像データを、変形三次元
オブジェクトにマッピングして、修正変形三次元オブジ
ェクトを作成し(処理314)、修正変形三次元オブジ
ェクトについて、各頂点の座標値を、移動前の座標値に
戻して再描画し(処理315)、それによって、得られ
た修正三次元オブジェクトを、補正後の完成された三次
元オブジェクトとして保存する(処理316)。
Next, the corrected image data is mapped to a deformed three-dimensional object to generate a corrected deformed three-dimensional object (step 314). Then, the coordinate values are returned to (3) and the image is redrawn (process 315), and the obtained corrected three-dimensional object is stored as a corrected three-dimensional object (process 316).

【0097】以上のような方法により作成した三次元画
像データ(三次元オブジェクト)のポリゴン数は、サン
プルに用いた写真画像(図7参照)について、約200
0個程度であり、従来方法で作成される三次元画像デー
タの数万分の一程度の数となり、非常にデータ量が少な
く、かつ、完成するまでに必要な作業の手間とコンピュ
ータ能力を大幅に低減することができる。
The number of polygons of the three-dimensional image data (three-dimensional object) created by the above method is about 200 for the photographic image (see FIG. 7) used for the sample.
The number is about 0, which is about several tens of thousands of 3D image data created by the conventional method. The amount of data is very small, and the work and computer power required for completion are greatly increased. Can be reduced.

【0098】また、本実施例で作成される三次元画像デ
ータは、1つのメッシュオブジェクトと、1枚の画像デ
ータからなり、そのデータ量が非常に小さいため、伝送
路を介してデータ伝送する際の負荷を軽減することがで
きる。また、この三次元画像データに基づいて三次元画
像を表示する際に必要となる処理時間を大幅に短縮する
ことができるので、ユーザの視点を実時間的に切り換え
る必要のある応用分野、例えば、自動車の進路を案内す
るためのカーナビゲーションシステムの表示システム
や、インターネット上でVRMLにより実現される仮想
的な街中を、ユーザが任意の操作により視点を移動する
ような応用等に適用することができる。
The three-dimensional image data created in this embodiment is composed of one mesh object and one image data, and the data amount is very small. Load can be reduced. Further, since the processing time required for displaying a three-dimensional image based on the three-dimensional image data can be significantly reduced, an application field in which the viewpoint of the user needs to be switched in real time, for example, The present invention can be applied to a display system of a car navigation system for guiding the route of a car, a virtual city realized by VRML on the Internet, and an application in which a user moves a viewpoint by an arbitrary operation. .

【0099】ところで、上述した実施例では、図10の
手順120の後の段階で、隠れ図形補正処理を行ってい
るが、この隠れ図形補正処理は、メッシュオブジェクト
拡大処理の前の段階で行うこともでき、その場合の三次
元画像データ作成方法の手順の一例を図37に示す。な
お、この場合も、カラースキャナ、カラープリンタ、カ
ラーCRTディスプレイ装置、ポインティングデバイス
等を備えた一般的なパーソナルコンピュータ装置を利用
することを想定している。
In the above-described embodiment, the hidden figure correction processing is performed after the step 120 in FIG. 10. However, the hidden figure correction processing should be performed before the mesh object enlargement processing. FIG. 37 shows an example of the procedure of the three-dimensional image data creating method in that case. Also in this case, it is assumed that a general personal computer device including a color scanner, a color printer, a color CRT display device, a pointing device, and the like is used.

【0100】まず、原画像をカラースキャナで読み取
り、カラー画像データを形成し(手順401)、そのカ
ラー画像データの画像をカラーCRTディスプレイ装置
に表示し、ポインティングデバイス等を用いて不要な部
分の修正を行う(手順402)。
First, an original image is read by a color scanner to form color image data (step 401), an image of the color image data is displayed on a color CRT display device, and unnecessary portions are corrected using a pointing device or the like. (Step 402).

【0101】次に、修正後の画像データに基づいて、最
終的に作成する三次元画像の目的に応じた画像データ
(処理画像データ)を作成する(手順403)。
Next, based on the corrected image data, image data (processed image data) corresponding to the purpose of the finally created three-dimensional image is created (step 403).

【0102】次いで、原画像の写真画像はサイズが小さ
いので、A3サイズ程度の大きさに処理画像データを拡
大し、その拡大画像をカラープリンタより記録出力する
(手順404)。
Next, since the photographic image of the original image is small, the processed image data is enlarged to about A3 size, and the enlarged image is recorded and output from the color printer (step 404).

【0103】次に、記録出力した拡大画像に半透明なマ
イラー紙を重ね合わせ(手順405)、拡大画像の枠線
FLおよび水平線ABを目視で確認しながらマイラー紙
に加筆し、次いで、拡大画像に含まれている被写体の傾
斜している稜線の交差する点や遠近法的手法から拡大画
像の図柄の中心点Pを決定し、その中心点Pを通り、水
平線ABに直交するクロス線CDをマイラー紙に加筆す
る(手順406)。
Next, translucent Mylar paper is superimposed on the recorded and output enlarged image (step 405), and the Mylar paper is retouched while visually checking the frame FL and the horizontal line AB of the enlarged image. The center point P of the pattern of the enlarged image is determined from the intersection of the sloping ridge lines of the subject included in and the perspective method, and a cross line CD passing through the center point P and orthogonal to the horizontal line AB is determined. Add to Mylar paper (step 406).

【0104】次に、拡大画像の底面に当たる部分の閉矩
形線(輪郭線)CL1を、中心点Pをめあすとして、マ
イラー紙に加筆する(手順407)。したがって、閉矩
形線CL1で囲まれた部分は、この拡大画像での最遠景
に当たる。
Next, the closed rectangular line (contour line) CL1 at the portion corresponding to the bottom surface of the enlarged image is rewritten on the Mylar paper with the center point P as the target (step 407). Therefore, the portion surrounded by the closed rectangular line CL1 corresponds to the farthest view in the enlarged image.

【0105】次に、枠線FLとクロス線CDの交点か
ら、閉矩形線CL1の最下部とクロス線CDの交点まで
のクロス線CDを、適宜に分割し、その分割点Vをマイ
ラー紙に加筆する(手順408)。このときの分割点V
の間隔は、適宜な間隔でよく、この間隔を小さくする
と、後述するメッシュオブジェクトにおけるポリゴン数
が大きくなる。
Next, the cross line CD from the intersection of the frame line FL and the cross line CD to the intersection of the lowermost portion of the closed rectangular line CL1 and the intersection of the cross line CD is appropriately divided, and the division point V is set on Mylar paper. Retouch (step 408). Division point V at this time
May be an appropriate interval. If this interval is reduced, the number of polygons in the mesh object described later increases.

【0106】次に、分割点Vと同じ奥行きの座標を持つ
点を目視で判断し、その点をたどりながら閉矩形線CL
2,CL3,CL4,…をマイラー紙に加筆する(手順
409)。この場合、枠線FLから7番目までの閉矩形
線は、左右の縦線と上の横線が同じ軌跡(すなわち、枠
線FL)となる。なお、拡大図形に対して、正確な三次
元座標情報がある場合には、その三次元座標情報のう
ち、同一Z座標の点を順次結んで閉矩形線を描く。
Next, a point having the same depth coordinates as the division point V is visually determined, and the closed rectangular line CL is traced while following the point.
2, CL3, CL4,... Are added to Mylar paper (step 409). In this case, the right and left vertical lines and the upper horizontal line of the closed rectangular lines from the frame line FL to the seventh line have the same locus (that is, the frame line FL). If there is accurate three-dimensional coordinate information for the enlarged figure, a closed rectangular line is drawn by sequentially connecting points of the same Z coordinate in the three-dimensional coordinate information.

【0107】次に、中心点Pから枠線FLの周囲方向に
向かって、放射状線をマイラー紙に加筆する(手順41
0)。この場合、放射状線は、水平線ABとクロス線C
Dには加筆しない。また、放射状線の方向は拡大画像の
図柄に合わせて設定してもよく、さらに、放射状線は直
線でなくともよい。また、この放射状線と各閉矩形線C
L1,CL2,CL3,…の交点が、メッシュオブジェ
クトの頂点となるので、放射状線の数を多くすればそれ
だけメッシュオブジェクトの頂点の数が増え、ポリゴン
数が増える。
Next, radial lines are added to the Mylar paper from the center point P toward the periphery of the frame line FL (step 41).
0). In this case, the radial lines are the horizontal line AB and the cross line C
Do not add to D. The direction of the radial line may be set according to the design of the enlarged image, and the radial line may not be a straight line. Also, this radial line and each closed rectangular line C
Since the intersection of L1, CL2, CL3,... Becomes the vertex of the mesh object, the number of vertices of the mesh object increases and the number of polygons increases as the number of radial lines increases.

【0108】次に、マイラー紙を拡大画像から外し、マ
イラー紙に記入された画像をカラースキャナで読み込
み、マイラー画像データを形成する(手順411)。
Next, the Mylar paper is removed from the enlarged image, the image written on the Mylar paper is read by a color scanner, and Mylar image data is formed (Step 411).

【0109】次に、マイラー画像データをカラーCRT
ディスプレイ装置に表示し、各閉矩形線CL1,CL
2,CL3,…と放射状線との交点のXY座標を入力し
(手順413)、同一閉矩形線CL1,CL2,CL
3,…におけるそれらの交点を結んでおのおのの閉矩形
線CL1,CL2,CL3,…をあらわすベクトルデー
タを形成し、保存する(手順414)。
Next, the mylar image data is converted to a color CRT.
Displayed on the display device, each closed rectangular line CL1, CL
The XY coordinates of the intersection of the radial lines with CL2, CL3, ... are input (step 413), and the same closed rectangular lines CL1, CL2, CL
The vector data representing each of the closed rectangular lines CL1, CL2, CL3,... Is formed by connecting the intersections in 3,... And stored (step 414).

【0110】次に、おのおのの閉矩形線CL1,CL
2,CL3,…のZ座標値を算出し、おのおのの閉矩形
線CL1,CL2,CL3,…についてその算出したZ
座標値を保存する(手順415)。
Next, each of the closed rectangular lines CL1, CL
, CL3,... Are calculated, and the calculated Z coordinates are calculated for each of the closed rectangular lines CL1, CL2, CL3,.
The coordinate values are stored (procedure 415).

【0111】このようにして、各閉矩形線CL1,CL
2,CL3,…を構成する交点の座標値が得られると、
これらの交点の座標に基づいて、メッシュオブジェクト
のデータを、周知の三次元メッシュオブジェクト作成方
法により作成する(手順416)。
Thus, each closed rectangular line CL1, CL
When the coordinate values of the intersections forming 2, CL3,.
Based on the coordinates of these intersections, mesh object data is created by a well-known three-dimensional mesh object creation method (step 416).

【0112】このようにして作成したメッシュオブジェ
クトに対し、手順403で形成した処理画像データを、
メッシュオブジェクトの内側に貼り付ける態様に合成
(レンダリング)する(手順417)。
For the mesh object created in this way, the processed image data formed in step 403 is
The image is synthesized (rendered) so as to be pasted inside the mesh object (step 417).

【0113】そして、このようにして作成した三次元オ
ブジェクトについて、図31,32に示したと同様の隠
れ図形補正処理を実行する(手順418)。それによ
り、原画像である写真画像で隠れている部分の物体の画
像データを合成したり、あるいは、適宜に必要な画像修
正を加えた修正画像データを、メッシュオブジェクトの
内側に張り付ける態様にレンダリングした三次元オブジ
ェクトが作成される。
Then, a hidden figure correction process similar to that shown in FIGS. 31 and 32 is executed on the three-dimensional object created in this manner (step 418). Thereby, the image data of the object in the part hidden by the original photographic image is synthesized, or the corrected image data obtained by appropriately performing the necessary image correction is rendered in a mode of being pasted inside the mesh object. A three-dimensional object is created.

【0114】次いで、上述と同様に、各閉矩形線CL
1,CL2,CL3,…のz座標値に従って、各閉矩形
線CL1,CL2,CL3,…をx−y方向へ拡大する
メッシュオブジェクト拡大補正処理(手順419)を実
行する。
Next, similarly to the above, each closed rectangular line CL
According to the z-coordinate values of 1, CL2, CL3,..., A mesh object enlargement correction process (step 419) for enlarging each closed rectangular line CL1, CL2, CL3,.

【0115】また、メッシュオブジェクトに貼り付ける
画像データも、メッシュオブジェクトのx−y方向への
拡大態様に応じて拡大するメッシュオブジェクト色補正
処理(手順420)を実行する。
The image data to be pasted on the mesh object is also subjected to a mesh object color correction process (step 420) in which the image data is enlarged in accordance with the mode of enlargement of the mesh object in the xy directions.

【0116】次いで、メッシュオブジェクト拡大補正処
理後のメッシュオブジェクトに対し、メッシュオブジェ
クト色補正処理後の画像データを貼り付ける態様に合成
するレンダリング処理を実行し(手順421)、そのレ
ンダリング処理により形成された三次元オブジェクトを
保存する(手順422)。
Next, a rendering process is performed on the mesh object after the mesh object enlargement correction process to combine the image data after the mesh object color correction process into a form to be pasted (procedure 421). The three-dimensional object is stored (procedure 422).

【0117】また、上述した各実施例では、処理画像デ
ータの枠線、水平線、クロス線、閉矩形線は、カラープ
リンタで記録出力した拡大画像に張り合わせたマイラー
紙に記入しているが、処理画像データの枠線、水平線、
クロス線、閉矩形線を、カラーCRTディスプレイ装置
の画面上で作成することもできる。
In each of the above-described embodiments, the frame lines, horizontal lines, cross lines, and closed rectangular lines of the processed image data are written on a Mylar sheet attached to an enlarged image recorded and output by a color printer. Image data borders, horizontal lines,
Cross lines and closed rectangular lines can also be created on the screen of a color CRT display device.

【0118】その場合の三次元画像データ作成方法の手
順の一例を図38に示す。
FIG. 38 shows an example of the procedure of the three-dimensional image data creating method in that case.

【0119】まず、原画像をカラースキャナで読み取
り、カラー画像データを形成し(手順501)、そのカ
ラー画像データの画像をカラーCRTディスプレイ装置
に表示し、ポインティングデバイス等を用いて不要な部
分の修正を行う(手順502)。
First, an original image is read by a color scanner to form color image data (step 501), an image of the color image data is displayed on a color CRT display device, and unnecessary portions are corrected using a pointing device or the like. (Step 502).

【0120】次に、修正後の画像データに基づいて、最
終的に作成する三次元画像の目的に応じた画像データ
(処理画像データ)を作成する(手順503)。
Next, based on the corrected image data, image data (processed image data) corresponding to the purpose of the finally created three-dimensional image is created (step 503).

【0121】次に、原画像の写真画像はサイズが小さい
ので、使用するカラーCRTディスプレイ装置の表示画
面一杯に処理画像データを拡大して表示する(手順50
4)。
Next, since the photographic image of the original image is small in size, the processed image data is enlarged and displayed to fill the display screen of the color CRT display device to be used (step 50).
4).

【0122】次に、拡大表示した画面上で記入枠を設
け、処理画像の枠線FLおよび水平線ABを目視で確認
しながら、ポインティングデバイスを用いて記入枠上に
記入し、次いで、処理画像に含まれている被写体の傾斜
している稜線の交差する点や遠近法的手法から処理画像
の図柄の中心点Pを決定し、その中心点Pを通り、水平
線ABに直交するクロス線CDを記入枠上に記入する
(手順505)。
Next, an entry frame is provided on the enlarged screen, and while visually confirming the frame line FL and the horizontal line AB of the processed image, the entry is made on the entry frame by using a pointing device. The center point P of the pattern of the processed image is determined from the intersection of the inclined ridge lines of the included subject and the perspective method, and a cross line CD passing through the center point P and orthogonal to the horizontal line AB is entered. Fill in the box (procedure 505).

【0123】次に、処理画像の底面に当たる部分の閉矩
形線(輪郭線)CL1を、中心点Pを目安として、記入
枠上に記入する(手順506)。
Next, a closed rectangular line (contour line) CL1 corresponding to the bottom surface of the processed image is entered in the entry frame using the center point P as a guide (step 506).

【0124】次に、枠線FLとクロス線CDの交点か
ら、閉矩形線CL1の最下部とクロス線CDの交点まで
のクロス線CDを、適宜に分割し、その分割点Vを記入
枠上に設定する(手順507)。このときの分割点Vの
間隔は、適宜な間隔でよく、この間隔を小さくすると、
後述するメッシュオブジェクトにおけるポリゴン数が大
きくなる。
Next, the cross line CD from the intersection of the frame line FL and the cross line CD to the intersection of the lowermost part of the closed rectangular line CL1 and the cross line CD is appropriately divided, and the division point V is set on the entry frame. (Step 507). The interval between the division points V at this time may be an appropriate interval, and if this interval is reduced,
The number of polygons in a mesh object described later increases.

【0125】次に、分割点Vと同じ奥行きの座標を持つ
点を目視で判断し、その点をたどりながら閉矩形線CL
2,CL3,CL4,…を記入枠上に記入する(手順5
08)。
Next, a point having the same depth coordinates as the division point V is visually determined, and the closed rectangular line CL is traced while following the point.
, CL3, CL4,... Are entered in the entry boxes (procedure 5
08).

【0126】次に、中心点Pから枠線FLの周囲方向に
向かって、放射状線を記入枠上に記入する(手順50
9)。この場合、放射状線は、水平線ABとクロス線C
Dには加筆しない。また、放射状線の方向は拡大画像の
図柄に合わせて設定してもよく、さらに、放射状線は直
線でなくともよい。また、この放射状線と各閉矩形線C
L1,CL2,CL3,…の交点が、メッシュオブジェ
クトの頂点となるので、放射状線の数を多くすればそれ
だけメッシュオブジェクトの頂点の数が増え、ポリゴン
数が増える。
Next, a radial line is drawn on the drawing box from the center point P toward the periphery of the frame line FL (procedure 50).
9). In this case, the radial lines are the horizontal line AB and the cross line C
Do not add to D. The direction of the radial line may be set according to the design of the enlarged image, and the radial line may not be a straight line. Also, this radial line and each closed rectangular line C
Since the intersection of L1, CL2, CL3,... Becomes the vertex of the mesh object, the number of vertices of the mesh object increases and the number of polygons increases as the number of radial lines increases.

【0127】次に、記入枠の記入内容の画像データを読
み込み(手順510)、その読み込んだ画像データか
ら、各閉矩形線CL1,CL2,CL3,…と放射状線
との交点のXY座標を読取入力し(手順511)、同一
閉矩形線CL1,CL2,CL3,…におけるそれらの
交点を結んでおのおのの閉矩形線CL1,CL2,CL
3,…をあらわすベクトルデータを形成し、保存する
(手順512)。
Next, the image data of the entry contents of the entry frame is read (step 510), and from the read image data, the XY coordinates of the intersection of each of the closed rectangular lines CL1, CL2, CL3,. (Step 511), and connect the intersections of the same closed rectangular lines CL1, CL2, CL3,... To each of the closed rectangular lines CL1, CL2, CL.
The vector data representing 3,... Is formed and stored (step 512).

【0128】次に、おのおのの閉矩形線CL1,CL
2,CL3,…のZ座標値を算出し、おのおのの閉矩形
線CL1,CL2,CL3,…についてその算出したZ
座標値を保存する(手順513)。
Next, each of the closed rectangular lines CL1, CL
, CL3,... Are calculated, and the calculated Z coordinates are calculated for each of the closed rectangular lines CL1, CL2, CL3,.
The coordinate values are stored (procedure 513).

【0129】このようにして、各閉矩形線CL1,CL
2,CL3,…を構成する交点の座標値が得られると、
これらの交点の座標に基づいて、メッシュオブジェクト
のデータを、周知の三次元メッシュオブジェクト作成方
法により作成する(手順514)。
Thus, each closed rectangular line CL1, CL
When the coordinate values of the intersections forming 2, CL3,.
Based on the coordinates of these intersections, mesh object data is created by a well-known three-dimensional mesh object creation method (step 514).

【0130】このようにして作成したメッシュオブジェ
クトに対し、手順503で形成した処理画像データを、
メッシュオブジェクトの内側に貼り付ける態様に合成
(レンダリング)する(手順515)。
For the mesh object created in this way, the processed image data formed in step 503 is
The image is synthesized (rendered) so as to be pasted inside the mesh object (step 515).

【0131】ここで、この段階では、z座標が大きくな
るに従って、x−y座標方向の広がりが小さくなり、先
細りの三次元オブジェクトとなるので、次に、上述と同
様なメッシュオブジェクト拡大補正処理(手順516)
を実行する。
At this stage, as the z-coordinate increases, the spread in the xy-coordinate direction decreases and the object becomes a tapered three-dimensional object. Step 516)
Execute

【0132】また、メッシュオブジェクトに貼り付ける
画像データも、メッシュオブジェクトのx−y方向への
拡大態様に応じて拡大するメッシュオブジェクト色補正
処理(手順517)を実行する。ここで、メッシュオブ
ジェクト色補正処理では、x方向とy方向の拡大率に応
じて、それぞれ画素を増やすとともに、その増えた画素
の色は、元々存在していた周囲の画素の色を滑らかにつ
なげるグラディエーション補正処理により決定する。
The image data to be pasted on the mesh object is also subjected to a mesh object color correction process (step 517) in which the image data is enlarged in accordance with the mode of enlargement of the mesh object in the xy directions. Here, in the mesh object color correction processing, the number of pixels is increased in accordance with the enlargement ratio in the x direction and the y direction, and the colors of the increased pixels are smoothly connected to the colors of the surrounding pixels that originally existed. Determined by the gradation correction process.

【0133】次いで、メッシュオブジェクト拡大補正処
理後のメッシュオブジェクトに対し、メッシュオブジェ
クト色補正処理後の画像データを貼り付ける態様に合成
するレンダリング処理を実行し(手順518)、そのレ
ンダリング処理により形成された三次元オブジェクトを
保存する(手順519)。
Next, a rendering process is performed on the mesh object after the mesh object enlargement correction process so that the image data after the mesh object color correction process is pasted (procedure 518). The three-dimensional object is saved (procedure 519).

【0134】そして、その保存した三次元オブジェクト
について、図31,32に示したと同様な隠れ図形補正
処理を適用し(手順520)、元の写真画像では隠され
た部分の画像データを合成して、最終的な三次元画像デ
ータを得る。
Then, a hidden figure correction process similar to that shown in FIGS. 31 and 32 is applied to the stored three-dimensional object (step 520), and the image data of the portion hidden in the original photographic image is synthesized. To obtain final three-dimensional image data.

【0135】ところで、図39(a)に示すような写真
画像を考えると、この写真画像のメッシュオブジェクト
は、同図(b)のようなものとなり、このメッシュオブ
ジェクトは、図40〜44に示すように、それぞれ底面
BT、天井PL1、地面PL3、左壁PL2、右壁PL
4に平行な成分に分解することができる。
Considering a photographic image as shown in FIG. 39 (a), the mesh object of this photographic image is as shown in FIG. 39 (b), and this mesh object is shown in FIGS. Bottom BT, ceiling PL1, ground PL3, left wall PL2, right wall PL
4 can be decomposed into parallel components.

【0136】また、この写真画像に基づいて、上述した
方法で作成した三次元画像データについて、それぞれ底
面BTを垂直に見た方向でレンダリング処理して得られ
る底面画像データは、図45のようになり、また、天井
PL1を垂直に見た方向でレンダリング処理して得られ
る天井画像データは、図46のようになり、また、地面
PL3を垂直に見た方向でレンダリング処理して得られ
る地面画像データは、図47のようになり、また、左壁
PL2を垂直に見た方向でレンダリング処理して得られ
る左壁画像データは、図48のようになり、また、右壁
PL4を垂直に見た方向でレンダリング処理して得られ
る右壁画像データは、図49のようになる。
The bottom image data obtained by rendering the three-dimensional image data created by the above-described method based on this photographic image in the direction in which the bottom surface BT is viewed vertically is as shown in FIG. In addition, the ceiling image data obtained by rendering the ceiling PL1 in the direction viewed vertically is as shown in FIG. 46, and the ground image obtained by rendering the ground PL3 in the direction viewed vertically. The data is as shown in FIG. 47, and the left wall image data obtained by performing the rendering processing in the direction in which the left wall PL2 is viewed vertically is as shown in FIG. 48, and the right wall PL4 is viewed vertically. FIG. 49 shows right wall image data obtained by performing the rendering process in the different directions.

【0137】そこで、このようにして得られた底面画像
データ、天井画像データ、地面画像データ、左壁画像デ
ータ、および、右壁画像データについて、元の写真画像
で隠れている物体の画像を合成したり、あるいは、画像
のテクスチャを修正して、修正底面画像データ、修正天
井画像データ、修正地面画像データ、修正左壁画像デー
タ、および、修正右壁画像データを作成し、これらの修
正底面画像データ、修正天井画像データ、修正地面画像
データ、修正左壁画像データ、および、修正右壁画像デ
ータを、それぞれ図40〜44のように分解して形成し
たメッシュオブジェクトにそれぞれマッピングして、三
次元オブジェクトを作成することができる。
Therefore, the image of the object hidden by the original photographic image is synthesized with the bottom image data, ceiling image data, ground image data, left wall image data, and right wall image data obtained in this manner. Or modify the texture of the image to create modified bottom image data, modified ceiling image data, modified ground image data, modified left wall image data, and modified right wall image data, and modify these modified bottom images The data, the corrected ceiling image data, the corrected ground image data, the corrected left wall image data, and the corrected right wall image data are respectively mapped to mesh objects formed by being decomposed as shown in FIGS. Objects can be created.

【0138】この作成された三次元オブジェクトは、各
方向から見た画像データを含むため、図39(a)の写
真画像では隠れている物体の画像も三次元的に得ること
ができ、それにより、ユーザのビュー視点に応じたビュ
ー画面を適切に表示させることができる。
Since the created three-dimensional object includes image data viewed from each direction, an image of an object hidden in the photographic image of FIG. 39A can be obtained three-dimensionally. Thus, it is possible to appropriately display a view screen according to the view viewpoint of the user.

【0139】この場合の隠れ図形補正処理の一例を図5
0に示す。
FIG. 5 shows an example of the hidden figure correction processing in this case.
0 is shown.

【0140】まず、例えば、手順120で作成された三
次元オブジェクトを上述した5つの面に分割して分割三
次元オブジェクトを作成する(処理601)。ここで、
写真画像に現れる面の形状が不定形である場合には、そ
の形状に合わせて分解する面を定義する。
First, for example, the three-dimensional object created in the procedure 120 is divided into the five surfaces described above to create a divided three-dimensional object (process 601). here,
If the shape of the surface appearing in the photographic image is irregular, the surface to be decomposed is defined according to the shape.

【0141】次に、上述した5つの面を垂直に見た方向
でレンダリング処理して、おのおのの面に対応した底面
画像データ、天井画像データ、地面画像データ、左壁画
像データ、および、右壁画像データを作成し(処理60
2)、その作成した底面画像データ、天井画像データ、
地面画像データ、左壁画像データ、および、右壁画像デ
ータに対して、元の写真画像で隠れている物体の画像を
合成したり、あるいは、画像のテクスチャを修正して、
修正底面画像データ、修正天井画像データ、修正地面画
像データ、修正左壁画像データ、および、修正右壁画像
データを作成する(処理603)。
Next, rendering processing is performed on the above-described five planes in the direction viewed vertically, and bottom plane image data, ceiling image data, ground image data, left wall image data, and right wall image data corresponding to each plane. Create image data (process 60)
2), the created bottom image data, ceiling image data,
With the ground image data, left wall image data, and right wall image data, synthesize the image of the object hidden in the original photographic image, or modify the texture of the image,
Modified bottom image data, modified ceiling image data, modified ground image data, modified left wall image data, and modified right wall image data are created (process 603).

【0142】そして、その作成した修正底面画像デー
タ、修正天井画像データ、修正地面画像データ、修正左
壁画像データ、および、修正右壁画像データを、対応す
る分割三次元オブジェクトにマッピングし(処理60
4)、修正後の三次元オブジェクトを表示して、保存す
る(処理605)。
Then, the created modified bottom image data, modified ceiling image data, modified ground image data, modified left wall image data, and modified right wall image data are mapped to the corresponding divided three-dimensional objects (process 60).
4) Display and save the corrected three-dimensional object (process 605).

【0143】ところで、上述した実施例では、写真の画
像を元にして、その写真の画像が持っている三次元的空
間情報を抽出し、その三次元的空間情報に基づいて三次
元空間の枠組みデータを形成し、その三次元空間の枠組
みデータに写真の画像をマッピングすることで、写真画
像にあらわれている三次元空間を表現できる三次元画像
データを形成しているが、この元になる画像としては、
奥行き情報が表現されているような絵画を用いることが
できる。
In the above-described embodiment, three-dimensional space information of a picture image is extracted based on the picture image, and a three-dimensional space framework is extracted based on the three-dimensional space information. The three-dimensional image data that can represent the three-dimensional space appearing in the photographic image is formed by forming the data and mapping the image of the photograph to the framework data of the three-dimensional space. as,
A painting in which depth information is expressed can be used.

【0144】また、同様にして、従前の方法で作成され
た三次元CG画像を、一定の方向から見た状態にレンダ
リング処理して得られる画像を用いた場合でも、本願発
明の方法による三次元画像データを作成することができ
る。この場合、元の三次元CG画像のデータ量に比べ
て、格段に小さいデータ量の三次元画像データを作成す
ることができ、かつ、画質もほとんど同等なので、既存
の三次元CG画像データのデータ量を削減することがで
き、便利である。
Similarly, when an image obtained by rendering a three-dimensional CG image created by a conventional method in a state viewed from a certain direction is used, the three-dimensional CG image obtained by the method of the present invention is used. Image data can be created. In this case, three-dimensional image data with a data amount much smaller than the data amount of the original three-dimensional CG image can be created, and the image quality is almost the same. The amount can be reduced and it is convenient.

【0145】また、本発明が適用できる写真画像は、中
心点向かって直線的に消失線があらわれるような場合に
限らず、消失線が適宜に湾曲している場合についても、
同様にして適用することができる。
Further, the photographic image to which the present invention can be applied is not limited to the case where the vanishing line appears linearly toward the center point, but also the case where the vanishing line is appropriately curved.
The same can be applied.

【0146】[0146]

【発明の効果】以上説明したように、本発明によれば、
非常に少ないポリゴン数で、非常に精細な三次元画像デ
ータを表現することができるので、完成するまでに必要
な作業の手間とコンピュータ能力を大幅に低減すること
ができるという効果を得る。
As described above, according to the present invention,
Since very fine three-dimensional image data can be expressed with a very small number of polygons, the effect of greatly reducing the labor and computer power required for completing the work can be obtained.

【0147】また、作成される三次元画像データのデー
タ量が非常に小さいため、伝送路を介してデータ伝送す
る際の負荷を軽減することができるという効果も得る。
また、この三次元画像データに基づいて三次元画像を表
示する際に必要となる処理時間を大幅に短縮することが
できるので、ユーザの視点を実時間的に切り換える必要
のある応用分野、例えば、自動車の進路を案内するため
のカーナビゲーションシステムの表示システム等に適用
することができるという効果も得る。
In addition, since the data amount of the created three-dimensional image data is very small, there is also obtained an effect that a load when data is transmitted through a transmission path can be reduced.
Further, since the processing time required for displaying a three-dimensional image based on the three-dimensional image data can be significantly reduced, an application field in which the viewpoint of the user needs to be switched in real time, for example, There is also obtained an advantage that the present invention can be applied to a display system of a car navigation system for guiding the route of a car.

【図面の簡単な説明】[Brief description of the drawings]

【図1】写真画像を三次元的空間のあらわれとしてとら
える場合のモデルの一例を示した概略図。
FIG. 1 is a schematic diagram showing an example of a model in a case where a photographic image is regarded as an appearance of a three-dimensional space.

【図2】写真画像を三次元的空間のあらわれとしてとら
える場合のモデルの一例を示した斜視図。
FIG. 2 is a perspective view showing an example of a model in a case where a photographic image is regarded as a three-dimensional space appearance.

【図3】写真画像の奥行き情報の捉え方を説明するため
の概略図。
FIG. 3 is a schematic diagram for explaining how to capture depth information of a photographic image.

【図4】写真画像の奥行き情報の捉え方を説明するため
の概略図。
FIG. 4 is a schematic diagram for explaining how to capture depth information of a photographic image.

【図5】図2の三次元空間の補正について説明するため
の斜視図。
FIG. 5 is a perspective view for explaining correction of the three-dimensional space in FIG. 2;

【図6】窓のある室内から、窓を見越した風景が写って
いる写真画像の一例を示した概略図。
FIG. 6 is a schematic diagram showing an example of a photographic image in which a scene in anticipation of a window is taken from a room with a window.

【図7】窓を斜め方向から見るようにユーザのビュー視
点を切り換えるときに得られるビュー画面の一例を示し
た概略図。
FIG. 7 is a schematic diagram showing an example of a view screen obtained when a user's view viewpoint is switched so that a window is viewed from an oblique direction.

【図8】図6の写真画像が撮影された現実世界の状況を
説明するための概略図。
FIG. 8 is a schematic diagram for explaining a situation in the real world where the photographic image of FIG. 6 is taken;

【図9】窓WWで切り取られる枠の内部の画像(風景)
の距離を、適当な遠距離(例えば、窓WWからの距離L
L)に設定した場合のビュー画面の一例を示した概略
図。
FIG. 9 is an image (landscape) inside a frame cut out by a window WW.
Is set to an appropriate long distance (for example, the distance L from the window WW).
The schematic diagram showing an example of the view screen when it is set to L).

【図10】本発明の一実施例にかかる三次元画像データ
作成方法の手順の一例を示したフローチャート。
FIG. 10 is a flowchart illustrating an example of a procedure of a three-dimensional image data creating method according to an embodiment of the present invention.

【図11】原画像の一例を示した概略図。FIG. 11 is a schematic view showing an example of an original image.

【図12】原画像の修正例を示した概略図。FIG. 12 is a schematic diagram showing an example of correction of an original image.

【図13】第1の画像データの一例を示した概略図。FIG. 13 is a schematic diagram showing an example of first image data.

【図14】第2の画像データの一例を示した概略図。FIG. 14 is a schematic diagram showing an example of second image data.

【図15】マイラー紙に加筆した拡大画像の枠線、水平
線、および、クロス線の一例を示した概略図。
FIG. 15 is a schematic diagram illustrating an example of a frame line, a horizontal line, and a cross line of an enlarged image added to Mylar paper.

【図16】拡大画像の底面に当たる部分の閉矩形線の一
例を示した概略図。
FIG. 16 is a schematic diagram illustrating an example of a closed rectangular line corresponding to a bottom surface of an enlarged image.

【図17】分割点の加筆の一例を示した概略図。FIG. 17 is a schematic diagram showing an example of adding a division point.

【図18】分割点を通る閉矩形線の加筆の一例を示した
概略図。
FIG. 18 is a schematic diagram showing an example of adding a closed rectangular line passing through a division point.

【図19】放射状線の加筆の一例を示した概略図。FIG. 19 is a schematic view showing an example of rewriting of a radial line.

【図20】Z座標値の算出方法を説明するための概略
図。
FIG. 20 is a schematic diagram for explaining a method of calculating a Z coordinate value.

【図21】z値の修正について説明するための概略図。FIG. 21 is a schematic diagram for explaining correction of a z value.

【図22】メッシュオブジェクトの一例を示した概略
図。
FIG. 22 is a schematic diagram showing an example of a mesh object.

【図23】メッシュオブジェクトに画像データを合成
(レンダリング)した状態の三次元画像データの一例を
示した概略図。
FIG. 23 is a schematic diagram showing an example of three-dimensional image data in a state where image data is combined (rendered) with a mesh object.

【図24】メッシュオブジェクトに画像データを合成
(レンダリング)した状態の三次元画像データの他の例
を示した概略図。
FIG. 24 is a schematic diagram showing another example of three-dimensional image data in a state where image data is combined (rendered) with a mesh object.

【図25】メッシュオブジェクト拡大補正処理により補
正されたメッシュオブジェクトの一例を示した概略図。
FIG. 25 is a schematic diagram showing an example of a mesh object corrected by the mesh object enlargement correction process.

【図26】メッシュオブジェクト拡大補正処理の一例を
示したフローチャート。
FIG. 26 is a flowchart illustrating an example of a mesh object enlargement correction process.

【図27】選択された閉矩形線の一例を示した概略図。FIG. 27 is a schematic view showing an example of a selected closed rectangular line.

【図28】図形の領域分割について説明するための概略
図。
FIG. 28 is a schematic diagram for explaining area division of a graphic.

【図29】図形の領域分割について説明するための概略
図。
FIG. 29 is a schematic diagram for explaining area division of a figure.

【図30】1つの頂点についての座標情報の一例を示し
た概略図。
FIG. 30 is a schematic diagram showing an example of coordinate information about one vertex.

【図31】隠れ図形補正処理の一例の一部を示したフロ
ーチャート。
FIG. 31 is a flowchart illustrating a part of an example of a hidden figure correction process;

【図32】隠れ図形補正処理の一例の他の部分を示した
フローチャート。
FIG. 32 is a flowchart showing another example of the hidden figure correction process.

【図33】隠れ図形補正処理での座標変換について説明
するための第1の概略図。
FIG. 33 is a first schematic diagram for describing coordinate transformation in hidden figure correction processing.

【図34】隠れ図形補正処理での座標変換について説明
するための第2の概略図。
FIG. 34 is a second schematic diagram for describing coordinate conversion in hidden figure correction processing.

【図35】隠れ図形補正処理での座標変換について説明
するための第3の概略図。
FIG. 35 is a third schematic diagram for describing coordinate conversion in hidden figure correction processing.

【図36】隠れ図形補正処理での座標変換について説明
するための第4の概略図。
FIG. 36 is a fourth schematic diagram for describing coordinate conversion in hidden figure correction processing.

【図37】三次元画像データ作成方法の他の手順を示す
フローチャート。
FIG. 37 is a flowchart showing another procedure of the three-dimensional image data creating method.

【図38】三次元画像データ作成方法のさらに他の手順
を示すフローチャート。
FIG. 38 is a flowchart showing still another procedure of the three-dimensional image data creating method.

【図39】本発明の他の実施例にかかる隠れ図形補正処
理を適用する写真画像およびメッシュオブジェクトの一
例を示した概略図。
FIG. 39 is a schematic diagram showing an example of a photographic image and a mesh object to which hidden figure correction processing according to another embodiment of the present invention is applied.

【図40】メッシュオブジェクトの底面に平行な成分の
一例を示した概略図。
FIG. 40 is a schematic diagram showing an example of a component parallel to the bottom surface of the mesh object.

【図41】メッシュオブジェクトの天井に平行な成分の
一例を示した概略図。
FIG. 41 is a schematic view showing an example of a component parallel to the ceiling of the mesh object.

【図42】メッシュオブジェクトの地面に平行な成分の
一例を示した概略図。
FIG. 42 is a schematic diagram showing an example of a component parallel to the ground of the mesh object.

【図43】メッシュオブジェクトの左壁に平行な成分の
一例を示した概略図。
FIG. 43 is a schematic view showing an example of a component parallel to the left wall of the mesh object.

【図44】メッシュオブジェクトの右壁に平行な成分の
一例を示した概略図。
FIG. 44 is a schematic view showing an example of a component parallel to the right wall of the mesh object.

【図45】図39の写真画像が得られた室内で、底面を
垂直に見たときに得られる写真画像の一例を示した概略
図。
FIG. 45 is a schematic diagram showing an example of a photographic image obtained when the bottom surface is viewed vertically in a room where the photographic image of FIG. 39 is obtained.

【図46】図39の写真画像が得られた室内で、天井を
垂直に見たときに得られる写真画像の一例を示した概略
図。
46 is a schematic diagram showing an example of a photographic image obtained when the ceiling is viewed vertically in a room where the photographic image of FIG. 39 is obtained.

【図47】図39の写真画像が得られた室内で、地面を
垂直に見たときに得られる写真画像の一例を示した概略
図。
47 is a schematic diagram showing an example of a photographic image obtained when the ground is viewed vertically in a room where the photographic image of FIG. 39 is obtained.

【図48】図39の写真画像が得られた室内で、左壁を
垂直に見たときに得られる写真画像の一例を示した概略
図。
FIG. 48 is a schematic diagram showing an example of a photographic image obtained when the left wall is viewed vertically in a room where the photographic image of FIG. 39 is obtained.

【図49】図39の写真画像が得られた室内で、右壁を
垂直に見たときに得られる写真画像の一例を示した概略
図。
49 is a schematic diagram showing an example of a photographic image obtained when the right wall is viewed vertically in a room where the photographic image of FIG. 39 is obtained.

【図50】本発明の他の実施例にかかる隠れ図形補正処
理の一例を示したフローチャート。
FIG. 50 is a flowchart illustrating an example of a hidden figure correction process according to another embodiment of the present invention.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 写真画像を所定ビット深さでカラー画像
読取し、 それによって得たカラー画像データを、所定倍率でカラ
ー画像として記録出力し、 それによって得たカラー拡大画像について、枠線、およ
び、写真の中心点を起点とする等距離の輪郭線を、1つ
以上、用紙に写し取り、 その枠線および輪郭線を写し取った用紙上に、上記中心
点を起点とする所定数の放射状の区画線を描き、 上記枠線、上記輪郭線および上記区画線からなるメッシ
ュ画像が描かれた上記用紙の画像を画像読取し、 それによって得たメッシュ画像データに、上記輪郭線の
距離情報を付加して、三次元ポリゴン立体データを形成
し、 上記三次元ポリゴン立体データにより構成される三次元
ポリゴン立体の内側に上記カラー画像データを貼り付け
る態様にマッピング処理して第1の三次元画像データを
得た後に、 上記第1の三次元画像データのおのおののポリゴンを形
成する頂点について、三次元座標情報を二次元座標情報
に変換する写像処理を行うとともに、その写像後に形成
されるポリゴンの変形に応じて上記第1の三次元画像デ
ータを変形してなる修正三次元画像データを作成し、 上記修正三次元画像データをレンダリング処理して第1
の修正画像データを作成し、 その第1の修正画像データに、少なくとも、上記写真画
像にはあらわれないがその写真画像にあらわれる物体で
隠蔽された物体の画像データを付加した第2の修正画像
データを作成し、 その作成した第2の修正画像データを上記修正三次元画
像データにマッピングして第2の修正三次元画像データ
を作成し、 その第2の修正三次元画像データのおのおののポリゴン
を形成する頂点の座標を、上記第1の三次元画像データ
と同じ値に写像変換するとともに、その写像変換後のポ
リゴンの変形に応じて上記第2の修正三次元画像データ
を変形して第2の三次元画像データを作成し、その第2
の三次元画像データを出力することを特徴とする三次元
画像データ作成方法。
A color image is read from a photographic image at a predetermined bit depth, and the color image data obtained thereby is recorded and output as a color image at a predetermined magnification. One or more equidistant contour lines starting from the center point of the photograph are copied on a sheet of paper, and a predetermined number of radial lines starting from the center point are printed on the sheet on which the frame lines and the contour lines are copied. Draw a dividing line, read an image of the paper on which the mesh image composed of the frame line, the contour line, and the dividing line is drawn, and add distance information of the contour line to mesh image data obtained thereby. Then, three-dimensional polygon three-dimensional data is formed, and the color image data is pasted inside the three-dimensional polygon three-dimensional data composed of the three-dimensional polygon three-dimensional data. After processing to obtain first three-dimensional image data, a mapping process for converting three-dimensional coordinate information into two-dimensional coordinate information is performed for vertices forming each polygon of the first three-dimensional image data. Generating modified three-dimensional image data by deforming the first three-dimensional image data in accordance with the deformation of a polygon formed after the mapping;
Second corrected image data obtained by adding at least image data of an object that does not appear in the photographic image but is hidden by an object appearing in the photographic image to the first corrected image data. Is created, and the created second corrected image data is mapped to the corrected three-dimensional image data to create second corrected three-dimensional image data. Each polygon of the second corrected three-dimensional image data is The coordinates of the vertices to be formed are transformed into the same values as the first three-dimensional image data, and the second modified three-dimensional image data is transformed according to the transformation of the polygon after the transformation. 3D image data of the second
A three-dimensional image data generating method for outputting the three-dimensional image data.
【請求項2】 前記写真画像を読み取って得たカラー画
像データは、前記三次元ポリゴン立体データには不要な
部分が修正削除されることを特徴とする請求項1記載の
三次元画像データ作成方法。
2. A method according to claim 1, wherein an unnecessary portion of the color image data obtained by reading the photographic image is corrected and deleted from the three-dimensional polygon three-dimensional data. .
【請求項3】 前記三次元ポリゴン立体データは、前記
輪郭線がそれぞれ略同一の二次元範囲を占めるように、
拡大処理されることを特徴とする請求項1または請求項
2記載の三次元画像データ作成方法。
3. The three-dimensional polygon three-dimensional data, wherein the contour lines occupy substantially the same two-dimensional range, respectively.
3. The three-dimensional image data creating method according to claim 1, wherein enlargement processing is performed.
【請求項4】 前記拡大処理後の三次元ポリゴン立体デ
ータの二次元方向の拡大率に応じて、前記マッピング処
理の前に、上記拡大処理前の三次元ポリゴン立体データ
に貼り付ける前記画像データを拡大処理することを特徴
とする請求項3記載の三次元画像データ作成方法。
4. The image data to be pasted on the three-dimensional polygon three-dimensional data before the enlargement processing according to a two-dimensional enlargement ratio of the three-dimensional polygon three-dimensional data after the enlargement processing before the mapping processing. 4. The method according to claim 3, wherein the enlargement process is performed.
【請求項5】 前記写真画像は、写真的技法により描か
れた絵画であることを特徴とする請求項1、請求項2、
請求項3、または、請求項4に記載の三次元画像データ
作成方法。
5. The method according to claim 1, wherein the photographic image is a painting drawn by a photographic technique.
The three-dimensional image data creation method according to claim 3 or claim 4.
【請求項6】 写真画像を所定ビット深さでカラー画像
読取し、 それによって得たカラー画像データを、所定倍率でカラ
ー画像として記録出力し、 それによって得たカラー拡大画像について、枠線、およ
び、写真の中心点を起点とする等距離の輪郭線を、1つ
以上、用紙に写し取り、 その枠線および輪郭線を写し取った用紙上に、上記中心
点を起点とする所定数の放射状の区画線を描き、 上記枠線、上記輪郭線および上記区画線からなるメッシ
ュ画像が描かれた上記用紙の画像を画像読取し、 それによって得たメッシュ画像データに、上記輪郭線の
距離情報を付加して、三次元ポリゴン立体データを形成
し、 上記三次元ポリゴン立体データにより構成される三次元
ポリゴン立体の内側に上記カラー画像データを貼り付け
る態様にマッピング処理して第1の三次元画像データを
得た後に、 上記第1の三次元画像データを適宜な数の平面に分割し
て複数の分割平面画像データを作成し、 おのおのの分割平面画像データをレンダリング処理して
対応する複数の第1の分割平面修正画像データを作成
し、 おのおのの第1の分割平面修正画像データに、少なくと
も、上記写真画像にはあらわれないがその写真画像にあ
らわれる物体で隠蔽された物体の画像データを付加して
なる複数の第2の分割平面修正画像データを作成し、 その複数の第2の分割平面修正画像データを、上記三次
元ポリゴン立体にマッピングしてなる三次元画像データ
を出力することを特徴とする三次元画像データ作成方
法。
6. A color image of a photographic image is read at a predetermined bit depth, and the obtained color image data is recorded and output as a color image at a predetermined magnification. One or more equidistant contour lines starting from the center point of the photograph are copied on a sheet of paper, and a predetermined number of radial lines starting from the center point are printed on the sheet on which the frame lines and the contour lines are copied. Draw a dividing line, read an image of the paper on which the mesh image composed of the frame line, the contour line, and the dividing line is drawn, and add distance information of the contour line to mesh image data obtained thereby. Then, three-dimensional polygon three-dimensional data is formed, and the color image data is pasted inside the three-dimensional polygon three-dimensional data composed of the three-dimensional polygon three-dimensional data. After processing to obtain the first three-dimensional image data, the first three-dimensional image data is divided into an appropriate number of planes to generate a plurality of divided plane image data, and each of the divided plane image data is Rendering processing is performed to create a plurality of first divided plane corrected image data, and each of the first divided plane corrected image data is hidden by at least an object that does not appear in the photographic image but appears in the photographic image. A plurality of second divided plane corrected image data is created by adding the image data of the divided object, and the plurality of second divided plane corrected image data are mapped to the three-dimensional polygon solid. A method for producing three-dimensional image data, comprising outputting image data.
【請求項7】 写真画像を所定ビット深さでカラー画像
読取し、 それによって得たカラー画像データを、所定倍率でカラ
ー画像として画面表示出力し、 それによって得たカラー拡大画像について、枠線、およ
び、写真の中心点を起点とする等距離の輪郭線を、1つ
以上、画面に記入し、 その枠線および輪郭線を記入した画面に、上記中心点を
起点とする所定数の放射状の区画線を描き、 上記枠線、上記輪郭線および上記区画線からなるメッシ
ュ画像が描かれた上記画面からメッシュ画像データを作
成し、 それによって得たメッシュ画像データに、上記輪郭線の
距離情報を付加して、三次元ポリゴン立体データを形成
し、 上記三次元ポリゴン立体データにより構成される三次元
ポリゴン立体の内側に上記カラー画像データを貼り付け
る態様にマッピング処理して第1の三次元画像データを
得た後に、 上記メッシュ画像のおのおののポリゴンを形成する頂点
について、三次元座標情報を二次元座標情報に変換する
写像処理を行うとともに、その写像後に形成されるポリ
ゴンの変形に応じて上記第1の三次元画像データを変形
してなる修正三次元画像データを作成し、 上記修正三次元画像データをレンダリング処理して第1
の修正画像データを作成し、 その第1の修正画像データに、少なくとも、上記写真画
像にはあらわれないがその写真画像にあらわれる物体で
隠蔽された物体の画像データを付加した第2の修正画像
データを作成し、 その作成した第2の修正画像データを上記修正三次元画
像データにマッピングして第2の修正三次元画像データ
を作成し、 その第2の修正三次元画像データのおのおののポリゴン
を形成する頂点の座標を、上記第1の三次元画像データ
と同じ値に写像変換するとともに、その写像変換後のポ
リゴンの変形に応じて上記第2の修正三次元画像データ
を変形して第2の三次元画像データを作成し、その第2
の三次元画像データを出力することを特徴とする三次元
画像データ作成方法。
7. A color image of a photographic image is read at a predetermined bit depth, and the obtained color image data is output on a screen as a color image at a predetermined magnification. Also, one or more equidistant outlines starting from the center point of the photograph are written on the screen, and a predetermined number of radial lines starting from the center point are written on the screen on which the frame lines and outlines are written. Draw a division line, create mesh image data from the screen on which the mesh image composed of the frame line, the contour line, and the division line is drawn, and add the distance information of the contour line to the mesh image data obtained thereby. In addition, three-dimensional polygon three-dimensional data is formed, and the color image data is pasted inside the three-dimensional polygon three-dimensional data constituted by the three-dimensional polygon three-dimensional data. After obtaining the first three-dimensional image data by performing the mapping process, the vertex forming each polygon of the mesh image is subjected to a mapping process of converting the three-dimensional coordinate information into the two-dimensional coordinate information. Modified three-dimensional image data is generated by deforming the first three-dimensional image data in accordance with the deformation of the polygon to be formed.
Second corrected image data obtained by adding at least image data of an object that does not appear in the photographic image but is hidden by an object appearing in the photographic image to the first corrected image data. Is created, and the created second corrected image data is mapped to the corrected three-dimensional image data to create second corrected three-dimensional image data. Each polygon of the second corrected three-dimensional image data is The coordinates of the vertices to be formed are transformed into the same values as the first three-dimensional image data, and the second modified three-dimensional image data is transformed according to the transformation of the polygon after the transformation. 3D image data of the second
A three-dimensional image data generating method for outputting the three-dimensional image data.
【請求項8】 前記写真画像は、所定の三次元画像デー
タを所定方向からレンダリング処理して得られる画像を
用いることを特徴とする請求項1、請求項6、または、
請求項7に記載の三次元画像データ作成方法。
8. The photograph image according to claim 1, wherein an image obtained by rendering predetermined three-dimensional image data from a predetermined direction is used as the photographic image.
The three-dimensional image data creation method according to claim 7.
JP13159197A 1997-05-07 1997-05-07 3D image data creation method Expired - Lifetime JP3067097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13159197A JP3067097B2 (en) 1997-05-07 1997-05-07 3D image data creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13159197A JP3067097B2 (en) 1997-05-07 1997-05-07 3D image data creation method

Publications (2)

Publication Number Publication Date
JPH10307926A true JPH10307926A (en) 1998-11-17
JP3067097B2 JP3067097B2 (en) 2000-07-17

Family

ID=15061643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13159197A Expired - Lifetime JP3067097B2 (en) 1997-05-07 1997-05-07 3D image data creation method

Country Status (1)

Country Link
JP (1) JP3067097B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222726A (en) * 1999-12-22 2001-08-17 Lucent Technol Inc Method and device for image processing
KR100937795B1 (en) * 2007-04-30 2010-01-20 (주) 코이시스 Treatment method for shaping of 3 dimension image using computer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222726A (en) * 1999-12-22 2001-08-17 Lucent Technol Inc Method and device for image processing
KR100937795B1 (en) * 2007-04-30 2010-01-20 (주) 코이시스 Treatment method for shaping of 3 dimension image using computer

Also Published As

Publication number Publication date
JP3067097B2 (en) 2000-07-17

Similar Documents

Publication Publication Date Title
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
EP0950988B1 (en) Three-Dimensional image generating apparatus
JP3184327B2 (en) Three-dimensional graphics processing method and apparatus
US7583264B2 (en) Apparatus and program for image generation
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JPH0757117A (en) Forming method of index to texture map and computer control display system
JP3626144B2 (en) Method and program for generating 2D image of cartoon expression from 3D object data
TWI406186B (en) 2d editing metaphor for 3d graphics
JP2001501349A (en) Method and apparatus for attribute interpolation in 3D graphics
JPH06231275A (en) Picture simulation method
US7167173B2 (en) Method and structure for image-based object editing
JP2007220049A (en) Image-based protruded displacement mapping method and bi-layered displacement mapping method using the same
WO2002013144A1 (en) 3d facial modeling system and modeling method
JPH09185712A (en) Three-dimensional image data generating method
JP2832463B2 (en) 3D model reconstruction method and display method
JP3067097B2 (en) 3D image data creation method
CN114972612B (en) Image texture generation method based on three-dimensional simplified model and related equipment
JP2003233836A (en) Image processor for conducting rendering shading processing by using distance component in modeling and its method
JP3116019B2 (en) 3D image data creation method and 3D color image display method
JP3850080B2 (en) Image generation and display device
JP3002972B2 (en) 3D image processing device
CN114638926A (en) Three-dimensional scene automatic generation system and method
CN115311395A (en) Three-dimensional scene rendering method, device and equipment
JP3261832B2 (en) Image generation device
JPH1027268A (en) Image processing method and image processor

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080519

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term