JP2008084302A - Drawing device, drawing method, and drawing program - Google Patents

Drawing device, drawing method, and drawing program Download PDF

Info

Publication number
JP2008084302A
JP2008084302A JP2007210889A JP2007210889A JP2008084302A JP 2008084302 A JP2008084302 A JP 2008084302A JP 2007210889 A JP2007210889 A JP 2007210889A JP 2007210889 A JP2007210889 A JP 2007210889A JP 2008084302 A JP2008084302 A JP 2008084302A
Authority
JP
Japan
Prior art keywords
wavelet
image
mipmap
order
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007210889A
Other languages
Japanese (ja)
Other versions
JP5004717B2 (en
JP2008084302A5 (en
Inventor
Tadashi Kobayashi
忠司 小林
Akio Nishimura
明夫 西村
Yoshiyuki Mochizuki
義幸 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007210889A priority Critical patent/JP5004717B2/en
Publication of JP2008084302A publication Critical patent/JP2008084302A/en
Publication of JP2008084302A5 publication Critical patent/JP2008084302A5/ja
Application granted granted Critical
Publication of JP5004717B2 publication Critical patent/JP5004717B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drawing device in which data amount of data to be stored in a main memory is reduced, so that a required mipmap image at a mipmap level is generated and drawn on a polygon image without the band congestion of the main memory connected to the drawing device, even when a texture which is a moving image is used. <P>SOLUTION: The drawing device according to the present invention includes: a wavelet transform unit for transforming an original image into wavelet coefficients using a Harr wavelet transform formula; a level obtaining unit for obtaining a mipmap level of a mipmap image; an inverse wavelet transform unit for receiving at least a portion of the wavelet coefficients, to an inverse transform until an order having a value equal to the mipmap level is obtained, and outputting an image represented by at least a portion of a low-frequency component of wavelet coefficients having the order having the value equal to the mipmap level; and a polygon drawing unit for drawing the image output by the inverse wavelet transform unit, as a mipmap image, on the polygon image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、描画装置、描画方法、および描画プログラムに関し、より特定的には、3次元コンピュータグラフィックスにおける表示物体表面のテクスチャ画像であるミップマップ画像をポリゴン画像に描画する描画装置、描画方法、および描画プログラムに関するものである。   The present invention relates to a drawing apparatus, a drawing method, and a drawing program, and more specifically, a drawing apparatus, a drawing method, and a drawing method for drawing a mipmap image that is a texture image of a display object surface in three-dimensional computer graphics on a polygon image. And a drawing program.

従来、3次元コンピュータグラフィックスの手法のひとつとして、立体を構成するポリゴン画像にテクスチャ画像を描画するテクスチャマッピングという手法が知られている。テクスチャ画像とは、表示物体表面の模様を表した画像である。   Conventionally, as one of three-dimensional computer graphics techniques, a technique called texture mapping is known in which a texture image is drawn on a polygon image forming a solid. A texture image is an image representing a pattern on the surface of a display object.

3次元コンピュータグラフィックスにおいて、立体は「ポリゴン画像」と呼ばれる平面多角形(一般的に3角形に限定することが多い)の画像の集合によって構成される。ポリゴン画像は、「ワールド座標」と呼ばれる3次元座標系によって定義されている。立体が表示部(例えばLCDモニタなど)で表示される際には、幾何変換処理が施され、当該立体に定義された「ワールド座標」が「スクリーン座標」と呼ばれる2次元座標系に変換される。スクリーン座標とは、表示画面の左上端点の座標を(0、0)とする2次元座標系である。例えば表示部が横1920画素、縦1080画素の表示デバイスで構成される場合、スクリーン座標の値は(0、0)から(1919、1079)の間の数値を取り得ることとなる。テクスチャの原画像の一例と、スクリーン座標に変換されたポリゴン画像の一例とを図17に示す。図17(a)は、スクリーン座標に変換されたポリゴン画像の一例を示す図である。図17(b)は、テクスチャの原画像の一例を示す図である。図17(a)において、As、Bs、Csはポリゴン画像の各頂点を示す点である。各頂点のスクリーン座標は、As(Xa、Ya)、Bs(Xb、Yb)、Cs(Xc、Yc)となる。なお、図17(a)に示すように、各頂点には、スクリーン座標以外に、後述するテクスチャ座標も示されている。   In 3D computer graphics, a solid is composed of a set of images of planar polygons (generally limited to triangles) called “polygon images”. The polygon image is defined by a three-dimensional coordinate system called “world coordinates”. When a solid is displayed on a display unit (such as an LCD monitor), a geometric transformation process is performed, and the “world coordinates” defined for the solid are converted into a two-dimensional coordinate system called “screen coordinates”. . The screen coordinates are a two-dimensional coordinate system in which the coordinates of the upper left point of the display screen are (0, 0). For example, when the display unit is configured by a display device having 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction, the value of the screen coordinates can take a numerical value between (0, 0) and (1919, 1079). FIG. 17 shows an example of an original texture image and an example of a polygon image converted into screen coordinates. FIG. 17A is a diagram illustrating an example of a polygon image converted into screen coordinates. FIG. 17B is a diagram illustrating an example of an original texture image. In FIG. 17A, As, Bs, and Cs are points indicating each vertex of the polygon image. The screen coordinates of each vertex are As (Xa, Ya), Bs (Xb, Yb), and Cs (Xc, Yc). As shown in FIG. 17A, each vertex also has texture coordinates, which will be described later, in addition to the screen coordinates.

テクスチャマッピングでは、テクスチャの原画像と、その原画像内の場所を示す2つの数値(テクスチャ座標)とを用いて処理が行われる。図17(b)において、テクスチャの原画像のサイズが例えば縦横双方とも1024画素であった場合、テクスチャ座標の値は(0、0)から(1023、1023)の間の数値を取り得ることとなる。ここで、ポリゴン画像の頂点Asに対応するテクスチャ座標上の点をAt(Ua、Va)と、頂点Bsに対応するテクスチャ座標上の点をBt(Ub、Vb)と、頂点Csに対応するテクスチャ座標上の点をCt(Uc、Vc)とする。このとき、AtからAsへ、BtからBsへ、CtからCsへの写像によってテクスチャマッピングが行われる。なおこの場合、頂点As〜Csからなるポリゴン画像の形状と、頂点At〜Ctからなるテクスチャの原画像内の形状とを比較すると、ポリゴン画像の方が小さい。したがって、テクスチャの原画像は、上述したテクスチャマッピングによって縮小されることとなる。   In texture mapping, processing is performed using a texture original image and two numerical values (texture coordinates) indicating a location in the original image. In FIG. 17B, when the size of the texture original image is, for example, 1024 pixels both vertically and horizontally, the value of the texture coordinate can take a value between (0, 0) and (1023, 1023). Become. Here, a point on the texture coordinates corresponding to the vertex As of the polygon image is At (Ua, Va), a point on the texture coordinates corresponding to the vertex Bs is Bt (Ub, Vb), and a texture corresponding to the vertex Cs. Let the point on the coordinates be Ct (Uc, Vc). At this time, texture mapping is performed by mapping from At to As, from Bt to Bs, and from Ct to Cs. In this case, when the shape of the polygon image composed of the vertices As to Cs is compared with the shape in the texture original image composed of the vertices At to Ct, the polygon image is smaller. Therefore, the texture original image is reduced by the texture mapping described above.

しかしながら、テクスチャの原画像が縮小して処理される場合、画像縮小処理や音声のダウンサンプル処理と同様の折り返しノイズが発生するという問題があった。そこで、この問題を回避すべく、「ミップマップ画像」を用いる手法が提案されている(例えば、非特許文献1参照)。ミップマップ画像は、図18に示すように、テクスチャの原画像をミップマップレベル毎に縮小して生成された画像である。図18は、ミップマップ画像の一例を示す図である。図18(a)は、テクスチャの原画像の一例を示す図である。図18(b)は、ミップマップレベル1のミップマップ画像を示す図である。図18(c)は、ミップマップレベル2のミップマップ画像を示す図である。図18(d)は、ミップマップレベル3のミップマップ画像を示す図である。図18(e)は、ミップマップレベル4のミップマップ画像を示す図である。図18(a)〜(e)に示す枠内の数値は、輝度の値を示している。ミップマップレベル1のミップマップ画像は、テクスチャの原画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像である。ミップマップレベル2〜4のミップマップ画像も同様に、1つ前のレベルの画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像となる。   However, when the texture original image is reduced and processed, there is a problem that aliasing noise similar to the image reduction processing and the audio down-sampling processing occurs. In order to avoid this problem, a method using a “mipmap image” has been proposed (see, for example, Non-Patent Document 1). As shown in FIG. 18, the mipmap image is an image generated by reducing the original texture image for each mipmap level. FIG. 18 is a diagram illustrating an example of a mipmap image. FIG. 18A is a diagram illustrating an example of an original texture image. FIG. 18B is a diagram showing a mipmap image at the mipmap level 1. FIG. 18C is a diagram showing a mipmap image at mipmap level 2. FIG. 18D is a diagram showing a mipmap image at the mipmap level 3. FIG. 18E is a diagram showing a mipmap image at the mipmap level 4. Numerical values in the frames shown in FIGS. 18A to 18E indicate luminance values. The mipmap image at the mipmap level 1 is an image reduced by ½ in the vertical and horizontal directions with respect to the texture original image. Similarly, the mipmap images at the mipmap levels 2 to 4 are images reduced by ½ in the vertical and horizontal directions with respect to the image at the previous level.

以下、ミップマップ画像の生成方法について具体的に説明する。ミップマップレベル1のミップマップ画像を生成する場合、テクスチャの原画像の近傍4画素が有する輝度の平均をとる。図18(a)に示す原画像において(U0、V0)の輝度32と、(U0、V1)の輝度40と、(U1、V0)の輝度32と、(U1、V1)の輝度40とを平均すると、輝度は36となる。この輝度36が、図18(b)に示すミップマップレベル1のミップマップ画像における(U0、V0)の輝度の値となる。同様に、原画像における(U2、V0)、(U2、V1)、(U3、V0)、および(U3、V1)の輝度の平均をとった値が、ミップマップレベル1のミップマップ画像における(U1、V0)の輝度の値となる。このようにして、1つ前のミップマップレベルのミップマップ画像の近傍4画素が有する輝度の平均をとることで、各ミップマップレベルのミップマップ画像が生成される。また、近傍4画素の平均をとってミップマップ画像を生成することで、低域通過フィルタを作用させることができ、上述した折り返しノイズを発生させないようにすることができる。   Hereinafter, a method for generating a mipmap image will be described in detail. When a mipmap image of mipmap level 1 is generated, the average luminance of the four pixels in the vicinity of the texture original image is taken. In the original image shown in FIG. 18A, a luminance 32 of (U0, V0), a luminance 40 of (U0, V1), a luminance 32 of (U1, V0), and a luminance 40 of (U1, V1) are obtained. On average, the luminance is 36. This luminance 36 becomes the luminance value of (U0, V0) in the mipmap image at the mipmap level 1 shown in FIG. Similarly, the average value of the luminances of (U2, V0), (U2, V1), (U3, V0), and (U3, V1) in the original image is (( (U1, V0). In this way, the average of the luminance of the four neighboring pixels of the previous mipmap image at the previous mipmap level is taken to generate a mipmap image at each mipmap level. Also, by taking the average of the four neighboring pixels and generating the mipmap image, the low-pass filter can be actuated, and the above-described aliasing noise can be prevented from being generated.

以下、図19を参照して、上述したミップマップ画像を用いる手法を実現する従来の描画装置5について説明する。図19は、従来の描画装置5を構成する各ユニットを示す図である。描画装置5を構成する各ユニットは、内部バスを介してそれぞれ接続されている。各ユニットは、メモリI/F(メモリインターフェイス)57を経由してメインメモリ6にデータを書き込んだり、読み出したりすることによって処理を行っている。   Hereinafter, with reference to FIG. 19, a conventional drawing apparatus 5 that realizes the above-described technique using the mipmap image will be described. FIG. 19 is a diagram showing each unit constituting the conventional drawing apparatus 5. Each unit constituting the drawing device 5 is connected via an internal bus. Each unit performs processing by writing data to or reading data from the main memory 6 via a memory I / F (memory interface) 57.

ミップマップ生成部51は、静止画像であるテクスチャの原画像が記憶された記憶媒体(例えば、CD−ROMなど)から、CD−ROMドライブ(図示なし)などを用いて原画像を読み出す。ミップマップ生成部51は、上述した生成方法によって、読み出した原画像からミップマップレベルが1以上のミップマップ画像を生成する。生成された各ミップマップレベルのミップマップ画像は、メインメモリ6に書き込まれる。ポリゴン幾何変換部53は、ポリゴン画像に定義されたワールド座標をスクリーン座標に変換する。またポリゴン幾何変換部53は、ポリゴン画像上の点のスクリーン座標と、その点に対応する原画像上の点のテクスチャ座標とを比較して、原画像の縮小率を算出する。ポリゴン幾何変換部53は、算出した縮小率から、必要となるミップマップレベルを取得する。テクスチャ参照部52は、取得されたミップマップレベルとなるミップマップ画像をメインメモリ6から読み出し、ポリゴン描画部54に出力する。ポリゴン描画部54は、テクスチャ参照部52から出力されたミップマップ画像をポリゴン画像に描画する。ミップマップ画像が描画されたポリゴン画像は、メインメモリ6に書き込まれる。液晶パネル7は、ビデオコントローラ55に制御されて、ミップマップ画像が描画されたポリゴン画像を表示する。CPU56は上記各ユニットの処理を全体的に制御する。   The mipmap generation unit 51 reads an original image from a storage medium (for example, a CD-ROM) in which an original texture image as a still image is stored using a CD-ROM drive (not shown). The mipmap generation unit 51 generates a mipmap image having a mipmap level of 1 or more from the read original image by the generation method described above. The generated mipmap images at each mipmap level are written into the main memory 6. The polygon geometric conversion unit 53 converts world coordinates defined in the polygon image into screen coordinates. Further, the polygon geometric conversion unit 53 compares the screen coordinates of the point on the polygon image with the texture coordinates of the point on the original image corresponding to the point, and calculates the reduction ratio of the original image. The polygon geometric conversion unit 53 acquires a required mipmap level from the calculated reduction ratio. The texture reference unit 52 reads the acquired mipmap image at the mipmap level from the main memory 6 and outputs the read mipmap image to the polygon drawing unit 54. The polygon drawing unit 54 draws the mipmap image output from the texture reference unit 52 on the polygon image. The polygon image on which the mipmap image is drawn is written in the main memory 6. The liquid crystal panel 7 is controlled by the video controller 55 to display a polygon image on which the mipmap image is drawn. The CPU 56 controls the processing of each unit as a whole.

このように、従来の描画装置5は、多種類のミップマップ画像を生成して、描画装置5に接続されたメインメモリ6に記憶させ、必要となるミップマップ画像をメインメモリ6から読み出してポリゴン画像に描画している。
メイソン・ウー(Mason Woo)、外2名著、「ザ・オフィシャル・ガイド・トゥ・ラーニング・オープンジーエル、バージョン1.1(The Official Guide to Learning Opengl, Version 1.1)」、米国、アジソン・ウェスレイ(Addison-Wesley)、1997、p.339
As described above, the conventional drawing device 5 generates various types of mipmap images, stores them in the main memory 6 connected to the drawing device 5, reads out the necessary mipmap images from the main memory 6 and generates polygons. Draw on the image.
Mason Woo, two other authors, "The Official Guide to Learning Opengl, Version 1.1", Addison Wesley, USA -Wesley), 1997, p. 339

しかしながら、従来の描画装置5では、テクスチャマッピングを行うに際し、多種類のミップマップ画像を、描画装置5に接続されたメインメモリ6に記憶させる必要がある。また、多種類のミップマップ画像のデータ量は大量である。このため、大きな記憶容量を有するメインメモリ6が必要になるという課題があった。さらに、動画像のテクスチャ画像を用いる場合には、多種類のミップマップ画像をフレーム毎に生成してメインメモリ6に記憶させる必要がある。このため、動画像のテクスチャ画像を用いる場合には、メインメモリ6の帯域を圧迫してしまうという課題があった。   However, in the conventional drawing device 5, it is necessary to store various types of mipmap images in the main memory 6 connected to the drawing device 5 when performing texture mapping. Also, the data amount of many types of mipmap images is large. For this reason, there is a problem that the main memory 6 having a large storage capacity is required. Furthermore, when using a texture image of a moving image, it is necessary to generate many types of mipmap images for each frame and store them in the main memory 6. For this reason, when using a texture image of a moving image, there is a problem that the bandwidth of the main memory 6 is compressed.

それ故、本発明は、メインメモリに記憶させるべきデータ量を小さくし、動画像のテクスチャを用いる場合であっても描画装置に接続されたメインメモリの帯域を圧迫することなく、必要となるミップマップレベルのミップマップ画像を生成してポリゴン画像に描画することが可能な描画装置を提供することを目的とする。   Therefore, the present invention reduces the amount of data to be stored in the main memory, and even if moving image texture is used, the necessary mip is not required without squeezing the bandwidth of the main memory connected to the drawing device. An object of the present invention is to provide a drawing device capable of generating a map-level mipmap image and drawing it on a polygon image.

第1の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換部と、ミップマップ画像のミップマップレベルを取得するレベル取得部と、ウェーブレット変換部において変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、ウェーブレット逆変換部において出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画部と、を備える。   A first invention is a drawing apparatus that receives an original image of a texture, draws a mipmap image generated by reducing the original image on a polygon image, and uses the Harr wavelet transform formula to convert the original image into a wavelet A wavelet transform unit that converts to a coefficient, a level acquisition unit that acquires a mipmap level of a mipmap image, and receives at least a part of the wavelet coefficients converted by the wavelet transform unit, and mips it using a Harr wavelet inverse transform formula A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient that has the same order as the mipmap level by performing an inverse transform until the order has the same value as the map level, and a wavelet The image output in the inverse transform unit is the mipmap image And a polygon rendering unit which renders the polygon image by.

第2の発明は、上記第1の発明において、縦および横の画素数がそれぞれ2のN(Nは1以上の整数)乗となる画像ブロック単位で分割されて圧縮された原画像を受け取り、当該画像ブロック単位で原画像を伸張する伸張部をさらに備え、ウェーブレット変換部は、伸張部で伸張された原画像を画像ブロック単位でウェーブレット係数に変換することを特徴とする。なお、伸張部は、例えば、後述する実施形態に記載した動画デコーダ11や静止画デコーダ19での伸張処理を担う処理部に相当する。   A second invention receives the original image divided and compressed in image block units in which the number of vertical and horizontal pixels is N to the power of N (N is an integer of 1 or more) in the first invention, The image processing apparatus further includes an expansion unit that expands the original image in units of the image block, and the wavelet transform unit converts the original image expanded by the expansion unit into wavelet coefficients in units of image blocks. The decompressing unit corresponds to, for example, a processing unit that performs decompression processing in the moving image decoder 11 and the still image decoder 19 described in the embodiments described later.

第3の発明は、上記第2の発明において、ウェーブレット変換部において変換されたウェーブレット係数の次数がNと同じ値であることを特徴とする。   According to a third aspect, in the second aspect, the order of the wavelet coefficients converted by the wavelet conversion unit is the same value as N.

第4の発明は、上記第1の発明において、複数の原画像によって構成される動画像を受け取り、当該原画像を1つずつウェーブレット変換部に出力する動画像出力部をさらに備える。なお、動画像出力部は、例えば、後述する実施形態に記載した動画デコーダ11での出力処理を担う処理部に相当する。   According to a fourth aspect of the present invention, in the first aspect of the present invention further includes a moving image output unit that receives a moving image composed of a plurality of original images and outputs the original images one by one to the wavelet transform unit. Note that the moving image output unit corresponds to, for example, a processing unit that performs output processing in the moving picture decoder 11 described in an embodiment described later.

第5の発明は、上記第1の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応するウェーブレット係数のみを受け取り、逆変換を行うことによって、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体で表された画像を出力することを特徴とする。   In a fifth aspect based on the first aspect, the wavelet inverse transform unit corresponds to the entire low frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed in the wavelet transform unit. By receiving only the wavelet coefficients to be processed and performing inverse transformation, an image represented by the entire low-frequency component of the wavelet coefficients having the same order as the mipmap level is output.

第6の発明は、上記第1の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部に対応するウェーブレット係数のみを受け取り、逆変換を行うことによって、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部で表された画像を出力することを特徴とする。   In a sixth aspect based on the first aspect, the wavelet inverse transform unit includes a part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed by the wavelet transform unit. By receiving only the wavelet coefficient corresponding to, and performing inverse transformation, an image represented by a part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level is output.

第7の発明は、上記第6の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルよりも次数が高いウェーブレット係数の一部のみを受け取ることを特徴とする。   In a seventh aspect based on the sixth aspect, the wavelet inverse transform unit receives only a part of the wavelet coefficients having a higher order than the mipmap level among the wavelet coefficients transformed by the wavelet transform unit. And

第8の発明は、上記第7の発明において、ミップマップレベル取得部において取得されたミップマップレベルは、L(Lは0以上の整数)であり、ウェーブレット変換部は、(L+M(Mは1以上の整数))次のウェーブレット係数が得られるまで変換しており、ウェーブレット係数の低周波成分の一部で表された画像は、当該低周波成分全体で表された画像内における所定の座標値で位置が特定されており、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、(L+m(mは1以上M以下の整数))次のウェーブレット係数の高周波成分から、所定の座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次まで次数毎に受け取るとともに、(L+M)次のウェーブレット係数の低周波成分から、所定の座標値を2のM乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを受け取ることを特徴とする。   In an eighth aspect based on the seventh aspect, the mipmap level acquired by the mipmap level acquisition unit is L (L is an integer of 0 or more), and the wavelet transform unit is (L + M (M is 1). The above integer)) The image is converted until the next wavelet coefficient is obtained, and the image represented by a part of the low frequency component of the wavelet coefficient is a predetermined coordinate value in the image represented by the entire low frequency component. And the wavelet inverse transform unit determines a predetermined wavelet coefficient from the high-frequency component of the wavelet coefficient (L + m (m is an integer from 1 to M)) of the wavelet coefficients transformed by the wavelet transform unit. Only wavelet coefficients corresponding to coordinate values composed of integer values obtained by dividing the coordinate value by 2 to the power of m are obtained for each order from the (L + 1) th order to the (L + M) th order. Receiving with, and wherein the receiving only wavelet coefficients corresponding to the coordinate values consisting of an integer value of (L + M) results from the low-frequency component of the next wavelet coefficients, divided by 2 M squared predetermined coordinate value.

第9の発明は、上記第1の発明において、ウェーブレット逆変換部は、ミップマップレベルが整数ではない場合、受け取ったウェーブレット係数を当該ミップマップレベルの整数値と同じ値の次数となるまで逆変換することによって、整数値と同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像と、逆変換する過程で得られた整数値よりも次数が1つだけ高いウェーブレット係数の低周波成分の少なくとも一部で表された画像とを出力することを特徴とする。   In a ninth aspect based on the first aspect, when the mipmap level is not an integer, the wavelet inverse transformation unit inversely transforms the received wavelet coefficient until the order of the same value as the integer value of the mipmap level is reached. By doing so, the image represented by at least a part of the low-frequency component of the wavelet coefficient having the same order as the integer value, and the wavelet coefficient whose order is one higher than the integer value obtained in the inverse transformation process And an image represented by at least a part of the low-frequency component.

第10の発明は、上記第1の発明において、ウェーブレット変換部は、変換したウェーブレット係数のうち、高周波成分を圧縮することを特徴とする。   In a tenth aspect based on the first aspect, the wavelet transform unit compresses a high frequency component of the transformed wavelet coefficients.

第11の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画方法であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップと、を含む。   An eleventh aspect of the present invention is a drawing method for receiving a texture original image and drawing a mipmap image generated by reducing the original image on a polygon image. The drawing method uses a Harr wavelet transform formula to convert the original image into a wavelet. A wavelet transform step for transforming into coefficients, a level obtaining step for obtaining the mipmap level of the mipmap image, and receiving at least a part of the wavelet coefficients transformed in the wavelet transform step, and mips using the Harr wavelet inverse transform formula A wavelet inverse transform step that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient that has the same order as the mipmap level by performing an inverse transform until the order has the same value as the map level, and a wavelet In the inverse transformation step It includes a polygon drawing step of drawing the polygon image force image as mipmap image.

第12の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置をコンピュータに実現させるための描画プログラムであって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップとを、コンピュータに実現させるための描画プログラムである。   A twelfth aspect of the present invention is a drawing program for causing a computer to implement a drawing apparatus that receives an original texture image and draws a mipmap image generated by reducing the original image on a polygon image. A wavelet transform step for transforming the original image into wavelet coefficients using the transformation formula; a level acquisition step for obtaining a mipmap level of the mipmap image; and at least a part of the wavelet coefficients transformed in the wavelet transform step; Using the inverse wavelet transform formula, the inverse transform is performed until the order has the same value as the mipmap level, and an image represented by at least part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level is obtained. Output wavelet inverse transform And-up, and a polygon drawing step of drawing the polygon image as mipmap images images outputted in the inverse wavelet transform step, a drawing program for realizing on a computer.

第13の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示装置であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換部と、ウェーブレット変換部において変換されたウェーブレット係数を記憶する記憶部と、ミップマップ画像のミップマップレベルを取得するレベル取得部と、ウェーブレット係数の少なくとも一部を記憶部から受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、ウェーブレット逆変換部において出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画部と、ポリゴン描画部において描画されたポリゴン画像を表示する表示部と、を備える。   A thirteenth aspect of the invention is a display device that receives a texture original image and displays a polygon image on which a mipmap image generated by reducing the original image is drawn, and uses the Harr wavelet transform equation to display the original image. A wavelet conversion unit that converts an image into wavelet coefficients, a storage unit that stores wavelet coefficients converted by the wavelet conversion unit, a level acquisition unit that acquires a mipmap level of a mipmap image, and at least a part of the wavelet coefficients At least part of the low-frequency component of the wavelet coefficient that is received from the storage unit and inversely transformed using the Harr wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained. A wavelet inverse transform unit that outputs the image represented by It includes a polygon drawing unit for drawing a polygon image output image in over wavelet inverse transformation unit as a mipmap image, a display unit for displaying a polygon image drawn in the polygon drawing unit.

第14の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示方法であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数を記憶装置に記憶させる記憶ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット係数の少なくとも一部を記憶装置から受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップと、ポリゴン描画ステップにおいて描画されたポリゴン画像を表示する表示ステップと、を含む。   A fourteenth aspect of the invention is a display method for receiving a texture original image and displaying a polygon image on which a mipmap image generated by reducing the original image is drawn, using the Harr wavelet transform formula. A wavelet transform step for transforming the image into wavelet coefficients, a storage step for storing the wavelet coefficients transformed in the wavelet transform step in a storage device, a level acquisition step for obtaining a mipmap level of the mipmap image, and at least one of the wavelet coefficients A part is received from the storage device, and inversely transformed until the order of the same value as the mipmap level is obtained using the Harr wavelet inverse transformation formula, and the low-frequency component of the wavelet coefficient having the same order as the mipmap level is obtained. Image represented at least in part An output wavelet inverse transform step, a polygon rendering step for rendering the image output in the wavelet inverse transform step as a mipmap image on a polygon image, and a display step for displaying the polygon image rendered in the polygon rendering step .

上記第1の発明によれば、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換し、当該ウェーブレット係数を逆変換することで必要となるミップマップレベルのミップマップ画像を生成することができる。これにより、記憶させるべきデータをウェーブレット係数のみにすることができ、多種類のミップマップ画像を大量に記憶させることなく、必要となるミップマップレベルのミップマップ画像を生成することができる。また、記憶させるべきデータをウェーブレット係数のみにすることができるため、描画装置に接続されるべき記憶装置が必要とする記憶容量を小さくすることができる。また、テクスチャが動画像であっても、フレーム毎に生成される多種類のミップマップ画像を上記記憶装置に記憶させる必要がないため、記憶装置の帯域の圧迫を防ぐことができる。   According to the first aspect of the present invention, a mipmap image of a required mipmap level is generated by converting an original image into wavelet coefficients using a Harr wavelet transform formula and inversely transforming the wavelet coefficients. it can. As a result, the data to be stored can be only wavelet coefficients, and a necessary mipmap level mipmap image can be generated without storing a large amount of various types of mipmap images. In addition, since the data to be stored can be only wavelet coefficients, the storage capacity required for the storage device to be connected to the drawing device can be reduced. Further, even if the texture is a moving image, it is not necessary to store various types of mipmap images generated for each frame in the storage device, so that it is possible to prevent compression of the bandwidth of the storage device.

上記第2の発明によれば、例えばMPEGやJPEGなどによって画像ブロック単位で分割されて圧縮された原画像に対し、当該原画像を伸張する処理単位と、ウェーブレット係数に変換する処理単位とを一致させることができる。これにより、処理効率を向上させることができ、ミップマップ画像をより高速に生成することができる。   According to the second aspect of the invention, for an original image divided and compressed in image block units by, for example, MPEG or JPEG, the processing unit for expanding the original image and the processing unit for converting into wavelet coefficients are the same. Can be made. Thereby, processing efficiency can be improved and a mipmap image can be generated at a higher speed.

上記第3の発明によれば、画像ブロックの画素数に応じた種類のミップマップ画像を生成することができる。   According to the third aspect, a mipmap image of a type corresponding to the number of pixels of the image block can be generated.

上記第4の発明によれば、描画装置に接続されるべき記憶装置の帯域を圧迫することなく、動画像のテクスチャを用いた描画処理が可能となる。   According to the fourth aspect of the invention, it is possible to perform drawing processing using the texture of a moving image without squeezing the bandwidth of the storage device to be connected to the drawing device.

上記第5の発明によれば、ウェーブレット逆変換部が受け取るデータ量がさらに小さくなり、描画装置に接続されるべき記憶装置の帯域の圧迫をさらに抑えることができる。また、ウェーブレット逆変換部が受け取るデータ量が小さくなる分だけ、ミップマップ画像を生成するための演算量を小さくすることができる。   According to the fifth aspect, the amount of data received by the wavelet inverse transform unit is further reduced, and the compression of the bandwidth of the storage device to be connected to the drawing device can be further suppressed. In addition, the amount of calculation for generating the mipmap image can be reduced by the amount of data received by the inverse wavelet transform unit.

上記第6〜8の発明によれば、ウェーブレット逆変換部が受け取るデータ量がさらに小さくなり、描画装置に接続されるべき記憶装置の帯域の圧迫をさらに抑えることができる。また、ウェーブレット逆変換部が受け取るデータ量が小さくなる分だけ、ミップマップ画像を生成するための演算量を小さくすることができる。   According to the sixth to eighth aspects of the invention, the amount of data received by the wavelet inverse transform unit is further reduced, and the compression of the bandwidth of the storage device to be connected to the drawing device can be further suppressed. In addition, the amount of calculation for generating the mipmap image can be reduced by the amount of data received by the inverse wavelet transform unit.

上記第9の発明によれば、次数が異なる複数のウェーブレット係数の低周波成分、つまりミップマップレベルの異なる複数のミップマップ画像が、逆変換する過程で自動的に得られる。このため、上記第9の発明よれば、複数のミップマップ画像それぞれを一から生成する場合と比べて、複数のミップマップ画像をより高速に生成することができる。   According to the ninth aspect, low-frequency components of a plurality of wavelet coefficients having different orders, that is, a plurality of mipmap images having different mipmap levels are automatically obtained in the process of inverse transformation. Therefore, according to the ninth aspect, it is possible to generate a plurality of mipmap images at a higher speed than when generating each of the plurality of mipmap images from scratch.

上記第10の発明によれば、記憶させるべきデータ量をさらに小さくすることができる。その結果、描画装置に接続されるべき記憶装置が必要とする記憶容量をさらに小さくすることができる。   According to the tenth aspect, the amount of data to be stored can be further reduced. As a result, the storage capacity required by the storage device to be connected to the drawing device can be further reduced.

以下、本発明の実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明に係る描画装置1aを構成する各ユニットを示した図である。図1において、描画装置1aは、動画デコーダ11、ウェーブレット変換部12、ミップマップレベル取得部13、ウェーブレット逆変換部14、ポリゴン描画部15、ビデオコントローラ16、CPU17、およびメモリI/F(メモリインターフェイス)18を備える。描画装置1aは、メインメモリ2および液晶パネル3とそれぞれ接続されている。描画装置1aは、1チップのシステムLSIで構成される。メインメモリ2は、半導体メモリやハードディスクドライブなどで構成された記憶装置である。なお、本発明に係る表示装置は、描画装置1a、メインメモリ2、および液晶パネル3により構成されるものである。また、図1では、液晶パネル3を示したが、ポリゴン画像を表示することが可能なものであればよく、例えばPDPパネルであってもよい。また、以下の説明では、テクスチャとして動画像を用いた場合について説明する。   FIG. 1 is a diagram showing each unit constituting the drawing apparatus 1a according to the present invention. In FIG. 1, a drawing device 1a includes a moving picture decoder 11, a wavelet transform unit 12, a mipmap level acquisition unit 13, a wavelet inverse transform unit 14, a polygon drawing unit 15, a video controller 16, a CPU 17, and a memory I / F (memory interface). ) 18. The drawing device 1a is connected to the main memory 2 and the liquid crystal panel 3, respectively. The drawing apparatus 1a is composed of a one-chip system LSI. The main memory 2 is a storage device composed of a semiconductor memory or a hard disk drive. The display device according to the present invention includes the drawing device 1a, the main memory 2, and the liquid crystal panel 3. Moreover, although the liquid crystal panel 3 is shown in FIG. 1, any liquid crystal panel may be used as long as it can display a polygon image. For example, a PDP panel may be used. In the following description, a case where a moving image is used as a texture will be described.

描画装置1aを構成する各ユニットは、内部バスを介してそれぞれ接続されている。各ユニットは、メモリI/F18を経由してメインメモリ2にデータを書き込んだり、読み出したりすることによって処理を行っている。   Each unit constituting the drawing apparatus 1a is connected via an internal bus. Each unit performs processing by writing / reading data to / from the main memory 2 via the memory I / F 18.

動画デコーダ11は、MPEGなどで圧縮されたテクスチャの動画像データが記憶された記憶媒体(例えば、CD−ROMなど)から、動画像データをCD−ROMドライブ(図示なし)などを用いて読み出す。動画デコーダ11は、読み出した動画像データを伸張して、ウェーブレット変換部12に出力する。   The moving picture decoder 11 reads the moving image data from a storage medium (for example, a CD-ROM or the like) storing texture moving image data compressed by MPEG or the like using a CD-ROM drive (not shown) or the like. The moving picture decoder 11 expands the read moving image data and outputs it to the wavelet transform unit 12.

動画像データは、静止画像であるテクスチャの原画像1つを1フレームとし、当該フレームを複数集合させて構成されるデータである。図2に、1フレームに相当するテクスチャの原画像を示す。図2では、一例として、縦1088画素、横1920画素を有するテクスチャの原画像が示されている。   The moving image data is data composed of one texture original image that is a still image as one frame and a plurality of such frames. FIG. 2 shows an original texture image corresponding to one frame. In FIG. 2, as an example, an original texture image having 1088 vertical pixels and 1920 horizontal pixels is shown.

ここで、MPEGに代表される圧縮された動画像データの伸張処理は、一般的に横および縦の画素数がそれぞれ2のN乗(Nは1以上の整数)となる画像ブロック20(MPEGではマクロブロックと称す)単位で行われることが多い。より一般的には、画像ブロック20が有する総画素数は、8画素から256画素程度である。したがってここでは、画像ブロック20に分割されて圧縮された原画像で構成される動画像データが、記憶媒体などに予め記憶されているとする。また図2では、一例として画像ブロック20の縦および横の画素数をそれぞれ16画素としている。動画デコーダ11は、画像ブロック20単位で原画像を記憶媒体から読み出し、読み出した原画像を伸張するとする。このように、画像ブロック20単位で処理を行うことで、動画デコード11の伸張処理単位と、後述するウェーブレット変換部12の変換処理単位とが一致することとなる。その結果、処理効率が向上し、ミップマップ画像を高速に生成することができる。   Here, decompression processing of compressed moving image data typified by MPEG is generally an image block 20 (in MPEG, where the number of horizontal and vertical pixels is 2 to the Nth power (N is an integer of 1 or more). This is often performed in units of macroblocks). More generally, the total number of pixels that the image block 20 has is about 8 to 256 pixels. Therefore, here, it is assumed that moving image data including an original image divided into image blocks 20 and compressed is stored in advance in a storage medium or the like. In FIG. 2, for example, the number of vertical and horizontal pixels of the image block 20 is 16 pixels. The moving picture decoder 11 reads the original image from the storage medium in units of 20 image blocks, and expands the read original image. In this way, by performing the processing in units of the image block 20, the decompression processing unit of the moving picture decode 11 and the conversion processing unit of the wavelet transform unit 12 described later match. As a result, the processing efficiency is improved, and a mipmap image can be generated at high speed.

ウェーブレット変換部12は、Harrのウェーブレット変換式を用いて、画像ブロック20分の原画像をウェーブレット係数に変換する。変換されたウェーブレット係数は、メインメモリ2に書き込まれる。なお、変換されたウェーブレット係数や、ウェーブレット変換部12における変換処理については、後述にて詳細に説明する。   The wavelet transform unit 12 transforms the original image of the image block 20 into wavelet coefficients using the Harr wavelet transform formula. The converted wavelet coefficients are written in the main memory 2. The converted wavelet coefficients and the conversion process in the wavelet conversion unit 12 will be described in detail later.

ミップマップレベル取得部13は、記憶媒体(例えば、CD−ROMなど)に記憶されたポリゴン画像のデータを、CD−ROMドライブ(図示なし)などを用いて読み出す。ミップマップレベル取得部13は、ポリゴン画像に定義されたワールド座標をスクリーン座標に変換する。またミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。ここで縮小率とは、テクスチャの原画像に対して、縦および横方向にどれだけ縮小されたかを示す比率である。例えば、縦および横方向にそれぞれ1/2だけ縮小する場合、縮小率は1/2となる。なお、縮小率の算出方法については、公知の方法を用いるとし、ここでは詳細な説明を省略する。ミップマップレベル取得部13は、算出した縮小率から、必要となるミップマップレベルを取得する。   The mipmap level acquisition unit 13 reads polygon image data stored in a storage medium (for example, a CD-ROM) using a CD-ROM drive (not shown). The mipmap level acquisition unit 13 converts world coordinates defined in the polygon image into screen coordinates. Further, the mipmap level acquisition unit 13 compares the screen coordinates of the points on the polygon image with the texture coordinates of the points on the original image shown in FIG. The reduction ratio of the original image is calculated. Here, the reduction ratio is a ratio indicating how much the original image of the texture has been reduced in the vertical and horizontal directions. For example, when the vertical and horizontal directions are reduced by ½, the reduction ratio is ½. Note that a known method is used as a method for calculating the reduction ratio, and detailed description thereof is omitted here. The mipmap level acquisition unit 13 acquires a required mipmap level from the calculated reduction ratio.

以下、ミップマップレベルの取得方法について具体的に説明する。ミップマップレベル1のミップマップ画像は、上述したようにテクスチャの原画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像である。ミップマップレベル2のミップマップ画像は、テクスチャの原画像に対して縦および横方向にそれぞれ1/4だけ縮小された画像である。したがって、ミップマップレベル取得部13において算出した縮小率が1/4に近い場合、ミップマップレベル取得部13は、ミップマップレベル2のミップマップレベルを取得する。   Hereinafter, a method for obtaining the mipmap level will be described in detail. The mipmap image of the mipmap level 1 is an image reduced by ½ in the vertical and horizontal directions with respect to the texture original image as described above. The mipmap image at the mipmap level 2 is an image reduced by ¼ in the vertical and horizontal directions with respect to the texture original image. Therefore, when the reduction ratio calculated by the mipmap level acquisition unit 13 is close to ¼, the mipmap level acquisition unit 13 acquires the mipmap level of the mipmap level 2.

なお、より一般的には、算出される縮小率が1/P(Pは1以上の整数)の場合、ミップマップレベル取得部13で取得すべきミップマップレベルは、log2P(2を底とする対数)で求めることができる。log2Pの値が整数にならない場合、四捨五入した整数値をミップマップレベルとしてもよい。また、log2Pの値が整数にならない場合に、そのlog2Pの値を挟む2つのミップマップレベルをそれぞれ取得し、これらのレベルのミップマップ画像を混ぜ合わせるようにしてもよい。混ぜ合わせる比率としては、例えばlog2Pの値が2.3となる場合、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを7:3の比率で混ぜ合わせる。またミップマップレベル取得部13は、log2Pに特定の値を加減算するようにして、ミップマップレベルを取得するようにしてもよい。 More generally, when the calculated reduction ratio is 1 / P (P is an integer equal to or greater than 1), the mipmap level to be acquired by the mipmap level acquisition unit 13 is log 2 P (base 2). Logarithm). When the value of log 2 P does not become an integer, a rounded integer value may be used as the mipmap level. Further, when the log 2 P value does not become an integer, two mipmap levels sandwiching the log 2 P value may be acquired, and the mipmap images of these levels may be mixed. For example, when the log 2 P value is 2.3, the mipmap image at the mipmap level 2 and the mipmap image at the mipmap level 3 are mixed at a ratio of 7: 3. The mipmap level acquisition unit 13 may acquire the mipmap level by adding or subtracting a specific value to / from log 2 P.

なお、ミップマップレベル取得部13は、算出した縮小率からミップマップレベルを取得するとしたが、これに限定されない。ユーザが表示シーンの構成に応じて直接ミップマップレベルを指定し、ミップマップレベル取得部13は、ユーザによって指定されたミップマップレベルを取得するようにしてもよい。   Although the mipmap level acquisition unit 13 acquires the mipmap level from the calculated reduction ratio, the present invention is not limited to this. The user may directly specify the mipmap level according to the configuration of the display scene, and the mipmap level acquisition unit 13 may acquire the mipmap level specified by the user.

ウェーブレット逆変換部14は、ウェーブレット変換部12において変換されたウェーブレット係数をメインメモリ2から読み出す。ウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルと同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する。ウェーブレット逆変換部14は、逆変換して求めたウェーブレット係数の低周波成分で表された画像をポリゴン描画部15に出力する。ウェーブレット逆変換部14におけるウェーブレット逆変換処理については、後述にて詳細に説明する。   The wavelet inverse transformation unit 14 reads the wavelet coefficients transformed by the wavelet transformation unit 12 from the main memory 2. The wavelet inverse transformation unit 14 inversely transforms the read wavelet coefficients using the Harr wavelet inverse transformation formula until the order has the same value as the mipmap level. The wavelet inverse transformation unit 14 outputs an image represented by the low frequency component of the wavelet coefficient obtained by the inverse transformation to the polygon drawing unit 15. The wavelet inverse transform process in the wavelet inverse transform unit 14 will be described in detail later.

ポリゴン描画部15は、ウェーブレット逆変換部14から出力された画像をミップマップ画像としてポリゴン画像に描画する。具体的には、ポリゴン描画部15は、ポリゴン画像内の画素の輝度をその画素に対応するミップマップ画像上の画素の輝度としてポリゴン画像内全てについて求める。内部すべての画素の輝度が求められたポリゴン画像は、メインメモリ2に書き込まれる。   The polygon drawing unit 15 draws the image output from the wavelet inverse transformation unit 14 as a mipmap image on the polygon image. Specifically, the polygon drawing unit 15 obtains the luminance of the pixel in the polygon image as the luminance of the pixel on the mipmap image corresponding to the pixel for all of the polygon images. The polygon image for which the luminance of all the internal pixels is obtained is written in the main memory 2.

液晶パネル3は、ビデオコントローラ16に制御されて、ミップマップ画像が描画されたポリゴン画像を表示する。CPU17は、上記各ユニットの処理を全体的に制御する。   The liquid crystal panel 3 is controlled by the video controller 16 to display a polygon image on which a mipmap image is drawn. The CPU 17 controls the overall processing of each unit.

次に、図3を参照して、ウェーブレット変換部12におけるウェーブレット変換処理について詳細に説明する。図3は、ウェーブレット変換処理の流れを示したフローチャートである。   Next, the wavelet transform process in the wavelet transform unit 12 will be described in detail with reference to FIG. FIG. 3 is a flowchart showing the flow of wavelet transform processing.

ステップS101において、動画デコーダ11は、圧縮された原画像を画像ブロック20分だけ記憶媒体から読み出す。ステップS101の次に、動画デコーダ11は、読み出した原画像を伸張する(ステップS102)。図4に、伸張された1つの画像ブロック20分の原画像を示す。各枠は画素を表し、各枠内の数値は輝度を表している。なお、MPEGなどの動画像データに対応した動画デコーダ11は、一般的に、R、G、BまたはY、U、Vの3種類の輝度を画素ごとに出力する。しかしながら、ここでは説明を簡単にするために、図4では1種類の輝度のみを表している。   In step S101, the moving picture decoder 11 reads out the compressed original image from the storage medium for 20 image blocks. Following step S101, the moving picture decoder 11 expands the read original image (step S102). FIG. 4 shows an expanded original image of one image block 20 minutes. Each frame represents a pixel, and the numerical value in each frame represents luminance. Note that the moving picture decoder 11 corresponding to moving image data such as MPEG generally outputs three types of luminance of R, G, B or Y, U, V for each pixel. However, in order to simplify the explanation here, only one type of luminance is shown in FIG.

ステップS102の次に、ウェーブレット変換部12は、Harrのウェーブレット変換式を用いて、画像ブロック20分の原画像をウェーブレット係数に変換する(ステップS103)。本発明に用いるHarrのウェーブレット変換式を式(1)〜(4)に示す。
a=(A+B+C+D)/4 …(1)
b=(A−B+C−D)/4 …(2)
c=(A+B−C−D)/4 …(3)
d=(A−B−C+D)/4 …(4)
上式(1)〜(4)において、aをウェーブレット係数の低周波成分、b、c、dをウェーブレット係数の高周波成分と称す。また、A、B、C、Dは、近傍4画素の輝度を示す。
After step S102, the wavelet transform unit 12 transforms the original image of the image block 20 into wavelet coefficients using the Harr wavelet transform formula (step S103). The Harr wavelet transform equations used in the present invention are shown in equations (1) to (4).
a = (A + B + C + D) / 4 (1)
b = (A−B + C−D) / 4 (2)
c = (A + B−C−D) / 4 (3)
d = (A−B−C + D) / 4 (4)
In the above formulas (1) to (4), a is referred to as a low-frequency component of a wavelet coefficient, and b, c, and d are referred to as high-frequency components of a wavelet coefficient. A, B, C, and D indicate the luminance of neighboring four pixels.

以下、一例として図4の左上端にある4画素をウェーブレット変換する場合について考える。左上端にある4画素のうち、(U0、V0)の輝度がA、(U1、V0)の輝度がB、(U0、V1)の輝度がC、(U1、V1)の輝度がDとなる。これらA〜Dが示す輝度は、A=32、B=32、C=40、D=40である。またこれらA〜Dの輝度を式(1)〜式(4)に代入すると、a=36、b=0、c=−4、d=0となる。   Hereinafter, as an example, consider the case where wavelet transform is performed on the four pixels at the upper left corner of FIG. Of the four pixels at the upper left corner, the luminance of (U0, V0) is A, the luminance of (U1, V0) is B, the luminance of (U0, V1) is C, and the luminance of (U1, V1) is D. . The luminances A to D are A = 32, B = 32, C = 40, and D = 40. When the luminances A to D are substituted into the equations (1) to (4), a = 36, b = 0, c = -4, and d = 0.

得られたa〜dの値は、図5に示す位置に配置される。図5は、1次のウェーブレット係数を示す図である。図5に示すように、aは(U0、V0)に、bは(U8、V0)に、cは(U0、V8)に、dは(U8、V8)にそれぞれ配置される。このような処理を画像ブロック20全ての画素について、図4の左上端から4画素ずつ処理していくことで、最終的に図5に示したウェーブレット係数が得られる。以上の処理が1次のウェーブレット変換処理となり、図5に示したウェーブレット係数が1次のウェーブレット係数となる。なお、1次のウェーブレット係数は、図5に示すように、低周波成分であるa、高周波成分であるb、c、dの領域に区分されることとなる。   The obtained values of a to d are arranged at the positions shown in FIG. FIG. 5 is a diagram illustrating first-order wavelet coefficients. As shown in FIG. 5, a is arranged at (U0, V0), b is arranged at (U8, V0), c is arranged at (U0, V8), and d is arranged at (U8, V8). By performing such processing for all the pixels of the image block 20 by four pixels from the upper left end of FIG. 4, the wavelet coefficients shown in FIG. 5 are finally obtained. The above processing becomes the primary wavelet transform processing, and the wavelet coefficients shown in FIG. 5 become the primary wavelet coefficients. As shown in FIG. 5, the primary wavelet coefficients are divided into regions of a that are low frequency components and b, c, and d that are high frequency components.

次に、ウェーブレット変換部12は、1次のウェーブレット係数の低周波成分aに対して、式(1)〜式(4)を用いて1次と同様のウェーブレット変換処理を行う。この処理によって算出されたウェーブレット係数が2次のウェーブレット係数となる。このように2次以降は、低周波成分に対してウェーブレット変換処理を行っていく。図6は、4次まで変換されたときのウェーブレット係数を示した図である。図6の31は、1次のウェーブレット係数の高周波成分を示す。図6の32は、2次のウェーブレット係数の高周波成分を示す。図6の33は、3次のウェーブレット係数の高周波成分を示す。図6の34は、4次のウェーブレット係数の高周波成分を示す。図6の35は、4次のウェーブレット係数の低周波成分を示す。なお、4次のウェーブレット係数の低周波成分35は、1つの画素しか有しない。したがって、縦および横の画素数がそれぞれ16画素となる画像ブロック20にあっては、4次より高次のウェーブレット変換処理を行うことはできない。   Next, the wavelet transform unit 12 performs a wavelet transform process similar to the primary using the equations (1) to (4) for the low-frequency component a of the primary wavelet coefficient. The wavelet coefficient calculated by this processing becomes a secondary wavelet coefficient. Thus, after the second order, wavelet transform processing is performed on the low frequency components. FIG. 6 is a diagram showing wavelet coefficients when converted up to the fourth order. Reference numeral 31 in FIG. 6 indicates a high-frequency component of the first-order wavelet coefficient. Reference numeral 32 in FIG. 6 indicates a high-frequency component of the second-order wavelet coefficient. Reference numeral 33 in FIG. 6 denotes a high-frequency component of the third-order wavelet coefficient. Reference numeral 34 in FIG. 6 indicates a high-frequency component of the fourth-order wavelet coefficient. Reference numeral 35 in FIG. 6 denotes a low-frequency component of the fourth-order wavelet coefficient. Note that the low-frequency component 35 of the fourth-order wavelet coefficient has only one pixel. Therefore, in the image block 20 in which the number of vertical and horizontal pixels is 16 pixels, higher-order wavelet transform processing cannot be performed.

ここで、ウェーブレット変換処理は、必ずしも変換処理ができなくなる次数まで行う必要はない。しかしながら、変換処理ができなくなる次数まで変換処理を行うことで、最終的に、画像ブロック20の画素数に応じたより多くの種類のミップマップ画像を生成することができる。ここで、横および縦の画素数がそれぞれ2のN乗となる画像ブロック20に対して、変換処理ができなくなる次数はNとなる。したがって、ウェーブレット変換部12においてN次のウェーブレット係数が得られるまで変換処理を行うようにすれば、異なる画素数の画像ブロック20単位で処理が行われても、当該画像ブロック20の画素数に応じたより多くの種類のミップマップ画像を生成することができる。   Here, the wavelet transform process does not necessarily have to be performed up to the order at which the transform process cannot be performed. However, by performing the conversion process up to the order at which the conversion process cannot be performed, finally, more types of mipmap images corresponding to the number of pixels of the image block 20 can be generated. Here, for the image block 20 in which the number of horizontal and vertical pixels is 2 N, the order at which conversion processing cannot be performed is N. Therefore, if the wavelet transform unit 12 performs the conversion process until an Nth-order wavelet coefficient is obtained, even if the process is performed in units of the image block 20 having a different number of pixels, the wavelet transform unit 12 depends on the number of pixels of the image block 20 More kinds of mipmap images can be generated.

ステップS103の次に、ウェーブレット変換部12は、図6に示すウェーブレット係数をメインメモリ2に書き込む(ステップS104)。ウェーブレット変換部12は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで処理したか否かを判断する(ステップS105)。最後の画像ブロック20まで処理していないと判断された場合、次の画像ブロック20についてステップS101の処理が行われる。最後の画像ブロック20まで処理したと判断された場合、処理はステップS106へ進む。ステップS106においてウェーブレット変換部12は、最後のフレームまで処理したか否かを判断する。最後のフレームまで処理していないと判断された場合、次のフレームについてステップS101の処理が行われる。最後のフレームまで処理したと判断された場合、ウェーブレット変換部12における処理は終了する。   Following step S103, the wavelet transform unit 12 writes the wavelet coefficients shown in FIG. 6 into the main memory 2 (step S104). The wavelet transform unit 12 determines whether or not the last image block 20 has been processed among the texture original images shown in FIG. 2 (step S105). If it is determined that the last image block 20 has not been processed, the process of step S101 is performed for the next image block 20. If it is determined that the last image block 20 has been processed, the process proceeds to step S106. In step S106, the wavelet transform unit 12 determines whether or not processing has been performed up to the last frame. If it is determined that the last frame has not been processed, the process of step S101 is performed for the next frame. If it is determined that processing has been performed up to the last frame, the processing in the wavelet transform unit 12 ends.

なお、図3に示した処理では、1種類の輝度のみを対象として説明した。しかし、R、G、BまたはY、U、Vの3種類の輝度がある場合は、上述したステップS101〜S104の処理を3回繰り返す。つまり、輝度の種類数だけ、上述したステップS101〜S104の処理を繰り返せばよい。   In the process shown in FIG. 3, only one type of luminance has been described. However, if there are three types of luminance, R, G, B or Y, U, V, the above-described processing of steps S101 to S104 is repeated three times. That is, the above-described steps S101 to S104 may be repeated for the number of types of luminance.

また、図3に示した処理手順は一例であって、実際のシステムLSIでは、ステップS102とステップ103の処理が同時に動作するように実装することも可能である。つまり、ウェーブレット変換部12がウェーブレット変換している間に、動画デコーダ11がひとつ先の画像ブロック20を伸張することも可能である。また、動画デコーダ11とウェーブレット変換部12との間にFIFOメモリ(図示なし)をさらに設け、数個または数十個の画像ブロック20をバッファリングすることも可能である。この場合、動画デコーダ11は、数個から数十個先の画像ブロック20まで先行して伸張する。   Further, the processing procedure shown in FIG. 3 is merely an example, and in an actual system LSI, it is possible to mount so that the processing of step S102 and step 103 operates simultaneously. That is, the moving picture decoder 11 can expand the next image block 20 while the wavelet transform unit 12 performs wavelet transform. Further, a FIFO memory (not shown) may be further provided between the moving picture decoder 11 and the wavelet transform unit 12, and several or several tens of image blocks 20 can be buffered. In this case, the moving picture decoder 11 extends in advance up to several to several tens of image blocks 20 ahead.

次に、図7を参照して、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理について詳細に説明する。図7は、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートである。   Next, with reference to FIG. 7, the process from the wavelet inverse transform process to the rendering of the polygon image will be described in detail. FIG. 7 is a flowchart showing the flow of processing from the wavelet inverse transform processing to the rendering of a polygon image.

ステップS201において、ミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。そして、ミップマップレベル取得部13は、算出した縮小率から、必要となるミップマップレベルを取得する。   In step S201, the mipmap level acquisition unit 13 compares the screen coordinates of the point on the polygon image with the texture coordinates of the point on the original image shown in FIG. The reduction ratio of the original image for the frame is calculated. Then, the mipmap level acquisition unit 13 acquires a required mipmap level from the calculated reduction rate.

ステップS201の次に、ウェーブレット逆変換部14は、メインメモリ2に記憶された画像ブロック20分のウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみを読み出す(ステップS202)。そしてウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルと同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する(ステップS203)。   After step S201, the wavelet inverse transform unit 14 corresponds to the entire low-frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients for the image block 20 stored in the main memory 2. Only the coefficient is read (step S202). Then, the wavelet inverse transformation unit 14 inversely transforms the read wavelet coefficients using the Harr wavelet inverse transformation formula until the order has the same value as the mipmap level (step S203).

以下、ステップS202およびS203の処理について詳細に説明する。上述したように、ミップマップ画像は、近傍4画素の平均をとって生成されるのが一般的である。これに対し、ウェーブレット係数の低周波成分も式(1)に示したように、近傍4画素の平均をとって求められる。つまり、ウェーブレット係数の低周波成分を求める式(1)と、ミップマップ画像を生成する式とが同じ式となる。これにより、図5に示す1次のウェーブレット係数の低周波成分aで表現される画像の輝度と、図18(b)に示すミップマップレベル1のミップマップ画像の輝度とは一致する。その結果、ウェーブレット係数の低周波成分で表現される画像は、従来と同じ低域通過フィルタが作用したミップマップ画像となる。   Hereinafter, the processing of steps S202 and S203 will be described in detail. As described above, the mipmap image is generally generated by taking the average of four neighboring pixels. On the other hand, the low-frequency component of the wavelet coefficient is also obtained by taking the average of four neighboring pixels as shown in the equation (1). That is, the equation (1) for obtaining the low frequency component of the wavelet coefficient is the same as the equation for generating the mipmap image. Thereby, the brightness of the image represented by the low-frequency component a of the primary wavelet coefficient shown in FIG. 5 and the brightness of the mipmap image of the mipmap level 1 shown in FIG. 18B match. As a result, the image represented by the low-frequency component of the wavelet coefficient is a mipmap image in which the same low-pass filter as that in the prior art is applied.

図8は、ウェーブレット係数の低周波成分の次数と、ミップマップレベルとの対応を示した図である。図8に示すように、4次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル4のミップマップ画像とが同じ画像となる。3次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル3のミップマップ画像とが同じ画像となる。また2次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル2のミップマップ画像とが同じ画像となる。また1次のウェーブット係数の低周波成分で表現される画像とミップマップレベル1のミップマップ画像とが同じ画像となる。この対応を利用すれば、4次のウェーブレット係数から任意のミップマップレベルのミップマップ画像を簡単に生成することが可能となる。   FIG. 8 is a diagram showing the correspondence between the order of the low-frequency component of the wavelet coefficient and the mipmap level. As shown in FIG. 8, the image represented by the low-frequency component of the fourth-order wavelet coefficient and the mipmap image at the mipmap level 4 are the same image. The image represented by the low-frequency component of the third-order wavelet coefficient and the mipmap image at the mipmap level 3 are the same image. Further, the image represented by the low-frequency component of the secondary wavelet coefficient and the mipmap image at the mipmap level 2 are the same image. Further, the image represented by the low-frequency component of the primary wave coefficient and the mipmap image at the mipmap level 1 are the same image. If this correspondence is used, a mipmap image of an arbitrary mipmap level can be easily generated from the fourth-order wavelet coefficients.

ここで、ステップS201で取得されたミップマップレベルが2であるとする。このとき、ウェーブレット逆変換部14は、2次のウェーブレット係数の低周波成分で表現される画像が生成されるまで、逆変換処理を行う。ここで、ミップマップレベル2のミップマップ画像は、図9に示すように、縦4画素、横4画素とする計16画素を有する。図9は、4次のウェーブレット係数から、ミップマップレベル2のミップマップ画像を生成する過程を模式的に示した図である。したがって、2次のウェーブレット係数の低周波成分で表現される画像を生成するためには、ステップS202においてウェーブレット逆変換部14が、メインメモリ2に記憶されるウェーブレット係数のうち、4次のウェーブレット係数を含む左上端の16個の係数のみ読み出せばよい。つまり、ステップS202において、ウェーブレット逆変換部14は、ステップS201において取得されたミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみをメインメモリ2から読み出せばよいこととなる。換言すれば、ウェーブレット逆変換部14は、ステップS201において取得されたミップマップレベルのミップマップ画像に相当する領域内にあるウェーブレット係数のみを、メインメモリ2から読み出せばよいこととなる。これにより、ウェーブレット逆変換部14がメインメモリ2から受け取るデータ量をさらに小さくすることができる。その結果、メインメモリ2の帯域の圧迫をさらに抑えることができる。   Here, it is assumed that the mipmap level acquired in step S201 is 2. At this time, the wavelet inverse transform unit 14 performs inverse transform processing until an image expressed by the low-frequency component of the secondary wavelet coefficient is generated. Here, the mipmap image at the mipmap level 2 has a total of 16 pixels, 4 pixels in the vertical direction and 4 pixels in the horizontal direction, as shown in FIG. FIG. 9 is a diagram schematically showing a process of generating a mipmap level 2 mipmap image from the fourth-order wavelet coefficients. Therefore, in order to generate an image expressed by the low-frequency component of the second-order wavelet coefficient, the wavelet inverse transform unit 14 in step S202 selects the fourth-order wavelet coefficient among the wavelet coefficients stored in the main memory 2. It is only necessary to read out 16 coefficients at the upper left corner including. That is, in step S202, the wavelet inverse transformation unit 14 only needs to read out from the main memory 2 the coefficients corresponding to the entire low-frequency components of the wavelet coefficients that have the same order as the mipmap level acquired in step S201. It will be. In other words, the wavelet inverse transform unit 14 only needs to read out from the main memory 2 the wavelet coefficients in the area corresponding to the mipmap image at the mipmap level acquired in step S201. As a result, the amount of data received from the main memory 2 by the wavelet inverse transformation unit 14 can be further reduced. As a result, the compression of the bandwidth of the main memory 2 can be further suppressed.

ここで、本発明に用いるHarrのウェーブレット逆変換式を式(5)〜(8)に示す。式(5)〜式(8)は、式(1)〜式(4)の逆変換式となる。
A=a+b+c+d …(5)
B=a−b+c−d …(6)
C=a+b−c−d …(7)
D=a−b−c+d …(8)
Here, the inverse Harr wavelet transform equations used in the present invention are shown in equations (5) to (8). Expressions (5) to (8) are inverse conversion expressions of Expressions (1) to (4).
A = a + b + c + d (5)
B = a−b + c−d (6)
C = a + b−c−d (7)
D = a−b−c + d (8)

図9に示す4次のウェーブレット係数は、a=(U0,V0)=97、b=(U1,V0)=−10、c=(U0,V1)=−10、d=(U1,V1)=2となる。これらa〜dの輝度を上式(5)〜式(8)に代入することによって、A〜Dの輝度が得られる。得られたA〜Dの輝度は、図9に示すように、3次のウェーブレット係数の低周波成分となる。同様に、上式(5)〜式(8)を用いることで、図9に示す3次のウェーブレット係数から、2次のウェーブレット係数の低周波成分が得られる。そして、図9に示すように、2次のウェーブレット係数の低周波成分で表現された画像は、ミップマップレベル2のミップマップ画像を一致することが分かる。   The fourth-order wavelet coefficients shown in FIG. 9 are a = (U0, V0) = 97, b = (U1, V0) = − 10, c = (U0, V1) = − 10, d = (U1, V1). = 2. The luminances A to D are obtained by substituting the luminances a to d into the above equations (5) to (8). The obtained luminances A to D are low-frequency components of the third-order wavelet coefficient as shown in FIG. Similarly, by using the above equations (5) to (8), the low-frequency component of the second-order wavelet coefficient can be obtained from the third-order wavelet coefficient shown in FIG. Then, as shown in FIG. 9, it can be seen that the image expressed by the low-frequency component of the second-order wavelet coefficient matches the mipmap image at the mipmap level 2.

ステップS203の次に、ポリゴン描画部15は、ウェーブレット逆変換部14から出力された画像をミップマップ画像としてポリゴン画像に描画する(ステップS204)。ステップS204の次に、ポリゴン描画部15は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで描画する処理を行ったか否かを判断する(ステップS205)。最後の画像ブロック20まで描画する処理を行っていないと判断された場合、次の画像ブロック20についてステップS202の処理が行われる。最後の画像ブロック20まで描画する処理を行ったと判断された場合、処理はステップS206へ進む。ステップS206においてポリゴン描画部15は、最後のフレームまで処理が行われたか否かを判断する。最後のフレームまで処理が行われていないと判断された場合、次のフレームについてステップS201の処理が行われる。最後のフレームまで処理が行われたと判断された場合、処理は終了する。   After step S203, the polygon drawing unit 15 draws the image output from the wavelet inverse transform unit 14 as a mipmap image on the polygon image (step S204). Following step S204, the polygon rendering unit 15 determines whether or not the rendering process has been performed up to the last image block 20 of the texture original image shown in FIG. 2 (step S205). If it is determined that the drawing process up to the last image block 20 has not been performed, the process of step S202 is performed for the next image block 20. If it is determined that the drawing process up to the last image block 20 has been performed, the process proceeds to step S206. In step S206, the polygon drawing unit 15 determines whether or not processing has been performed up to the last frame. When it is determined that the process has not been performed up to the last frame, the process of step S201 is performed for the next frame. If it is determined that the process has been performed up to the last frame, the process ends.

以上のように、本発明に係る描画装置1aによれば、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換し、当該ウェーブレット係数を逆変換することで必要となるミップマップレベルのミップマップ画像を生成することができる。これにより、メインメモリ2に記憶させるべきデータをウェーブレット係数のみにすることができ、多種類のミップマップ画像を大量に記憶させることなく、必要となるミップマップレベルのミップマップ画像を生成することができる。また、メインメモリ2に記憶させるべきデータをウェーブレット係数のみにすることができるため、描画装置1aに接続されたメインメモリ2が必要とする記憶容量を小さくさせることができる。   As described above, according to the drawing apparatus 1a of the present invention, the mipmap level mip which is required by converting the original image into wavelet coefficients using the Harr wavelet transform formula and inversely transforming the wavelet coefficients. A map image can be generated. Thereby, the data to be stored in the main memory 2 can be only wavelet coefficients, and a necessary mipmap level mipmap image can be generated without storing a large amount of various types of mipmap images. it can. Further, since the data to be stored in the main memory 2 can be only wavelet coefficients, the storage capacity required for the main memory 2 connected to the drawing apparatus 1a can be reduced.

また本発明に係る描画装置1aによれば、テクスチャが動画像であっても、フレーム毎に生成される多種類のミップマップ画像をメインメモリ2に記憶させる必要がないため、メインメモリ2の帯域の圧迫を防ぐことができる。   Further, according to the drawing apparatus 1a according to the present invention, even if the texture is a moving image, it is not necessary to store various types of mipmap images generated for each frame in the main memory 2, and therefore the bandwidth of the main memory 2 Can prevent pressure.

また、従来において、離散コサイン変換(DCT)を用いて多数のミップマップ画像を用意する代わりにDCT係数だけをメインメモリ上に保持する技術が提案されている。しかしながら、この従来技術では、テクスチャを参照するごとにDCT係数を保持するための逆DCT処理が必要になる。これにより、回路規模が増大するという問題がある。さらに、従来のミップマップ画像を用いる手法とは異なる低域通過フィルタを用いているため、描画結果に関して従来のミップマップ画像を用いる手法と比べて画質が劣化するという問題もある。さらに、逆DCT処理は、処理負担が大きい。その結果、描画装置の処理性能を向上させるのが難しいという問題もある。   Conventionally, a technique has been proposed in which only DCT coefficients are stored in a main memory instead of preparing a large number of mipmap images using discrete cosine transform (DCT). However, this conventional technique requires an inverse DCT process for holding a DCT coefficient each time a texture is referenced. As a result, there is a problem that the circuit scale increases. Furthermore, since a low-pass filter different from the method using the conventional mipmap image is used, there is a problem that the image quality is deteriorated with respect to the drawing result as compared with the method using the conventional mipmap image. Furthermore, the inverse DCT process has a large processing load. As a result, there is a problem that it is difficult to improve the processing performance of the drawing apparatus.

これに対し、本発明に係る描画装置1aによれば、DCTおよび逆DCT処理よりも処理負担が軽いウェーブレット変換および逆変換を採用している。これにより、回路規模を小さくすることができる。また、処理負担が軽いので、描画装置の処理性能も従来と比べて向上させることができる。また、Harrのウェーブレット変換式を用いて変換する場合、従来のミップマップ画像を用いる手法と同じ低域通過フィルタを作用させることができる。これにより、従来のミップマップ画像を用いる手法と同一の画質を確保することができる。   On the other hand, according to the drawing apparatus 1a according to the present invention, wavelet transform and inverse transform, which have a lighter processing load than DCT and inverse DCT processing, are employed. Thereby, the circuit scale can be reduced. Further, since the processing load is light, the processing performance of the drawing apparatus can be improved as compared with the conventional art. Further, when transforming using the Harr wavelet transform equation, the same low-pass filter as that used in the conventional technique using a mipmap image can be applied. Thereby, the same image quality as the method using the conventional mipmap image can be ensured.

なお、上述では、ウェーブレット変換部12は、変換したウェーブレット係数をメインメモリ2に記憶するとした。ここで、ウェーブレット係数の高周波成分は、人の目に認識されにくいという特徴をもつ。したがって、ウェーブレット係数の高周波成分に対して、情報量を削減するような量子化処理、エントロピー符号化、および算術符号化などを施して、可逆または非可逆圧縮してからメインメモリ2に記憶することも可能である。これにより、メインメモリ2のさらなる少容量化を実現することができる。   In the above description, the wavelet transform unit 12 stores the transformed wavelet coefficients in the main memory 2. Here, the high-frequency component of the wavelet coefficient has a feature that it is difficult to be recognized by human eyes. Accordingly, the high frequency component of the wavelet coefficient is subjected to quantization processing, entropy coding, arithmetic coding, or the like that reduces the amount of information, and is stored in the main memory 2 after being reversibly or irreversibly compressed. Is also possible. As a result, the capacity of the main memory 2 can be further reduced.

また、テクスチャが一般的な自然画の場合、ウェーブレット係数の高周波成分の絶対値が小さい値に偏るという特徴をもつ。したがって自然画の場合には、特にエントロピー符号化による可逆圧縮する方がより効果的である。また、ウェーブレット係数の高周波成分は、可逆または非可逆圧縮のいずれの方法で圧縮されてもよいが、好ましくは、可逆圧縮した方がよい。可逆圧縮した場合、従来のミップマップ画像を用いる手法と完全に同一のミップマップ画像を得ることができるためである。なお、ウェーブレット変換部12でウェーブレット係数の高周波成分を非可逆または可逆圧縮した場合、ウェーブレット逆変換部14では、メインメモリ2から読み込む時に、圧縮された高周波成分を伸張するようにすればよい。   In addition, when the texture is a general natural image, the absolute value of the high frequency component of the wavelet coefficient is biased to a small value. Therefore, in the case of a natural image, it is particularly effective to perform lossless compression by entropy coding. In addition, the high-frequency component of the wavelet coefficient may be compressed by either reversible or irreversible compression, but it is preferable to perform reversible compression. This is because, when lossless compression is performed, a mipmap image that is completely the same as the conventional technique using a mipmap image can be obtained. When the wavelet transform unit 12 performs irreversible or reversible compression on the high-frequency component of the wavelet coefficient, the wavelet inverse transform unit 14 may expand the compressed high-frequency component when reading from the main memory 2.

なお、上述では、動画像のテクスチャをポリゴン画像に描画する場合について説明したが、これに限定されない。単に、静止画像のテクスチャをポリゴン画像に描画する場合であっても動画像のテクスチャを用いた場合と同様の効果を得ることができる。静止画像のテクスチャを用いる描画装置1bを構成する各ユニットを図10に示す。図10において描画装置1bは、上述した描画装置1aに対して動画デコーダ11が静止画デコーダ19に代わった構成である。静止画デコーダ19は、圧縮された静止画像であるテクスチャの原画像に対して画像ブロック20単位で伸張処理を行って、ウェーブレット変換部12に出力する。これにより、動画デコーダ11を備えた描画装置1aと同様に、伸張処理単位とウェーブレット変換処理単位とが一致することとなる。その結果、処理効率が向上し、ミップマップ画像を高速に生成することができる。なお、描画装置1bの処理は、上述した描画装置1aにおいてテクスチャの原画像1フレーム分について行われる処理と同様の処理となるので、説明を省略する。なお、処理するテクスチャの原画像が圧縮されていない場合には、上述した描画装置1aの動画デコーダ11や描画装置1bの静止画デコーダ19が不要になることは言うまでもない。   In the above description, the case where the texture of the moving image is drawn on the polygon image has been described. However, the present invention is not limited to this. Even when the texture of the still image is simply drawn on the polygon image, the same effect as when the texture of the moving image is used can be obtained. Each unit constituting the drawing apparatus 1b using the texture of the still image is shown in FIG. In FIG. 10, the drawing apparatus 1 b has a configuration in which the moving picture decoder 11 is replaced with the still picture decoder 19 with respect to the drawing apparatus 1 a described above. The still image decoder 19 performs an expansion process on the texture original image, which is a compressed still image, in units of image blocks 20 and outputs the result to the wavelet transform unit 12. As a result, the expansion processing unit and the wavelet transform processing unit coincide with each other in the same manner as in the drawing apparatus 1 a provided with the moving image decoder 11. As a result, the processing efficiency is improved, and a mipmap image can be generated at high speed. The processing of the drawing device 1b is the same as the processing performed for one frame of the texture original image in the above-described drawing device 1a, and thus description thereof is omitted. Needless to say, when the original texture image to be processed is not compressed, the above-described moving picture decoder 11 of the drawing apparatus 1a and still picture decoder 19 of the drawing apparatus 1b are not necessary.

なお、上述では、動画像データの圧縮フォーマットとしてMPEGとしたが、具体的には、MEPG−1、MEPG−2、およびMEPG−4が挙げられる。また、動画像データや静止画像の圧縮フォーマットは、MPEGに限らず、JPEGやDVフォーマットであっても本発明の描画装置1aおよび1bに適用可能である。またその他の圧縮フォーマットであっても、横および縦の画素数がそれぞれ2のN乗となる画像ブロック20単位で処理して伸張するものであれば、将来考案されるものも含めて本発明の描画装置1aおよび1bに適用可能である。   In the above description, MPEG is used as a compression format for moving image data, but specific examples include MPEG-1, MPEG-2, and MPEG-4. In addition, the compression format of moving image data and still images is not limited to MPEG, but can be applied to the drawing apparatuses 1a and 1b of the present invention even in JPEG or DV format. Also, other compression formats, including those devised in the future, can be used as long as they are processed and expanded in units of 20 image blocks in which the number of horizontal and vertical pixels is 2 to the Nth power. The present invention can be applied to the drawing apparatuses 1a and 1b.

なお、図1では、描画装置1aのみがそれぞれ1チップのシステムLSIで構成されるとしたが、これに限定されない。近年のシステムLSIの集積度の向上により、描画装置1aおよびメインメモリ2が1チップのシステムLSIで構成されてもよい。また描画装置1aが、1チップではなく、複数のLSIを組み合わせて構成されてもよい。また、以上に説明したシステムLSIの構成については、図10に示す描画装置1bについても同様のことがいえる。   In FIG. 1, only the drawing apparatus 1a is configured by a one-chip system LSI, but the present invention is not limited to this. Due to the recent improvement in the degree of integration of system LSIs, the drawing apparatus 1a and the main memory 2 may be configured by a one-chip system LSI. The drawing apparatus 1a may be configured by combining a plurality of LSIs instead of one chip. The same can be said for the configuration of the system LSI described above for the drawing apparatus 1b shown in FIG.

なお、図1および図10では、本発明に関連するユニットのみを抜粋して示している。したがって、実際のシステムLSIには、上述したユニット以外に、音声処理等の機能を有するユニットも含まれる場合がある。   In FIGS. 1 and 10, only the units related to the present invention are extracted and shown. Therefore, an actual system LSI may include units having functions such as audio processing in addition to the above-described units.

なお、図1に示した動画デコーダ11は、動画像データを、記憶媒体から読み出して取得するとした。また、図10に示した静止画デコーダ19も同様に、静止画像であるテクスチャの原画像を、記憶媒体から読み出して取得している。しかしながら、動画デコーダ11や静止画デコーダ19は、データを、記録媒体ではなく、電波やインターネット等を利用した通信路から取得するようにしてもよい。この場合であっても、記憶媒体から取得した場合と同様の効果を得ることができる。   Note that the moving picture decoder 11 shown in FIG. 1 reads and acquires moving image data from a storage medium. Similarly, the still image decoder 19 shown in FIG. 10 also reads and acquires the texture original image, which is a still image, from the storage medium. However, the moving picture decoder 11 and the still picture decoder 19 may acquire data from a communication path using radio waves, the Internet, or the like instead of the recording medium. Even in this case, the same effect as that obtained from the storage medium can be obtained.

以下、図7に示したウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理に関する変形例1、2について説明する。   Hereinafter, modified examples 1 and 2 relating to the processing from the wavelet inverse transform processing shown in FIG. 7 to the rendering of a polygon image will be described.

(変形例1)
上述したように、ミップマップレベル取得部13がlog2Pを用いてミップマップレベルを取得する際、取得されるミップマップレベルが整数ではない場合がある。この場合の具体的な処理例を変形例1として、図11を参照して説明する。図11は、変形例1におけるウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートである。なお、以下の説明では一例として、ミップマップ取得部13において取得されるミップマップレベルが2.3であるとする。また、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。
(Modification 1)
As described above, when the mipmap level acquisition unit 13 acquires the mipmap level using log 2 P, the acquired mipmap level may not be an integer. A specific processing example in this case will be described as a first modification with reference to FIG. FIG. 11 is a flowchart showing the flow of processing until the polygon image is drawn by performing the wavelet inverse transform processing in the first modification. In the following description, as an example, it is assumed that the mipmap level acquired by the mipmap acquisition unit 13 is 2.3. In addition, it is assumed that wavelet coefficients converted until the fourth-order wavelet coefficients are obtained in the wavelet transform unit 12 are stored in the main memory 2.

ステップS301において、ミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。そして、ミップマップレベル取得部13は、算出した縮小率から、ミップマップレベル(=2.3)を取得する。   In step S301, the mipmap level acquisition unit 13 compares the screen coordinates of the point on the polygon image with the texture coordinates of the point on the original image shown in FIG. The reduction ratio of the original image for the frame is calculated. Then, the mipmap level acquisition unit 13 acquires the mipmap level (= 2.3) from the calculated reduction ratio.

ステップS301の次に、ウェーブレット逆変換部14は、メインメモリ2に記憶された画像ブロック20分のウェーブレット係数のうち、ミップマップレベルの整数値(=2)と同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみを読み出す(ステップS302)。そしてウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルの整数値(=2)と同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する(ステップS303)。ここで、ステップS303が実行される過程において、2次だけでなく、3次のウェーブレット係数の低周波成分も算出される。ウェーブレット逆変換部14は、逆変換して求めた2次のウェーブレット係数の低周波成分で表された画像と、3次のウェーブレット係数の低周波成分で表された画像とをポリゴン描画部15に出力する。   Next to step S301, the wavelet inverse transform unit 14 selects the wavelet coefficient having the same order as the integer value (= 2) of the mipmap level among the wavelet coefficients for the image block 20 stored in the main memory 2. Only the coefficients corresponding to the entire low frequency component are read (step S302). Then, the inverse wavelet transform unit 14 inversely transforms the read wavelet coefficients using the Harr wavelet inverse transform expression until the order of the same value as the integer value (= 2) of the mipmap level is obtained (step S303). Here, in the process of executing step S303, not only the second-order but also the low-frequency component of the third-order wavelet coefficient is calculated. The wavelet inverse transform unit 14 supplies the polygon rendering unit 15 with the image represented by the low-frequency component of the second-order wavelet coefficient obtained by inverse transform and the image represented by the low-frequency component of the third-order wavelet coefficient. Output.

以下、図12を参照して、2次だけでなく、3次のウェーブレット係数の低周波成分も算出されるメカニズムについて説明する。図12は、ミップマップレベルが2.3となる場合のミップマップ画像を生成する過程を模式的に示した図である。   Hereinafter, a mechanism for calculating not only the second order but also the low-frequency component of the third-order wavelet coefficient will be described with reference to FIG. FIG. 12 is a diagram schematically showing a process of generating a mipmap image when the mipmap level is 2.3.

ミップマップレベル2のミップマップ画像は、図12に示すように、縦4画素、横4画素とする計16画素を有する。したがって、ステップS302においてウェーブレット逆変換部14は、メインメモリ2に記憶されるウェーブレット係数のうち、4次のウェーブレット係数を含む左上端の16個の係数のみを読み出す。ここで、図12に示すように、4次のウェーブレット係数は、a=(U0,V0)=97、b=(U1,V0)=−10、c=(U0,V1)=−10、d=(U1,V1)=2となる。よって、ステップS303においてウェーブレット逆変換部14は、まず、これらa〜dの輝度を上式(5)〜式(8)に代入することによって、A〜Dの輝度を算出する。得られたAの輝度は、3次のウェーブレット係数の低周波成分である(U0、V0)の係数となる。得られたBの輝度は、3次のウェーブレット係数の低周波成分である(U1、V0)の係数となる。得られたCの輝度は、3次のウェーブレット係数の低周波成分である(U0、V1)の係数となる。得られたDの輝度は、3次のウェーブレット係数の低周波成分である(U1、V1)の係数となる。このように、ステップS303において上式(5)〜式(8)が1回適用されることで、3次のウェーブレット係数の低周波成分が算出される。この3次のウェーブレット係数の低周波成分で表現された画像は、図12に示すように、ミップマップレベル3のミップマップ画像と一致する。次に、上式(5)〜式(8)を4回適用することにより、図12に示す3次のウェーブレット係数から、2次のウェーブレット係数の低周波成分が算出される。この2次のウェーブレット係数の低周波成分で表現された画像は、図12に示すように、ミップマップレベル2のミップマップ画像と一致する。このように、ステップS303が実行される過程において、2次だけでなく、3次のウェーブレット係数の低周波成分も算出される。   As shown in FIG. 12, the mipmap image at the mipmap level 2 has a total of 16 pixels, 4 pixels in the vertical direction and 4 pixels in the horizontal direction. Accordingly, in step S302, the wavelet inverse transformation unit 14 reads only the 16 coefficients at the upper left corner including the quaternary wavelet coefficients among the wavelet coefficients stored in the main memory 2. Here, as shown in FIG. 12, the fourth-order wavelet coefficients are a = (U0, V0) = 97, b = (U1, V0) = − 10, c = (U0, V1) = − 10, d = (U1, V1) = 2. Therefore, in step S303, the wavelet inverse transform unit 14 first calculates the luminances A to D by substituting the luminances a to d into the above equations (5) to (8). The luminance of A obtained is a coefficient of (U0, V0) that is a low frequency component of the third-order wavelet coefficient. The luminance of B obtained is a coefficient of (U1, V0) which is a low frequency component of the third-order wavelet coefficient. The obtained luminance of C is a coefficient of (U0, V1) which is a low frequency component of the third-order wavelet coefficient. The obtained luminance D is a coefficient of (U1, V1) which is a low-frequency component of the third-order wavelet coefficient. Thus, the low frequency component of the third-order wavelet coefficient is calculated by applying the above equations (5) to (8) once in step S303. The image expressed by the low-frequency component of the third-order wavelet coefficient coincides with the mipmap image at the mipmap level 3 as shown in FIG. Next, the low frequency component of the secondary wavelet coefficient is calculated from the tertiary wavelet coefficient shown in FIG. 12 by applying the above equations (5) to (8) four times. The image expressed by the low-frequency component of the secondary wavelet coefficient coincides with the mipmap image at the mipmap level 2 as shown in FIG. Thus, in the process of executing step S303, not only the second order but also the low frequency component of the third order wavelet coefficient is calculated.

ステップS303の次に、ポリゴン描画部15は、2次のウェーブレット係数の低周波成分で表された画像(ミップマップレベル2のミップマップ画像)と、3次のウェーブレット係数の低周波成分で表された画像(ミップマップレベル3のミップマップ画像)とを、所定の割合で混合する(ステップS304)。混合方法については、Tri−Linearなどの公知の方法を用いるとし、ここでは詳細な説明を省略する。所定の割合は、例えば、ミップマップレベルの小数部の値に応じて決定される。取得したミップマップレベルが2.3である場合、例えば、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを7:3の比率で混合する。   After step S303, the polygon rendering unit 15 is represented by an image (a mipmap image at a mipmap level 2) represented by a low-frequency component of a secondary wavelet coefficient and a low-frequency component of a tertiary wavelet coefficient. The images (mipmap images at mipmap level 3) are mixed at a predetermined ratio (step S304). As the mixing method, a known method such as Tri-Linear is used, and detailed description thereof is omitted here. The predetermined ratio is determined according to the value of the fractional part of the mipmap level, for example. When the acquired mipmap level is 2.3, for example, the mipmap image at the mipmap level 2 and the mipmap image at the mipmap level 3 are mixed at a ratio of 7: 3.

ステップS304の次に、ポリゴン描画部15は、混合したミップマップ画像をポリゴン画像に描画する(ステップS305)。ステップS305の次に、ポリゴン描画部15は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで描画する処理を行ったか否かを判断する(ステップS306)。最後の画像ブロック20まで描画する処理を行っていないと判断された場合、次の画像ブロック20についてステップS302の処理が行われる。最後の画像ブロック20まで描画する処理を行ったと判断された場合、処理はステップS307へ進む。ステップS307においてポリゴン描画部15は、最後のフレームまで処理が行われたか否かを判断する。最後のフレームまで処理が行われていないと判断された場合、次のフレームについてステップS301の処理が行われる。最後のフレームまで処理が行われたと判断された場合、処理は終了する。   Following step S304, the polygon drawing unit 15 draws the mixed mipmap image on the polygon image (step S305). Next to step S305, the polygon drawing unit 15 determines whether or not a process of drawing up to the last image block 20 of the texture original image shown in FIG. 2 has been performed (step S306). If it is determined that the drawing process up to the last image block 20 has not been performed, the process of step S302 is performed for the next image block 20. If it is determined that the process of drawing up to the last image block 20 has been performed, the process proceeds to step S307. In step S307, the polygon drawing unit 15 determines whether processing has been performed up to the last frame. If it is determined that the process has not been performed up to the last frame, the process of step S301 is performed for the next frame. If it is determined that the process has been performed up to the last frame, the process ends.

以上のように、変形例1の処理によれば、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを混合する際、ミップマップレベル2のミップマップ画像を求める過程において、ミップマップレベル3のミップマップ画像を自動的に得ることができる。このため、ミップマップレベル3のミップマップ画像を別途生成する必要がない。一方、従来の逆DCT処理では、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを別々に生成しなければならない。したがって、変形例1の処理によれば、ミップマップレベルの異なる複数のミップマップ画像を生成するにあたり、従来の逆DCT処理よりも高速に生成することができる。   As described above, according to the process of the first modification, when the mipmap image of the mipmap level 2 and the mipmap image of the mipmap level 3 are mixed, in the process of obtaining the mipmap image of the mipmap level 2, A mipmap image at a mipmap level 3 can be automatically obtained. For this reason, it is not necessary to separately generate a mipmap image of mipmap level 3. On the other hand, in the conventional inverse DCT process, a mipmap image at a mipmap level 2 and a mipmap image at a mipmap level 3 must be generated separately. Therefore, according to the process of the first modification, it is possible to generate a plurality of mipmap images having different mipmap levels at a higher speed than the conventional inverse DCT process.

なお、上述では、算出した縮小率から整数ではないミップマップレベルが取得されるとしたが、これに限定されない。ユーザが、表示シーンの構成に応じて整数ではないミップマップレベルをミップマップレベル取得部13に直接指定するようにしてもよい。この場合、ミップマップレベル取得部13は、ユーザによって指定された整数ではないミップマップレベルを取得することになる。   In the above description, a mipmap level that is not an integer is acquired from the calculated reduction ratio. However, the present invention is not limited to this. The user may directly specify a mipmap level that is not an integer in the mipmap level acquisition unit 13 according to the configuration of the display scene. In this case, the mipmap level acquisition unit 13 acquires a mipmap level that is not an integer specified by the user.

(変形例2)
上述した図7の処理では、ウェーブレット逆変換部14は、逆変換して求めたウェーブレット係数の低周波成分全体で表された画像を、画像ブロック20単位のミップマップ画像としてポリゴン描画部15に出力していた。しかしながら、画像ブロック20単位のミップマップ画像のうち、特定の画素のみを生成するようにしてもよい。この場合、ウェーブレット逆変換部14は、ウェーブレット係数の低周波成分のうち、特定の画素を表す一部の係数のみを求めるように、逆変換処理を行えばよい。この場合の具体的な処理例を変形例2として、図13〜図16を参照して説明する。
(Modification 2)
In the processing of FIG. 7 described above, the wavelet inverse transformation unit 14 outputs an image represented by the entire low-frequency component of the wavelet coefficient obtained by inverse transformation to the polygon drawing unit 15 as a mipmap image of 20 image blocks. Was. However, you may make it produce | generate only a specific pixel among the mipmap images of 20 image blocks. In this case, the wavelet inverse transformation unit 14 may perform an inverse transformation process so as to obtain only some of the coefficients representing specific pixels among the low-frequency components of the wavelet coefficients. A specific processing example in this case will be described as a second modification with reference to FIGS.

図13は、画像ブロック20単位のミップマップ画像のうちの特定の画素Aを模式的に示した図である。図13の例では、取得されたミップマップレベルを0とし、ミップマップレベル0のミップマップ画像内に画素Aが存在しているとする。ここで、図13に示したミップマップ画像は、ミップマップレベルが0であり、画像ブロック20単位の画像である。したがって、図13に示したミップマップ画像は、0次のウェーブレット係数の低周波成分全体で表された画像に相当する。図13に示す(Ux、Vy)は画素Aの座標であり、x、y(x、yは0以上の整数)は座標値である。図14は、画素Aのみ生成するために必要なウェーブレット係数を模式的に示した図である。なお、図14では、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。図14(a)は、1次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(a)の斜線部分は、1次のウェーブレット係数の低周波成分である。図14(b)は、2次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(b)の斜線部分は、2次のウェーブレット係数の低周波成分である。図14(c)は、3次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(c)の斜線部分は、3次のウェーブレット係数の低周波成分である。図14(d)は、4次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(d)の斜線部分は、4次のウェーブレット係数の低周波成分である。図14(e)は、4次のウェーブレット係数の低周波成分である各領域b〜dを示した図である。図15は、画素Aのみ生成するために必要なウェーブレット係数を読み出す処理の流れを示したフローチャートである。図16は、図14および図15に示した処理に関する数値例を示した図である。   FIG. 13 is a diagram schematically illustrating a specific pixel A in the mipmap image in units of 20 image blocks. In the example of FIG. 13, it is assumed that the acquired mipmap level is 0, and the pixel A exists in the mipmap image of the mipmap level 0. Here, the mipmap image shown in FIG. 13 has a mipmap level of 0 and is an image of 20 image blocks. Therefore, the mipmap image shown in FIG. 13 corresponds to an image represented by the entire low-frequency component of the 0th-order wavelet coefficient. (Ux, Vy) shown in FIG. 13 are the coordinates of the pixel A, and x and y (x and y are integers of 0 or more) are coordinate values. FIG. 14 is a diagram schematically illustrating the wavelet coefficients necessary for generating only the pixel A. In FIG. 14, it is assumed that wavelet coefficients converted until the fourth-order wavelet coefficient is obtained in the wavelet transform unit 12 are stored in the main memory 2. FIG. 14A is a diagram showing the regions b to d that are high-frequency components of the primary wavelet coefficients. The shaded portion in FIG. 14A is the low frequency component of the primary wavelet coefficient. FIG. 14B is a diagram illustrating the regions b to d that are high-frequency components of the secondary wavelet coefficients. The shaded area in FIG. 14B is the low frequency component of the secondary wavelet coefficient. FIG. 14C is a diagram illustrating the regions b to d that are high-frequency components of the third-order wavelet coefficients. The shaded area in FIG. 14C is the low frequency component of the third-order wavelet coefficient. FIG. 14D is a diagram illustrating the regions b to d that are high-frequency components of the fourth-order wavelet coefficients. The shaded portion in FIG. 14D is the low frequency component of the fourth-order wavelet coefficient. FIG. 14E is a diagram showing the regions b to d that are low-frequency components of the fourth-order wavelet coefficients. FIG. 15 is a flowchart showing a flow of processing for reading out a wavelet coefficient necessary for generating only the pixel A. FIG. 16 is a diagram illustrating numerical examples related to the processes illustrated in FIGS. 14 and 15.

画素Aのみ生成するためには、図14に示すP1〜P5の係数が必要となる。P1は、1次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P1の座標値は、画素Aの座標値x、yをそれぞれ2で除算した値となり、P1の座標は、図14(a)に示すように(Ux/2、Vy/2)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/2、Vx/2)は、各領域b〜dにおいて、それぞれの左上端点を座標(U0、V0)としたときの座標を示している。この座標の取り方については、後述にて数値例を挙げて説明する。P2は、2次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P2の座標値は、画素Aの座標値x、yをそれぞれ4で除算した値となり、P2の座標は、図14(b)に示すように(Ux/4、Vy/4)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/4、Vy/4)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P3は、3次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P3の座標値は、画素Aの座標値x、yをそれぞれ8で除算した値となり、P3の座標は、図14(c)に示すように(Ux/8、Vy/8)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/8、Vy/8)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P4は、4次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P4の座標値は、画素Aの座標値x、yをそれぞれ16で除算した値となり、P4の座標は、図14(d)に示すように(Ux/16、Vy/16)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/16、Vy/16)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P5は、4次のウェーブレット係数の低周波成分である領域a内に存在している。P5の座標値は、画素Aの座標値x、yをそれぞれ16で除算した値となり、P4の座標は、図14(e)に示すように(Ux/16、Vy/16)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/16、Vy/16)は、領域aにおいて、左上端を座標(U0、V0)としたときの座標を示している。   In order to generate only the pixel A, the coefficients P1 to P5 shown in FIG. 14 are required. One P1 exists in each of the regions b to d that are high-frequency components of the primary wavelet coefficients. The coordinate value of P1 is a value obtained by dividing the coordinate values x and y of the pixel A by 2, and the coordinates of P1 are (Ux / 2, Vy / 2) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 2, Vx / 2) indicate the coordinates when the respective upper left corner points are the coordinates (U0, V0) in the respective regions b to d. The method of taking these coordinates will be described later with numerical examples. One P2 exists in each of the regions b to d that are high-frequency components of the secondary wavelet coefficients. The coordinate value of P2 is a value obtained by dividing the coordinate values x and y of the pixel A by 4, and the coordinates of P2 are (Ux / 4, Vy / 4) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 4, Vy / 4) indicate the coordinates when the upper left corners of the respective areas b to d are the coordinates (U0, V0). One P3 exists in each of the regions b to d that are high-frequency components of the third-order wavelet coefficients. The coordinate value of P3 is a value obtained by dividing the coordinate values x and y of the pixel A by 8 respectively, and the coordinates of P3 are (Ux / 8, Vy / 8) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 8, Vy / 8) indicate the coordinates when the upper left corner of each of the regions b to d is the coordinates (U0, V0). One P4 exists in each of the regions b to d that are high-frequency components of the fourth-order wavelet coefficients. The coordinate value of P4 is a value obtained by dividing the coordinate values x and y of the pixel A by 16, and the coordinates of P4 are (Ux / 16, Vy / 16) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. Coordinates (Ux / 16, Vy / 16) indicate the coordinates when the upper left corner of each region b to d is the coordinate (U0, V0). P5 exists in the region a which is a low-frequency component of the fourth-order wavelet coefficient. The coordinate value of P5 is a value obtained by dividing the coordinate values x and y of the pixel A by 16, and the coordinates of P4 are (Ux / 16, Vy / 16) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 16, Vy / 16) indicate the coordinates when the upper left corner is the coordinates (U0, V0) in the region a.

次に、図15を参照して、画素Aのみ生成するために必要なウェーブレット係数を読み出す処理の流れを一般化して説明する。図14の説明では、画素Aがミップマップレベル0のミップマップ画像内に存在するとしたが、図15に示す処理は、より一般的に画素AがミップマップレベルLのミップマップ画像内に存在する場合に対して適用できる。図15に示す処理を図7のステップS202において行えば、ウェーブレット逆変換部14は、ウェーブレット係数の低周波成分のうち、画素Aを表す一部の係数のみを求めるように、逆変換処理を行うことができる。なお、図15の説明では、ミップマップレベル取得部13で取得されたミップマップレベルをLとする。Lは0以上の整数である。またウェーブレット変換部12は、(L+M)次のウェーブレット係数が得られるまで変換処理を行っているとする。Mは1以上の整数である。   Next, with reference to FIG. 15, the flow of processing for reading out wavelet coefficients necessary for generating only the pixel A will be generalized and described. In the description of FIG. 14, the pixel A is present in the mipmap image at the mipmap level 0. However, in the process shown in FIG. 15, the pixel A is more generally present in the mipmap image at the mipmap level L. Applicable to the case. If the process shown in FIG. 15 is performed in step S202 of FIG. 7, the wavelet inverse transform unit 14 performs an inverse transform process so as to obtain only some of the coefficients representing the pixel A among the low frequency components of the wavelet coefficients. be able to. In the description of FIG. 15, the mipmap level acquired by the mipmap level acquisition unit 13 is L. L is an integer of 0 or more. Further, it is assumed that the wavelet transform unit 12 performs the transform process until the (L + M) -th wavelet coefficient is obtained. M is an integer of 1 or more.

図15において、ウェーブレット逆変換部14は、取得されたミップマップレベルLに1を加算する(ステップS2021)。ステップS2021の次に、ウェーブレット逆変換部14は、画素Aの座標値x、yをそれぞれ2で除算し、読み出すべき係数P1の座標(Ux/2、Vy/2)を算出する(ステップS2022)。但し、除算した値が整数ではない場合、小数点以下を切り捨てる。ステップS2022の次に、ウェーブレット逆変換部14は、ステップS2021で求めた値(L+1)と同じ次数のウェーブレット係数に対し、その高周波成分である各領域b〜dから、係数P1(Ux/2、Vx/2)をそれぞれ読み出す(ステップS2023)。ステップS2023の次に、ウェーブレット逆変換部14は、ステップS2023で読み出したウェーブレット係数の次数が、メインメモリ2に記憶されたウェーブレット係数が示す最高の次数(L+M)と一致するか否かを判断する(ステップS2024)。今、ステップS2023で読み出したウェーブレット係数の次数は(L+1)であるので、ステップS2024ではNoと判断され、処理はステップS2025に進む。ステップS2025において、ウェーブレット逆変換部14は、ステップS2023で読み出したウェーブレット係数の次数を1つ繰り上げる(ステップS2025)。ステップS2023で読み出したウェーブレット係数の次数は(L+1)であるので、ステップS2025の処理により、次数は(L+2)となる。ステップS2025の次に、処理はステップS2021に進む。ステップS2021において、ウェーブレット逆変換部14は、係数P1の座標値x/2、y/2をそれぞれ2で除算し、読み出すべき係数P2の座標(Ux/4、Vy/4)を算出する。   In FIG. 15, the wavelet inverse transform unit 14 adds 1 to the acquired mipmap level L (step S2021). Following step S2021, the wavelet inverse transform unit 14 divides the coordinate values x and y of the pixel A by 2 to calculate the coordinates (Ux / 2, Vy / 2) of the coefficient P1 to be read (step S2022). . However, if the divided value is not an integer, the decimal part is rounded down. Next to step S2022, the wavelet inverse transform unit 14 applies the coefficient P1 (Ux / 2, from the regions b to d, which are high-frequency components, to the wavelet coefficient of the same order as the value (L + 1) obtained in step S2021. Vx / 2) is read out (step S2023). Following step S2023, the wavelet inverse transform unit 14 determines whether or not the order of the wavelet coefficient read in step S2023 matches the highest order (L + M) indicated by the wavelet coefficient stored in the main memory 2. (Step S2024). Now, since the order of the wavelet coefficient read in step S2023 is (L + 1), it is determined No in step S2024, and the process proceeds to step S2025. In step S2025, the wavelet inverse transformation unit 14 increments the order of the wavelet coefficient read in step S2023 by one (step S2025). Since the order of the wavelet coefficient read in step S2023 is (L + 1), the order is (L + 2) by the processing in step S2025. Following step S2025, processing proceeds to step S2021. In step S2021, the wavelet inverse transformation unit 14 calculates the coordinates (Ux / 4, Vy / 4) of the coefficient P2 to be read by dividing the coordinate values x / 2 and y / 2 of the coefficient P1 by 2, respectively.

このように、ステップS2022〜S2025の処理が、次数が(L+1)から(L+M)となるまで繰り返される。ここで、1以上M以下の整数をmとおく。この場合、ステップS2022〜S2025を繰り返す処理は、(L+m)次のウェーブレット係数の高周波成分から、画素Aの座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次の間で次数毎に受け取る処理であるといえる。   As described above, the processes in steps S2022 to S2025 are repeated until the order is changed from (L + 1) to (L + M). Here, an integer from 1 to M is set as m. In this case, the process of repeating steps S2022 to S2025 is performed by a wavelet coefficient corresponding to a coordinate value composed of an integer value obtained by dividing the coordinate value of the pixel A by 2 m to the (L + m) high-frequency component of the next wavelet coefficient. It can be said that this is a process of receiving only every order between the (L + 1) th order and the (L + M) th order.

最終的に、ステップS2023で読み出したウェーブレット係数の次数が最高の次数(L+M)と一致する場合(ステップS2024でYes)、処理はステップS2026に進む。ステップS2026において、ウェーブレット逆変換部14は、(L+M)次のウェーブレット係数の低周波成分から、画素Aの座標値を2のM乗で除算した結果の整数値のみからなる座標値で特定されるウェーブレット係数のみを受け取る。   Finally, if the order of the wavelet coefficient read in step S2023 matches the highest order (L + M) (Yes in step S2024), the process proceeds to step S2026. In step S2026, the wavelet inverse transform unit 14 is specified by a coordinate value consisting only of an integer value obtained by dividing the coordinate value of the pixel A by the Mth power of 2 from the low frequency component of the (L + M) -th wavelet coefficient. Only receive wavelet coefficients.

図16に示す数値例を参照して、図14および図15に示した処理をより具体的に説明する。なお、図16では、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。図16において、例えば、ミップマップレベル2のミップマップ画像における(U3、V2)に存在する画素が画素Aであるとする。この場合の画素Aの座標値は、x=3、y=2となる。このとき、3次のウェーブレット係数では、画素Aのみ生成するために必要な係数Pの座標値は、x=3/2=1、y=2/2=1となる。つまり、係数Pの座標は、(U1、V1)となる。また、この係数Pの座標は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域bの(U2、V0)、領域cの(U0、V2)、領域dの(U2、V2)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、領域bでは(U3、V1)、領域cでは(U1、V3)、領域dでは(U3、V3)となる。次に、4次のウェーブレット係数では、画素Aのみ生成するために必要な係数Pの座標値は、x=3/4=0、y=2/4=0となる。つまり、係数Pの座標は、(U0、V0)となる。また、この係数Pの座標は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域bの(U1、V0)、領域cの(U0、V1)、領域dの(U1、V1)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、領域bでは(U1、V0)、領域cでは(U0、V1)、領域dでは(U1、V1)となる。また、図16では、4次が最高の次数である。また、係数Pの座標は、低周波成分である領域aの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域aの(U0、V0)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、(U0、V0)となる。このように、画素(U3、V2)を生成するためには、メインメモリ2に記憶されたウェーブレット係数のうち、(U3、V1)、(U1、V3)、(U3、V3)、(U1、V0)、(U0、V1)、(U1、V1)、(U0、V0)の計7個の係数のみ必要となる。なお、例えばミップマップレベルが2.3の場合、画素Aに対応するミップマップレベル3の画素を求める必要があるが、図16の画素Aに対応するミップマップレベル3の画素は(U1、V1)となる。これはミップマップレベル2の画素A(U3、V2)を求める過程で求めることができる。   The processing shown in FIGS. 14 and 15 will be described more specifically with reference to the numerical example shown in FIG. In FIG. 16, it is assumed that the main memory 2 stores wavelet coefficients that have been converted until a quaternary wavelet coefficient is obtained in the wavelet transform unit 12. In FIG. 16, for example, it is assumed that a pixel existing at (U3, V2) in the mipmap image at the mipmap level 2 is the pixel A. In this case, the coordinate values of the pixel A are x = 3 and y = 2. At this time, in the third-order wavelet coefficient, the coordinate values of the coefficient P necessary for generating only the pixel A are x = 3/2 = 1 and y = 2/2 = 1. That is, the coordinates of the coefficient P are (U1, V1). In addition, the coordinates of the coefficient P indicate the coordinates when the upper left corner of each region b to d is the coordinate (U0, V0). That is, in FIG. 16, (U2, V0) in the region b, (U0, V2) in the region c, and (U2, V2) in the region d are (U0, V0) with respect to the coordinates of the coefficient P. Therefore, the coordinates of the coefficient P are (U3, V1) in the region b, (U1, V3) in the region c, and (U3, V3) in the region d. Next, for the quaternary wavelet coefficients, the coordinate values of the coefficient P necessary for generating only the pixel A are x = 3/4 = 0 and y = 2/4 = 0. That is, the coordinates of the coefficient P are (U0, V0). In addition, the coordinates of the coefficient P indicate the coordinates when the upper left corner of each region b to d is the coordinate (U0, V0). That is, in FIG. 16, (U1, V0) in the region b, (U0, V1) in the region c, and (U1, V1) in the region d are (U0, V0) with respect to the coordinates of the coefficient P. Therefore, the coordinates of the coefficient P are (U1, V0) in the region b, (U0, V1) in the region c, and (U1, V1) in the region d. In FIG. 16, the fourth order is the highest order. Further, the coordinates of the coefficient P indicate the coordinates when the upper left corner of the region a which is a low frequency component is the coordinates (U0, V0). That is, in FIG. 16, (U0, V0) of the area a is (U0, V0) with respect to the coordinates of the coefficient P. Therefore, the coordinates of the coefficient P are (U0, V0). Thus, in order to generate the pixel (U3, V2), among the wavelet coefficients stored in the main memory 2, (U3, V1), (U1, V3), (U3, V3), (U1, Only a total of seven coefficients (V0), (U0, V1), (U1, V1), (U0, V0) are required. For example, when the mipmap level is 2.3, it is necessary to obtain a pixel at the mipmap level 3 corresponding to the pixel A, but the pixels at the mipmap level 3 corresponding to the pixel A in FIG. 16 are (U1, V1 ) This can be obtained in the process of obtaining the pixel A (U3, V2) at the mipmap level 2.

なお、4次のウェーブレット係数を含む係数のうち、図16に示した7個の係数だけを用いて4次から2次までウェーブレット逆変換をすると、実際には、2次のウェーブレット係数の低周波成分16個のうち、4個の値が求まる。この4個中から、必要とする(U3、V2)の値を選択するようにすればよい。また、上式(5)〜式(8)を用いて行われる逆変換処理は、4次から3次で1回、3次から2次で1回の計2回だけでよいことになる。つまり、上述した図9では、上式(5)〜式(8)を計5回適用しなければならなかったが、図16では、計2回だけで済むようになる。   Note that when the inverse wavelet transform is performed from the fourth order to the second order using only the seven coefficients shown in FIG. 16 among the coefficients including the fourth order wavelet coefficients, the low frequency of the second order wavelet coefficients is actually used. Of the 16 components, 4 values are obtained. A necessary value (U3, V2) may be selected from the four. Further, the inverse transformation process performed using the above formulas (5) to (8) may be performed twice in total, once from the fourth order to the third order and once from the third order to the second order. That is, in FIG. 9 described above, the above formulas (5) to (8) must be applied a total of five times, but in FIG. 16, only a total of two times is required.

以上のように、ウェーブレット逆変換部14は、メインメモリ2から特定の画素に対応するウェーブレット係数のみを受け取り、受け取ったウェーブレット係数のみを逆変換処理する。これにより、特定の画素のみを生成することができる。その結果、受け取ったウェーブレット係数の数が減る分だけ、ウェーブレット係数の低周波成分に相当する領域内にある全ての係数を受け取って処理する場合よりも、逆変換処理の演算量を小さくすることができる。   As described above, the wavelet inverse transformation unit 14 receives only the wavelet coefficient corresponding to the specific pixel from the main memory 2 and performs inverse transformation processing only on the received wavelet coefficient. Thereby, only specific pixels can be generated. As a result, the amount of inverse transform processing can be reduced by the amount of received wavelet coefficients, compared to the case where all coefficients in the region corresponding to the low frequency component of the wavelet coefficients are received and processed. it can.

なお、図15に示した処理では、次数を1つ繰り上げるたびにメインメモリ2から必要なウェーブレット係数を読み出すとしたが、これに限定されない。メインメモリ2に記憶されたウェーブレット係数を画像ブロック20毎に読み出し、ウェーブレット逆変換部14の内部メモリに保持しておくようにしてもよい。この場合、ウェーブレット逆変換部14は、内部メモリに記憶されたウェーブレット係数の中から、必要なウェーブレット係数を用いて逆変換処理を行うことになる。この場合であっても、ウェーブレット係数の低周波成分に相当する領域内にある全ての係数を受け取って処理する場合よりも、逆変換処理の演算量を小さくすることができる。   In the process shown in FIG. 15, the necessary wavelet coefficients are read from the main memory 2 every time the order is incremented by one. However, the present invention is not limited to this. The wavelet coefficients stored in the main memory 2 may be read for each image block 20 and held in the internal memory of the wavelet inverse transform unit 14. In this case, the wavelet inverse transform unit 14 performs an inverse transform process using necessary wavelet coefficients from the wavelet coefficients stored in the internal memory. Even in this case, it is possible to reduce the amount of calculation of the inverse transformation process compared to the case where all the coefficients in the region corresponding to the low frequency component of the wavelet coefficient are received and processed.

また、図15に示した処理では、図2に示したテクスチャの原画像を構成する複数の画像ブロック20について、画素Aを描画するようにしていたが、これに限定されない。図2に示したテクスチャの原画像を構成する複数の画像ブロック20のうち、いずれか1つの画像ブロック20内にだけ存在する画素Aを描画することも可能である。この場合、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理は、次のような処理となる。まず、図7に示したステップS201の処理が行われる。その後、ウェーブレット逆変換部14は、画素Aの存在する画像ブロック20を特定する。その後、ウェーブレット逆変換部14は、図15に示した処理を行って、特定した画像ブロック20内のウェーブレット係数の中から画素Aを生成するのに必要なウェーブレット係数のみを受け取る。その後、ウェーブレット逆変換部14は、受け取ったウェーブレット係数を逆変換し、逆変換したウェーブレット係数の低周波成分の一部で表された画像を画素Aとしてポリゴン描画部15に出力する。その後、ポリゴン描画部15は、画素Aをポリゴン画像に描画する。   In the processing shown in FIG. 15, the pixel A is drawn for the plurality of image blocks 20 constituting the original image of the texture shown in FIG. 2, but the present invention is not limited to this. It is also possible to draw a pixel A that exists only in one of the plurality of image blocks 20 constituting the texture original image shown in FIG. In this case, the process from the wavelet inverse transform process to the rendering of the polygon image is as follows. First, the process of step S201 shown in FIG. 7 is performed. Thereafter, the wavelet inverse transform unit 14 identifies the image block 20 in which the pixel A exists. After that, the wavelet inverse transform unit 14 performs the process shown in FIG. 15 and receives only the wavelet coefficients necessary for generating the pixel A from the wavelet coefficients in the identified image block 20. Thereafter, the wavelet inverse transformation unit 14 inversely transforms the received wavelet coefficients, and outputs an image represented by a part of the low frequency component of the inversely transformed wavelet coefficients as the pixel A to the polygon rendering unit 15. Thereafter, the polygon drawing unit 15 draws the pixel A on the polygon image.

本発明に係る描画装置は、メインメモリに記憶させるべきデータ量を小さくし、動画像のテクスチャを用いる場合であっても描画装置に接続されたメインメモリの帯域を圧迫することなく、必要となるミップマップレベルのミップマップ画像を生成してポリゴン画像に描画することが可能な描画装置、および当該描画装置を用いた表示装置等に適用される。   The drawing apparatus according to the present invention is required without reducing the amount of data to be stored in the main memory and using the texture of the moving image without squeezing the bandwidth of the main memory connected to the drawing apparatus. The present invention is applied to a drawing device capable of generating a mipmap image at a mipmap level and drawing it on a polygon image, a display device using the drawing device, and the like.

本発明に係る描画装置1aを構成する各ユニットを示した図The figure which showed each unit which comprises the drawing apparatus 1a which concerns on this invention 1フレームに相当するテクスチャの原画像を示す図The figure which shows the original image of the texture equivalent to 1 frame ウェーブレット変換処理の流れを示したフローチャートFlow chart showing the flow of wavelet transform processing 伸張された1つの画像ブロック20分の原画像を示す図The figure which shows the original image for 20 minutes of one extended image block 1次のウェーブレット係数を示す図Diagram showing first-order wavelet coefficients 4次まで変換されたときのウェーブレット係数を示した図Diagram showing wavelet coefficients when converted to 4th order ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートFlow chart showing the flow of processing from inverse wavelet transform processing to drawing a polygon image ウェーブレット係数の低周波成分の次数と、ミップマップレベルとの対応を示した図Diagram showing the correspondence between the order of the low frequency component of the wavelet coefficient and the mipmap level 4次のウェーブレット係数から、ミップマップレベル2のミップマップ画像を生成する過程を模式的に示した図A diagram schematically showing the process of generating a mipmap level 2 mipmap image from the fourth-order wavelet coefficients 静止画のテクスチャを用いる描画装置1bを構成する各ユニットを示す図The figure which shows each unit which comprises the drawing apparatus 1b using the texture of a still image. 変形例1におけるウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートThe flowchart which showed the flow of the process until the polygon image is drawn after the wavelet inverse transformation process in the modification 1 ミップマップレベルが2.3となる場合のミップマップ画像を生成する過程を模式的に示した図The figure which showed typically the process of producing | generating the mipmap image in case a mipmap level will be 2.3. 画像ブロック20単位のミップマップ画像のうちの特定の画素Aを模式的に示した図The figure which showed typically the specific pixel A of the mipmap image of 20 image blocks units 画素Aのみ生成するために必要なウェーブレット係数を模式的に示した図The figure which showed typically the wavelet coefficient required in order to generate only pixel A 画素Aのみ生成するために必要なウェーブレット係数を読み出す処理の流れを示したフローチャートA flowchart showing a flow of processing for reading out a wavelet coefficient necessary for generating only pixel A 図14および図15に示した処理に関する数値例を示した図The figure which showed the numerical example regarding the process shown in FIG. 14 and FIG. テクスチャの原画像の一例と、スクリーン座標に変換されたポリゴン画像の一例とを示す図A diagram showing an example of an original texture image and an example of a polygon image converted to screen coordinates ミップマップ画像の一例を示す図The figure which shows an example of a mipmap image 従来の描画装置5を構成する各ユニットを示す図The figure which shows each unit which comprises the conventional drawing apparatus 5.

符号の説明Explanation of symbols

1a、1b 描画装置
11 動画デコーダ
12 ウェーブレット変換部
13 ミップマップレベル取得部
14 ウェーブレット逆変換部
15 ポリゴン描画部
16 ビデオコントローラ
17 CPU
18 メモリI/F
19 静止画デコーダ
2 メインメモリ
3 液晶パネル
DESCRIPTION OF SYMBOLS 1a, 1b Drawing apparatus 11 Movie decoder 12 Wavelet transformation part 13 Mipmap level acquisition part 14 Wavelet inverse transformation part 15 Polygon drawing part 16 Video controller 17 CPU
18 Memory I / F
19 Still picture decoder 2 Main memory 3 LCD panel

Claims (14)

テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置であって、
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換部と、
前記ミップマップ画像のミップマップレベルを取得するレベル取得部と、
前記ウェーブレット変換部において変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、
前記ウェーブレット逆変換部において出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画部と、を備える、描画装置。
A drawing device that receives an original image of a texture and draws a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform unit that transforms the original image into wavelet coefficients using a Harr wavelet transform formula;
A level acquisition unit for acquiring a mipmap level of the mipmap image;
Receiving at least a part of the wavelet coefficients transformed in the wavelet transform unit, inversely transforming using the Harr wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
A drawing apparatus comprising: a polygon drawing unit that draws an image output from the wavelet inverse transform unit on the polygon image as a mipmap image.
縦および横の画素数がそれぞれ2のN(Nは1以上の整数)乗となる画像ブロック単位で分割されて圧縮された前記原画像を受け取り、当該画像ブロック単位で前記原画像を伸張する伸張部をさらに備え、
前記ウェーブレット変換部は、前記伸張部で伸張された原画像を前記画像ブロック単位でウェーブレット係数に変換することを特徴とする、請求項1に記載の描画装置。
Decompression that receives the original image that has been divided and compressed in units of image blocks in which the number of vertical and horizontal pixels is 2 to the Nth power (N is an integer greater than or equal to 1), and expands the original image in units of the image blocks Further comprising
The drawing apparatus according to claim 1, wherein the wavelet transform unit transforms the original image decompressed by the decompression unit into wavelet coefficients in units of the image blocks.
前記ウェーブレット変換部において変換されたウェーブレット係数の次数が前記Nと同じ値であることを特徴とする、請求項2に記載の描画装置。   The drawing apparatus according to claim 2, wherein the order of the wavelet coefficients converted by the wavelet transform unit is the same value as the N. 複数の前記原画像によって構成される動画像を受け取り、当該原画像を1つずつ前記ウェーブレット変換部に出力する動画像出力部をさらに備える、請求項1に記載の描画装置。   The drawing apparatus according to claim 1, further comprising a moving image output unit that receives a moving image composed of a plurality of the original images and outputs the original images one by one to the wavelet transform unit. 前記ウェーブレット逆変換部は、前記ウェーブレット変換部において変換されたウェーブレット係数のうち、前記ミップマップレベルと同じ値の次数となる前記ウェーブレット係数の低周波成分全体に対応するウェーブレット係数のみを受け取り、前記逆変換を行うことによって、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体で表された画像を出力することを特徴とする、請求項1に記載の描画装置。   The wavelet inverse transform unit receives only the wavelet coefficients corresponding to the entire low-frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed by the wavelet transform unit, and the inverse The drawing apparatus according to claim 1, wherein an image represented by the entire low-frequency component of the wavelet coefficient having the same order as the mipmap level is output by performing conversion. 前記ウェーブレット逆変換部は、前記ウェーブレット変換部において変換されたウェーブレット係数のうち、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部に対応するウェーブレット係数のみを受け取り、前記逆変換を行うことによって、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部で表された画像を出力することを特徴とする、請求項1に記載の描画装置。   The wavelet inverse transform unit receives only the wavelet coefficient corresponding to a part of the low frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed in the wavelet transform unit, The drawing apparatus according to claim 1, wherein an image represented by a part of a low-frequency component of a wavelet coefficient having the same order as the mipmap level is output by performing inverse transformation. 前記ウェーブレット逆変換部は、前記ウェーブレット変換部において変換されたウェーブレット係数のうち、前記ミップマップレベルよりも次数が高いウェーブレット係数の一部のみを受け取ることを特徴とする、請求項6に記載の描画装置。   The drawing according to claim 6, wherein the wavelet inverse transform unit receives only a part of the wavelet coefficients having a higher order than the mipmap level among the wavelet coefficients transformed by the wavelet transform unit. apparatus. 前記ミップマップレベル取得部において取得されたミップマップレベルは、L(Lは0以上の整数)であり、
前記ウェーブレット変換部は、(L+M(Mは1以上の整数))次の前記ウェーブレット係数が得られるまで変換しており、
前記ウェーブレット係数の低周波成分の一部で表された画像は、当該低周波成分全体で表された画像内における所定の座標値で位置が特定されており、
前記ウェーブレット逆変換部は、前記ウェーブレット変換部において変換されたウェーブレット係数のうち、(L+m(mは1以上M以下の整数))次のウェーブレット係数の高周波成分から、前記所定の座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次まで次数毎に受け取るとともに、(L+M)次のウェーブレット係数の低周波成分から、前記所定の座標値を2のM乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを受け取ることを特徴とする、請求項7に記載の描画装置。
The mipmap level acquired by the mipmap level acquisition unit is L (L is an integer of 0 or more),
The wavelet transform unit transforms until the next wavelet coefficient (L + M (M is an integer of 1 or more)) is obtained,
The image represented by a part of the low-frequency component of the wavelet coefficient is specified by a predetermined coordinate value in the image represented by the entire low-frequency component,
The wavelet inverse transform unit converts the predetermined coordinate value to 2 from the high-frequency component of the wavelet coefficient (L + m (m is an integer of 1 to M)) of the wavelet coefficients transformed by the wavelet transform unit. Only the wavelet coefficient corresponding to the coordinate value composed of the integer value obtained by dividing by the m-th power is received for each order from the (L + 1) th order to the (L + M) th order, and from the low frequency component of the (L + M) th order wavelet coefficient, 8. The drawing apparatus according to claim 7, wherein only a wavelet coefficient corresponding to a coordinate value composed of an integer value obtained by dividing the predetermined coordinate value by 2 to the M power is received.
前記ウェーブレット逆変換部は、前記ミップマップレベルが整数ではない場合、受け取ったウェーブレット係数を当該ミップマップレベルの整数値と同じ値の次数となるまで逆変換することによって、前記整数値と同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像と、前記逆変換する過程で得られた前記整数値よりも次数が1つだけ高いウェーブレット係数の低周波成分の少なくとも一部で表された画像とを出力することを特徴とする、請求項1に記載の描画装置。   The wavelet inverse transform unit, when the mipmap level is not an integer, reversely transforms the received wavelet coefficient until the order of the same value as the integer value of the mipmap level is reached, thereby obtaining the same value as the integer value. An image represented by at least a part of the low-frequency component of the wavelet coefficient that is the order, and at least a part of the low-frequency component of the wavelet coefficient that is one order higher than the integer value obtained in the inverse transformation process The drawing apparatus according to claim 1, wherein an image represented by: is output. 前記ウェーブレット変換部は、変換したウェーブレット係数のうち、高周波成分を圧縮することを特徴とする、請求項1に記載の描画装置。   The drawing apparatus according to claim 1, wherein the wavelet transform unit compresses a high-frequency component of the converted wavelet coefficients. テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画方法であって、
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップと、を含む、描画方法。
A drawing method for receiving a texture original image and drawing a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receive at least part of the wavelet coefficients transformed in the wavelet transformation step, and inversely transform using Harr's wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform step for outputting an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
And a polygon drawing step of drawing the image output in the wavelet inverse transformation step as a mipmap image on the polygon image.
テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置をコンピュータに実現させるための描画プログラムであって、
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップとを、前記コンピュータに実現させるための描画プログラム。
A drawing program for causing a computer to implement a drawing device that receives an original texture image and draws a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receive at least part of the wavelet coefficients transformed in the wavelet transformation step, and inversely transform using Harr's wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform step for outputting an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
A drawing program for causing the computer to realize a polygon drawing step of drawing the image output in the wavelet inverse transformation step as a mipmap image on the polygon image.
テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示装置であって、
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換部と、
前記ウェーブレット変換部において変換されたウェーブレット係数を記憶する記憶部と、
前記ミップマップ画像のミップマップレベルを取得するレベル取得部と、
前記ウェーブレット係数の少なくとも一部を前記記憶部から受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、
前記ウェーブレット逆変換部において出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画部と、
前記ポリゴン描画部において描画されたポリゴン画像を表示する表示部と、を備える、表示装置。
A display device that receives a texture original image and displays a polygon image on which a mipmap image generated by reducing the original image is drawn,
A wavelet transform unit that transforms the original image into wavelet coefficients using a Harr wavelet transform formula;
A storage unit for storing the wavelet coefficients converted in the wavelet conversion unit;
A level acquisition unit for acquiring a mipmap level of the mipmap image;
Receiving at least a part of the wavelet coefficients from the storage unit, inversely transforming until the order of the same value as the mipmap level using a Harr wavelet inverse transformation formula, and the order of the same value as the mipmap level; A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient,
A polygon rendering unit that renders the image output in the wavelet inverse transform unit on the polygon image as a mipmap image;
A display unit configured to display a polygon image drawn by the polygon drawing unit.
テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示方法であって、
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数を記憶装置に記憶させる記憶ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット係数の少なくとも一部を前記記憶装置から受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップと、
前記ポリゴン描画ステップにおいて描画されたポリゴン画像を表示する表示ステップと、を含む、表示方法。
A display method for receiving an original image of a texture and displaying a polygon image on which a mipmap image generated by reducing the original image is drawn,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A storage step of storing the wavelet coefficients converted in the wavelet conversion step in a storage device;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receiving at least a portion of the wavelet coefficients from the storage device, inversely transforming until the order of the same value as the mipmap level is obtained using a Harr wavelet inverse transformation formula, and the order of the same value as the mipmap level; A wavelet inverse transform step for outputting an image represented by at least part of the low frequency component of the wavelet coefficient,
A polygon rendering step for rendering the image output in the wavelet inverse transform step on the polygon image as a mipmap image;
A display step of displaying the polygon image drawn in the polygon drawing step.
JP2007210889A 2006-08-28 2007-08-13 Drawing apparatus, drawing method, and drawing program Expired - Fee Related JP5004717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007210889A JP5004717B2 (en) 2006-08-28 2007-08-13 Drawing apparatus, drawing method, and drawing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006231169 2006-08-28
JP2006231169 2006-08-28
JP2007210889A JP5004717B2 (en) 2006-08-28 2007-08-13 Drawing apparatus, drawing method, and drawing program

Publications (3)

Publication Number Publication Date
JP2008084302A true JP2008084302A (en) 2008-04-10
JP2008084302A5 JP2008084302A5 (en) 2010-05-06
JP5004717B2 JP5004717B2 (en) 2012-08-22

Family

ID=39355043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007210889A Expired - Fee Related JP5004717B2 (en) 2006-08-28 2007-08-13 Drawing apparatus, drawing method, and drawing program

Country Status (1)

Country Link
JP (1) JP5004717B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121237A (en) * 2018-01-09 2019-07-22 株式会社コーエーテクモゲームス Program, image processing method and image processing device
US10438317B2 (en) 2014-09-12 2019-10-08 Samsung Electronics Co., Ltd. Method and apparatus for rendering
JP2022520264A (en) * 2019-05-05 2022-03-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image brightness adjustment methods and devices, electronic devices and computer programs
JP2022066505A (en) * 2018-01-09 2022-04-28 株式会社コーエーテクモゲームス Program, image processing method and image processing device
JP7472127B2 (en) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド Image size triggered clarification to maintain image clarity

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230555A (en) * 1993-12-22 1995-08-29 Matsushita Electric Ind Co Ltd Mip map image generating device/method
JP2004236032A (en) * 2003-01-30 2004-08-19 Ricoh Co Ltd Image compression apparatus, decoder, image forming apparatus, program, and storage medium
JP2005286472A (en) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd Image processing apparatus and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230555A (en) * 1993-12-22 1995-08-29 Matsushita Electric Ind Co Ltd Mip map image generating device/method
JP2004236032A (en) * 2003-01-30 2004-08-19 Ricoh Co Ltd Image compression apparatus, decoder, image forming apparatus, program, and storage medium
JP2005286472A (en) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd Image processing apparatus and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438317B2 (en) 2014-09-12 2019-10-08 Samsung Electronics Co., Ltd. Method and apparatus for rendering
JP2019121237A (en) * 2018-01-09 2019-07-22 株式会社コーエーテクモゲームス Program, image processing method and image processing device
JP7039294B2 (en) 2018-01-09 2022-03-22 株式会社コーエーテクモゲームス Programs, image processing methods, and image processing equipment
JP2022066505A (en) * 2018-01-09 2022-04-28 株式会社コーエーテクモゲームス Program, image processing method and image processing device
JP7303340B2 (en) 2018-01-09 2023-07-04 株式会社コーエーテクモゲームス Program, image processing method, and image processing apparatus
JP7472127B2 (en) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド Image size triggered clarification to maintain image clarity
JP2022520264A (en) * 2019-05-05 2022-03-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image brightness adjustment methods and devices, electronic devices and computer programs
JP7226893B2 (en) 2019-05-05 2023-02-21 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image luminance adjustment method and device, electronic device and computer program

Also Published As

Publication number Publication date
JP5004717B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
KR100609614B1 (en) Method and apparatus for transmitting picture data, processing pictures and recording medium therefor
US7898550B2 (en) System and method for memory bandwidth compressor
KR100856211B1 (en) High speed image processing scheme based on graphics processing unit
KR102669366B1 (en) Video processing system
CN101123723A (en) Digital video decoding method based on image processor
JP2006014341A (en) Method and apparatus for storing image data using mcu buffer
JP5004717B2 (en) Drawing apparatus, drawing method, and drawing program
CN113170140A (en) Bit plane encoding of data arrays
US20140085300A1 (en) Stochastic Depth Buffer Compression Using Generalized Plane Encoding
KR20010043394A (en) Method and apparatus for increasing memory resource utilization in an information stream decoder
US5892518A (en) Image generating apparatus with pixel calculation circuit including texture mapping and motion compensation
KR20210031296A (en) Electronic apparatus and control method thereof
US7911478B2 (en) Drawing device, drawing method, and drawing program
JP6186429B2 (en) Information processing apparatus, control method, program, and recording medium
US20050219252A1 (en) Two-dimensional buffer, texture and frame buffer decompression
US8655062B2 (en) Image decoding method and image processing apparatus using same
US10733764B2 (en) Texture processing method and device
JP2021174404A (en) Data generation device, training device, and data generation method
JP2004328178A (en) Image processing apparatus
JP4274187B2 (en) Display data decompression method, display data compression / decompression method, display data decompression device, and display data compression / decompression device
JP2013074315A (en) Image processor and image processing system
JP2011175542A (en) Image data processor
JP6377222B2 (en) Information processing apparatus, control method, program, and recording medium
JP7008425B2 (en) Image processing device, image processing method, and program
JPH11146400A (en) Image processing unit

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5004717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees