JP2008084302A - Drawing device, drawing method, and drawing program - Google Patents
Drawing device, drawing method, and drawing program Download PDFInfo
- Publication number
- JP2008084302A JP2008084302A JP2007210889A JP2007210889A JP2008084302A JP 2008084302 A JP2008084302 A JP 2008084302A JP 2007210889 A JP2007210889 A JP 2007210889A JP 2007210889 A JP2007210889 A JP 2007210889A JP 2008084302 A JP2008084302 A JP 2008084302A
- Authority
- JP
- Japan
- Prior art keywords
- wavelet
- image
- mipmap
- order
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、描画装置、描画方法、および描画プログラムに関し、より特定的には、3次元コンピュータグラフィックスにおける表示物体表面のテクスチャ画像であるミップマップ画像をポリゴン画像に描画する描画装置、描画方法、および描画プログラムに関するものである。 The present invention relates to a drawing apparatus, a drawing method, and a drawing program, and more specifically, a drawing apparatus, a drawing method, and a drawing method for drawing a mipmap image that is a texture image of a display object surface in three-dimensional computer graphics on a polygon image. And a drawing program.
従来、3次元コンピュータグラフィックスの手法のひとつとして、立体を構成するポリゴン画像にテクスチャ画像を描画するテクスチャマッピングという手法が知られている。テクスチャ画像とは、表示物体表面の模様を表した画像である。 Conventionally, as one of three-dimensional computer graphics techniques, a technique called texture mapping is known in which a texture image is drawn on a polygon image forming a solid. A texture image is an image representing a pattern on the surface of a display object.
3次元コンピュータグラフィックスにおいて、立体は「ポリゴン画像」と呼ばれる平面多角形(一般的に3角形に限定することが多い)の画像の集合によって構成される。ポリゴン画像は、「ワールド座標」と呼ばれる3次元座標系によって定義されている。立体が表示部(例えばLCDモニタなど)で表示される際には、幾何変換処理が施され、当該立体に定義された「ワールド座標」が「スクリーン座標」と呼ばれる2次元座標系に変換される。スクリーン座標とは、表示画面の左上端点の座標を(0、0)とする2次元座標系である。例えば表示部が横1920画素、縦1080画素の表示デバイスで構成される場合、スクリーン座標の値は(0、0)から(1919、1079)の間の数値を取り得ることとなる。テクスチャの原画像の一例と、スクリーン座標に変換されたポリゴン画像の一例とを図17に示す。図17(a)は、スクリーン座標に変換されたポリゴン画像の一例を示す図である。図17(b)は、テクスチャの原画像の一例を示す図である。図17(a)において、As、Bs、Csはポリゴン画像の各頂点を示す点である。各頂点のスクリーン座標は、As(Xa、Ya)、Bs(Xb、Yb)、Cs(Xc、Yc)となる。なお、図17(a)に示すように、各頂点には、スクリーン座標以外に、後述するテクスチャ座標も示されている。 In 3D computer graphics, a solid is composed of a set of images of planar polygons (generally limited to triangles) called “polygon images”. The polygon image is defined by a three-dimensional coordinate system called “world coordinates”. When a solid is displayed on a display unit (such as an LCD monitor), a geometric transformation process is performed, and the “world coordinates” defined for the solid are converted into a two-dimensional coordinate system called “screen coordinates”. . The screen coordinates are a two-dimensional coordinate system in which the coordinates of the upper left point of the display screen are (0, 0). For example, when the display unit is configured by a display device having 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction, the value of the screen coordinates can take a numerical value between (0, 0) and (1919, 1079). FIG. 17 shows an example of an original texture image and an example of a polygon image converted into screen coordinates. FIG. 17A is a diagram illustrating an example of a polygon image converted into screen coordinates. FIG. 17B is a diagram illustrating an example of an original texture image. In FIG. 17A, As, Bs, and Cs are points indicating each vertex of the polygon image. The screen coordinates of each vertex are As (Xa, Ya), Bs (Xb, Yb), and Cs (Xc, Yc). As shown in FIG. 17A, each vertex also has texture coordinates, which will be described later, in addition to the screen coordinates.
テクスチャマッピングでは、テクスチャの原画像と、その原画像内の場所を示す2つの数値(テクスチャ座標)とを用いて処理が行われる。図17(b)において、テクスチャの原画像のサイズが例えば縦横双方とも1024画素であった場合、テクスチャ座標の値は(0、0)から(1023、1023)の間の数値を取り得ることとなる。ここで、ポリゴン画像の頂点Asに対応するテクスチャ座標上の点をAt(Ua、Va)と、頂点Bsに対応するテクスチャ座標上の点をBt(Ub、Vb)と、頂点Csに対応するテクスチャ座標上の点をCt(Uc、Vc)とする。このとき、AtからAsへ、BtからBsへ、CtからCsへの写像によってテクスチャマッピングが行われる。なおこの場合、頂点As〜Csからなるポリゴン画像の形状と、頂点At〜Ctからなるテクスチャの原画像内の形状とを比較すると、ポリゴン画像の方が小さい。したがって、テクスチャの原画像は、上述したテクスチャマッピングによって縮小されることとなる。 In texture mapping, processing is performed using a texture original image and two numerical values (texture coordinates) indicating a location in the original image. In FIG. 17B, when the size of the texture original image is, for example, 1024 pixels both vertically and horizontally, the value of the texture coordinate can take a value between (0, 0) and (1023, 1023). Become. Here, a point on the texture coordinates corresponding to the vertex As of the polygon image is At (Ua, Va), a point on the texture coordinates corresponding to the vertex Bs is Bt (Ub, Vb), and a texture corresponding to the vertex Cs. Let the point on the coordinates be Ct (Uc, Vc). At this time, texture mapping is performed by mapping from At to As, from Bt to Bs, and from Ct to Cs. In this case, when the shape of the polygon image composed of the vertices As to Cs is compared with the shape in the texture original image composed of the vertices At to Ct, the polygon image is smaller. Therefore, the texture original image is reduced by the texture mapping described above.
しかしながら、テクスチャの原画像が縮小して処理される場合、画像縮小処理や音声のダウンサンプル処理と同様の折り返しノイズが発生するという問題があった。そこで、この問題を回避すべく、「ミップマップ画像」を用いる手法が提案されている(例えば、非特許文献1参照)。ミップマップ画像は、図18に示すように、テクスチャの原画像をミップマップレベル毎に縮小して生成された画像である。図18は、ミップマップ画像の一例を示す図である。図18(a)は、テクスチャの原画像の一例を示す図である。図18(b)は、ミップマップレベル1のミップマップ画像を示す図である。図18(c)は、ミップマップレベル2のミップマップ画像を示す図である。図18(d)は、ミップマップレベル3のミップマップ画像を示す図である。図18(e)は、ミップマップレベル4のミップマップ画像を示す図である。図18(a)〜(e)に示す枠内の数値は、輝度の値を示している。ミップマップレベル1のミップマップ画像は、テクスチャの原画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像である。ミップマップレベル2〜4のミップマップ画像も同様に、1つ前のレベルの画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像となる。
However, when the texture original image is reduced and processed, there is a problem that aliasing noise similar to the image reduction processing and the audio down-sampling processing occurs. In order to avoid this problem, a method using a “mipmap image” has been proposed (see, for example, Non-Patent Document 1). As shown in FIG. 18, the mipmap image is an image generated by reducing the original texture image for each mipmap level. FIG. 18 is a diagram illustrating an example of a mipmap image. FIG. 18A is a diagram illustrating an example of an original texture image. FIG. 18B is a diagram showing a mipmap image at the
以下、ミップマップ画像の生成方法について具体的に説明する。ミップマップレベル1のミップマップ画像を生成する場合、テクスチャの原画像の近傍4画素が有する輝度の平均をとる。図18(a)に示す原画像において(U0、V0)の輝度32と、(U0、V1)の輝度40と、(U1、V0)の輝度32と、(U1、V1)の輝度40とを平均すると、輝度は36となる。この輝度36が、図18(b)に示すミップマップレベル1のミップマップ画像における(U0、V0)の輝度の値となる。同様に、原画像における(U2、V0)、(U2、V1)、(U3、V0)、および(U3、V1)の輝度の平均をとった値が、ミップマップレベル1のミップマップ画像における(U1、V0)の輝度の値となる。このようにして、1つ前のミップマップレベルのミップマップ画像の近傍4画素が有する輝度の平均をとることで、各ミップマップレベルのミップマップ画像が生成される。また、近傍4画素の平均をとってミップマップ画像を生成することで、低域通過フィルタを作用させることができ、上述した折り返しノイズを発生させないようにすることができる。
Hereinafter, a method for generating a mipmap image will be described in detail. When a mipmap image of
以下、図19を参照して、上述したミップマップ画像を用いる手法を実現する従来の描画装置5について説明する。図19は、従来の描画装置5を構成する各ユニットを示す図である。描画装置5を構成する各ユニットは、内部バスを介してそれぞれ接続されている。各ユニットは、メモリI/F(メモリインターフェイス)57を経由してメインメモリ6にデータを書き込んだり、読み出したりすることによって処理を行っている。
Hereinafter, with reference to FIG. 19, a
ミップマップ生成部51は、静止画像であるテクスチャの原画像が記憶された記憶媒体(例えば、CD−ROMなど)から、CD−ROMドライブ(図示なし)などを用いて原画像を読み出す。ミップマップ生成部51は、上述した生成方法によって、読み出した原画像からミップマップレベルが1以上のミップマップ画像を生成する。生成された各ミップマップレベルのミップマップ画像は、メインメモリ6に書き込まれる。ポリゴン幾何変換部53は、ポリゴン画像に定義されたワールド座標をスクリーン座標に変換する。またポリゴン幾何変換部53は、ポリゴン画像上の点のスクリーン座標と、その点に対応する原画像上の点のテクスチャ座標とを比較して、原画像の縮小率を算出する。ポリゴン幾何変換部53は、算出した縮小率から、必要となるミップマップレベルを取得する。テクスチャ参照部52は、取得されたミップマップレベルとなるミップマップ画像をメインメモリ6から読み出し、ポリゴン描画部54に出力する。ポリゴン描画部54は、テクスチャ参照部52から出力されたミップマップ画像をポリゴン画像に描画する。ミップマップ画像が描画されたポリゴン画像は、メインメモリ6に書き込まれる。液晶パネル7は、ビデオコントローラ55に制御されて、ミップマップ画像が描画されたポリゴン画像を表示する。CPU56は上記各ユニットの処理を全体的に制御する。
The
このように、従来の描画装置5は、多種類のミップマップ画像を生成して、描画装置5に接続されたメインメモリ6に記憶させ、必要となるミップマップ画像をメインメモリ6から読み出してポリゴン画像に描画している。
しかしながら、従来の描画装置5では、テクスチャマッピングを行うに際し、多種類のミップマップ画像を、描画装置5に接続されたメインメモリ6に記憶させる必要がある。また、多種類のミップマップ画像のデータ量は大量である。このため、大きな記憶容量を有するメインメモリ6が必要になるという課題があった。さらに、動画像のテクスチャ画像を用いる場合には、多種類のミップマップ画像をフレーム毎に生成してメインメモリ6に記憶させる必要がある。このため、動画像のテクスチャ画像を用いる場合には、メインメモリ6の帯域を圧迫してしまうという課題があった。
However, in the
それ故、本発明は、メインメモリに記憶させるべきデータ量を小さくし、動画像のテクスチャを用いる場合であっても描画装置に接続されたメインメモリの帯域を圧迫することなく、必要となるミップマップレベルのミップマップ画像を生成してポリゴン画像に描画することが可能な描画装置を提供することを目的とする。 Therefore, the present invention reduces the amount of data to be stored in the main memory, and even if moving image texture is used, the necessary mip is not required without squeezing the bandwidth of the main memory connected to the drawing device. An object of the present invention is to provide a drawing device capable of generating a map-level mipmap image and drawing it on a polygon image.
第1の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換部と、ミップマップ画像のミップマップレベルを取得するレベル取得部と、ウェーブレット変換部において変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、ウェーブレット逆変換部において出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画部と、を備える。 A first invention is a drawing apparatus that receives an original image of a texture, draws a mipmap image generated by reducing the original image on a polygon image, and uses the Harr wavelet transform formula to convert the original image into a wavelet A wavelet transform unit that converts to a coefficient, a level acquisition unit that acquires a mipmap level of a mipmap image, and receives at least a part of the wavelet coefficients converted by the wavelet transform unit, and mips it using a Harr wavelet inverse transform formula A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient that has the same order as the mipmap level by performing an inverse transform until the order has the same value as the map level, and a wavelet The image output in the inverse transform unit is the mipmap image And a polygon rendering unit which renders the polygon image by.
第2の発明は、上記第1の発明において、縦および横の画素数がそれぞれ2のN(Nは1以上の整数)乗となる画像ブロック単位で分割されて圧縮された原画像を受け取り、当該画像ブロック単位で原画像を伸張する伸張部をさらに備え、ウェーブレット変換部は、伸張部で伸張された原画像を画像ブロック単位でウェーブレット係数に変換することを特徴とする。なお、伸張部は、例えば、後述する実施形態に記載した動画デコーダ11や静止画デコーダ19での伸張処理を担う処理部に相当する。
A second invention receives the original image divided and compressed in image block units in which the number of vertical and horizontal pixels is N to the power of N (N is an integer of 1 or more) in the first invention, The image processing apparatus further includes an expansion unit that expands the original image in units of the image block, and the wavelet transform unit converts the original image expanded by the expansion unit into wavelet coefficients in units of image blocks. The decompressing unit corresponds to, for example, a processing unit that performs decompression processing in the moving
第3の発明は、上記第2の発明において、ウェーブレット変換部において変換されたウェーブレット係数の次数がNと同じ値であることを特徴とする。 According to a third aspect, in the second aspect, the order of the wavelet coefficients converted by the wavelet conversion unit is the same value as N.
第4の発明は、上記第1の発明において、複数の原画像によって構成される動画像を受け取り、当該原画像を1つずつウェーブレット変換部に出力する動画像出力部をさらに備える。なお、動画像出力部は、例えば、後述する実施形態に記載した動画デコーダ11での出力処理を担う処理部に相当する。
According to a fourth aspect of the present invention, in the first aspect of the present invention further includes a moving image output unit that receives a moving image composed of a plurality of original images and outputs the original images one by one to the wavelet transform unit. Note that the moving image output unit corresponds to, for example, a processing unit that performs output processing in the moving
第5の発明は、上記第1の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応するウェーブレット係数のみを受け取り、逆変換を行うことによって、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体で表された画像を出力することを特徴とする。 In a fifth aspect based on the first aspect, the wavelet inverse transform unit corresponds to the entire low frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed in the wavelet transform unit. By receiving only the wavelet coefficients to be processed and performing inverse transformation, an image represented by the entire low-frequency component of the wavelet coefficients having the same order as the mipmap level is output.
第6の発明は、上記第1の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部に対応するウェーブレット係数のみを受け取り、逆変換を行うことによって、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の一部で表された画像を出力することを特徴とする。 In a sixth aspect based on the first aspect, the wavelet inverse transform unit includes a part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level among the wavelet coefficients transformed by the wavelet transform unit. By receiving only the wavelet coefficient corresponding to, and performing inverse transformation, an image represented by a part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level is output.
第7の発明は、上記第6の発明において、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、ミップマップレベルよりも次数が高いウェーブレット係数の一部のみを受け取ることを特徴とする。 In a seventh aspect based on the sixth aspect, the wavelet inverse transform unit receives only a part of the wavelet coefficients having a higher order than the mipmap level among the wavelet coefficients transformed by the wavelet transform unit. And
第8の発明は、上記第7の発明において、ミップマップレベル取得部において取得されたミップマップレベルは、L(Lは0以上の整数)であり、ウェーブレット変換部は、(L+M(Mは1以上の整数))次のウェーブレット係数が得られるまで変換しており、ウェーブレット係数の低周波成分の一部で表された画像は、当該低周波成分全体で表された画像内における所定の座標値で位置が特定されており、ウェーブレット逆変換部は、ウェーブレット変換部において変換されたウェーブレット係数のうち、(L+m(mは1以上M以下の整数))次のウェーブレット係数の高周波成分から、所定の座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次まで次数毎に受け取るとともに、(L+M)次のウェーブレット係数の低周波成分から、所定の座標値を2のM乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを受け取ることを特徴とする。 In an eighth aspect based on the seventh aspect, the mipmap level acquired by the mipmap level acquisition unit is L (L is an integer of 0 or more), and the wavelet transform unit is (L + M (M is 1). The above integer)) The image is converted until the next wavelet coefficient is obtained, and the image represented by a part of the low frequency component of the wavelet coefficient is a predetermined coordinate value in the image represented by the entire low frequency component. And the wavelet inverse transform unit determines a predetermined wavelet coefficient from the high-frequency component of the wavelet coefficient (L + m (m is an integer from 1 to M)) of the wavelet coefficients transformed by the wavelet transform unit. Only wavelet coefficients corresponding to coordinate values composed of integer values obtained by dividing the coordinate value by 2 to the power of m are obtained for each order from the (L + 1) th order to the (L + M) th order. Receiving with, and wherein the receiving only wavelet coefficients corresponding to the coordinate values consisting of an integer value of (L + M) results from the low-frequency component of the next wavelet coefficients, divided by 2 M squared predetermined coordinate value.
第9の発明は、上記第1の発明において、ウェーブレット逆変換部は、ミップマップレベルが整数ではない場合、受け取ったウェーブレット係数を当該ミップマップレベルの整数値と同じ値の次数となるまで逆変換することによって、整数値と同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像と、逆変換する過程で得られた整数値よりも次数が1つだけ高いウェーブレット係数の低周波成分の少なくとも一部で表された画像とを出力することを特徴とする。 In a ninth aspect based on the first aspect, when the mipmap level is not an integer, the wavelet inverse transformation unit inversely transforms the received wavelet coefficient until the order of the same value as the integer value of the mipmap level is reached. By doing so, the image represented by at least a part of the low-frequency component of the wavelet coefficient having the same order as the integer value, and the wavelet coefficient whose order is one higher than the integer value obtained in the inverse transformation process And an image represented by at least a part of the low-frequency component.
第10の発明は、上記第1の発明において、ウェーブレット変換部は、変換したウェーブレット係数のうち、高周波成分を圧縮することを特徴とする。 In a tenth aspect based on the first aspect, the wavelet transform unit compresses a high frequency component of the transformed wavelet coefficients.
第11の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画方法であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップと、を含む。 An eleventh aspect of the present invention is a drawing method for receiving a texture original image and drawing a mipmap image generated by reducing the original image on a polygon image. The drawing method uses a Harr wavelet transform formula to convert the original image into a wavelet. A wavelet transform step for transforming into coefficients, a level obtaining step for obtaining the mipmap level of the mipmap image, and receiving at least a part of the wavelet coefficients transformed in the wavelet transform step, and mips using the Harr wavelet inverse transform formula A wavelet inverse transform step that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient that has the same order as the mipmap level by performing an inverse transform until the order has the same value as the map level, and a wavelet In the inverse transformation step It includes a polygon drawing step of drawing the polygon image force image as mipmap image.
第12の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像をポリゴン画像に描画する描画装置をコンピュータに実現させるための描画プログラムであって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップとを、コンピュータに実現させるための描画プログラムである。 A twelfth aspect of the present invention is a drawing program for causing a computer to implement a drawing apparatus that receives an original texture image and draws a mipmap image generated by reducing the original image on a polygon image. A wavelet transform step for transforming the original image into wavelet coefficients using the transformation formula; a level acquisition step for obtaining a mipmap level of the mipmap image; and at least a part of the wavelet coefficients transformed in the wavelet transform step; Using the inverse wavelet transform formula, the inverse transform is performed until the order has the same value as the mipmap level, and an image represented by at least part of the low-frequency component of the wavelet coefficient having the same order as the mipmap level is obtained. Output wavelet inverse transform And-up, and a polygon drawing step of drawing the polygon image as mipmap images images outputted in the inverse wavelet transform step, a drawing program for realizing on a computer.
第13の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示装置であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換部と、ウェーブレット変換部において変換されたウェーブレット係数を記憶する記憶部と、ミップマップ画像のミップマップレベルを取得するレベル取得部と、ウェーブレット係数の少なくとも一部を記憶部から受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、ウェーブレット逆変換部において出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画部と、ポリゴン描画部において描画されたポリゴン画像を表示する表示部と、を備える。 A thirteenth aspect of the invention is a display device that receives a texture original image and displays a polygon image on which a mipmap image generated by reducing the original image is drawn, and uses the Harr wavelet transform equation to display the original image. A wavelet conversion unit that converts an image into wavelet coefficients, a storage unit that stores wavelet coefficients converted by the wavelet conversion unit, a level acquisition unit that acquires a mipmap level of a mipmap image, and at least a part of the wavelet coefficients At least part of the low-frequency component of the wavelet coefficient that is received from the storage unit and inversely transformed using the Harr wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained. A wavelet inverse transform unit that outputs the image represented by It includes a polygon drawing unit for drawing a polygon image output image in over wavelet inverse transformation unit as a mipmap image, a display unit for displaying a polygon image drawn in the polygon drawing unit.
第14の発明は、テクスチャの原画像を受け取り、当該原画像を縮小して生成されるミップマップ画像が描画されたポリゴン画像を表示する表示方法であって、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換するウェーブレット変換ステップと、ウェーブレット変換ステップにおいて変換されたウェーブレット係数を記憶装置に記憶させる記憶ステップと、ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、ウェーブレット係数の少なくとも一部を記憶装置から受け取り、Harrのウェーブレット逆変換式を用いてミップマップレベルと同じ値の次数となるまで逆変換して、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像としてポリゴン画像に描画するポリゴン描画ステップと、ポリゴン描画ステップにおいて描画されたポリゴン画像を表示する表示ステップと、を含む。 A fourteenth aspect of the invention is a display method for receiving a texture original image and displaying a polygon image on which a mipmap image generated by reducing the original image is drawn, using the Harr wavelet transform formula. A wavelet transform step for transforming the image into wavelet coefficients, a storage step for storing the wavelet coefficients transformed in the wavelet transform step in a storage device, a level acquisition step for obtaining a mipmap level of the mipmap image, and at least one of the wavelet coefficients A part is received from the storage device, and inversely transformed until the order of the same value as the mipmap level is obtained using the Harr wavelet inverse transformation formula, and the low-frequency component of the wavelet coefficient having the same order as the mipmap level is obtained. Image represented at least in part An output wavelet inverse transform step, a polygon rendering step for rendering the image output in the wavelet inverse transform step as a mipmap image on a polygon image, and a display step for displaying the polygon image rendered in the polygon rendering step .
上記第1の発明によれば、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換し、当該ウェーブレット係数を逆変換することで必要となるミップマップレベルのミップマップ画像を生成することができる。これにより、記憶させるべきデータをウェーブレット係数のみにすることができ、多種類のミップマップ画像を大量に記憶させることなく、必要となるミップマップレベルのミップマップ画像を生成することができる。また、記憶させるべきデータをウェーブレット係数のみにすることができるため、描画装置に接続されるべき記憶装置が必要とする記憶容量を小さくすることができる。また、テクスチャが動画像であっても、フレーム毎に生成される多種類のミップマップ画像を上記記憶装置に記憶させる必要がないため、記憶装置の帯域の圧迫を防ぐことができる。 According to the first aspect of the present invention, a mipmap image of a required mipmap level is generated by converting an original image into wavelet coefficients using a Harr wavelet transform formula and inversely transforming the wavelet coefficients. it can. As a result, the data to be stored can be only wavelet coefficients, and a necessary mipmap level mipmap image can be generated without storing a large amount of various types of mipmap images. In addition, since the data to be stored can be only wavelet coefficients, the storage capacity required for the storage device to be connected to the drawing device can be reduced. Further, even if the texture is a moving image, it is not necessary to store various types of mipmap images generated for each frame in the storage device, so that it is possible to prevent compression of the bandwidth of the storage device.
上記第2の発明によれば、例えばMPEGやJPEGなどによって画像ブロック単位で分割されて圧縮された原画像に対し、当該原画像を伸張する処理単位と、ウェーブレット係数に変換する処理単位とを一致させることができる。これにより、処理効率を向上させることができ、ミップマップ画像をより高速に生成することができる。 According to the second aspect of the invention, for an original image divided and compressed in image block units by, for example, MPEG or JPEG, the processing unit for expanding the original image and the processing unit for converting into wavelet coefficients are the same. Can be made. Thereby, processing efficiency can be improved and a mipmap image can be generated at a higher speed.
上記第3の発明によれば、画像ブロックの画素数に応じた種類のミップマップ画像を生成することができる。 According to the third aspect, a mipmap image of a type corresponding to the number of pixels of the image block can be generated.
上記第4の発明によれば、描画装置に接続されるべき記憶装置の帯域を圧迫することなく、動画像のテクスチャを用いた描画処理が可能となる。 According to the fourth aspect of the invention, it is possible to perform drawing processing using the texture of a moving image without squeezing the bandwidth of the storage device to be connected to the drawing device.
上記第5の発明によれば、ウェーブレット逆変換部が受け取るデータ量がさらに小さくなり、描画装置に接続されるべき記憶装置の帯域の圧迫をさらに抑えることができる。また、ウェーブレット逆変換部が受け取るデータ量が小さくなる分だけ、ミップマップ画像を生成するための演算量を小さくすることができる。 According to the fifth aspect, the amount of data received by the wavelet inverse transform unit is further reduced, and the compression of the bandwidth of the storage device to be connected to the drawing device can be further suppressed. In addition, the amount of calculation for generating the mipmap image can be reduced by the amount of data received by the inverse wavelet transform unit.
上記第6〜8の発明によれば、ウェーブレット逆変換部が受け取るデータ量がさらに小さくなり、描画装置に接続されるべき記憶装置の帯域の圧迫をさらに抑えることができる。また、ウェーブレット逆変換部が受け取るデータ量が小さくなる分だけ、ミップマップ画像を生成するための演算量を小さくすることができる。 According to the sixth to eighth aspects of the invention, the amount of data received by the wavelet inverse transform unit is further reduced, and the compression of the bandwidth of the storage device to be connected to the drawing device can be further suppressed. In addition, the amount of calculation for generating the mipmap image can be reduced by the amount of data received by the inverse wavelet transform unit.
上記第9の発明によれば、次数が異なる複数のウェーブレット係数の低周波成分、つまりミップマップレベルの異なる複数のミップマップ画像が、逆変換する過程で自動的に得られる。このため、上記第9の発明よれば、複数のミップマップ画像それぞれを一から生成する場合と比べて、複数のミップマップ画像をより高速に生成することができる。 According to the ninth aspect, low-frequency components of a plurality of wavelet coefficients having different orders, that is, a plurality of mipmap images having different mipmap levels are automatically obtained in the process of inverse transformation. Therefore, according to the ninth aspect, it is possible to generate a plurality of mipmap images at a higher speed than when generating each of the plurality of mipmap images from scratch.
上記第10の発明によれば、記憶させるべきデータ量をさらに小さくすることができる。その結果、描画装置に接続されるべき記憶装置が必要とする記憶容量をさらに小さくすることができる。 According to the tenth aspect, the amount of data to be stored can be further reduced. As a result, the storage capacity required by the storage device to be connected to the drawing device can be further reduced.
以下、本発明の実施形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明に係る描画装置1aを構成する各ユニットを示した図である。図1において、描画装置1aは、動画デコーダ11、ウェーブレット変換部12、ミップマップレベル取得部13、ウェーブレット逆変換部14、ポリゴン描画部15、ビデオコントローラ16、CPU17、およびメモリI/F(メモリインターフェイス)18を備える。描画装置1aは、メインメモリ2および液晶パネル3とそれぞれ接続されている。描画装置1aは、1チップのシステムLSIで構成される。メインメモリ2は、半導体メモリやハードディスクドライブなどで構成された記憶装置である。なお、本発明に係る表示装置は、描画装置1a、メインメモリ2、および液晶パネル3により構成されるものである。また、図1では、液晶パネル3を示したが、ポリゴン画像を表示することが可能なものであればよく、例えばPDPパネルであってもよい。また、以下の説明では、テクスチャとして動画像を用いた場合について説明する。
FIG. 1 is a diagram showing each unit constituting the
描画装置1aを構成する各ユニットは、内部バスを介してそれぞれ接続されている。各ユニットは、メモリI/F18を経由してメインメモリ2にデータを書き込んだり、読み出したりすることによって処理を行っている。
Each unit constituting the
動画デコーダ11は、MPEGなどで圧縮されたテクスチャの動画像データが記憶された記憶媒体(例えば、CD−ROMなど)から、動画像データをCD−ROMドライブ(図示なし)などを用いて読み出す。動画デコーダ11は、読み出した動画像データを伸張して、ウェーブレット変換部12に出力する。
The moving
動画像データは、静止画像であるテクスチャの原画像1つを1フレームとし、当該フレームを複数集合させて構成されるデータである。図2に、1フレームに相当するテクスチャの原画像を示す。図2では、一例として、縦1088画素、横1920画素を有するテクスチャの原画像が示されている。 The moving image data is data composed of one texture original image that is a still image as one frame and a plurality of such frames. FIG. 2 shows an original texture image corresponding to one frame. In FIG. 2, as an example, an original texture image having 1088 vertical pixels and 1920 horizontal pixels is shown.
ここで、MPEGに代表される圧縮された動画像データの伸張処理は、一般的に横および縦の画素数がそれぞれ2のN乗(Nは1以上の整数)となる画像ブロック20(MPEGではマクロブロックと称す)単位で行われることが多い。より一般的には、画像ブロック20が有する総画素数は、8画素から256画素程度である。したがってここでは、画像ブロック20に分割されて圧縮された原画像で構成される動画像データが、記憶媒体などに予め記憶されているとする。また図2では、一例として画像ブロック20の縦および横の画素数をそれぞれ16画素としている。動画デコーダ11は、画像ブロック20単位で原画像を記憶媒体から読み出し、読み出した原画像を伸張するとする。このように、画像ブロック20単位で処理を行うことで、動画デコード11の伸張処理単位と、後述するウェーブレット変換部12の変換処理単位とが一致することとなる。その結果、処理効率が向上し、ミップマップ画像を高速に生成することができる。
Here, decompression processing of compressed moving image data typified by MPEG is generally an image block 20 (in MPEG, where the number of horizontal and vertical pixels is 2 to the Nth power (N is an integer of 1 or more). This is often performed in units of macroblocks). More generally, the total number of pixels that the
ウェーブレット変換部12は、Harrのウェーブレット変換式を用いて、画像ブロック20分の原画像をウェーブレット係数に変換する。変換されたウェーブレット係数は、メインメモリ2に書き込まれる。なお、変換されたウェーブレット係数や、ウェーブレット変換部12における変換処理については、後述にて詳細に説明する。
The
ミップマップレベル取得部13は、記憶媒体(例えば、CD−ROMなど)に記憶されたポリゴン画像のデータを、CD−ROMドライブ(図示なし)などを用いて読み出す。ミップマップレベル取得部13は、ポリゴン画像に定義されたワールド座標をスクリーン座標に変換する。またミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。ここで縮小率とは、テクスチャの原画像に対して、縦および横方向にどれだけ縮小されたかを示す比率である。例えば、縦および横方向にそれぞれ1/2だけ縮小する場合、縮小率は1/2となる。なお、縮小率の算出方法については、公知の方法を用いるとし、ここでは詳細な説明を省略する。ミップマップレベル取得部13は、算出した縮小率から、必要となるミップマップレベルを取得する。
The mipmap
以下、ミップマップレベルの取得方法について具体的に説明する。ミップマップレベル1のミップマップ画像は、上述したようにテクスチャの原画像に対して縦および横方向にそれぞれ1/2だけ縮小された画像である。ミップマップレベル2のミップマップ画像は、テクスチャの原画像に対して縦および横方向にそれぞれ1/4だけ縮小された画像である。したがって、ミップマップレベル取得部13において算出した縮小率が1/4に近い場合、ミップマップレベル取得部13は、ミップマップレベル2のミップマップレベルを取得する。
Hereinafter, a method for obtaining the mipmap level will be described in detail. The mipmap image of the
なお、より一般的には、算出される縮小率が1/P(Pは1以上の整数)の場合、ミップマップレベル取得部13で取得すべきミップマップレベルは、log2P(2を底とする対数)で求めることができる。log2Pの値が整数にならない場合、四捨五入した整数値をミップマップレベルとしてもよい。また、log2Pの値が整数にならない場合に、そのlog2Pの値を挟む2つのミップマップレベルをそれぞれ取得し、これらのレベルのミップマップ画像を混ぜ合わせるようにしてもよい。混ぜ合わせる比率としては、例えばlog2Pの値が2.3となる場合、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを7:3の比率で混ぜ合わせる。またミップマップレベル取得部13は、log2Pに特定の値を加減算するようにして、ミップマップレベルを取得するようにしてもよい。
More generally, when the calculated reduction ratio is 1 / P (P is an integer equal to or greater than 1), the mipmap level to be acquired by the mipmap
なお、ミップマップレベル取得部13は、算出した縮小率からミップマップレベルを取得するとしたが、これに限定されない。ユーザが表示シーンの構成に応じて直接ミップマップレベルを指定し、ミップマップレベル取得部13は、ユーザによって指定されたミップマップレベルを取得するようにしてもよい。
Although the mipmap
ウェーブレット逆変換部14は、ウェーブレット変換部12において変換されたウェーブレット係数をメインメモリ2から読み出す。ウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルと同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する。ウェーブレット逆変換部14は、逆変換して求めたウェーブレット係数の低周波成分で表された画像をポリゴン描画部15に出力する。ウェーブレット逆変換部14におけるウェーブレット逆変換処理については、後述にて詳細に説明する。
The wavelet
ポリゴン描画部15は、ウェーブレット逆変換部14から出力された画像をミップマップ画像としてポリゴン画像に描画する。具体的には、ポリゴン描画部15は、ポリゴン画像内の画素の輝度をその画素に対応するミップマップ画像上の画素の輝度としてポリゴン画像内全てについて求める。内部すべての画素の輝度が求められたポリゴン画像は、メインメモリ2に書き込まれる。
The
液晶パネル3は、ビデオコントローラ16に制御されて、ミップマップ画像が描画されたポリゴン画像を表示する。CPU17は、上記各ユニットの処理を全体的に制御する。
The
次に、図3を参照して、ウェーブレット変換部12におけるウェーブレット変換処理について詳細に説明する。図3は、ウェーブレット変換処理の流れを示したフローチャートである。
Next, the wavelet transform process in the
ステップS101において、動画デコーダ11は、圧縮された原画像を画像ブロック20分だけ記憶媒体から読み出す。ステップS101の次に、動画デコーダ11は、読み出した原画像を伸張する(ステップS102)。図4に、伸張された1つの画像ブロック20分の原画像を示す。各枠は画素を表し、各枠内の数値は輝度を表している。なお、MPEGなどの動画像データに対応した動画デコーダ11は、一般的に、R、G、BまたはY、U、Vの3種類の輝度を画素ごとに出力する。しかしながら、ここでは説明を簡単にするために、図4では1種類の輝度のみを表している。
In step S101, the moving
ステップS102の次に、ウェーブレット変換部12は、Harrのウェーブレット変換式を用いて、画像ブロック20分の原画像をウェーブレット係数に変換する(ステップS103)。本発明に用いるHarrのウェーブレット変換式を式(1)〜(4)に示す。
a=(A+B+C+D)/4 …(1)
b=(A−B+C−D)/4 …(2)
c=(A+B−C−D)/4 …(3)
d=(A−B−C+D)/4 …(4)
上式(1)〜(4)において、aをウェーブレット係数の低周波成分、b、c、dをウェーブレット係数の高周波成分と称す。また、A、B、C、Dは、近傍4画素の輝度を示す。
After step S102, the
a = (A + B + C + D) / 4 (1)
b = (A−B + C−D) / 4 (2)
c = (A + B−C−D) / 4 (3)
d = (A−B−C + D) / 4 (4)
In the above formulas (1) to (4), a is referred to as a low-frequency component of a wavelet coefficient, and b, c, and d are referred to as high-frequency components of a wavelet coefficient. A, B, C, and D indicate the luminance of neighboring four pixels.
以下、一例として図4の左上端にある4画素をウェーブレット変換する場合について考える。左上端にある4画素のうち、(U0、V0)の輝度がA、(U1、V0)の輝度がB、(U0、V1)の輝度がC、(U1、V1)の輝度がDとなる。これらA〜Dが示す輝度は、A=32、B=32、C=40、D=40である。またこれらA〜Dの輝度を式(1)〜式(4)に代入すると、a=36、b=0、c=−4、d=0となる。 Hereinafter, as an example, consider the case where wavelet transform is performed on the four pixels at the upper left corner of FIG. Of the four pixels at the upper left corner, the luminance of (U0, V0) is A, the luminance of (U1, V0) is B, the luminance of (U0, V1) is C, and the luminance of (U1, V1) is D. . The luminances A to D are A = 32, B = 32, C = 40, and D = 40. When the luminances A to D are substituted into the equations (1) to (4), a = 36, b = 0, c = -4, and d = 0.
得られたa〜dの値は、図5に示す位置に配置される。図5は、1次のウェーブレット係数を示す図である。図5に示すように、aは(U0、V0)に、bは(U8、V0)に、cは(U0、V8)に、dは(U8、V8)にそれぞれ配置される。このような処理を画像ブロック20全ての画素について、図4の左上端から4画素ずつ処理していくことで、最終的に図5に示したウェーブレット係数が得られる。以上の処理が1次のウェーブレット変換処理となり、図5に示したウェーブレット係数が1次のウェーブレット係数となる。なお、1次のウェーブレット係数は、図5に示すように、低周波成分であるa、高周波成分であるb、c、dの領域に区分されることとなる。
The obtained values of a to d are arranged at the positions shown in FIG. FIG. 5 is a diagram illustrating first-order wavelet coefficients. As shown in FIG. 5, a is arranged at (U0, V0), b is arranged at (U8, V0), c is arranged at (U0, V8), and d is arranged at (U8, V8). By performing such processing for all the pixels of the
次に、ウェーブレット変換部12は、1次のウェーブレット係数の低周波成分aに対して、式(1)〜式(4)を用いて1次と同様のウェーブレット変換処理を行う。この処理によって算出されたウェーブレット係数が2次のウェーブレット係数となる。このように2次以降は、低周波成分に対してウェーブレット変換処理を行っていく。図6は、4次まで変換されたときのウェーブレット係数を示した図である。図6の31は、1次のウェーブレット係数の高周波成分を示す。図6の32は、2次のウェーブレット係数の高周波成分を示す。図6の33は、3次のウェーブレット係数の高周波成分を示す。図6の34は、4次のウェーブレット係数の高周波成分を示す。図6の35は、4次のウェーブレット係数の低周波成分を示す。なお、4次のウェーブレット係数の低周波成分35は、1つの画素しか有しない。したがって、縦および横の画素数がそれぞれ16画素となる画像ブロック20にあっては、4次より高次のウェーブレット変換処理を行うことはできない。
Next, the
ここで、ウェーブレット変換処理は、必ずしも変換処理ができなくなる次数まで行う必要はない。しかしながら、変換処理ができなくなる次数まで変換処理を行うことで、最終的に、画像ブロック20の画素数に応じたより多くの種類のミップマップ画像を生成することができる。ここで、横および縦の画素数がそれぞれ2のN乗となる画像ブロック20に対して、変換処理ができなくなる次数はNとなる。したがって、ウェーブレット変換部12においてN次のウェーブレット係数が得られるまで変換処理を行うようにすれば、異なる画素数の画像ブロック20単位で処理が行われても、当該画像ブロック20の画素数に応じたより多くの種類のミップマップ画像を生成することができる。
Here, the wavelet transform process does not necessarily have to be performed up to the order at which the transform process cannot be performed. However, by performing the conversion process up to the order at which the conversion process cannot be performed, finally, more types of mipmap images corresponding to the number of pixels of the
ステップS103の次に、ウェーブレット変換部12は、図6に示すウェーブレット係数をメインメモリ2に書き込む(ステップS104)。ウェーブレット変換部12は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで処理したか否かを判断する(ステップS105)。最後の画像ブロック20まで処理していないと判断された場合、次の画像ブロック20についてステップS101の処理が行われる。最後の画像ブロック20まで処理したと判断された場合、処理はステップS106へ進む。ステップS106においてウェーブレット変換部12は、最後のフレームまで処理したか否かを判断する。最後のフレームまで処理していないと判断された場合、次のフレームについてステップS101の処理が行われる。最後のフレームまで処理したと判断された場合、ウェーブレット変換部12における処理は終了する。
Following step S103, the
なお、図3に示した処理では、1種類の輝度のみを対象として説明した。しかし、R、G、BまたはY、U、Vの3種類の輝度がある場合は、上述したステップS101〜S104の処理を3回繰り返す。つまり、輝度の種類数だけ、上述したステップS101〜S104の処理を繰り返せばよい。 In the process shown in FIG. 3, only one type of luminance has been described. However, if there are three types of luminance, R, G, B or Y, U, V, the above-described processing of steps S101 to S104 is repeated three times. That is, the above-described steps S101 to S104 may be repeated for the number of types of luminance.
また、図3に示した処理手順は一例であって、実際のシステムLSIでは、ステップS102とステップ103の処理が同時に動作するように実装することも可能である。つまり、ウェーブレット変換部12がウェーブレット変換している間に、動画デコーダ11がひとつ先の画像ブロック20を伸張することも可能である。また、動画デコーダ11とウェーブレット変換部12との間にFIFOメモリ(図示なし)をさらに設け、数個または数十個の画像ブロック20をバッファリングすることも可能である。この場合、動画デコーダ11は、数個から数十個先の画像ブロック20まで先行して伸張する。
Further, the processing procedure shown in FIG. 3 is merely an example, and in an actual system LSI, it is possible to mount so that the processing of step S102 and step 103 operates simultaneously. That is, the moving
次に、図7を参照して、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理について詳細に説明する。図7は、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートである。 Next, with reference to FIG. 7, the process from the wavelet inverse transform process to the rendering of the polygon image will be described in detail. FIG. 7 is a flowchart showing the flow of processing from the wavelet inverse transform processing to the rendering of a polygon image.
ステップS201において、ミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。そして、ミップマップレベル取得部13は、算出した縮小率から、必要となるミップマップレベルを取得する。
In step S201, the mipmap
ステップS201の次に、ウェーブレット逆変換部14は、メインメモリ2に記憶された画像ブロック20分のウェーブレット係数のうち、ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみを読み出す(ステップS202)。そしてウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルと同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する(ステップS203)。
After step S201, the wavelet
以下、ステップS202およびS203の処理について詳細に説明する。上述したように、ミップマップ画像は、近傍4画素の平均をとって生成されるのが一般的である。これに対し、ウェーブレット係数の低周波成分も式(1)に示したように、近傍4画素の平均をとって求められる。つまり、ウェーブレット係数の低周波成分を求める式(1)と、ミップマップ画像を生成する式とが同じ式となる。これにより、図5に示す1次のウェーブレット係数の低周波成分aで表現される画像の輝度と、図18(b)に示すミップマップレベル1のミップマップ画像の輝度とは一致する。その結果、ウェーブレット係数の低周波成分で表現される画像は、従来と同じ低域通過フィルタが作用したミップマップ画像となる。
Hereinafter, the processing of steps S202 and S203 will be described in detail. As described above, the mipmap image is generally generated by taking the average of four neighboring pixels. On the other hand, the low-frequency component of the wavelet coefficient is also obtained by taking the average of four neighboring pixels as shown in the equation (1). That is, the equation (1) for obtaining the low frequency component of the wavelet coefficient is the same as the equation for generating the mipmap image. Thereby, the brightness of the image represented by the low-frequency component a of the primary wavelet coefficient shown in FIG. 5 and the brightness of the mipmap image of the
図8は、ウェーブレット係数の低周波成分の次数と、ミップマップレベルとの対応を示した図である。図8に示すように、4次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル4のミップマップ画像とが同じ画像となる。3次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル3のミップマップ画像とが同じ画像となる。また2次のウェーブレット係数の低周波成分で表現される画像とミップマップレベル2のミップマップ画像とが同じ画像となる。また1次のウェーブット係数の低周波成分で表現される画像とミップマップレベル1のミップマップ画像とが同じ画像となる。この対応を利用すれば、4次のウェーブレット係数から任意のミップマップレベルのミップマップ画像を簡単に生成することが可能となる。
FIG. 8 is a diagram showing the correspondence between the order of the low-frequency component of the wavelet coefficient and the mipmap level. As shown in FIG. 8, the image represented by the low-frequency component of the fourth-order wavelet coefficient and the mipmap image at the
ここで、ステップS201で取得されたミップマップレベルが2であるとする。このとき、ウェーブレット逆変換部14は、2次のウェーブレット係数の低周波成分で表現される画像が生成されるまで、逆変換処理を行う。ここで、ミップマップレベル2のミップマップ画像は、図9に示すように、縦4画素、横4画素とする計16画素を有する。図9は、4次のウェーブレット係数から、ミップマップレベル2のミップマップ画像を生成する過程を模式的に示した図である。したがって、2次のウェーブレット係数の低周波成分で表現される画像を生成するためには、ステップS202においてウェーブレット逆変換部14が、メインメモリ2に記憶されるウェーブレット係数のうち、4次のウェーブレット係数を含む左上端の16個の係数のみ読み出せばよい。つまり、ステップS202において、ウェーブレット逆変換部14は、ステップS201において取得されたミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみをメインメモリ2から読み出せばよいこととなる。換言すれば、ウェーブレット逆変換部14は、ステップS201において取得されたミップマップレベルのミップマップ画像に相当する領域内にあるウェーブレット係数のみを、メインメモリ2から読み出せばよいこととなる。これにより、ウェーブレット逆変換部14がメインメモリ2から受け取るデータ量をさらに小さくすることができる。その結果、メインメモリ2の帯域の圧迫をさらに抑えることができる。
Here, it is assumed that the mipmap level acquired in step S201 is 2. At this time, the wavelet
ここで、本発明に用いるHarrのウェーブレット逆変換式を式(5)〜(8)に示す。式(5)〜式(8)は、式(1)〜式(4)の逆変換式となる。
A=a+b+c+d …(5)
B=a−b+c−d …(6)
C=a+b−c−d …(7)
D=a−b−c+d …(8)
Here, the inverse Harr wavelet transform equations used in the present invention are shown in equations (5) to (8). Expressions (5) to (8) are inverse conversion expressions of Expressions (1) to (4).
A = a + b + c + d (5)
B = a−b + c−d (6)
C = a + b−c−d (7)
D = a−b−c + d (8)
図9に示す4次のウェーブレット係数は、a=(U0,V0)=97、b=(U1,V0)=−10、c=(U0,V1)=−10、d=(U1,V1)=2となる。これらa〜dの輝度を上式(5)〜式(8)に代入することによって、A〜Dの輝度が得られる。得られたA〜Dの輝度は、図9に示すように、3次のウェーブレット係数の低周波成分となる。同様に、上式(5)〜式(8)を用いることで、図9に示す3次のウェーブレット係数から、2次のウェーブレット係数の低周波成分が得られる。そして、図9に示すように、2次のウェーブレット係数の低周波成分で表現された画像は、ミップマップレベル2のミップマップ画像を一致することが分かる。
The fourth-order wavelet coefficients shown in FIG. 9 are a = (U0, V0) = 97, b = (U1, V0) = − 10, c = (U0, V1) = − 10, d = (U1, V1). = 2. The luminances A to D are obtained by substituting the luminances a to d into the above equations (5) to (8). The obtained luminances A to D are low-frequency components of the third-order wavelet coefficient as shown in FIG. Similarly, by using the above equations (5) to (8), the low-frequency component of the second-order wavelet coefficient can be obtained from the third-order wavelet coefficient shown in FIG. Then, as shown in FIG. 9, it can be seen that the image expressed by the low-frequency component of the second-order wavelet coefficient matches the mipmap image at the
ステップS203の次に、ポリゴン描画部15は、ウェーブレット逆変換部14から出力された画像をミップマップ画像としてポリゴン画像に描画する(ステップS204)。ステップS204の次に、ポリゴン描画部15は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで描画する処理を行ったか否かを判断する(ステップS205)。最後の画像ブロック20まで描画する処理を行っていないと判断された場合、次の画像ブロック20についてステップS202の処理が行われる。最後の画像ブロック20まで描画する処理を行ったと判断された場合、処理はステップS206へ進む。ステップS206においてポリゴン描画部15は、最後のフレームまで処理が行われたか否かを判断する。最後のフレームまで処理が行われていないと判断された場合、次のフレームについてステップS201の処理が行われる。最後のフレームまで処理が行われたと判断された場合、処理は終了する。
After step S203, the
以上のように、本発明に係る描画装置1aによれば、Harrのウェーブレット変換式を用いて原画像をウェーブレット係数に変換し、当該ウェーブレット係数を逆変換することで必要となるミップマップレベルのミップマップ画像を生成することができる。これにより、メインメモリ2に記憶させるべきデータをウェーブレット係数のみにすることができ、多種類のミップマップ画像を大量に記憶させることなく、必要となるミップマップレベルのミップマップ画像を生成することができる。また、メインメモリ2に記憶させるべきデータをウェーブレット係数のみにすることができるため、描画装置1aに接続されたメインメモリ2が必要とする記憶容量を小さくさせることができる。
As described above, according to the
また本発明に係る描画装置1aによれば、テクスチャが動画像であっても、フレーム毎に生成される多種類のミップマップ画像をメインメモリ2に記憶させる必要がないため、メインメモリ2の帯域の圧迫を防ぐことができる。
Further, according to the
また、従来において、離散コサイン変換(DCT)を用いて多数のミップマップ画像を用意する代わりにDCT係数だけをメインメモリ上に保持する技術が提案されている。しかしながら、この従来技術では、テクスチャを参照するごとにDCT係数を保持するための逆DCT処理が必要になる。これにより、回路規模が増大するという問題がある。さらに、従来のミップマップ画像を用いる手法とは異なる低域通過フィルタを用いているため、描画結果に関して従来のミップマップ画像を用いる手法と比べて画質が劣化するという問題もある。さらに、逆DCT処理は、処理負担が大きい。その結果、描画装置の処理性能を向上させるのが難しいという問題もある。 Conventionally, a technique has been proposed in which only DCT coefficients are stored in a main memory instead of preparing a large number of mipmap images using discrete cosine transform (DCT). However, this conventional technique requires an inverse DCT process for holding a DCT coefficient each time a texture is referenced. As a result, there is a problem that the circuit scale increases. Furthermore, since a low-pass filter different from the method using the conventional mipmap image is used, there is a problem that the image quality is deteriorated with respect to the drawing result as compared with the method using the conventional mipmap image. Furthermore, the inverse DCT process has a large processing load. As a result, there is a problem that it is difficult to improve the processing performance of the drawing apparatus.
これに対し、本発明に係る描画装置1aによれば、DCTおよび逆DCT処理よりも処理負担が軽いウェーブレット変換および逆変換を採用している。これにより、回路規模を小さくすることができる。また、処理負担が軽いので、描画装置の処理性能も従来と比べて向上させることができる。また、Harrのウェーブレット変換式を用いて変換する場合、従来のミップマップ画像を用いる手法と同じ低域通過フィルタを作用させることができる。これにより、従来のミップマップ画像を用いる手法と同一の画質を確保することができる。
On the other hand, according to the
なお、上述では、ウェーブレット変換部12は、変換したウェーブレット係数をメインメモリ2に記憶するとした。ここで、ウェーブレット係数の高周波成分は、人の目に認識されにくいという特徴をもつ。したがって、ウェーブレット係数の高周波成分に対して、情報量を削減するような量子化処理、エントロピー符号化、および算術符号化などを施して、可逆または非可逆圧縮してからメインメモリ2に記憶することも可能である。これにより、メインメモリ2のさらなる少容量化を実現することができる。
In the above description, the
また、テクスチャが一般的な自然画の場合、ウェーブレット係数の高周波成分の絶対値が小さい値に偏るという特徴をもつ。したがって自然画の場合には、特にエントロピー符号化による可逆圧縮する方がより効果的である。また、ウェーブレット係数の高周波成分は、可逆または非可逆圧縮のいずれの方法で圧縮されてもよいが、好ましくは、可逆圧縮した方がよい。可逆圧縮した場合、従来のミップマップ画像を用いる手法と完全に同一のミップマップ画像を得ることができるためである。なお、ウェーブレット変換部12でウェーブレット係数の高周波成分を非可逆または可逆圧縮した場合、ウェーブレット逆変換部14では、メインメモリ2から読み込む時に、圧縮された高周波成分を伸張するようにすればよい。
In addition, when the texture is a general natural image, the absolute value of the high frequency component of the wavelet coefficient is biased to a small value. Therefore, in the case of a natural image, it is particularly effective to perform lossless compression by entropy coding. In addition, the high-frequency component of the wavelet coefficient may be compressed by either reversible or irreversible compression, but it is preferable to perform reversible compression. This is because, when lossless compression is performed, a mipmap image that is completely the same as the conventional technique using a mipmap image can be obtained. When the
なお、上述では、動画像のテクスチャをポリゴン画像に描画する場合について説明したが、これに限定されない。単に、静止画像のテクスチャをポリゴン画像に描画する場合であっても動画像のテクスチャを用いた場合と同様の効果を得ることができる。静止画像のテクスチャを用いる描画装置1bを構成する各ユニットを図10に示す。図10において描画装置1bは、上述した描画装置1aに対して動画デコーダ11が静止画デコーダ19に代わった構成である。静止画デコーダ19は、圧縮された静止画像であるテクスチャの原画像に対して画像ブロック20単位で伸張処理を行って、ウェーブレット変換部12に出力する。これにより、動画デコーダ11を備えた描画装置1aと同様に、伸張処理単位とウェーブレット変換処理単位とが一致することとなる。その結果、処理効率が向上し、ミップマップ画像を高速に生成することができる。なお、描画装置1bの処理は、上述した描画装置1aにおいてテクスチャの原画像1フレーム分について行われる処理と同様の処理となるので、説明を省略する。なお、処理するテクスチャの原画像が圧縮されていない場合には、上述した描画装置1aの動画デコーダ11や描画装置1bの静止画デコーダ19が不要になることは言うまでもない。
In the above description, the case where the texture of the moving image is drawn on the polygon image has been described. However, the present invention is not limited to this. Even when the texture of the still image is simply drawn on the polygon image, the same effect as when the texture of the moving image is used can be obtained. Each unit constituting the
なお、上述では、動画像データの圧縮フォーマットとしてMPEGとしたが、具体的には、MEPG−1、MEPG−2、およびMEPG−4が挙げられる。また、動画像データや静止画像の圧縮フォーマットは、MPEGに限らず、JPEGやDVフォーマットであっても本発明の描画装置1aおよび1bに適用可能である。またその他の圧縮フォーマットであっても、横および縦の画素数がそれぞれ2のN乗となる画像ブロック20単位で処理して伸張するものであれば、将来考案されるものも含めて本発明の描画装置1aおよび1bに適用可能である。
In the above description, MPEG is used as a compression format for moving image data, but specific examples include MPEG-1, MPEG-2, and MPEG-4. In addition, the compression format of moving image data and still images is not limited to MPEG, but can be applied to the
なお、図1では、描画装置1aのみがそれぞれ1チップのシステムLSIで構成されるとしたが、これに限定されない。近年のシステムLSIの集積度の向上により、描画装置1aおよびメインメモリ2が1チップのシステムLSIで構成されてもよい。また描画装置1aが、1チップではなく、複数のLSIを組み合わせて構成されてもよい。また、以上に説明したシステムLSIの構成については、図10に示す描画装置1bについても同様のことがいえる。
In FIG. 1, only the
なお、図1および図10では、本発明に関連するユニットのみを抜粋して示している。したがって、実際のシステムLSIには、上述したユニット以外に、音声処理等の機能を有するユニットも含まれる場合がある。 In FIGS. 1 and 10, only the units related to the present invention are extracted and shown. Therefore, an actual system LSI may include units having functions such as audio processing in addition to the above-described units.
なお、図1に示した動画デコーダ11は、動画像データを、記憶媒体から読み出して取得するとした。また、図10に示した静止画デコーダ19も同様に、静止画像であるテクスチャの原画像を、記憶媒体から読み出して取得している。しかしながら、動画デコーダ11や静止画デコーダ19は、データを、記録媒体ではなく、電波やインターネット等を利用した通信路から取得するようにしてもよい。この場合であっても、記憶媒体から取得した場合と同様の効果を得ることができる。
Note that the moving
以下、図7に示したウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理に関する変形例1、2について説明する。 Hereinafter, modified examples 1 and 2 relating to the processing from the wavelet inverse transform processing shown in FIG. 7 to the rendering of a polygon image will be described.
(変形例1)
上述したように、ミップマップレベル取得部13がlog2Pを用いてミップマップレベルを取得する際、取得されるミップマップレベルが整数ではない場合がある。この場合の具体的な処理例を変形例1として、図11を参照して説明する。図11は、変形例1におけるウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理の流れを示したフローチャートである。なお、以下の説明では一例として、ミップマップ取得部13において取得されるミップマップレベルが2.3であるとする。また、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。
(Modification 1)
As described above, when the mipmap
ステップS301において、ミップマップレベル取得部13は、ポリゴン画像上の点のスクリーン座標と、その点に対応する図2に示す原画像上の点のテクスチャ座標とを比較して、図2に示す1フレーム分の原画像の縮小率を算出する。そして、ミップマップレベル取得部13は、算出した縮小率から、ミップマップレベル(=2.3)を取得する。
In step S301, the mipmap
ステップS301の次に、ウェーブレット逆変換部14は、メインメモリ2に記憶された画像ブロック20分のウェーブレット係数のうち、ミップマップレベルの整数値(=2)と同じ値の次数となるウェーブレット係数の低周波成分全体に対応する係数のみを読み出す(ステップS302)。そしてウェーブレット逆変換部14は、Harrのウェーブレット逆変換式を用いて、ミップマップレベルの整数値(=2)と同じ値の次数となるまで、読み出したウェーブレット係数を逆変換する(ステップS303)。ここで、ステップS303が実行される過程において、2次だけでなく、3次のウェーブレット係数の低周波成分も算出される。ウェーブレット逆変換部14は、逆変換して求めた2次のウェーブレット係数の低周波成分で表された画像と、3次のウェーブレット係数の低周波成分で表された画像とをポリゴン描画部15に出力する。
Next to step S301, the wavelet
以下、図12を参照して、2次だけでなく、3次のウェーブレット係数の低周波成分も算出されるメカニズムについて説明する。図12は、ミップマップレベルが2.3となる場合のミップマップ画像を生成する過程を模式的に示した図である。 Hereinafter, a mechanism for calculating not only the second order but also the low-frequency component of the third-order wavelet coefficient will be described with reference to FIG. FIG. 12 is a diagram schematically showing a process of generating a mipmap image when the mipmap level is 2.3.
ミップマップレベル2のミップマップ画像は、図12に示すように、縦4画素、横4画素とする計16画素を有する。したがって、ステップS302においてウェーブレット逆変換部14は、メインメモリ2に記憶されるウェーブレット係数のうち、4次のウェーブレット係数を含む左上端の16個の係数のみを読み出す。ここで、図12に示すように、4次のウェーブレット係数は、a=(U0,V0)=97、b=(U1,V0)=−10、c=(U0,V1)=−10、d=(U1,V1)=2となる。よって、ステップS303においてウェーブレット逆変換部14は、まず、これらa〜dの輝度を上式(5)〜式(8)に代入することによって、A〜Dの輝度を算出する。得られたAの輝度は、3次のウェーブレット係数の低周波成分である(U0、V0)の係数となる。得られたBの輝度は、3次のウェーブレット係数の低周波成分である(U1、V0)の係数となる。得られたCの輝度は、3次のウェーブレット係数の低周波成分である(U0、V1)の係数となる。得られたDの輝度は、3次のウェーブレット係数の低周波成分である(U1、V1)の係数となる。このように、ステップS303において上式(5)〜式(8)が1回適用されることで、3次のウェーブレット係数の低周波成分が算出される。この3次のウェーブレット係数の低周波成分で表現された画像は、図12に示すように、ミップマップレベル3のミップマップ画像と一致する。次に、上式(5)〜式(8)を4回適用することにより、図12に示す3次のウェーブレット係数から、2次のウェーブレット係数の低周波成分が算出される。この2次のウェーブレット係数の低周波成分で表現された画像は、図12に示すように、ミップマップレベル2のミップマップ画像と一致する。このように、ステップS303が実行される過程において、2次だけでなく、3次のウェーブレット係数の低周波成分も算出される。
As shown in FIG. 12, the mipmap image at the
ステップS303の次に、ポリゴン描画部15は、2次のウェーブレット係数の低周波成分で表された画像(ミップマップレベル2のミップマップ画像)と、3次のウェーブレット係数の低周波成分で表された画像(ミップマップレベル3のミップマップ画像)とを、所定の割合で混合する(ステップS304)。混合方法については、Tri−Linearなどの公知の方法を用いるとし、ここでは詳細な説明を省略する。所定の割合は、例えば、ミップマップレベルの小数部の値に応じて決定される。取得したミップマップレベルが2.3である場合、例えば、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを7:3の比率で混合する。
After step S303, the
ステップS304の次に、ポリゴン描画部15は、混合したミップマップ画像をポリゴン画像に描画する(ステップS305)。ステップS305の次に、ポリゴン描画部15は、図2で示したテクスチャの原画像のうち、最後の画像ブロック20まで描画する処理を行ったか否かを判断する(ステップS306)。最後の画像ブロック20まで描画する処理を行っていないと判断された場合、次の画像ブロック20についてステップS302の処理が行われる。最後の画像ブロック20まで描画する処理を行ったと判断された場合、処理はステップS307へ進む。ステップS307においてポリゴン描画部15は、最後のフレームまで処理が行われたか否かを判断する。最後のフレームまで処理が行われていないと判断された場合、次のフレームについてステップS301の処理が行われる。最後のフレームまで処理が行われたと判断された場合、処理は終了する。
Following step S304, the
以上のように、変形例1の処理によれば、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを混合する際、ミップマップレベル2のミップマップ画像を求める過程において、ミップマップレベル3のミップマップ画像を自動的に得ることができる。このため、ミップマップレベル3のミップマップ画像を別途生成する必要がない。一方、従来の逆DCT処理では、ミップマップレベル2のミップマップ画像とミップマップレベル3のミップマップ画像とを別々に生成しなければならない。したがって、変形例1の処理によれば、ミップマップレベルの異なる複数のミップマップ画像を生成するにあたり、従来の逆DCT処理よりも高速に生成することができる。
As described above, according to the process of the first modification, when the mipmap image of the
なお、上述では、算出した縮小率から整数ではないミップマップレベルが取得されるとしたが、これに限定されない。ユーザが、表示シーンの構成に応じて整数ではないミップマップレベルをミップマップレベル取得部13に直接指定するようにしてもよい。この場合、ミップマップレベル取得部13は、ユーザによって指定された整数ではないミップマップレベルを取得することになる。
In the above description, a mipmap level that is not an integer is acquired from the calculated reduction ratio. However, the present invention is not limited to this. The user may directly specify a mipmap level that is not an integer in the mipmap
(変形例2)
上述した図7の処理では、ウェーブレット逆変換部14は、逆変換して求めたウェーブレット係数の低周波成分全体で表された画像を、画像ブロック20単位のミップマップ画像としてポリゴン描画部15に出力していた。しかしながら、画像ブロック20単位のミップマップ画像のうち、特定の画素のみを生成するようにしてもよい。この場合、ウェーブレット逆変換部14は、ウェーブレット係数の低周波成分のうち、特定の画素を表す一部の係数のみを求めるように、逆変換処理を行えばよい。この場合の具体的な処理例を変形例2として、図13〜図16を参照して説明する。
(Modification 2)
In the processing of FIG. 7 described above, the wavelet
図13は、画像ブロック20単位のミップマップ画像のうちの特定の画素Aを模式的に示した図である。図13の例では、取得されたミップマップレベルを0とし、ミップマップレベル0のミップマップ画像内に画素Aが存在しているとする。ここで、図13に示したミップマップ画像は、ミップマップレベルが0であり、画像ブロック20単位の画像である。したがって、図13に示したミップマップ画像は、0次のウェーブレット係数の低周波成分全体で表された画像に相当する。図13に示す(Ux、Vy)は画素Aの座標であり、x、y(x、yは0以上の整数)は座標値である。図14は、画素Aのみ生成するために必要なウェーブレット係数を模式的に示した図である。なお、図14では、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。図14(a)は、1次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(a)の斜線部分は、1次のウェーブレット係数の低周波成分である。図14(b)は、2次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(b)の斜線部分は、2次のウェーブレット係数の低周波成分である。図14(c)は、3次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(c)の斜線部分は、3次のウェーブレット係数の低周波成分である。図14(d)は、4次のウェーブレット係数の高周波成分である各領域b〜dを示した図である。図14(d)の斜線部分は、4次のウェーブレット係数の低周波成分である。図14(e)は、4次のウェーブレット係数の低周波成分である各領域b〜dを示した図である。図15は、画素Aのみ生成するために必要なウェーブレット係数を読み出す処理の流れを示したフローチャートである。図16は、図14および図15に示した処理に関する数値例を示した図である。
FIG. 13 is a diagram schematically illustrating a specific pixel A in the mipmap image in units of 20 image blocks. In the example of FIG. 13, it is assumed that the acquired mipmap level is 0, and the pixel A exists in the mipmap image of the
画素Aのみ生成するためには、図14に示すP1〜P5の係数が必要となる。P1は、1次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P1の座標値は、画素Aの座標値x、yをそれぞれ2で除算した値となり、P1の座標は、図14(a)に示すように(Ux/2、Vy/2)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/2、Vx/2)は、各領域b〜dにおいて、それぞれの左上端点を座標(U0、V0)としたときの座標を示している。この座標の取り方については、後述にて数値例を挙げて説明する。P2は、2次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P2の座標値は、画素Aの座標値x、yをそれぞれ4で除算した値となり、P2の座標は、図14(b)に示すように(Ux/4、Vy/4)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/4、Vy/4)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P3は、3次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P3の座標値は、画素Aの座標値x、yをそれぞれ8で除算した値となり、P3の座標は、図14(c)に示すように(Ux/8、Vy/8)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/8、Vy/8)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P4は、4次のウェーブレット係数の高周波成分である各領域b〜dに、1つずつ存在している。P4の座標値は、画素Aの座標値x、yをそれぞれ16で除算した値となり、P4の座標は、図14(d)に示すように(Ux/16、Vy/16)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/16、Vy/16)は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。P5は、4次のウェーブレット係数の低周波成分である領域a内に存在している。P5の座標値は、画素Aの座標値x、yをそれぞれ16で除算した値となり、P4の座標は、図14(e)に示すように(Ux/16、Vy/16)となる。なお、除算した値が整数ではない場合、小数点以下を切り捨てるものとする。また、座標(Ux/16、Vy/16)は、領域aにおいて、左上端を座標(U0、V0)としたときの座標を示している。 In order to generate only the pixel A, the coefficients P1 to P5 shown in FIG. 14 are required. One P1 exists in each of the regions b to d that are high-frequency components of the primary wavelet coefficients. The coordinate value of P1 is a value obtained by dividing the coordinate values x and y of the pixel A by 2, and the coordinates of P1 are (Ux / 2, Vy / 2) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 2, Vx / 2) indicate the coordinates when the respective upper left corner points are the coordinates (U0, V0) in the respective regions b to d. The method of taking these coordinates will be described later with numerical examples. One P2 exists in each of the regions b to d that are high-frequency components of the secondary wavelet coefficients. The coordinate value of P2 is a value obtained by dividing the coordinate values x and y of the pixel A by 4, and the coordinates of P2 are (Ux / 4, Vy / 4) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 4, Vy / 4) indicate the coordinates when the upper left corners of the respective areas b to d are the coordinates (U0, V0). One P3 exists in each of the regions b to d that are high-frequency components of the third-order wavelet coefficients. The coordinate value of P3 is a value obtained by dividing the coordinate values x and y of the pixel A by 8 respectively, and the coordinates of P3 are (Ux / 8, Vy / 8) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 8, Vy / 8) indicate the coordinates when the upper left corner of each of the regions b to d is the coordinates (U0, V0). One P4 exists in each of the regions b to d that are high-frequency components of the fourth-order wavelet coefficients. The coordinate value of P4 is a value obtained by dividing the coordinate values x and y of the pixel A by 16, and the coordinates of P4 are (Ux / 16, Vy / 16) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. Coordinates (Ux / 16, Vy / 16) indicate the coordinates when the upper left corner of each region b to d is the coordinate (U0, V0). P5 exists in the region a which is a low-frequency component of the fourth-order wavelet coefficient. The coordinate value of P5 is a value obtained by dividing the coordinate values x and y of the pixel A by 16, and the coordinates of P4 are (Ux / 16, Vy / 16) as shown in FIG. If the divided value is not an integer, the fractional part is rounded down. The coordinates (Ux / 16, Vy / 16) indicate the coordinates when the upper left corner is the coordinates (U0, V0) in the region a.
次に、図15を参照して、画素Aのみ生成するために必要なウェーブレット係数を読み出す処理の流れを一般化して説明する。図14の説明では、画素Aがミップマップレベル0のミップマップ画像内に存在するとしたが、図15に示す処理は、より一般的に画素AがミップマップレベルLのミップマップ画像内に存在する場合に対して適用できる。図15に示す処理を図7のステップS202において行えば、ウェーブレット逆変換部14は、ウェーブレット係数の低周波成分のうち、画素Aを表す一部の係数のみを求めるように、逆変換処理を行うことができる。なお、図15の説明では、ミップマップレベル取得部13で取得されたミップマップレベルをLとする。Lは0以上の整数である。またウェーブレット変換部12は、(L+M)次のウェーブレット係数が得られるまで変換処理を行っているとする。Mは1以上の整数である。
Next, with reference to FIG. 15, the flow of processing for reading out wavelet coefficients necessary for generating only the pixel A will be generalized and described. In the description of FIG. 14, the pixel A is present in the mipmap image at the
図15において、ウェーブレット逆変換部14は、取得されたミップマップレベルLに1を加算する(ステップS2021)。ステップS2021の次に、ウェーブレット逆変換部14は、画素Aの座標値x、yをそれぞれ2で除算し、読み出すべき係数P1の座標(Ux/2、Vy/2)を算出する(ステップS2022)。但し、除算した値が整数ではない場合、小数点以下を切り捨てる。ステップS2022の次に、ウェーブレット逆変換部14は、ステップS2021で求めた値(L+1)と同じ次数のウェーブレット係数に対し、その高周波成分である各領域b〜dから、係数P1(Ux/2、Vx/2)をそれぞれ読み出す(ステップS2023)。ステップS2023の次に、ウェーブレット逆変換部14は、ステップS2023で読み出したウェーブレット係数の次数が、メインメモリ2に記憶されたウェーブレット係数が示す最高の次数(L+M)と一致するか否かを判断する(ステップS2024)。今、ステップS2023で読み出したウェーブレット係数の次数は(L+1)であるので、ステップS2024ではNoと判断され、処理はステップS2025に進む。ステップS2025において、ウェーブレット逆変換部14は、ステップS2023で読み出したウェーブレット係数の次数を1つ繰り上げる(ステップS2025)。ステップS2023で読み出したウェーブレット係数の次数は(L+1)であるので、ステップS2025の処理により、次数は(L+2)となる。ステップS2025の次に、処理はステップS2021に進む。ステップS2021において、ウェーブレット逆変換部14は、係数P1の座標値x/2、y/2をそれぞれ2で除算し、読み出すべき係数P2の座標(Ux/4、Vy/4)を算出する。
In FIG. 15, the wavelet
このように、ステップS2022〜S2025の処理が、次数が(L+1)から(L+M)となるまで繰り返される。ここで、1以上M以下の整数をmとおく。この場合、ステップS2022〜S2025を繰り返す処理は、(L+m)次のウェーブレット係数の高周波成分から、画素Aの座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次の間で次数毎に受け取る処理であるといえる。 As described above, the processes in steps S2022 to S2025 are repeated until the order is changed from (L + 1) to (L + M). Here, an integer from 1 to M is set as m. In this case, the process of repeating steps S2022 to S2025 is performed by a wavelet coefficient corresponding to a coordinate value composed of an integer value obtained by dividing the coordinate value of the pixel A by 2 m to the (L + m) high-frequency component of the next wavelet coefficient. It can be said that this is a process of receiving only every order between the (L + 1) th order and the (L + M) th order.
最終的に、ステップS2023で読み出したウェーブレット係数の次数が最高の次数(L+M)と一致する場合(ステップS2024でYes)、処理はステップS2026に進む。ステップS2026において、ウェーブレット逆変換部14は、(L+M)次のウェーブレット係数の低周波成分から、画素Aの座標値を2のM乗で除算した結果の整数値のみからなる座標値で特定されるウェーブレット係数のみを受け取る。
Finally, if the order of the wavelet coefficient read in step S2023 matches the highest order (L + M) (Yes in step S2024), the process proceeds to step S2026. In step S2026, the wavelet
図16に示す数値例を参照して、図14および図15に示した処理をより具体的に説明する。なお、図16では、メインメモリ2には、ウェーブレット変換部12において4次のウェーブレット係数が得られるまで変換されたウェーブレット係数が記憶されているとする。図16において、例えば、ミップマップレベル2のミップマップ画像における(U3、V2)に存在する画素が画素Aであるとする。この場合の画素Aの座標値は、x=3、y=2となる。このとき、3次のウェーブレット係数では、画素Aのみ生成するために必要な係数Pの座標値は、x=3/2=1、y=2/2=1となる。つまり、係数Pの座標は、(U1、V1)となる。また、この係数Pの座標は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域bの(U2、V0)、領域cの(U0、V2)、領域dの(U2、V2)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、領域bでは(U3、V1)、領域cでは(U1、V3)、領域dでは(U3、V3)となる。次に、4次のウェーブレット係数では、画素Aのみ生成するために必要な係数Pの座標値は、x=3/4=0、y=2/4=0となる。つまり、係数Pの座標は、(U0、V0)となる。また、この係数Pの座標は、各領域b〜dにおいて、それぞれの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域bの(U1、V0)、領域cの(U0、V1)、領域dの(U1、V1)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、領域bでは(U1、V0)、領域cでは(U0、V1)、領域dでは(U1、V1)となる。また、図16では、4次が最高の次数である。また、係数Pの座標は、低周波成分である領域aの左上端を座標(U0、V0)としたときの座標を示している。つまり、図16で言えば、領域aの(U0、V0)が係数Pの座標に対する(U0、V0)となる。したがって、係数Pの座標は、(U0、V0)となる。このように、画素(U3、V2)を生成するためには、メインメモリ2に記憶されたウェーブレット係数のうち、(U3、V1)、(U1、V3)、(U3、V3)、(U1、V0)、(U0、V1)、(U1、V1)、(U0、V0)の計7個の係数のみ必要となる。なお、例えばミップマップレベルが2.3の場合、画素Aに対応するミップマップレベル3の画素を求める必要があるが、図16の画素Aに対応するミップマップレベル3の画素は(U1、V1)となる。これはミップマップレベル2の画素A(U3、V2)を求める過程で求めることができる。
The processing shown in FIGS. 14 and 15 will be described more specifically with reference to the numerical example shown in FIG. In FIG. 16, it is assumed that the
なお、4次のウェーブレット係数を含む係数のうち、図16に示した7個の係数だけを用いて4次から2次までウェーブレット逆変換をすると、実際には、2次のウェーブレット係数の低周波成分16個のうち、4個の値が求まる。この4個中から、必要とする(U3、V2)の値を選択するようにすればよい。また、上式(5)〜式(8)を用いて行われる逆変換処理は、4次から3次で1回、3次から2次で1回の計2回だけでよいことになる。つまり、上述した図9では、上式(5)〜式(8)を計5回適用しなければならなかったが、図16では、計2回だけで済むようになる。 Note that when the inverse wavelet transform is performed from the fourth order to the second order using only the seven coefficients shown in FIG. 16 among the coefficients including the fourth order wavelet coefficients, the low frequency of the second order wavelet coefficients is actually used. Of the 16 components, 4 values are obtained. A necessary value (U3, V2) may be selected from the four. Further, the inverse transformation process performed using the above formulas (5) to (8) may be performed twice in total, once from the fourth order to the third order and once from the third order to the second order. That is, in FIG. 9 described above, the above formulas (5) to (8) must be applied a total of five times, but in FIG. 16, only a total of two times is required.
以上のように、ウェーブレット逆変換部14は、メインメモリ2から特定の画素に対応するウェーブレット係数のみを受け取り、受け取ったウェーブレット係数のみを逆変換処理する。これにより、特定の画素のみを生成することができる。その結果、受け取ったウェーブレット係数の数が減る分だけ、ウェーブレット係数の低周波成分に相当する領域内にある全ての係数を受け取って処理する場合よりも、逆変換処理の演算量を小さくすることができる。
As described above, the wavelet
なお、図15に示した処理では、次数を1つ繰り上げるたびにメインメモリ2から必要なウェーブレット係数を読み出すとしたが、これに限定されない。メインメモリ2に記憶されたウェーブレット係数を画像ブロック20毎に読み出し、ウェーブレット逆変換部14の内部メモリに保持しておくようにしてもよい。この場合、ウェーブレット逆変換部14は、内部メモリに記憶されたウェーブレット係数の中から、必要なウェーブレット係数を用いて逆変換処理を行うことになる。この場合であっても、ウェーブレット係数の低周波成分に相当する領域内にある全ての係数を受け取って処理する場合よりも、逆変換処理の演算量を小さくすることができる。
In the process shown in FIG. 15, the necessary wavelet coefficients are read from the
また、図15に示した処理では、図2に示したテクスチャの原画像を構成する複数の画像ブロック20について、画素Aを描画するようにしていたが、これに限定されない。図2に示したテクスチャの原画像を構成する複数の画像ブロック20のうち、いずれか1つの画像ブロック20内にだけ存在する画素Aを描画することも可能である。この場合、ウェーブレット逆変換処理をしてポリゴン画像を描画するまでの処理は、次のような処理となる。まず、図7に示したステップS201の処理が行われる。その後、ウェーブレット逆変換部14は、画素Aの存在する画像ブロック20を特定する。その後、ウェーブレット逆変換部14は、図15に示した処理を行って、特定した画像ブロック20内のウェーブレット係数の中から画素Aを生成するのに必要なウェーブレット係数のみを受け取る。その後、ウェーブレット逆変換部14は、受け取ったウェーブレット係数を逆変換し、逆変換したウェーブレット係数の低周波成分の一部で表された画像を画素Aとしてポリゴン描画部15に出力する。その後、ポリゴン描画部15は、画素Aをポリゴン画像に描画する。
In the processing shown in FIG. 15, the pixel A is drawn for the plurality of image blocks 20 constituting the original image of the texture shown in FIG. 2, but the present invention is not limited to this. It is also possible to draw a pixel A that exists only in one of the plurality of image blocks 20 constituting the texture original image shown in FIG. In this case, the process from the wavelet inverse transform process to the rendering of the polygon image is as follows. First, the process of step S201 shown in FIG. 7 is performed. Thereafter, the wavelet
本発明に係る描画装置は、メインメモリに記憶させるべきデータ量を小さくし、動画像のテクスチャを用いる場合であっても描画装置に接続されたメインメモリの帯域を圧迫することなく、必要となるミップマップレベルのミップマップ画像を生成してポリゴン画像に描画することが可能な描画装置、および当該描画装置を用いた表示装置等に適用される。 The drawing apparatus according to the present invention is required without reducing the amount of data to be stored in the main memory and using the texture of the moving image without squeezing the bandwidth of the main memory connected to the drawing apparatus. The present invention is applied to a drawing device capable of generating a mipmap image at a mipmap level and drawing it on a polygon image, a display device using the drawing device, and the like.
1a、1b 描画装置
11 動画デコーダ
12 ウェーブレット変換部
13 ミップマップレベル取得部
14 ウェーブレット逆変換部
15 ポリゴン描画部
16 ビデオコントローラ
17 CPU
18 メモリI/F
19 静止画デコーダ
2 メインメモリ
3 液晶パネル
DESCRIPTION OF
18 Memory I / F
19
Claims (14)
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換部と、
前記ミップマップ画像のミップマップレベルを取得するレベル取得部と、
前記ウェーブレット変換部において変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、
前記ウェーブレット逆変換部において出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画部と、を備える、描画装置。 A drawing device that receives an original image of a texture and draws a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform unit that transforms the original image into wavelet coefficients using a Harr wavelet transform formula;
A level acquisition unit for acquiring a mipmap level of the mipmap image;
Receiving at least a part of the wavelet coefficients transformed in the wavelet transform unit, inversely transforming using the Harr wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
A drawing apparatus comprising: a polygon drawing unit that draws an image output from the wavelet inverse transform unit on the polygon image as a mipmap image.
前記ウェーブレット変換部は、前記伸張部で伸張された原画像を前記画像ブロック単位でウェーブレット係数に変換することを特徴とする、請求項1に記載の描画装置。 Decompression that receives the original image that has been divided and compressed in units of image blocks in which the number of vertical and horizontal pixels is 2 to the Nth power (N is an integer greater than or equal to 1), and expands the original image in units of the image blocks Further comprising
The drawing apparatus according to claim 1, wherein the wavelet transform unit transforms the original image decompressed by the decompression unit into wavelet coefficients in units of the image blocks.
前記ウェーブレット変換部は、(L+M(Mは1以上の整数))次の前記ウェーブレット係数が得られるまで変換しており、
前記ウェーブレット係数の低周波成分の一部で表された画像は、当該低周波成分全体で表された画像内における所定の座標値で位置が特定されており、
前記ウェーブレット逆変換部は、前記ウェーブレット変換部において変換されたウェーブレット係数のうち、(L+m(mは1以上M以下の整数))次のウェーブレット係数の高周波成分から、前記所定の座標値を2のm乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを、(L+1)次から(L+M)次まで次数毎に受け取るとともに、(L+M)次のウェーブレット係数の低周波成分から、前記所定の座標値を2のM乗で除算した結果の整数値からなる座標値に対応するウェーブレット係数のみを受け取ることを特徴とする、請求項7に記載の描画装置。 The mipmap level acquired by the mipmap level acquisition unit is L (L is an integer of 0 or more),
The wavelet transform unit transforms until the next wavelet coefficient (L + M (M is an integer of 1 or more)) is obtained,
The image represented by a part of the low-frequency component of the wavelet coefficient is specified by a predetermined coordinate value in the image represented by the entire low-frequency component,
The wavelet inverse transform unit converts the predetermined coordinate value to 2 from the high-frequency component of the wavelet coefficient (L + m (m is an integer of 1 to M)) of the wavelet coefficients transformed by the wavelet transform unit. Only the wavelet coefficient corresponding to the coordinate value composed of the integer value obtained by dividing by the m-th power is received for each order from the (L + 1) th order to the (L + M) th order, and from the low frequency component of the (L + M) th order wavelet coefficient, 8. The drawing apparatus according to claim 7, wherein only a wavelet coefficient corresponding to a coordinate value composed of an integer value obtained by dividing the predetermined coordinate value by 2 to the M power is received.
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップと、を含む、描画方法。 A drawing method for receiving a texture original image and drawing a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receive at least part of the wavelet coefficients transformed in the wavelet transformation step, and inversely transform using Harr's wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform step for outputting an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
And a polygon drawing step of drawing the image output in the wavelet inverse transformation step as a mipmap image on the polygon image.
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数の少なくとも一部を受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップとを、前記コンピュータに実現させるための描画プログラム。 A drawing program for causing a computer to implement a drawing device that receives an original texture image and draws a mipmap image generated by reducing the original image on a polygon image,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receive at least part of the wavelet coefficients transformed in the wavelet transformation step, and inversely transform using Harr's wavelet inverse transformation formula until the order of the same value as the mipmap level is obtained, and the same value as the mipmap level A wavelet inverse transform step for outputting an image represented by at least part of the low-frequency component of the wavelet coefficient of the order of
A drawing program for causing the computer to realize a polygon drawing step of drawing the image output in the wavelet inverse transformation step as a mipmap image on the polygon image.
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換部と、
前記ウェーブレット変換部において変換されたウェーブレット係数を記憶する記憶部と、
前記ミップマップ画像のミップマップレベルを取得するレベル取得部と、
前記ウェーブレット係数の少なくとも一部を前記記憶部から受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換部と、
前記ウェーブレット逆変換部において出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画部と、
前記ポリゴン描画部において描画されたポリゴン画像を表示する表示部と、を備える、表示装置。 A display device that receives a texture original image and displays a polygon image on which a mipmap image generated by reducing the original image is drawn,
A wavelet transform unit that transforms the original image into wavelet coefficients using a Harr wavelet transform formula;
A storage unit for storing the wavelet coefficients converted in the wavelet conversion unit;
A level acquisition unit for acquiring a mipmap level of the mipmap image;
Receiving at least a part of the wavelet coefficients from the storage unit, inversely transforming until the order of the same value as the mipmap level using a Harr wavelet inverse transformation formula, and the order of the same value as the mipmap level; A wavelet inverse transform unit that outputs an image represented by at least part of the low-frequency component of the wavelet coefficient,
A polygon rendering unit that renders the image output in the wavelet inverse transform unit on the polygon image as a mipmap image;
A display unit configured to display a polygon image drawn by the polygon drawing unit.
Harrのウェーブレット変換式を用いて前記原画像をウェーブレット係数に変換するウェーブレット変換ステップと、
前記ウェーブレット変換ステップにおいて変換されたウェーブレット係数を記憶装置に記憶させる記憶ステップと、
前記ミップマップ画像のミップマップレベルを取得するレベル取得ステップと、
前記ウェーブレット係数の少なくとも一部を前記記憶装置から受け取り、Harrのウェーブレット逆変換式を用いて前記ミップマップレベルと同じ値の次数となるまで逆変換して、前記ミップマップレベルと同じ値の次数となるウェーブレット係数の低周波成分の少なくとも一部で表された画像を出力するウェーブレット逆変換ステップと、
前記ウェーブレット逆変換ステップにおいて出力された画像をミップマップ画像として前記ポリゴン画像に描画するポリゴン描画ステップと、
前記ポリゴン描画ステップにおいて描画されたポリゴン画像を表示する表示ステップと、を含む、表示方法。 A display method for receiving an original image of a texture and displaying a polygon image on which a mipmap image generated by reducing the original image is drawn,
A wavelet transform step of transforming the original image into wavelet coefficients using a Harr wavelet transform equation;
A storage step of storing the wavelet coefficients converted in the wavelet conversion step in a storage device;
A level acquisition step of acquiring a mipmap level of the mipmap image;
Receiving at least a portion of the wavelet coefficients from the storage device, inversely transforming until the order of the same value as the mipmap level is obtained using a Harr wavelet inverse transformation formula, and the order of the same value as the mipmap level; A wavelet inverse transform step for outputting an image represented by at least part of the low frequency component of the wavelet coefficient,
A polygon rendering step for rendering the image output in the wavelet inverse transform step on the polygon image as a mipmap image;
A display step of displaying the polygon image drawn in the polygon drawing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007210889A JP5004717B2 (en) | 2006-08-28 | 2007-08-13 | Drawing apparatus, drawing method, and drawing program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006231169 | 2006-08-28 | ||
JP2006231169 | 2006-08-28 | ||
JP2007210889A JP5004717B2 (en) | 2006-08-28 | 2007-08-13 | Drawing apparatus, drawing method, and drawing program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008084302A true JP2008084302A (en) | 2008-04-10 |
JP2008084302A5 JP2008084302A5 (en) | 2010-05-06 |
JP5004717B2 JP5004717B2 (en) | 2012-08-22 |
Family
ID=39355043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007210889A Expired - Fee Related JP5004717B2 (en) | 2006-08-28 | 2007-08-13 | Drawing apparatus, drawing method, and drawing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5004717B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121237A (en) * | 2018-01-09 | 2019-07-22 | 株式会社コーエーテクモゲームス | Program, image processing method and image processing device |
US10438317B2 (en) | 2014-09-12 | 2019-10-08 | Samsung Electronics Co., Ltd. | Method and apparatus for rendering |
JP2022520264A (en) * | 2019-05-05 | 2022-03-29 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image brightness adjustment methods and devices, electronic devices and computer programs |
JP2022066505A (en) * | 2018-01-09 | 2022-04-28 | 株式会社コーエーテクモゲームス | Program, image processing method and image processing device |
JP7472127B2 (en) | 2018-11-16 | 2024-04-22 | マジック リープ, インコーポレイテッド | Image size triggered clarification to maintain image clarity |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230555A (en) * | 1993-12-22 | 1995-08-29 | Matsushita Electric Ind Co Ltd | Mip map image generating device/method |
JP2004236032A (en) * | 2003-01-30 | 2004-08-19 | Ricoh Co Ltd | Image compression apparatus, decoder, image forming apparatus, program, and storage medium |
JP2005286472A (en) * | 2004-03-29 | 2005-10-13 | Sanyo Electric Co Ltd | Image processing apparatus and image processing method |
-
2007
- 2007-08-13 JP JP2007210889A patent/JP5004717B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07230555A (en) * | 1993-12-22 | 1995-08-29 | Matsushita Electric Ind Co Ltd | Mip map image generating device/method |
JP2004236032A (en) * | 2003-01-30 | 2004-08-19 | Ricoh Co Ltd | Image compression apparatus, decoder, image forming apparatus, program, and storage medium |
JP2005286472A (en) * | 2004-03-29 | 2005-10-13 | Sanyo Electric Co Ltd | Image processing apparatus and image processing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10438317B2 (en) | 2014-09-12 | 2019-10-08 | Samsung Electronics Co., Ltd. | Method and apparatus for rendering |
JP2019121237A (en) * | 2018-01-09 | 2019-07-22 | 株式会社コーエーテクモゲームス | Program, image processing method and image processing device |
JP7039294B2 (en) | 2018-01-09 | 2022-03-22 | 株式会社コーエーテクモゲームス | Programs, image processing methods, and image processing equipment |
JP2022066505A (en) * | 2018-01-09 | 2022-04-28 | 株式会社コーエーテクモゲームス | Program, image processing method and image processing device |
JP7303340B2 (en) | 2018-01-09 | 2023-07-04 | 株式会社コーエーテクモゲームス | Program, image processing method, and image processing apparatus |
JP7472127B2 (en) | 2018-11-16 | 2024-04-22 | マジック リープ, インコーポレイテッド | Image size triggered clarification to maintain image clarity |
JP2022520264A (en) * | 2019-05-05 | 2022-03-29 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image brightness adjustment methods and devices, electronic devices and computer programs |
JP7226893B2 (en) | 2019-05-05 | 2023-02-21 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image luminance adjustment method and device, electronic device and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5004717B2 (en) | 2012-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100609614B1 (en) | Method and apparatus for transmitting picture data, processing pictures and recording medium therefor | |
US7898550B2 (en) | System and method for memory bandwidth compressor | |
KR100856211B1 (en) | High speed image processing scheme based on graphics processing unit | |
KR102669366B1 (en) | Video processing system | |
CN101123723A (en) | Digital video decoding method based on image processor | |
JP2006014341A (en) | Method and apparatus for storing image data using mcu buffer | |
JP5004717B2 (en) | Drawing apparatus, drawing method, and drawing program | |
CN113170140A (en) | Bit plane encoding of data arrays | |
US20140085300A1 (en) | Stochastic Depth Buffer Compression Using Generalized Plane Encoding | |
KR20010043394A (en) | Method and apparatus for increasing memory resource utilization in an information stream decoder | |
US5892518A (en) | Image generating apparatus with pixel calculation circuit including texture mapping and motion compensation | |
KR20210031296A (en) | Electronic apparatus and control method thereof | |
US7911478B2 (en) | Drawing device, drawing method, and drawing program | |
JP6186429B2 (en) | Information processing apparatus, control method, program, and recording medium | |
US20050219252A1 (en) | Two-dimensional buffer, texture and frame buffer decompression | |
US8655062B2 (en) | Image decoding method and image processing apparatus using same | |
US10733764B2 (en) | Texture processing method and device | |
JP2021174404A (en) | Data generation device, training device, and data generation method | |
JP2004328178A (en) | Image processing apparatus | |
JP4274187B2 (en) | Display data decompression method, display data compression / decompression method, display data decompression device, and display data compression / decompression device | |
JP2013074315A (en) | Image processor and image processing system | |
JP2011175542A (en) | Image data processor | |
JP6377222B2 (en) | Information processing apparatus, control method, program, and recording medium | |
JP7008425B2 (en) | Image processing device, image processing method, and program | |
JPH11146400A (en) | Image processing unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100317 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111011 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120501 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120522 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5004717 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |