JP2011135622A - Image encoding unit - Google Patents

Image encoding unit Download PDF

Info

Publication number
JP2011135622A
JP2011135622A JP2011085960A JP2011085960A JP2011135622A JP 2011135622 A JP2011135622 A JP 2011135622A JP 2011085960 A JP2011085960 A JP 2011085960A JP 2011085960 A JP2011085960 A JP 2011085960A JP 2011135622 A JP2011135622 A JP 2011135622A
Authority
JP
Japan
Prior art keywords
image data
unit
prediction mode
prediction
mode determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011085960A
Other languages
Japanese (ja)
Inventor
Tetsuya Shibayama
哲也 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2011085960A priority Critical patent/JP2011135622A/en
Publication of JP2011135622A publication Critical patent/JP2011135622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image encoding unit which achieves speeding up and image quality improvement. <P>SOLUTION: An intra-frame prediction mode determining part uses peripheral image data of blocks adjacent to a corresponding block to create a plurality of pieces of first predictive image data and generates prediction mode determination information for selecting one piece of most appropriate first predictive image data. A prediction mode arithmetic operating part uses the peripheral image data to produce a plurality of pieces of first predictive image data, arithmetically operates and transfers to the mode determining part differentials between the plurality of pieces of first predictive image data and data of the corresponding block, selects such a prediction mode as to minimize the differentials between the plurality of pieces of first predictive image data and the data of the corresponding block, and generates prediction mode determination information. A prediction arithmetic operating part creates second predictive image data using the peripheral image data according to the prediction mode determination information. A conversion part performs encoding processing on a differential between the second predictive image data and image data, corresponding thereto, to be encoded. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、画像符号化ユニット関し、例えばH.264/MPEG4−AVCに適合された画像符号化ユニットに有効な技術に関するものである。 The present invention relates to an image coding unit, for example, H. The present invention relates to a technique effective for an image encoding unit adapted to H.264 / MPEG4-AVC.

ITU−TおよびMPEG(Moving Picture Experts Group)で規定されるH.264/MPEG4−AVC( Advanced Video Coding)(以下、H.264と呼ぶ)では、画像をフレーム内で予測し符号化する方式として、符号化画像ブロックの周辺画素の情報から予測画像データを作成し、符号化ブロックとの差分データを伝送することにより符号化効率を高める方法が規格化されている。フレーム内予測は輝度成分に対して4×4画素単位(サブマクロブロックと呼ぶ)で予測するイントラ(Intra)4×4モードと、16×16画素単位(マクロブロックと呼ぶ)で予測するイントラ16×16モードがあり、色差成分に対して8×8画素単位で予測するイントラクロマ(chroma)モードがある。さらにプロファイルによっては輝度成分を8×8画素単位(ブロックと呼ぶ)で予測するモードがある。このような画像符号化技術に関しては、特開2004−200991公報や特開2005−005844公報がある。   H.264 is defined by ITU-T and MPEG (Moving Picture Experts Group). In H.264 / MPEG4-AVC (Advanced Video Coding) (hereinafter referred to as H.264), predictive image data is created from information on peripheral pixels of an encoded image block as a method for predicting and encoding an image within a frame. A method for increasing the coding efficiency by transmitting differential data with the coding block has been standardized. Intra-frame prediction is performed for 4 × 4 pixel units (referred to as sub-macroblocks) with respect to the luminance component, and 4 × 4 mode is used for prediction in 16 × 16 pixel units (referred to as macroblocks). There is a × 16 mode, and there is an intra chroma (chroma) mode that predicts color difference components in units of 8 × 8 pixels. Furthermore, depending on the profile, there is a mode in which the luminance component is predicted in units of 8 × 8 pixels (called a block). With regard to such an image encoding technique, there are JP-A-2004-200991 and JP-A-2005-005844.

特開2004−200991公報JP 2004-200991 A 特開2005−005844公報JP-A-2005-005844

従来のフレーム内予測は図9に示すように符号化対象ブロック100と参照画像データから対象ブロックの周辺画素データ101を読み出し、予測画像データ生成部102で各予測モードに従った複数通りの予測画像データを生成し、評価部103でその予測画像データと符号化画像データの差分値から最も符号化効率の良い予測モードを決定する。予測画像データの生成をイントラ16×16モードの1つであるDCモードを例に説明すると、例えば図3に示すようにマクロブロックXのフレーム内予測を行う場合においてマクロブロックA、Cともに予測可能な場合、つまりマクロブロックA及びCともに既に符号化が行われ、それを復号化した参照画像データが存在する場合は、かかる直上マクロブロックCの復号後の下16画素データと左マクロブロックAの右側16画素データとの平均値が予測画像となる。1フレーム画面の左端又は上部のマクロブロックにおいて隣接画素が存在しないので規定値が定められている。   In the conventional intraframe prediction, as shown in FIG. 9, the surrounding pixel data 101 of the target block is read from the encoding target block 100 and the reference image data, and the predicted image data generation unit 102 has a plurality of predicted images according to each prediction mode. Data is generated, and the evaluation unit 103 determines a prediction mode with the highest encoding efficiency from the difference value between the prediction image data and the encoded image data. The generation of predicted image data will be described by taking the DC mode, which is one of the intra 16 × 16 modes, as an example. For example, when performing intra-frame prediction of macroblock X as shown in FIG. 3, both macroblocks A and C can be predicted. In other words, when both the macroblocks A and C are already encoded and there is reference image data obtained by decoding the macroblocks A and C, the lower 16-pixel data after the decoding of the upper macroblock C and the left macroblock A are decoded. The average value of the right 16 pixel data is the predicted image. Since there is no adjacent pixel in the leftmost or upper macroblock of one frame screen, a prescribed value is determined.

上記のH.264の場合、フレーム内予測のモードを決定するには、サブマクロブロック単位で9モードのうち最も符号化効率が良いと思われるモードを決定するイントラ4×4モードと、マクロブロック単位で4モードのうち最も符号化効率が良いと思われるモードを決定するイントラ16×16モードとを比較し、二つのうちで符号化効率の良い方を輝度のフレーム内予測モードに決定する。また、色差成分も同様にブロック単位で4モードのうち最も符号化効率が良いと思われるモードに決定する。   H. above. In the case of H.264, in order to determine the mode of intra-frame prediction, an intra 4 × 4 mode for determining a mode that seems to have the best coding efficiency among 9 modes in units of sub-macroblocks, and 4 modes in units of macroblocks The intra 16 × 16 mode that determines the mode that is considered to have the best coding efficiency is compared, and the better one of the coding efficiency is determined as the intra-frame prediction mode for luminance. Similarly, the color difference component is also determined to be the mode that is considered to have the highest coding efficiency among the four modes in block units.

上記イントラ4×4モードを決定する場合、図10のようなマクロブロックに設けられる16個のサブマクロブロック0〜15を0〜8の9通りの予測モードに対応して順に処理する必要がある。つまり、サブマクロブロック0において、フレーム内予測においてはモード0からモード8まで9通りの予測画像データを形成し、かつ変換−量子化−逆量子化−逆変換−フレーム内補償といった復号処理を予測画像データ生成部102で行い、それらと符号化画像データとの差分を求めて評価部103で最適な予測画像データを選択し、上記モード0〜8の選択に用いた情報mと上記差分データdにより符号化信号が形成される。上記符号化画像データは、符号化前のもとの画像データのことをいう。上記最適な予測画像データの符号化信号について復号化されたものが参照画像データとしてメモリに格納される。   When determining the intra 4 × 4 mode, it is necessary to sequentially process the 16 sub-macroblocks 0 to 15 provided in the macroblock as shown in FIG. 10 corresponding to the nine prediction modes 0 to 8. . That is, in sub-macroblock 0, nine types of predicted image data from mode 0 to mode 8 are formed in intra-frame prediction, and decoding processing such as transformation-quantization-inverse quantization-inverse transformation-intra-frame compensation is predicted. The image data generation unit 102 performs a difference between them and the encoded image data, and the evaluation unit 103 selects the optimum predicted image data. The information m used for selecting the modes 0 to 8 and the difference data d As a result, an encoded signal is formed. The encoded image data refers to original image data before encoding. The decoded signal of the optimum predicted image data is stored in the memory as reference image data.

例として図4のようなサブマクロブロックの構成において、サブマクロブロック1を処理する場合は、それに隣接する上記のサブマクロブロック0についての復号処理の結果、すなわち参照画像データが必要なため、サブマクロブロック0のフレーム内予測終了後、サブマクロブロック0について上記9通りの予測画像データの生成とその選択及び復号処理を待たなくてはならず、すぐにサブマクロブロック1のフレーム内予測を開始することができない。この結果、1つのマクロブロックにおける16個のサブマクロブロックの符号化においては、16個のサブマクロブロック0〜15について、それぞれモード0〜8に対応して9通りの予測画像データを形成し、かつ変換−量子化−逆量子化−逆変換−フレーム内補償といった処理を行う必要がある。上記0〜8に対応して9通りの予測画像データは、9個の信号処理回路を備えれば同時に9通りの予測画像データを形成できるので比較的高速な信号処理が可能である。しかし、そのためには9通りの予測画像データを同時に形成するために9通りの信号処理並列に行うことが可能な回路が必要となり、回路規模の増大とそれに伴い消費電力も大きくなってしまう。上記9モードのうちの一部を省略すれば、回路規模等はその分小さくなるが、予測画像データの最適化が犠牲になり受信側での画質が劣化してしまう。   For example, in the sub-macroblock configuration shown in FIG. 4, when sub-macroblock 1 is processed, the result of the decoding process for the above-described sub-macroblock 0 adjacent thereto, that is, reference image data is required. After the intra-frame prediction of the macro block 0 is completed, it is necessary to wait for the generation, selection and decoding of the nine predicted image data for the sub macro block 0, and the intra-frame prediction of the sub macro block 1 starts immediately. Can not do it. As a result, in encoding of 16 sub-macroblocks in one macroblock, 9 types of predicted image data are formed for 16 submacroblocks 0 to 15 corresponding to modes 0 to 8, respectively. In addition, it is necessary to perform processing such as transformation-quantization-inverse quantization-inverse transformation-intra-frame compensation. Nine types of predicted image data corresponding to the above 0 to 8 can be formed at the same time if nine signal processing circuits are provided, so that nine types of predicted image data can be formed simultaneously. However, for this purpose, a circuit capable of performing nine types of signal processing in parallel is required in order to simultaneously form nine types of predicted image data, resulting in an increase in circuit scale and accompanying increase in power consumption. If some of the nine modes are omitted, the circuit scale and the like will be reduced accordingly, but the image quality on the receiving side will be degraded at the expense of optimization of the predicted image data.

この発明の目的は、簡単な構成で高速化及び高画質化を実現した画像号符号化ユニット提供することにある。この発明の前記ならびにそのほかの目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 An object of the present invention is to provide an image signal encoding unit that achieves high speed and high image quality with a simple configuration. The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち代表的なものの概要を簡単に説明すれば、下記の通りである。すなわち、符号化対象マクロブロックが複数に分割されてなるブロック単位での符号化動作を行う。画像符号化ユニットは、画像メモリと、フレーム内予測を行なうためのフレーム内予測モード決定部と、予測演算部と、変換部とを有する。上記フレーム内予測モード決定部は、上記画像メモリから上記符号化されるべき画像データを取得し、当該ブロックに隣接するブロックの周辺画像データを用いて複数通りからなる第1予測画像データを作成し、かかる複数通りの第1予測画像データから最も適切な1つの第1予測画像データを選択する予測モード決定情報を生成する第1動作を行うものである。上記フレーム内予測モード決定部は、更に、予測モード演算部と、予測モード決定部と、を有する。上記予測モード演算部は、上記周辺画像データを用いて複数通りからなる上記第1予測画像データを生成し、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分を各々演算し、差分情報を上記モード決定部に伝達し、上記差分情報に基づいて、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分が最も小さくなる予測モードを選択して、予測モード決定情報を生成する。上記予測演算部は、上記予測モード決定情報に従って上記周辺画像データを用いて第2予測画像データを作成する第2動作を行う。上記変換部は、上記第2予測画像データとそれに対応した符号化されるべき画像データとの差分を符号化処理する第3動作を行う。 The outline of a typical invention among the inventions disclosed in the present application will be briefly described as follows. That is, an encoding operation is performed in units of blocks obtained by dividing the encoding target macroblock into a plurality of blocks. The image encoding unit includes an image memory, an intra-frame prediction mode determination unit for performing intra-frame prediction, a prediction calculation unit, and a conversion unit. The intra-frame prediction mode determination unit acquires the image data to be encoded from the image memory, and creates a plurality of first prediction image data using peripheral image data of a block adjacent to the block. The first operation of generating prediction mode determination information for selecting the most appropriate first predicted image data from the plurality of first predicted image data is performed. The intra-frame prediction mode determination unit further includes a prediction mode calculation unit and a prediction mode determination unit. The prediction mode calculation unit generates a plurality of first prediction image data using the peripheral image data, and calculates a difference between the plurality of first prediction image data and the data of the block. Then, the difference information is transmitted to the mode determination unit, and based on the difference information, a prediction mode in which the difference between the first prediction image data consisting of a plurality of types and the data of the block is the smallest is selected, Prediction mode determination information is generated. The said prediction calculating part performs 2nd operation | movement which produces 2nd prediction image data using the said surrounding image data according to the said prediction mode determination information. The conversion unit performs a third operation of encoding a difference between the second predicted image data and the corresponding image data to be encoded.

符号化画像データを用いて予測モード決定情報を決定するので簡単な構成で高速化及び高画質化を実現した画像号符号化ユニット得ることができる。 Since the prediction mode determination information is determined using the encoded image data, it is possible to obtain an image signal encoding unit that achieves high speed and high image quality with a simple configuration.

この発明に係る画像符号化方法を説明するための構成図である。It is a block diagram for demonstrating the image coding method which concerns on this invention. 図1に示した画像符号化方法を説明するための構成図である。It is a block diagram for demonstrating the image coding method shown in FIG. 予測画像データの生成をイントラ16×16モードの1つであるDCモードの説明図である。It is explanatory drawing of DC mode which is one of the intra 16 * 16 modes for the production | generation of prediction image data. この発明に係る画像符号化におけるサブマクロブロックの構成図である。It is a block diagram of the sub macroblock in the image coding based on this invention. この発明に係る画像符号化ユニットの一実施例を示すブロック図である。It is a block diagram which shows one Example of the image coding unit which concerns on this invention. 図5のフレーム内予測モード決定部の一実施例を示す詳細なブロック図である。FIG. 6 is a detailed block diagram illustrating an example of an intra-frame prediction mode determination unit in FIG. 5. 図5のフレーム内予測演算部の一実施例を示す詳細ブロック図である。FIG. 6 is a detailed block diagram illustrating an example of an intra-frame prediction calculation unit in FIG. 5. この発明に係る画像符号化ユニットを備えたシステムLSIの一実施例を示すブロック図である。It is a block diagram which shows one Example of the system LSI provided with the image coding unit which concerns on this invention. 従来の画像符号化方法の一例を説明するための構成図である。It is a block diagram for demonstrating an example of the conventional image coding method. 図9に示した画像符号化方法を説明するための構成図である。FIG. 10 is a configuration diagram for explaining the image encoding method shown in FIG. 9.

この発明をより詳細に説明するために、添付の図面に従ってこれを説明する。In order to explain the present invention in more detail, it will be described with reference to the accompanying drawings.

図1には、この発明に係る画像符号化方法を説明するための構成図が示されている。同図は、前記H.264に適合したイントラ4×4モードでの符号化に向けられている。同図の符号化画像は、画像メモリに対応するものであり、符号化画像データは白で表し、前記参照画像データはハッチングを付して表している。上記ハッチングを付した参照画像データの部分には、上記白で表すべき符号化画像データが隠されていると理解されたい。つまり、上記ハッチングを付した部分には、上記参照画像データと符号化画像データの両方が存在する。そして、符号化対象マクロブロックは黒で表している。   FIG. 1 is a block diagram for explaining an image coding method according to the present invention. FIG. H.264 compatible with intra 4 × 4 mode encoding. The encoded image shown in the figure corresponds to the image memory, the encoded image data is represented in white, and the reference image data is represented by hatching. It should be understood that the coded image data to be expressed in white is hidden in the hatched reference image data portion. That is, both the reference image data and the encoded image data exist in the hatched portion. The encoding target macroblock is shown in black.

この実施例では、イントラ4×4モードでの符号化において、先行的に参照画像データではなく上記本来なら白で示すべき符号化画像データ及び符号化対象マクロブロックを示す黒の上記符号化画像データについて仮予測周辺データ読み出し部で読み出しを行う。読み出された仮予測データを量子化値を参照してデータ最適化処理部で処理し、仮予測画像データ生成部で仮の予測画像データを生成する。つまり、前記9通りに対応した仮の予測画像データを作成し、これと上記符号化マクロブロック読み出し部によりえられた符号化データの差分を求めて評価部で最適な仮の予測画像データを選択する。このような評価結果から9通りのモード0〜8の仮の予測データの選択に用いたモード情報が抽出される。そして、予測画像生成部において、上記抽出されたモード情報と上記符号化画像データではなく参照画像データを用いてイントラ4×4モードでの本来の予測画像データ生成が行われて、上記符号化データの差分データdと上記抽出されたモード情報mが符号化信号として出力される。   In this embodiment, in the encoding in the intra 4 × 4 mode, not the reference image data but the encoded image data that should be originally shown in white and the encoded image data in black that indicates the macroblock to be encoded. Is read by the temporary prediction peripheral data reading unit. The read temporary prediction data is processed by the data optimization processing unit with reference to the quantization value, and the temporary predicted image data generation unit generates temporary predicted image data. That is, provisional predicted image data corresponding to the above nine patterns is created, and the difference between this and the encoded data obtained by the encoded macroblock reading unit is obtained, and the optimum temporary predicted image data is selected by the evaluation unit To do. From such evaluation results, mode information used for selection of temporary prediction data in nine modes 0 to 8 is extracted. Then, the predicted image generation unit performs original predicted image data generation in the intra 4 × 4 mode using the extracted mode information and the reference image data instead of the encoded image data, and the encoded data. Difference data d and the extracted mode information m are output as encoded signals.

図2には、図1に示した画像符号化方法を説明するための構成図が示されている。この実施例では、上記イントラ4×4モードでの符号化のためのデータ処理が2つに分けて行われる。つまり、最適な予測画像データを選択するためモード選択動作と、予測画像データ及び参照画像データを形成するための動作とが時間的に分離して行うことが可能なようにされる。上記2つの処理の1つは、モード決定処理であり、他の1つは予測画像データ及び参照データの形成する処理である。   FIG. 2 is a block diagram for explaining the image encoding method shown in FIG. In this embodiment, data processing for encoding in the intra 4 × 4 mode is performed in two parts. That is, the mode selection operation for selecting the optimal prediction image data and the operation for forming the prediction image data and the reference image data can be performed separately in time. One of the two processes is a mode determination process, and the other is a process of forming predicted image data and reference data.

上記モード決定処理は、1つのマクロブロック(MB)について、前記9モードに対応してサブMB演算0−0〜0−15、サブMB演算1−0〜1−15、……サブMB演算8−0〜8−15のように、9×16回のサブMB演算からなる。ただし、個々のサブMB演算は、フレーム内予測モードのみとなる。このフレーム内予測モードは、前記図1で説明したように符号化画像データを仮参照画像データとして用いるものである。フレーム内予測モードでは、符号化画像データを用いて9通りのモード0〜8に対応した仮の予測画像データを作成し、その中から最適な予測画像データを選択する過程が生成されるモード情報を抽出するに止まる。それ故、上記のようにモード決定処理は、9×16回ものサブMB演算を行うにもかかわらず、それに要する時間は比較的短くてよく、隣接するサブマクロブロックの演算処理の終了を待つ必要がなく、高速に処理することができる。   The mode determination process is performed for one macroblock (MB) corresponding to the nine modes, sub MB operations 0-0 to 0-15, sub MB operations 1-0 to 1-15,... It consists of 9 × 16 sub-MB operations such as −0 to 8-15. However, each sub MB operation is only in the intra-frame prediction mode. In this intra-frame prediction mode, encoded image data is used as temporary reference image data as described with reference to FIG. In the intra-frame prediction mode, temporary prediction image data corresponding to nine modes 0 to 8 is created using encoded image data, and mode information for generating a process of selecting optimal prediction image data from the provisional prediction image data is generated. Stop to extract. Therefore, as described above, although the mode determination process performs 9 × 16 sub-MB operations, the time required for the mode determination process may be relatively short, and it is necessary to wait for the completion of the operation process of the adjacent sub-macroblock. And can be processed at high speed.

一方、予測画像データ及び参照データの形成する処理は、各サブMB演算においてフレーム内予測演算−変換−量子化−逆量子化−逆変換−フレーム内補償というようにデータ処理量は大きいものであるが、上記モード決定処理により抽出されたモード情報を利用するものであるので、前記図10のように9通りのモードのそれぞれについて行う必要がないから、1つのマクロブロック(MB)につい16回のサブMB演算0〜15で済む。そして、サブMB演算0〜15では、予測画像データの生成には真の参照画像データが用いられるが、例えばサブMB演算0では、それに隣接する他のマクロブロックの参照画像データが生成されているので直ちに実行でき、サブMB演算1では、上記サブMB演算0で形成された参照画像データにより直ちに実行できる。以下、サブMB演算15まで同様に実行できる。   On the other hand, the process of forming predicted image data and reference data requires a large amount of data processing such as intra-frame prediction calculation-transform-quantization-inverse quantization-inverse transform-intra-frame compensation in each sub MB calculation. However, since the mode information extracted by the mode determination process is used, there is no need to perform each of the nine modes as shown in FIG. Sub MB operations 0 to 15 are sufficient. In sub MB operations 0 to 15, true reference image data is used to generate predicted image data. For example, in sub MB operation 0, reference image data of another macroblock adjacent thereto is generated. Therefore, the sub MB operation 1 can be executed immediately using the reference image data formed in the sub MB operation 0. Thereafter, up to the sub MB calculation 15 can be executed in the same manner.

この実施例では、上記のようにモード決定動作と、予測画像データ及び参照画像データを形成するための動作とが時間的に分離して行うことが可能であることから、つまりは、上記モード決定動作が参照画像データを必要としないことから、マクロブロックNについて、上記予測画像データ及び参照画像データの生成動作を行うときには、次に符号化すべきマクロブロックN+1のモード決定処理を行うようにする。このようなパイプライン動作を採用した場合、上記マクロブロックNについて、上記予測画像データ及び参照画像データの生成動作を行うときに、その前のサイクルで既に前記サブMB演算0〜15でのフレーム内予測演算に必要なモード情報が抽出されているので、直ちにこれらのサブMB演算0〜15を順次に実行することができる。このような本願発明の係る特徴は、前記図1と図9及び図2と図10との比較から容易に理解されるであろう。   In this embodiment, since the mode determination operation and the operation for forming the predicted image data and the reference image data can be performed separately in time as described above, that is, the mode determination operation is performed. Since the operation does not require reference image data, when the predicted image data and the reference image data are generated for the macroblock N, the mode determination process for the macroblock N + 1 to be encoded next is performed. When such a pipeline operation is employed, when the prediction image data and the reference image data are generated for the macroblock N, the intra-frame operation in the sub MB operations 0 to 15 is already performed in the previous cycle. Since the mode information necessary for the prediction calculation is extracted, these sub MB calculations 0 to 15 can be executed in sequence. Such features according to the present invention will be easily understood from a comparison between FIGS. 1 and 9 and FIGS. 2 and 10.

図3には、予測画像データの生成をイントラ16×16モードの1つであるDCモードの説明図である。マクロブロックXのフレーム内予測を行う場合でマクロブロックA、Cともに予測可能な場合は、直上マクロブロックCの復号後の下16画素データと左マクロブロックAの右側16画素データとの平均値が予測画像となる。予測画像を作成する為の周辺画素データには参照画像データが用いられる。このようなイントラ16×16モードでは、当該マクロブロックXの符号化においては、それの予測画像データを作成するための参照画像データは常に作成されているので、本願発明を適用する必要はない。   FIG. 3 is an explanatory diagram of a DC mode, which is one of the intra 16 × 16 modes, for generating predicted image data. When intra-frame prediction of the macroblock X is performed and both the macroblocks A and C are predictable, the average value of the lower 16-pixel data after decoding the immediately above macroblock C and the right-side 16 pixel data of the left macroblock A is It becomes a prediction image. Reference image data is used as peripheral pixel data for creating a predicted image. In such an intra 16 × 16 mode, in encoding of the macroblock X, the reference image data for generating the predicted image data is always generated, and therefore it is not necessary to apply the present invention.

前記発明が解決しようとしている課題を説明するために用いた図4には、この発明に係る画像符号化におけるサブマクロブロックの構成図でもある。同図には、16×16画素からなるマクロブロックの中に4×4画素からなるサブマクロブロックが16個に分割される。そして、同図のサブマクロブロック0〜15の順に前記図2に示したサブMB演算0〜15を行うことにより、予測画像データに必要な真参照画像データが常に先行的に存在するものとなる。   FIG. 4 used for explaining the problem to be solved by the present invention is also a configuration diagram of sub-macroblocks in image coding according to the present invention. In the figure, a sub-macroblock consisting of 4 × 4 pixels is divided into 16 macroblocks consisting of 16 × 16 pixels. Then, by performing the sub MB operations 0 to 15 shown in FIG. 2 in the order of the sub macroblocks 0 to 15 in the figure, the true reference image data necessary for the predicted image data always exists in advance. .

図5には、この発明に係る画像符号化ユニットの一実施例のブロック図が示されている。本実施例では、フレーム内予測モード決定部402とフレーム内予測演算部403を別パイプラインステージ0と1で構成している。ここで、400は動き予測部、401は画像メモリ部、404は変換処理部、405は量子化部、406は逆量子化部、407は逆変換処理部、408はフレーム内予測逆演算部、409は動き補償部、410はパイプラインバッファ、411は周辺データ格納用バッファである。   FIG. 5 shows a block diagram of an embodiment of an image encoding unit according to the present invention. In this embodiment, the intra-frame prediction mode determination unit 402 and the intra-frame prediction calculation unit 403 are configured by separate pipeline stages 0 and 1. Here, 400 is a motion prediction unit, 401 is an image memory unit, 404 is a transformation processing unit, 405 is a quantization unit, 406 is an inverse quantization unit, 407 is an inverse transformation processing unit, and 408 is an intra-frame prediction inverse computation unit, 409 is a motion compensation unit, 410 is a pipeline buffer, and 411 is a peripheral data storage buffer.

上記フレーム内予測演算部403は、フレーム内予測モード決定部で既に抽出されているモード情報を用いて、パイプラインバッファ410から参照画像データを取得して予測画像データを形成する。以下、前記図2に示したように変換部404で変換動作、量子化部405で量子化動作、逆量子化部406で逆量子化、逆変換部407で逆変換及びフレーム内予測逆演算部で参照画像データを生成してパイプラインバッファ410に記憶させるという動作を行う。パイプラインステージ0において、フレーム内予測モード決定部402は、画像メモリ401に記憶されている当該マクロブロック及びその周辺画像データを用いて、4×4のサブマクロブロック単位でのモード情報を抽出する。   The intra-frame prediction calculation unit 403 obtains reference image data from the pipeline buffer 410 using the mode information already extracted by the intra-frame prediction mode determination unit, and forms predicted image data. Hereinafter, as shown in FIG. 2, the conversion unit 404 performs the conversion operation, the quantization unit 405 performs the quantization operation, the inverse quantization unit 406 performs the inverse quantization, the inverse transform unit 407 performs the inverse transform, and the intra-frame prediction inverse operation unit. The operation of generating the reference image data and storing it in the pipeline buffer 410 is performed. In the pipeline stage 0, the intra-frame prediction mode determination unit 402 extracts mode information in units of 4 × 4 sub-macroblocks using the macroblock and its peripheral image data stored in the image memory 401. .

動き予測部400や動き補償部409は、フレーム間予測(インター予測)に用いられる。このフレーム間予測は、本願発明とは直接関係ないが、インター予測の基本となる動き予測と動き補償の概念は次の通りである。動き予測とは、符号化済みのピクチャ(参照ピクチャ)から対象マクロブロック内の内容と似通った部分を検出するものである。現ピクチャの特定の輝度成分と空間的に同位置を含んだ参照ピクチャの一定の探索領域を設定し、この探索範囲内を1画素ずつ縦横に移動しながら探索して、評価値が最小となる位置をそのブロックの予測位置する。評価値の算出には、ブロック内の予測誤差信号の絶対値和、又は二乗誤差和に動きベクトルの符号量を紙した関数が用いられる。動きベクトルとは、元のブロックから探索位置までの移動量をベクトルで示したものである。動き補償は、動きベクトルと参照ピクチャから予測ブロックを生成するものである。   The motion prediction unit 400 and the motion compensation unit 409 are used for inter-frame prediction (inter prediction). This inter-frame prediction is not directly related to the present invention, but the concept of motion prediction and motion compensation, which is the basis of inter prediction, is as follows. Motion prediction is to detect a portion similar to the content in the target macroblock from an encoded picture (reference picture). A certain search area of a reference picture that spatially has the same position as a specific luminance component of the current picture is set, and a search is performed while moving vertically and horizontally pixel by pixel within this search range, and the evaluation value is minimized. The position is the predicted position of the block. For the calculation of the evaluation value, a function in which the code amount of the motion vector is added to the absolute value sum or the square error sum of the prediction error signals in the block is used. The motion vector is a vector indicating the amount of movement from the original block to the search position. In motion compensation, a prediction block is generated from a motion vector and a reference picture.

この実施例では、上記のようなフレーム間予測に用いられる画像メモリ401に、上記符号化画像データ(現ピクチャ)や参照ピクチャが記憶されるものであるので、それを上記フレーム内予測にも利用するものである。つまり、フレーム内予測モード決定部を追加し、フレーム内予測演算部では、1つのサブマクロブロックに対応した演算部を用いるという簡単な構成で、高速化及び高画質化を実現した画像号符号化ユニット及び画像符号化方法を実現することができるものとなる。   In this embodiment, since the encoded image data (current picture) and the reference picture are stored in the image memory 401 used for the inter-frame prediction as described above, it is also used for the intra-frame prediction. To do. In other words, an intra-frame prediction mode determination unit is added, and the intra-frame prediction calculation unit uses a calculation unit corresponding to one sub-macroblock, and has a simple configuration and realizes high-speed and high-quality image coding. The unit and the image encoding method can be realized.

図6には、前記図5のフレーム内予測モード決定部402の一実施例の詳細なブロック図が示されている。フレーム内予測決定部402内では4×4画素単位で処理を行う。仮の予測画像データの作成に必要な周辺画素データおよび4×4画素の符号化画像データは動き予測部400と共有している画像メモリ401から取得する。取得した周辺画像データは符号化画像データであり、画像データの下位ビットをどれだけ丸めるか(切り捨てるか)を決めて画像データの粗さを決めるための量子化係数が大きくなるにつれて、参照画像データとの歪が大きくなる傾向がある。そのため、周辺画像データ520と量子化係数526をデータ最適化部510に送り、量子化係数の値によって周辺画像データを最適化し、データ線521から予測モード演算部511へ送られる。周辺画像データの最適化は例えば量子化係数の値により下位ビットを丸める量子化などが行われる。   FIG. 6 shows a detailed block diagram of an embodiment of the intra-frame prediction mode determination unit 402 of FIG. In the intra-frame prediction determination unit 402, processing is performed in units of 4 × 4 pixels. Neighboring pixel data and encoded image data of 4 × 4 pixels necessary for creating temporary predicted image data are acquired from the image memory 401 shared with the motion prediction unit 400. The acquired peripheral image data is encoded image data, and as the quantization coefficient for determining the roughness of the image data by determining how much the lower bits of the image data are rounded (rounded down) becomes larger, the reference image data And the distortion tends to increase. Therefore, the peripheral image data 520 and the quantization coefficient 526 are sent to the data optimization unit 510, the peripheral image data is optimized based on the value of the quantization coefficient, and sent from the data line 521 to the prediction mode calculation unit 511. For example, the peripheral image data is optimized by performing quantization such as rounding the lower bits according to the value of the quantization coefficient.

予測モード演算部511では上記最適化後の周辺画像データ521と符号化対象ブロックの符号化画像データ522から各モードに従って仮の予測画像データを作成する。作成した仮予測画像データを使い、サブマクロブロック毎に4×4画素の符号化画像との差分絶対値和(SAD)を算出し、イントラ4×4、イントラ16×16、イントラクロマ(intra-chroma)それぞれのSADを1マクロブロック分加算した値をデータ線523、524、525から予測モード決定部512へ送る。   The prediction mode calculation unit 511 creates temporary prediction image data according to each mode from the optimized neighboring image data 521 and the encoded image data 522 of the encoding target block. Using the created temporary predicted image data, the sum of absolute differences (SAD) with the encoded image of 4 × 4 pixels is calculated for each sub-macroblock, and intra 4 × 4, intra 16 × 16, intra chroma (intra− chroma) A value obtained by adding each SAD for one macroblock is sent from the data lines 523, 524, and 525 to the prediction mode determination unit 512.

イントラ4×4モードとイントラ16×16モードの選択は次段パイプラインの量子化部に大きく依存するため、量子化係数526および外部から補正を行うための外部オフセット値527からオフセット値を決定し、イントラ4×4モードでの差分絶対値和523に作成したオフセット値を加算したものとイントラ16×16の差分絶対値和524を比較し、16個のイントラ4×4モードまたは1個のイントラ16×16モードを決定する。又、上記オフセット値は周辺画像の最適化のためにも用いられる。また、色差の予測モードであるイントラクロマモードはイントラクロマのSAD値525の値が最も小さいものをイントラクロマモードに決定する。決定された輝度予測モードおよび色差予測モードはそれぞれ信号線528および529によってフレーム内予測演算部403へ送られる。外部オフセット値527を外部から設定可能にすることにより、16個のイントラ4×4モードまたは1個のイントラ16×16モードの決定及び周辺画像の最適化を柔軟に行うことができ、それによって符号化画像の画質を高めることができる。   Since the selection of the intra 4 × 4 mode and the intra 16 × 16 mode largely depends on the quantization unit of the next-stage pipeline, the offset value is determined from the quantization coefficient 526 and the external offset value 527 for external correction. The difference absolute value sum 523 in the intra 4 × 4 mode is added to the created offset value, and the difference absolute value sum 524 of the intra 16 × 16 is compared, so that 16 intra 4 × 4 modes or one intra Determine the 16 × 16 mode. The offset value is also used for optimization of surrounding images. In the intra chroma mode, which is a color difference prediction mode, the one having the smallest intra chroma SAD value 525 is determined as the intra chroma mode. The determined luminance prediction mode and color difference prediction mode are sent to the intra-frame prediction calculation unit 403 through signal lines 528 and 529, respectively. By making it possible to set the external offset value 527 from the outside, it is possible to flexibly determine 16 intra 4 × 4 modes or one intra 16 × 16 mode and optimize surrounding images. The quality of the converted image can be improved.

図7には、前記図5のフレーム内予測演算部403の一実施例の詳細ブロック図が示されている。フレーム内予測演算部403ではフレーム内予測モード決定部402にて決定した輝度成分の予測モード528と色差成分の予測モード529に従って、周辺データ格納用バッファ411からの周辺データを元に予測画像作成部600にて真の予測画像データを作成する。パイプラインバッファである410からの符号化画像データと予測画像生成部600で作成した真の予測画像データ610との差分を差分演算部601で作成することによりフレーム内予測符号化を行う。作成した予測符号化データはデータ線611にて変換処理部404へ送られる。   FIG. 7 shows a detailed block diagram of an embodiment of the intra-frame prediction calculation unit 403 in FIG. In the intra-frame prediction calculation unit 403, a predicted image generation unit based on the peripheral data from the peripheral data storage buffer 411 according to the luminance component prediction mode 528 and the chrominance component prediction mode 529 determined by the intra-frame prediction mode determination unit 402. At 600, true predicted image data is created. The difference calculation unit 601 creates a difference between the encoded image data from the pipeline buffer 410 and the true predicted image data 610 created by the predicted image generation unit 600 to perform intraframe prediction encoding. The generated prediction encoded data is sent to the conversion processing unit 404 through the data line 611.

前記図5において、上記変換処理部404では受け取ったデータに対して変換処理を行い、量子化部405へ送る。量子化部は受け取ったデータに量子化処理を施し、逆量子化部406へ送るとともに、パイプラインバッファ412へデータを格納する。逆量子化部406は受け取ったデータに逆量子化処理を施し、逆変換処理部407へデータを送る。逆変換処理部407は逆変換処理を施し、フレーム内予測逆演算部408へデータを転送する。フレーム内予測逆演算部408は逆変換処理を行い処理後のデータをパイプラインバッファ410に格納するとともに、周辺データ格納バッファ411に周辺データを格納してパイプライン動作が終了する。   In FIG. 5, the conversion processing unit 404 performs conversion processing on the received data and sends the data to the quantization unit 405. The quantization unit performs quantization processing on the received data, sends the data to the inverse quantization unit 406, and stores the data in the pipeline buffer 412. The inverse quantization unit 406 performs inverse quantization processing on the received data and sends the data to the inverse transformation processing unit 407. The inverse transform processing unit 407 performs inverse transform processing and transfers data to the intra-frame prediction inverse operation unit 408. The intra-frame prediction inverse operation unit 408 performs inverse transformation processing and stores the processed data in the pipeline buffer 410, and stores the peripheral data in the peripheral data storage buffer 411, and the pipeline operation is completed.

図8には、この発明に係る画像符号化ユニットを備えたシステムLSIの一実施例のブロック図が示されている。この実施例のシステムLSIは、特に制限されないが、携帯電話機等に向けらており、携帯電話機のベースバンド処理に向けられた中央処理装置CPU、バスコントローラ、バスブリッジ、及び画像符号化ユニットとSRAM(スタティック型ランダム・アクセス・メモリ)が設けられている。このSRAMは、前記パイプラインバッファ、周辺データ格納バッファ及び画像メモリを構成する。この他、DSP(デジタル・シグナル・プロセッサ)及びASIC(論理回路)や不揮発性メモリが必要に応じて搭載される。SDRAMは、シンクロナス・ダイナミック型RAMであり、大容量の外部画像メモリ等として用いられる。   FIG. 8 is a block diagram showing an embodiment of a system LSI provided with an image encoding unit according to the present invention. The system LSI of this embodiment is not particularly limited, but is directed to a mobile phone and the like. A central processing unit CPU, a bus controller, a bus bridge, an image encoding unit, and an SRAM that are directed to baseband processing of the mobile phone (Static random access memory) is provided. The SRAM constitutes the pipeline buffer, the peripheral data storage buffer, and the image memory. In addition, a DSP (digital signal processor), an ASIC (logic circuit), and a nonvolatile memory are mounted as necessary. The SDRAM is a synchronous dynamic RAM and is used as a large-capacity external image memory or the like.

画像符号化ユニットは、前記図5の実施例に対応しており、可変長符号化部、可変長復号化部が新たに付加されている。つまり、AVCにおける符号化方法においては、可変長符号化を採用する場合に上記可変長符号化部、可変長復号化部が必要とされる。この他に算術符号化がある。   The image encoding unit corresponds to the embodiment of FIG. 5, and a variable length encoding unit and a variable length decoding unit are newly added. That is, in the encoding method in AVC, the variable length encoding unit and the variable length decoding unit are required when variable length encoding is employed. There is also arithmetic coding.

以上本発明者によってなされた発明を、前記実施形態に基づき具体的に説明したが、本発明は、前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能である。例えばパイプラインにより上記モード決定処理と予測画像データ及び参照データの形成する処理を行う必要はない。つまり、予測画像データ及び参照データの形成する処理を行うサブMB演算時に、上記9通りのモード情報の1つが上記上記モード決定処理により行われていればよい。つまり、前記図2において、サブマクロブロック1に対応した上記予測画像データ及び参照データの形成する処理を行うサブMB演算1の前に、1つ前のサブマクロブロック0に対応した上記モード決定処理がサブMB演算00〜80の9回のフレーム内予測モードが先行的に終了していればよい。   Although the invention made by the inventor has been specifically described based on the above embodiment, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. For example, it is not necessary to perform the mode determination process and the process of forming predicted image data and reference data by a pipeline. That is, it is only necessary that one of the nine types of mode information is performed by the mode determination process at the time of sub-MB calculation in which the process of forming predicted image data and reference data is performed. That is, in FIG. 2, the mode determination process corresponding to the previous sub macroblock 0 is performed before the sub MB operation 1 for performing the process of forming the prediction image data and the reference data corresponding to the sub macro block 1. However, it is only necessary that the nine intra-frame prediction modes of sub MB operations 00 to 80 have been completed in advance.

この発明は、例えばH.264/MPEG4−AVC等に適合された画像符号化処理ユニットに広く利用することができる。This invention is disclosed in, for example, H.H. It can be widely used for an image encoding processing unit adapted to H.264 / MPEG4-AVC or the like.

100…符号化対象ブロック、101…周辺画素データ、102…予測画像データ生成部、103…評価部、400…動き予測部、401…画像メモリ、402…フレーム内予測モード決定部、403…フレーム内予測演算部、404…変換処理部、405…量子化部、406…逆量子化部、407…逆変換処理部、408…フレーム内予測逆演算部、409…動き補償部、410、412…パイプラインバッファ、411…周辺データ格納バッファ、510…データ最適化部、511…予測モード演算部、512…予測モード決定部、520〜525…データ線および信号線、600…予測画像作成部、601…差分演算部、610、611…データ線   DESCRIPTION OF SYMBOLS 100 ... Encoding target block, 101 ... Peripheral pixel data, 102 ... Predictive image data generation unit, 103 ... Evaluation unit, 400 ... Motion prediction unit, 401 ... Image memory, 402 ... Intraframe prediction mode determination unit, 403 ... Intraframe Prediction calculation unit, 404 ... transformation processing unit, 405 ... quantization unit, 406 ... inverse quantization unit, 407 ... inverse transformation processing unit, 408 ... intraframe prediction inverse calculation unit, 409 ... motion compensation unit, 410, 412 ... pipe Line buffer, 411 ... Peripheral data storage buffer, 510 ... Data optimization unit, 511 ... Prediction mode calculation unit, 512 ... Prediction mode determination unit, 520 to 525 ... Data line and signal line, 600 ... Prediction image creation unit, 601 ... Difference calculation unit, 610, 611, data line

Claims (16)

符号化対象マクロブロックが複数に分割されてなるブロック単位での符号化動作を行うことが可能な画像符号化ユニットであって、
像メモリと、
フレーム内予測を行なうためのフレーム内予測モード決定部と、
予測演算部と、
変換部と、を有し、
記フレーム内予測モード決定部は、
上記画像メモリから上記符号化されるべき画像データを取得、当該ブロックに隣接するブロックの周辺画像データを用いて複数通りからなる第1予測画像データを作成し、かかる複数通りの第1予測画像データから最も適切な1つの第1予測画像データを選択する予測モード決定情報を生成する第1動作を行うものであり、
上記フレーム内予測モード決定部は、更に、
予測モード演算部と、
予測モード決定部と、を有し、
上記予測モード演算部は、上記周辺画像データを用いて複数通りからなる上記第1予測画像データを生成し、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分を各々演算し、差分情報を上記モード決定部に伝達し、
上記予測モード決定部は、上記差分情報に基づいて、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分が最も小さくなる予測モードを選択して、予測モード決定情報を生成し、
上記予測演算部は、上記予測モード決定情報に従って上記周辺画像データを用いて第2予測画像データを作成する第2動作を行い、
上記変換部は、上記第2予測画像データとそれに対応した符号化されるべき画像データとの差分を符号化処理する第3動作を行うことを特徴とする画像符号化ユニット。
An image encoding unit capable of performing an encoding operation in units of blocks formed by dividing an encoding target macroblock into a plurality of blocks,
And images memory,
An intra-frame prediction mode determination unit for performing intra-frame prediction;
A prediction calculation unit;
A conversion unit,
Above Symbol intra-frame prediction mode determining unit,
You acquire image data to be the coded from the image memory by using surrounding image data of the block adjacent to the block to create a first predictive image data composed of a plurality of ways, first prediction image of the plural Street the first operation of generating a prediction mode decision information for selecting the most appropriate one of the first predictive image data from the data a row Umono,
The intra-frame prediction mode determination unit further includes:
A prediction mode calculation unit;
A prediction mode determination unit,
The prediction mode calculation unit generates a plurality of first prediction image data using the peripheral image data, and calculates a difference between the plurality of first prediction image data and the data of the block. And transmitting the difference information to the mode determining unit,
The prediction mode determination unit generates a prediction mode determination information by selecting a prediction mode in which a difference between the first prediction image data including a plurality of types and the data of the block is the smallest based on the difference information. And
The prediction calculation unit performs a second operation of creating second predicted image data using the peripheral image data according to the prediction mode determination information,
The said encoding part performs the 3rd operation | movement which carries out the encoding process of the difference of the said 2nd prediction image data and the image data which should be encoded corresponding to it, The image encoding unit characterized by the above-mentioned.
請求項1において、
上記予測モード決定部は、外部からのオフセット情報を上記差分情報に加算することにより上記予測モードを選択することを特徴とする画像符号化ユニット。
In claim 1,
The image coding unit , wherein the prediction mode determination unit selects the prediction mode by adding external offset information to the difference information .
請求項において、
上記予測演算部により演算される上記当該ブロックの第2予測画像データを形成するときに、上記予測モード決定部は、上記予測演算部が演算すべき次のブロックに対応した予測モード決定情報を生成するものであることを特徴とする画像符号化ユニット。
In claim 1 ,
When forming a second predictive image data of the corresponding block is computed by the prediction computation unit, the prediction mode determining unit generates the prediction mode decision information the prediction calculation section corresponding to the next block to be computed An image encoding unit characterized by comprising:
請求項1において、
上記マクロブロックは、16画素×16画素により構成され、
上記ブロックは、4画素×4画素から構成されるサブマクロブロックであることを特徴とする画像符号化ユニット。
In claim 1,
The macroblock is composed of 16 pixels × 16 pixels,
The block is a sub-macroblock composed of 4 pixels × 4 pixels.
請求項1において、
上記予測回路及び上記予測モード決定部は、パイプライン動作における第1ステージを構成し、上記予測モード決定部を除いた上記変換部は、パイプライン動作における第2ステージを構成するものであることを特徴とする画像符号化ユニット。
In claim 1,
The prediction circuit and the prediction mode determination unit constitute a first stage in the pipeline operation, and the conversion unit excluding the prediction mode determination unit constitutes a second stage in the pipeline operation. Characteristic image encoding unit.
請求項1において、
上記画像処理ユニットは、上記画像メモリ及び中央処理装置を含んだシステムLSIに搭載されるものであることを特徴とする画像符号化ユニット。
In claim 1,
The image coding unit, wherein the image processing unit is mounted on a system LSI including the image memory and a central processing unit.
請求項1において、
上記第1、第2および第3動作は1フレームの画像情報を用いて上記符号化処理を行うためのものであることを特徴とする画像符号化ユニット。
In claim 1,
The image encoding unit according to claim 1, wherein the first, second and third operations are for performing the encoding process using image information of one frame.
請求項において、
上記予測モード決定部は上記量子化係数値と外部からの補正値とに基づいて従ってデータ最適化処理が行われて、最も適切な1つの第1予測画像データを選択することを特徴とする画像符号化ユニット。
In claim 1 ,
The prediction mode determination unit selects one of the most appropriate first prediction image data by performing data optimization processing based on the quantization coefficient value and an external correction value. Encoding unit.
符号化対象マクロブロックが複数に分割されてなるブロック単位での符号化動作を行うことが可能な画像符号化ユニットであって、An image encoding unit capable of performing an encoding operation in units of blocks formed by dividing an encoding target macroblock into a plurality of blocks,
画像メモリと、Image memory,
フレーム内予測を行なうためのフレーム内予測モード決定部と、An intra-frame prediction mode determination unit for performing intra-frame prediction;
予測演算部と、A prediction calculation unit;
変換部と、を有し、A conversion unit,
上記フレーム内予測モード決定部は、The intra-frame prediction mode determination unit
上記画像メモリから上記符号化されるべき画像データを取得し、当該ブロックに隣接するブロックの周辺画像データを用いて複数通りからなる第1予測画像データを作成し、かかる複数通りの第1予測画像データから最も適切な1つの第1予測画像データを選択する予測モード決定情報を生成する第1動作を行うものであり、Obtaining the image data to be encoded from the image memory, creating a plurality of first predicted image data using peripheral image data of a block adjacent to the block, and the plurality of first predicted images. Performing a first operation of generating prediction mode determination information for selecting the most appropriate one first prediction image data from the data;
上記フレーム内予測モード決定部は、更に、The intra-frame prediction mode determination unit further includes:
データ最適化部と、A data optimization unit;
予測モード演算部と、A prediction mode calculation unit;
予測モード決定部と、を有し、A prediction mode determination unit,
上記データ最適化部は、量子化係数に基づいたビット数だけ、上記周辺画像データの下位ビットの切捨てを行い最適化周辺画像データの生成を行い、The data optimization unit generates optimized peripheral image data by truncating the lower bits of the peripheral image data by the number of bits based on the quantization coefficient,
上記予測モード演算部は、上記最適化周辺画像データを用いて複数通りからなる上記第1予測画像データを生成し、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分を各々演算し、差分情報を上記モード決定部に伝達し、The prediction mode calculation unit generates a plurality of first prediction image data using the optimized peripheral image data, and calculates a difference between the plurality of first prediction image data and the data of the block. Calculating each, and transmitting the difference information to the mode determining unit,
上記予測モード決定部は、上記差分情報に基づいて、複数通りからなる上記第1予測画像データと上記当該ブロックのデータとの差分が最も小さくなる予測モードを選択して、予測モード決定情報を生成し、The prediction mode determination unit generates a prediction mode determination information by selecting a prediction mode in which a difference between the first prediction image data including a plurality of types and the data of the block is the smallest based on the difference information. And
上記予測演算部は、上記予測モード決定情報に従って上記周辺画像データを用いて第2予測画像データを作成する第2動作を行い、The prediction calculation unit performs a second operation of creating second predicted image data using the peripheral image data according to the prediction mode determination information,
上記変換部は、上記第2予測画像データとそれに対応した符号化されるべき画像データとの差分を符号化処理する第3動作を行うことを特徴とする画像符号化ユニット。The said encoding part performs the 3rd operation | movement which carries out the encoding process of the difference of the said 2nd prediction image data and the image data which should be encoded corresponding to it, The image encoding unit characterized by the above-mentioned.
請求項9において、In claim 9,
上記予測モード決定部は、外部からのオフセット情報を上記差分情報に加算することにより上記予測モードを選択することを特徴とする画像符号化ユニット。The image coding unit, wherein the prediction mode determination unit selects the prediction mode by adding external offset information to the difference information.
請求項9において、
上記予測演算部により演算される上記当該ブロックの第2予測画像データを形成するときに、上記予測モード決定部は、上記予測演算部が演算すべき次のブロックに対応した予測モード決定情報を生成するものであることを特徴とする画像符号化ユニット。
In claim 9,
When forming the second predicted image data of the block calculated by the prediction calculation unit, the prediction mode determination unit generates prediction mode determination information corresponding to the next block to be calculated by the prediction calculation unit An image encoding unit characterized by comprising:
請求項9において、In claim 9,
上記マクロブロックは、16画素×16画素により構成され、The macroblock is composed of 16 pixels × 16 pixels,
上記ブロックは、4画素×4画素から構成されるサブマクロブロックであることを特徴とする画像符号化ユニット。The block is a sub-macroblock composed of 4 pixels × 4 pixels.
請求項9において、In claim 9,
上記予測回路及び上記予測モード決定部は、パイプライン動作における第1ステージを構成し、上記予測モード決定部を除いた上記変換部は、パイプライン動作における第2ステージを構成するものであることを特徴とする画像符号化ユニット。The prediction circuit and the prediction mode determination unit constitute a first stage in the pipeline operation, and the conversion unit excluding the prediction mode determination unit constitutes a second stage in the pipeline operation. Characteristic image encoding unit.
請求項9において、In claim 9,
上記画像処理ユニットは、上記画像メモリ及び中央処理装置を含んだシステムLSIに搭載されるものであることを特徴とする画像符号化ユニット。The image coding unit, wherein the image processing unit is mounted on a system LSI including the image memory and a central processing unit.
請求項9において、In claim 9,
上記第1、第2および第3動作は1フレームの画像情報を用いて上記符号化処理を行うためのものであることを特徴とする画像符号化ユニット。The image encoding unit according to claim 1, wherein the first, second and third operations are for performing the encoding process using image information of one frame.
請求項9において、In claim 9,
上記予測モード決定部は上記量子化係数値と外部からの補正値とに基づいて従ってデータ最適化処理が行われて、最も適切な1つの第1予測画像データを選択することを特徴とする画像符号化ユニット。The prediction mode determination unit selects one of the most appropriate first prediction image data by performing data optimization processing based on the quantization coefficient value and an external correction value. Encoding unit.
JP2011085960A 2011-04-08 2011-04-08 Image encoding unit Pending JP2011135622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011085960A JP2011135622A (en) 2011-04-08 2011-04-08 Image encoding unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011085960A JP2011135622A (en) 2011-04-08 2011-04-08 Image encoding unit

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005125558A Division JP2006304102A (en) 2005-04-22 2005-04-22 Image coding unit and image coding method

Publications (1)

Publication Number Publication Date
JP2011135622A true JP2011135622A (en) 2011-07-07

Family

ID=44347785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011085960A Pending JP2011135622A (en) 2011-04-08 2011-04-08 Image encoding unit

Country Status (1)

Country Link
JP (1) JP2011135622A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299102A (en) * 2002-03-18 2003-10-17 Lg Electronics Inc B picture mode determining method in video encoding system and apparatus thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299102A (en) * 2002-03-18 2003-10-17 Lg Electronics Inc B picture mode determining method in video encoding system and apparatus thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6010020973; Tu-Chih Wang(外3名): 'PERFORMANCE ANALYSIS OF HARDWARE ORIENTED ALGORITHM MODIFICATIONS IN H.264' IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2003) Vol.2, 20030406, p.493-496, IEEE *

Similar Documents

Publication Publication Date Title
JP2006304102A (en) Image coding unit and image coding method
US11843768B2 (en) Method and apparatus for setting reference picture index of temporal merging candidate
TWI735172B (en) Mutual excluding settings for multiple tools
US11902563B2 (en) Encoding and decoding method and device, encoder side apparatus and decoder side apparatus
JP2022507683A (en) Decoder side motion vector improvement
JP5669278B2 (en) Method for coding a block of an image sequence and method for reconstructing this block
CN111385569A (en) Coding and decoding method and equipment thereof
JP2014116950A (en) Moving image decoding device and moving image decoding method
US20190230379A1 (en) Method and device for intra-prediction
JP3880985B2 (en) Motion vector detection apparatus and motion vector detection method
JPWO2012086829A1 (en) Motion estimation device, motion estimation method, motion estimation program, and moving image encoding device
JP2009049519A (en) Prediction motion vector generating device of motion picture coding device
JP2008271127A (en) Coding apparatus
JP4257789B2 (en) Video encoding device
WO2012117900A1 (en) Encoding device
JP4802928B2 (en) Image data processing device
JP2011135622A (en) Image encoding unit
TWI493942B (en) Moving picture coding method, moving picture coding apparatus, and moving picture coding program
KR101368732B1 (en) Apparatus for estimating motion for h.264/avc encoder with high performance and method thereof
WO2023044916A1 (en) Intra prediction method, encoder, decoder, and encoding and decoding system
JP2011151655A (en) Apparatus, method and program for encoding of moving picture
JP6480790B2 (en) Image determination apparatus, encoding apparatus, and program
JP2011015260A (en) Image decoding apparatus and method therefor
CN117981299A (en) Method for intra prediction, encoder, decoder and encoding/decoding system
JP2007221420A (en) Encoder and image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130220