JP2020156106A - Video encoding device and video encoding method - Google Patents
Video encoding device and video encoding method Download PDFInfo
- Publication number
- JP2020156106A JP2020156106A JP2020104935A JP2020104935A JP2020156106A JP 2020156106 A JP2020156106 A JP 2020156106A JP 2020104935 A JP2020104935 A JP 2020104935A JP 2020104935 A JP2020104935 A JP 2020104935A JP 2020156106 A JP2020156106 A JP 2020156106A
- Authority
- JP
- Japan
- Prior art keywords
- basic
- integrated
- coding
- prediction
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本開示は、入力された画像をブロックに分割して符号化する動画像符号化装置および、動画像符号化方法に関する。 The present disclosure relates to a moving image coding device that divides an input image into blocks and encodes the input image, and a moving image coding method.
近年、マルチメディアアプリケーションの発展に伴い、画像、音声およびテキストなど、あらゆるメディアの情報を統一的に扱うことが一般的になってきた。また、ディジタル化された画像は膨大なデータ量を持つため、蓄積および伝送のためには、画像の情報圧縮技術が不可欠である。一方で、圧縮した画像データを相互運用するためには、圧縮技術の標準化も重要である。例えば、動画像圧縮技術の標準規格としては、ITU−T(国際電気通信連合 電気通信標準化部門)のH.261、H.263、H.264、ISO/IEC(国際標準化機構)のMPEG−1、MPEG−3、MPEG−4、MPEG−4AVCなどがある。また、現在は、ITU−TとISO/IECとの共同によるHEVC(High Efficiency Video Coding)と呼ばれる次世代動画像符号化方式の標準化活動が進んでいる。 In recent years, with the development of multimedia applications, it has become common to handle information in all media such as images, sounds, and texts in a unified manner. In addition, since digitized images have a huge amount of data, image information compression technology is indispensable for storage and transmission. On the other hand, standardization of compression technology is also important for interoperability of compressed image data. For example, as a standard for moving image compression technology, H.T. of ITU-T (International Telecommunication Union Telecommunication Standardization Division). 261 and H. 263, H. 264, ISO / IEC (International Organization for Standardization) MPEG-1, MPEG-3, MPEG-4, MPEG-4 AVC and the like. At present, the standardization activity of the next-generation moving image coding method called HEVC (High Efficiency Video Coding) is in progress in collaboration with ITU-T and ISO / IEC.
このような動画像の符号化では、符号化対象の各ピクチャを符号化単位のブロックに分割し、ブロック毎に時間方向および空間方向の冗長性を削減することによって情報量を圧縮する。空間的な冗長性の削減を目的とする画面内予測符号化では、周辺の符号化済みブロックの画素情報から予測画像を生成し、得られた予測画像と符号化対象のブロックとの差分画像を取得する。また時間的な冗長性の削減を目的とする画面間予測符号化では、前方または後方の既に符号化が完了しているピクチャを参照してブロック単位で動きの検出および予測画像を生成し、得られた予測画像と符号化対象のブロックとの差分画像を取得する。これらの得られた差分画像に対して離散コサイン変換等の直交変換処理および量子化処理し、可変長符号化および算術符号化を用いて符号列を生成することで情報量が圧縮される。 In such video coding, each picture to be coded is divided into blocks of coding units, and the amount of information is compressed by reducing redundancy in the time direction and the spatial direction for each block. In in-screen prediction coding for the purpose of reducing spatial redundancy, a prediction image is generated from the pixel information of the peripheral encoded blocks, and the difference image between the obtained prediction image and the coded block is displayed. get. In inter-screen prediction coding for the purpose of reducing temporal redundancy, motion detection and prediction images are generated in block units by referring to pictures that have already been coded forward or backward. The difference image between the predicted image and the block to be encoded is acquired. The amount of information is compressed by performing orthogonal transform processing such as discrete cosine transform and quantization processing on these obtained difference images and generating a code sequence using variable length coding and arithmetic coding.
図1は、HEVC規格に定義されている各ブロックサイズの組み合わせを説明するための概念図である。HEVC(非特許文献1)では、符号化単位(以下、「Cording Unit:CU」と称する)として、図1のように、64×64画素、32×32画素、16×16画素、8×8画素の4種類のブロックサイズの中から任意のサイズを選択して使用することができる。 FIG. 1 is a conceptual diagram for explaining a combination of block sizes defined in the HEVC standard. In HEVC (Non-Patent Document 1), as a coding unit (hereinafter, referred to as “Cording Unit: CU”), as shown in FIG. 1, 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 Any size can be selected and used from the four types of block sizes of pixels.
さらにCUを分割した単位であり、画面内予測符号化および画面間予測符号化において予測画像を生成する予測単位(以下、「Prediction Unit:PU」と称する)として、例えばCUサイズを32x32画素とした場合、図1のように、32×32画素、16×32画素、16×16画素等の8種類のブロックサイズの中から任意のサイズを選択して使用することができる。例えば、撮像物の動きが複雑な画像では小さなブロックサイズを使用し、撮像物の動きが単純な画像では大きなブロックサイズを使用することで高い符号化効率を実現している。 Further, it is a unit obtained by dividing the CU, and as a prediction unit (hereinafter, referred to as "Prescription Unit: PU") for generating a prediction image in the in-screen prediction coding and the inter-screen prediction coding, for example, the CU size is 32x32 pixels. In this case, as shown in FIG. 1, any size can be selected and used from eight types of block sizes such as 32 × 32 pixels, 16 × 32 pixels, and 16 × 16 pixels. For example, high coding efficiency is achieved by using a small block size for an image in which the movement of the imaged object is complicated and using a large block size for an image in which the movement of the imaged object is simple.
さらにCUを分割した単位であり、前述の直交変換処理および量子化処理する直交変換単位(以下、「Transform Unit:TU」と称する)として、図1のように、例えばCUサイズを32x32画素とした場合、32×32画素、16×16画素、8×8画素、4×4画素の4種類のブロックサイズの中から任意のサイズを選択して使用することができる。例えば、細かい範囲で特徴が異なる画像では小さなブロックサイズを使用し、広い範囲で特徴が同じような画像では大きなブロックサイズを使用することで高い符号化効率を実現している。 Further, it is a unit obtained by dividing the CU, and as the above-mentioned orthogonal conversion processing and the orthogonal conversion unit (hereinafter referred to as “Transform Unit: TU”) to be quantized, for example, the CU size is 32x32 pixels as shown in FIG. In this case, an arbitrary size can be selected and used from four types of block sizes of 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, and 4 × 4 pixels. For example, high coding efficiency is achieved by using a small block size for an image having different features in a fine range and using a large block size for an image having similar features in a wide range.
HEVCでは、CUとして4種類のブロックサイズを選択できる。しかし、符号化過程においてCUのブロック数を増やせば増やすほど、CU層におけるヘッダ情報の符号量が増える。その結果、符号化効率が悪くなることがある。 In HEVC, four types of block sizes can be selected as CU. However, as the number of CU blocks is increased in the coding process, the amount of header information coded in the CU layer increases. As a result, the coding efficiency may deteriorate.
本開示は上記課題を鑑みてなされたものであり、CU層およびPU層のヘッダ情報の符号量を抑制し、処理量を増加させることなく符号化効率を向上させた動画像符号化装置を提供する。 The present disclosure has been made in view of the above problems, and provides a moving image coding apparatus that suppresses the coding amount of header information of the CU layer and the PU layer and improves the coding efficiency without increasing the processing amount. To do.
本開示にかかる動画像符号化装置は、符号化対象ピクチャを所定の符号化規格にて符号化し、符号列を生成する。動画像符号化装置は、符号化対象ピクチャを符号化単位(基本CU)毎に分割して出力する分割部と、出力される1つの基本CUを少なくとも1つ以上に分割して得られる単位であって、基本CUのサイズ以下の大きさである予測単位(基本PU)毎に画面内予測もしくは画面間予測し予測画像を生成する予測処理部と、生成した予測画像と、符号化対象ピクチャのうち予測画像に対応する画像とを差分演算し、差分画像を生成する差分演算部と、生成された差分画像に対して直交変換および量子化処理し残差係数を生成する残差符号化部と、(1)統合領域(N×N画素の領域)に属する複数の基本CUおよび基本PUがすべて同じブロックサイズかつ(2)統合領域に属する複数の基本PUの予測情報が同じである場合に、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する統合部と、統合後の新たなCUに対して設定される符号化情報および統合後の新たなCU内に属していた統合前の複数の基本CUに関する残差係数を可変長符号化および算術符号化し、統合後の新たなCUに対する符号列を生成する符号列生成部と、を備える。 The moving image coding apparatus according to the present disclosure encodes a picture to be coded according to a predetermined coding standard to generate a code string. The moving image coding device is a unit obtained by dividing a picture to be encoded into each coding unit (basic CU) and outputting it, and by dividing one output basic CU into at least one or more. There is a prediction processing unit that generates a prediction image by in-screen prediction or inter-screen prediction for each prediction unit (basic PU) that is smaller than the size of the basic CU, the generated prediction image, and the picture to be encoded. Of these, a difference calculation unit that performs a difference calculation with the image corresponding to the predicted image and generates a difference image, and a residual coding unit that performs orthogonal conversion and quantization processing on the generated difference image to generate a residual coefficient. , (1) When the plurality of basic CUs and basic PUs belonging to the integrated area (N × N pixel area) all have the same block size and (2) the prediction information of the plurality of basic PUs belonging to the integrated area is the same. The integration unit that integrates multiple basic CUs included in the integration area as one new CU, the coding information set for the new CU after integration, and the integration that belonged to the new CU after integration. It includes a code sequence generator that generates a code string for a new CU after integration by variable-length coding and arithmetic coding of the residual coefficients for the previous plurality of basic CUs.
以上より、本発明における動画像符号化装置は、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 From the above, the moving image coding apparatus in the present invention can suppress the coding amount of the header information of the CU layer and the PU layer, and can improve the coding efficiency without increasing the processing amount. ..
なお、本開示は、このような動画像符号化装置として実現することができるだけでなく、このような動画像符号化装置に含まれる各手段と同等の処理をプログラムや集積回路としても実現することもできる。 It should be noted that the present disclosure can be realized not only as such a moving image coding device, but also as a program or an integrated circuit that performs the same processing as each means included in such a moving image coding device. You can also.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
(実施の形態1)
実施の形態1にかかる動画像符号化装置100は、例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、携帯情報端末およびパーソナルコンピューターなどに搭載されたマイクロプロセッサにより実現される。動画像符号化装置100は、動画圧縮規格であるHEVCに従って、動画像データの符号化処理を実施する。本開示にかかる動画像符号化装置100は、CU(Cording Unit)およびPU(Prediction Unit)の符号化情報に基づいて、複数のCUを1つのCUに統合し、統合後のCUに対して1つのヘッダ情報を付与する。その結果、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。
(Embodiment 1)
The moving
以下、実施の形態1にかかる動画像符号化装置100の構成および動作について、図面を参照しながら説明する。
Hereinafter, the configuration and operation of the moving
[1−1.動画像符号化装置の構成]
動画像符号化装置100の構成について説明する。図2は、実施の形態1にかかる動画像符号化装置100の構成を示すブロック図である。
[1-1. Configuration of video encoding device]
The configuration of the moving
図2に示すように、動画像符号化装置100は、ピクチャメモリ101と、基本ブロック分割部102と、基本ブロック単位処理ループ部111と、統合判定部107と、符号列生成部108とを備えている。そして、動画像符号化装置100は、基本ブロック単位処理ループ部111として、予測残差符号化部103と、予測残差復号化部104と、ピクチャバッファ105と、予測処理部106、差分演算部109、加算演算部110とを備えている。この構成により、動画像符号化装置100は、ピクチャ単位で入力された画像を基本ブロックに分割した後に、この分割された基本ブロックの単位で符号化処理を実施し、符号列を出力する。
As shown in FIG. 2, the moving
続いて、動画像符号化装置100を構成する各部について、詳細を説明する。
Subsequently, details of each part constituting the moving
ピクチャメモリ101は、表示装置に表示される順番に沿って、ピクチャ単位で画像信号を入力する。ピクチャメモリ101は、入力した画像信号を、符号化する順番にピクチャ単位で並び替えて格納する。ピクチャメモリ101は、基本ブロック分割部102からの読出し命令を受け付けると、読出し命令にかかる入力画像信号である符号化対象の符号化対象ピクチャを基本ブロック分割部102に出力する。
The
分割部としての基本ブロック分割部102は、ピクチャメモリ101から順次入力される符号化対象のピクチャを符号化単位毎に分割して出力する。基本ブロック分割部102は、基本ブロック単位処理ループ部111における処理の基本単位である基本ブロックに分割する。動画像符号化装置100は、基本ブロックのサイズをHEVCで規定されている64×64画素、および32×32画素よりも小さい16×16画素に限定する。基本ブロックは、HEVC規格にて定義されている符号化単位であるCUを1つ以上包含する。図3は、実施の形態1にかかる各ブロックサイズの組み合わせを説明するための概念図である。図3の「基本CUサイズ」の列に示すように、基本CUサイズは、16×16画素の基本ブロックに対して、16×16画素のサイズおよび、8×8画素のサイズを取り得る。16×16画素のサイズのCUは、16×16画素の基本ブロックに対して、1つ包含される。8×8画素のサイズのCUは、16×16画素の基本ブロックに対して、4つ包含される。以下、基本ブロックに包含されるこれらのCUを「基本CU」と称する。基本ブロック分割部102は、入力されるピクチャを基本ブロックに分割するとともに、基本CUのサイズを選択する。一般的に、基本ブロック分割部102は、入力されたピクチャの画素構成が複雑なときは小さなサイズの基本CUを選択する一方、入力されたピクチャの画素構成が単純なときは大きなサイズの基本CUを選択する。なお、図3の例に記載した基本CUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本ブロック以下のサイズである基本CUを使用した場合であっても同様の説明が可能である。
The basic
基本ブロック分割部102は、基本ブロック(基本CUのサイズが選択済み)に分割したピクチャを、予測処理部106および差分演算部109に順次出力する。
The basic
予測処理部106は、基本ブロック分割部102から順次入力される基本ブロックに分割されたピクチャを基に、基本ブロック毎に画面内予測もしくは画面間予測のどちらか一方を用いて予測処理を行う。予測処理部106は、基本CUをさらに分割した予測単位であるPU(以下、「基本PU」と称する)毎に予測処理を行う。具体的には、図3の「基本PUサイズ」の列に示すように、基本CUのサイズが16×16画素であるとき、16×16画素の1つの基本PU、16×8画素の2つの基本PUまたは8×16画素の2つの基本PUのいずれかの基本PUに分割される。但し、16×8画素および、8×16画素の基本PUサイズは、画面間予測が選択されたときのみに使用される。一方、基本CUのサイズが8×8画素であるとき、8×8画素の1つの基本PU、8×4画素の2つの基本PUまたは4×8画素の2つの基本PU、もしくは4×4画素の4つの基本PUのいずれかの基本PUに分割される。但し、8×4画素および、4×8画素の基本PUサイズは、画面間予測が選択されたときのみに使用される。4×4画素の基本PUサイズは、画面内予測が選択されたときのみに使用される。一般的に、予測処理部106は、入力された基本CUの画素構成が複雑なときは小さなサイズの基本PUを選択する一方、入力された基本CUの画素構成が単純なときは大きなサイズの基本PUを選択する。なお、図3の例に記載した基本PUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本CU以下のサイズである基本PUを使用した場合であっても同様の説明が可能である。
The
画面内予測を用いる場合、予測処理部106は、符号化対象とするピクチャ内のブロックについて、同じピクチャ内の既に符号化済みの周辺のブロックの再構成画像信号を用いて予測処理する。再構成画像信号とは、後述する加算演算部110により生成された信号である。予測処理部106は、複数の画面内予測方法(画面内予測モード)の中から、符号化対象とするブロックの画素構成と最も類似度の高い予測画像を生成する画面内予測モードを1つ選択することで予測処理する。
When the in-screen prediction is used, the
一方、画面間予測を用いる場合、予測処理部106は、ピクチャバッファ105に格納されている既に符号化済みの別のピクチャの再構成画像信号を用いて予測処理する。具体的には、予測処理部106は、符号化対象とするブロックの画素構成と最も類似度の高い画素構成を持った領域を、既に符号化済みの別のピクチャの再構成画像の中から探索する。そして、予測処理部106は、いずれのピクチャの再構成画像を参照するか(以下、参照するピクチャの情報を「参照ピクチャ情報」と称する)、および、参照先のピクチャにおいて、符号化対象とするブロックに対応する位置からどの程度ずれた位置の再構成画像を参照するか(以下、位置のずれ量を示す情報を「動きベクトル情報」と称する)を決定することで予測画像を生成する。
On the other hand, when inter-screen prediction is used, the
差分演算部109は、基本ブロック分割部102から入力される基本ブロックにおける基本CUに基づいて選択された基本PU単位の入力画像信号と、予測処理部106から入力される基本PU単位の予測画像信号との差分値である差分画像信号を生成する。差分演算部109は、生成した差分画像信号を予測残差符号化部103に出力する。
The
残差符号化部である予測残差符号化部103は、差分演算部109から入力される差分画像信号に対して直交変換処理し、得られた各周波数成分の直交変換係数に対し量子化処理する。その結果、予測残差符号化部103は、残差係数信号を生成する。予測残差符号化部103は、基本CUを更に分割した直交変換単位であるTU(Transform Unit)(以下、「基本TU」と称する)毎に直交変換処理および量子化処理を行う。具体的には、図3の「基本TUサイズ」の列に示すように、基本CUのサイズが16×16画素であるとき、16×16画素の1つの基本TU、もしくは8×8画素の4つの基本TUに分割され得る。一方、基本CUのサイズが8×8画素であるとき、8×8画素の1つの基本TU、もしくは4×4画素の4つの基本TUに分割され得る。図3に示す例では、基本PUが決定すると基本TUが一意に割り当てられるため、基本TUのサイズを選択するという処理は不要となる。これにより、処理量を大幅に削減することが可能となる。なお、図3の例に記載した基本TUのうち一部のサイズを使用しない場合、もしくは、図3の例に記載されていないサイズで基本PU以下のサイズである基本TUを使用した場合であっても同様の説明が可能である。
The predictive
予測残差復号化部104は、予測残差符号化部103で処理した基本TUを処理単位とする。予測残差復号化部104は、予測残差符号化部103から入力される残差係数信号に対して逆量子化処理し、さらに逆直交変換処理することで再構成差分画像信号を生成する。
The prediction
加算演算部110は、予測残差復号化部104から入力される再構成差分画像信号と、予測処理部106から入力される予測画像信号とを基本PU単位で加算することにより再構成画像信号を生成する。
The
ピクチャバッファ105は、加算演算部110から入力される再構成画像信号を格納する。ピクチャバッファ105に格納された再構成画像信号は、現在の符号化対象ピクチャより時間的に後に符号化するピクチャの画面間予測処理で参照される。
The
統合部として機能する統合判定部107は、統合判定対象とする複数の基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で、当該複数の基本ブロックに属する基本CUを統合して1つの統合された符号化単位(以下、「統合CU」と称する)とするかどうかを判定し、統合判定結果信号を生成する。つまり、統合判定部107は、複数の基本ブロックにより構成されるN×N画素(例えば32×32画素)領域に属する複数の基本CUを1つの統合された統合CUにするか否かを判断する。統合判定部107は、基本CUを統合せずにそのまま符号列生成部108へと出力する第1動作のモードと、N×N画素領域内に属する複数の基本CUを1つの新たなCUとして統合して符号列生成部108へと出力する第2動作のモードとを有する。統合判定部107は、統合判定結果に応じて、第1動作モードと、第2動作モードとを切り替えて実行する。すなわち、統合判定部107は、(1)N×N画素の領域に属する複数の基本CUおよび基本PUがすべて同じブロックサイズで、かつ(2)前記N×N画素の領域に属する複数の基本PUの予測情報が同じである場合に、前記N×N画素の領域に含まれる複数の基本CUを1つの新たなCUとして統合する。
The
符号列生成部108は、統合判定部107から入力される統合判定結果信号に従って、統合CU単位もしくは基本CU単位で、予測残差符号化部103から入力される残差係数信号、およびその他の復号化処理時に必要となる符号化情報信号に対して、可変長符号化および算術符号化することで符号列を生成する。すなわち、符号列生成部108は、統合後の新たなCUに対して設定される符号化情報および統合後の新たなCU内に属していた統合前の複数の基本CUに関する残差係数を、可変長符号化および算術符号化し、統合後の新たなCUに対する符号列を生成する。統合判定部107から統合CUが出力される場合、統合CUに対して設定される符号化情報および、統合CU内に属していた統合前の複数の基本CUに関する残差係数を、可変長符号化および算術符号化することにより、統合CUに対する符号列を生成する。
The code
上記のように、動画像符号化装置100では、基本ブロックサイズを16×16画素に限定した。これにより、図3に示すように、選択され得る基本CU/基本PU/基本TUの組合せが、画面内予測を選択したときは3組のみ、画面間予測を選択したときは6組のみに限定することが可能となる。これにより、基本ブロック単位処理ループ部111の一連の処理において最適な組合せを選択するための処理量を大幅に削減することが可能となる。
As described above, in the moving
なお、上記の実施の形態では、基本ブロックサイズを16×16画素に限定しているが、本開示はこれに限定されない。すなわち、基本ブロックサイズを制限せずに、HEVCの規格にて定義されている図1の組合せから最適な組合せを選択するようにしてもよい。但し、この場合、基本ブロックサイズを制限したときと比べて、処理量が膨大になることになる。或いは、16×16画素には限定せずに、32×32画素などの他のブロックサイズにより限定することもできる。例えば、32×32画素のブロックサイズで限定した場合、基本ブロックサイズに属するCUおよびPUのブロックサイズの選択肢が多くなることから符号化効率の向上が見込める。一方、最適なCUおよびPUのブロックサイズを選ぶための処理量が増加する。従って、処理量の増加が許容できる動画像符号化装置では基本ブロックサイズとして大きなブロックサイズを使用する一方、処理量の増加が許容できない動画像符号化装置では基本ブロックサイズとして小さなブロックサイズを使用するようにしてもよい。 In the above embodiment, the basic block size is limited to 16 × 16 pixels, but the present disclosure is not limited to this. That is, the optimum combination may be selected from the combinations of FIG. 1 defined in the HEVC standard without limiting the basic block size. However, in this case, the amount of processing becomes enormous as compared with the case where the basic block size is limited. Alternatively, it is not limited to 16 × 16 pixels, but may be limited to other block sizes such as 32 × 32 pixels. For example, when the block size is limited to 32 × 32 pixels, the coding efficiency can be expected to be improved because there are many choices of CU and PU block sizes belonging to the basic block size. On the other hand, the amount of processing for selecting the optimum CU and PU block size increases. Therefore, a moving image coding device that can tolerate an increase in the processing amount uses a large block size as the basic block size, while a moving image coding device that cannot tolerate an increase in the processing amount uses a small block size as the basic block size. You may do so.
[1−2.統合判定部の動作]
実施の形態1にかかる統合判定部107は、複数の基本ブロックを包含する統合領域を定義している。統合判定部107は、統合領域に含まれる全ての基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で統合判定処理する。
[1-2. Operation of integrated judgment unit]
The
統合判定部107における、複数の基本ブロックに属する基本CUを統合して1つの統合CUとするか否かを判定する方法について、図4、図5A、図5Bを用いて具体的に説明する。図4は、実施の形態1にかかる統合判定処理を示すフローチャートである。図5A、図5Bは、実施の形態1にかかる統合判定処理を示すイメージ図である。図4は、基本ブロックのサイズが16×16画素、統合領域のサイズが32×32画素とした場合の処理を示す。このとき、統合領域には4つの基本ブロックが包含されている。なお、統合領域のサイズとして、基本ブロックのサイズよりも大きなサイズであれば、基本ブロックのサイズに応じて32×32画素以外のサイズを使用してもよい。
A method of determining whether or not to integrate basic CUs belonging to a plurality of basic blocks into one integrated CU in the
まず、統合判定部107は、統合領域内に包含された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S301)。
First, the
S301の条件を満たさない場合(S301におけるNo)、図5Aのように、統合領域内の基本CUは統合されない。 If the condition of S301 is not satisfied (No in S301), the basic CUs in the integrated region are not integrated as shown in FIG. 5A.
一方、S301の条件を満たす場合(S301におけるYes)、統合判定部107は、統合領域内の4つの基本PUの予測情報が全て同じであるか否かを判定する(S302)。具体的には、画面内予測の場合、統合領域内の4つの基本PUの少なくとも画面内予測モードが全て同じであるか否かを判定する。すなわち、統合判定部107は、統合領域に含まれる全ての基本PUが画面内予測であった場合、予測情報として少なくとも画面内予測モードが全て同じであるか否かを用いて第1動作モードと第2動作モードとを切り換える。一方、画面間予測の場合、統合領域内の4つの基本PUの少なくとも動きベクトル情報および参照ピクチャ情報が全て同じであるか否かを判定する。すなわち、統合判定部107は、統合領域に含まれる全ての基本PUが画面間予測であった場合、予測情報として少なくとも動きベクトル情報と参照ピクチャ情報とが全て同じであるか否かを用いて第1動作モードと第2動作モードを切り換える。
On the other hand, when the condition of S301 is satisfied (Yes in S301), the
S302の条件を満たさない場合(S301におけるNo)、図5Aのように、当該統合領域内の基本CUは統合されない。 If the condition of S302 is not satisfied (No in S301), the basic CUs in the integrated region are not integrated as shown in FIG. 5A.
一方、S302の条件を満たす場合(S301におけるYes)、統合判定部107は、図5Bのように、4つの16×16画素の基本CUを1つの32×32画素の統合CUに統合する(S303)。
On the other hand, when the condition of S302 is satisfied (Yes in S301), the
図6は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CUが追加されているのが分かる。
FIG. 6 is a conceptual diagram for explaining the combination of each block size that appears by performing the integrated determination process. These block sizes are subject to variable-length coding and arithmetic coding in the
以上のように、実施の形態1にかかる動画像符号化装置100において、統合判定部107は、統合領域(複数の基本ブロックからなるN×N画素の領域)に属する複数の基本CUおよび基本PUがすべて同じブロックサイズかつ、統合領域に含まれる全ての基本PUの予測情報が同じである場合に、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。そして、統合後の新たなCUに基づいて符号列を生成する。
As described above, in the moving
図4に示す統合処理を行わない場合、基本PUが同じ予測情報を持っていたとしても、各基本PUの予測情報をそれぞれ個別に符号列に記述することが必要となるため、CU層およびPU層のヘッダ情報の符号量が無駄に発生してしまう。一方、統合処理を行った場合、統合された1つの予測情報のみを符号列に記述するのみでよいため、CU層およびPU層のヘッダ情報の符号量を抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。
なお、統合判定部107は、統合CUにおいて、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CUに変換することが可能となる。
When the integrated processing shown in FIG. 4 is not performed, even if the basic PUs have the same prediction information, it is necessary to individually describe the prediction information of each basic PU in the code string, so that the CU layer and the PU The code amount of the header information of the layer is wasted. On the other hand, when the integrated processing is performed, since it is only necessary to describe only one integrated prediction information in the code string, it is possible to suppress the code amount of the header information of the CU layer and the PU layer, and the processing amount can be reduced. It is possible to improve the coding efficiency without increasing it.
In the integrated CU, the
(実施の形態2)
続いて、実施の形態2にかかる動画像符号化装置100について、図面を参照しながら説明する。なお、動画像符号化装置100の構成は、実施の形態1で説明したものと同様であるため、説明を省略する。
(Embodiment 2)
Subsequently, the moving
実施の形態2にかかる動画像符号化装置100は、実施の形態1にかかる動画像符号化装置100と、統合判定部107による統合判定処理が異なる。
The moving
図7は、実施の形態2にかかる統合判定処理を示すフローチャートである。図8A、図8Bは、実施の形態2にかかる統合判定処理を示すイメージ図である。図7は、基本ブロックのサイズが16×16画素、統合領域のサイズが32×32画素とした場合の処理を示す。このとき、統合領域には4つの基本ブロックが包含されている。 FIG. 7 is a flowchart showing the integrated determination process according to the second embodiment. 8A and 8B are image diagrams showing the integrated determination process according to the second embodiment. FIG. 7 shows processing when the size of the basic block is 16 × 16 pixels and the size of the integrated area is 32 × 32 pixels. At this time, the integrated area includes four basic blocks.
まず、統合判定部107は、統合領域内に包含された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S301)。S301の条件を満たさない場合(S301におけるNo)、図8Aのように、統合領域内の基本CUは統合されない。一方、S301の条件を満たす場合(S301におけるYes)、統合判定部107は、統合領域内の4つの基本PUについて統合可能な組合せを構成する基本PUのみの予測情報が全て同じであるか否かを判定する(図7のS502)。図7のS502の判定の詳細を、図9を用いて説明する。
First, the
図9は、実施の形態2にかかる統合判定処理の条件を説明するための概念図である。図9のように、統合判定部107は、4つの基本PUの予測情報が全て同じ場合、4つの基本PUを統合した32×32画素の1つの統合PUに統合する。また、4つの基本PUの予測情報が全て同じではなくても、左右に隣り合う2組の基本PUの予測情報がそれぞれ同じ場合は、統合判定部107は、上側の2つの基本PUを統合した32×16画素のPUおよび、下側の2つの基本PUを統合した32×16画素のPUの2つの統合PUに統合する。また、4つの基本PUの予測情報が全て同じではなくても、上下に隣り合う2組の基本PUの予測情報がそれぞれ同じ場合は、統合判定部107は、左側の2つの基本PUを統合した16×32画素のPU、右側の2つのPUを統合した16×32画素の基本PUの2つの統合PUに統合する。なお、32×16画素の統合PUおよび16×32画素の統合PUは画面間予測の場合にのみ統合を選択可能であり、画面内予測の場合は32×32画素の統合PUへの統合のみしか選択できない。
FIG. 9 is a conceptual diagram for explaining the conditions of the integrated determination process according to the second embodiment. As shown in FIG. 9, when the prediction information of the four basic PUs is the same, the
要するに、実施の形態2にかかる統合判定処理では、統合領域(N×N画素の領域)内に属する複数の基本PUを、隣接する2つの基本PUによる1組のグループに分けた場合であって、かつ、それぞれのグループに属する基本PUの予測情報が同じである場合に、統合領域内に含まれる複数の基本PUを1つの新たなPUとして統合する。そして、この場合、統合判定部107は、図8Bのように、4つの16×16画素の基本CUを1つの32×32画素の統合CUに統合する(図7のS303)。
In short, in the integrated determination process according to the second embodiment, a plurality of basic PUs belonging to the integrated area (N × N pixel area) are divided into one group consisting of two adjacent basic PUs. , And when the prediction information of the basic PUs belonging to each group is the same, a plurality of basic PUs included in the integrated area are integrated as one new PU. Then, in this case, the
図10は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CU、並びに、CUサイズが32×32画素、PUサイズが32×16画素もしくは16×32画素、TUサイズが16×16画素の構成からなる統合CUが追加されているのが分かる。
FIG. 10 is a conceptual diagram for explaining a combination of block sizes that appears by performing the integrated determination process. These block sizes are subject to variable-length coding and arithmetic coding in the
以上のように、実施の形態2にかかる動画像符号化装置100において、統合判定部107は、統合領域(N×N画素の領域)に属する複数の基本PUを、隣接する2つの基本PUを1組のグループに分けた場合に、分けたそれぞれのグループ内に属する基本PUの予測情報が同じであるとき、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。そして、統合後の新たなCUに基づいて符号列を生成する。
As described above, in the moving
例えば、統合判定部107は、統合領域(N×N画素の領域)のうち、上側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であり、かつ下側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であった場合、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。或いは、統合判定部107は、統合領域(N×N画素の領域)のうち、左側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であり、かつ右側半分の領域に含まれる全ての基本PUの予測情報が同じ情報であった場合、統合領域に含まれる複数の基本CUを1つの新たなCUとして統合する。
For example, in the
実施の形態1にかかる統合処理では4つの基本PUの予測情報が全て同じ場合しか統合CUへと統合されなかった。これに対し、実施の形態2にかかる統合処理では、2組の基本PUの予測情報がそれぞれ同じ場合にも統合CUへと統合されるため、より多くのCUを統合することが可能となる。これにより、CU層およびPU層のヘッダ情報の符号量をさらに抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 In the integrated process according to the first embodiment, the prediction information of the four basic PUs is integrated into the integrated CU only when they are all the same. On the other hand, in the integrated process according to the second embodiment, even if the prediction information of the two sets of basic PUs is the same, they are integrated into the integrated CU, so that more CUs can be integrated. As a result, it is possible to further suppress the code amount of the header information of the CU layer and the PU layer, and it is possible to improve the coding efficiency without increasing the processing amount.
なお、統合判定部107は、統合CUにおいて、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CUに変換することが可能となる。
In the integrated CU, the
(実施の形態3)
続いて、実施の形態3にかかる動画像符号化装置100について、図面を参照しながら説明する。なお、動画像符号化装置100の構成は、実施の形態1で説明したものと同様であるため、説明を省略する。
(Embodiment 3)
Subsequently, the moving
実施の形態3にかかる動画像符号化装置100は、実施の形態1および2にかかる動画像符号化装置100と、統合判定部107による統合判定処理が異なる。
The moving
実施の形態3にかかる統合判定部107では、複数の基本ブロックを包含する統合領域として、統合領域1と統合領域2の2段階の統合領域を定義している。統合判定部107は、統合領域に含まれる全ての基本ブロックについて、基本ブロック単位処理ループ部111の一連の処理が完了した時点で統合判定処理する。
The
統合判定部107における、複数の基本ブロックに属する基本CUを統合して1つの統合CUとするか否かを判定する方法について、図11、図12A、図12B、図12Cを用いて具体的に説明する。図11は、実施の形態3にかかる統合判定処理を示すフローチャートである。図12A、図12B、図12Cは、実施の形態3にかかる統合判定処理を示すイメージ図である。図11は、基本ブロックが16×16画素、統合領域1が32×32画素、統合領域2が64×64画素とした場合の処理を示す。統合領域2は、統合領域1を包含している。このとき、統合領域1には4つの基本ブロックが包含されている。統合領域2には、4つの統合領域1が包含されている。すなわち、統合領域2には、16個の基本ブロックが包含されている。なお、統合領域のサイズとして、基本ブロックのサイズよりも大きなサイズであれば、基本ブロックのサイズに応じて32×32画素および64×64画素以外のサイズを使用してもよい。
A method for determining whether or not to integrate basic CUs belonging to a plurality of basic blocks into one integrated CU in the
まず、統合判定部107は、統合領域1内に内包された4つの基本ブロックが、全て16×16画素の基本CUかつ16×16画素の基本PUから構成されているか否かを判定する(S801)。
First, the
S801の条件を満たさない場合(S801におけるNo)、図12Aのように、統合領域1内の基本CUは統合されない。 If the condition of S801 is not satisfied (No in S801), the basic CUs in the integrated region 1 are not integrated as shown in FIG. 12A.
一方、S801の条件を満たす場合(S801におけるYes)、統合判定部107は、統合領域1内の4つの基本PUの予測情報が全て同じであるか否かを判定する(S802)。具体的には、画面内予測の場合、統合領域1内の4つの基本PUの少なくとも画面内予測モードが全て同じであるか否かを判定する。また、画面間予測の場合、統合領域1内の4つの基本PUの少なくとも動きベクトル情報および参照ピクチャ情報が全て同じであるか否かを判定する。
On the other hand, when the condition of S801 is satisfied (Yes in S801), the
S802の条件を満たさない場合(S802におけるNo)、図12Aのように、当該統合領域1内の基本CUは統合されない。 If the condition of S802 is not satisfied (No in S802), the basic CUs in the integrated region 1 are not integrated as shown in FIG. 12A.
一方、S802の条件を満たす場合(S802におけるYes)、統合判定部107は、4つの16×16画素の基本CUを1つの32×32画素の統合CU1に統合する(S803)。
On the other hand, when the condition of S802 is satisfied (Yes in S802), the
統合判定部107は、S801からS803までの一連の処理を、統合領域2内に属する4つの全ての統合領域1について行う(S804)。すなわち、統合判定部107は、統合領域2内の全ての統合領域1についてS801からS803の一連の処理が完了していない場合(S804におけるNo)、当該処理が完了していない統合領域1についてS801からS803までの一連の動作を行う。その結果、いずれの統合領域1についても統合処理が行われなかった場合、図12Aのように、統合領域2内の16個の基本CUは全て統合されない。一方、4つの統合領域1のうち一部の統合領域1のみが統合された場合、図12Bのように、統合領域2内の一部の基本CUについてのみ32×32画素の統合CU1に統合される。
The
次に、統合判定部107は、統合領域2内の全ての統合領域1についてS801からS803の一連の処理が完了した場合(S804におけるYES)、統合領域2内に属する4つの統合領域1について、全てのCUが統合CU1に統合されているか否かを判定する(S805)。
Next, when the series of processes from S801 to S803 is completed for all the integrated areas 1 in the integrated area 2 (YES in S804), the
S805の条件を満たさない場合(S805におけるNo)、統合判定部107は、統合判定処理を終了する。
If the condition of S805 is not satisfied (No in S805), the
S805の条件を満たす場合(S805におけるYes)、統合判定部107は、統合領域2内の4つの統合PU1の予測情報が全て同じであるかどうかを判定する(S806)。
When the condition of S805 is satisfied (Yes in S805), the
S806の条件を満たさない場合(S806におけるNo)、統合判定部107は、統合判定処理を終了する。
If the condition of S806 is not satisfied (No in S806), the
S806の条件を満たす場合(S806におけるYes)、統合判定部107は、図12Cのように、4つの32×32画素の統合CU1をさらに1つの64×64画素の統合CU2に統合する(S807)。動画像符号化装置100は、基本ブロックのサイズをHEVCで規定されている64×64画素および32×32画素よりも小さい16×16画素に限定している。これにより、32×32画素の統合CU1への統合および、64×64画素の統合CU2への統合が可能となる。
When the condition of S806 is satisfied (Yes in S806), the
図13は、統合判定処理を行うことにより出現する、各ブロックサイズの組み合わせを説明するための概念図である。これらのブロックサイズが、符号列生成部108において可変長符号化および算術符号化の対象となる。図3と比較すると、統合判定処理によって、CUサイズが32×32画素、PUサイズが32×32画素、TUサイズが16×16画素の構成からなる統合CU1、並びにCUサイズが64×64画素、PUサイズが64×64画素、TUサイズが16×16画素の構成からなる統合CU2が追加されているのが分かる。
FIG. 13 is a conceptual diagram for explaining the combination of each block size that appears by performing the integrated determination process. These block sizes are subject to variable-length coding and arithmetic coding in the
以上のように、実施の形態3にかかる動画像符号化装置100において、統合判定部107は、統合領域1(複数の基本ブロックからなるN×N画素の領域)に属する複数の基本CUおよび基本PUがすべて同じブロックサイズかつ、統合領域1に含まれる全ての基本PUの予測情報が同じである場合に、統合領域1に含まれる複数の基本CUを1つの新たな統合CU1として統合する。更に、統合判定部107は、統合領域2(複数の統合領域1からなる領域)内の全てのCUが統合CU1に統合されており、かつ、統合領域2内の全ての統合PU1の予測情報が同じである場合に、統合領域2に含まれる複数の基本CUを1つの新たな統合CU2として統合する。そして、統合後の新たなCUに基づいて符号列を生成する。
As described above, in the moving
実施の形態1にかかる統合処理では最大でも4つの基本CUまでしか統合されなかった。これに対し、実施の形態3にかかる統合処理では、最大16個の基本CUまで統合されることになり、より多くのCUを1つのCUに統合することが可能となる。これにより、CU層およびPU層のヘッダ情報の符号量をさらに抑制することが可能となり、処理量を増加させることなく符号化効率を向上させることが可能となる。 In the integrated process according to the first embodiment, only four basic CUs were integrated at the maximum. On the other hand, in the integration process according to the third embodiment, up to 16 basic CUs are integrated, and more CUs can be integrated into one CU. As a result, it is possible to further suppress the code amount of the header information of the CU layer and the PU layer, and it is possible to improve the coding efficiency without increasing the processing amount.
なお、統合判定部107は、統合CU1および統合CU2において、CUおよびPUのみを統合する一方、TUについては統合前のままとしている。これにより、統合後に残差係数信号を再構成する必要がなく、CU層およびPU層のヘッダ情報の変更のみで統合CU1および統合CU2に変換することが可能となる。
The
(その他の実施形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1〜3で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, Embodiments 1 to 3 have been described as an example of the technology disclosed in this application. However, the technique in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, etc. are made. It is also possible to combine the components described in the first to third embodiments to form a new embodiment.
そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be illustrated below.
実施の形態1〜3において説明した各々の統合判定処理は、それぞれ個別に使用することに限定されない。すなわち、実施の形態1〜3において説明した各々の統合判定処理のうち、いずれか複数の処理を組合せて使用してもよい。例えば、図11に示す実施の形態3のフローチャートにおいて、ステップS802およびステップS805の両方或いは一方を、図7に示す実施の形態2のフローチャートにおけるステップS502と置き換えてもよい。 Each of the integrated determination processes described in the first to third embodiments is not limited to being used individually. That is, any one or more of the integrated determination processes described in the first to third embodiments may be used in combination. For example, in the flowchart of the third embodiment shown in FIG. 11, both or one of steps S802 and S805 may be replaced with step S502 in the flowchart of the second embodiment shown in FIG. 7.
さらに、上記の実施の形態1〜3で示した動画像符号化装置100に含まれる各手段と同等の機能を備えるプログラムを、フレキシブルディスク等の記録媒体に記録するようにしてもよい。これにより、上記実施の形態で示した処理を、独立したコンピュータシステムにおいて簡単に実施することが可能となる。なお、記録媒体としてはフレキシブルディスクに限らず、光ディスク、ICカード、ROMカセット等、プログラムを記録できるものであれば同様に実施することができる。
Further, a program having the same functions as each means included in the moving
また、上記の実施の形態1〜3で示した動画像符号化装置100に含まれる各手段と同等の機能を集積回路であるLSIとして実現してもよい。これらは各手段の一部または全てを含むように1チップ化されてもよい。またLSIは集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと称されることもある。
Further, the functions equivalent to those of the means included in the moving
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field
Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
Further, the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. FPGA (Field) that can be programmed after LSI manufacturing
You may use a Programmable Gate Array) or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI.
さらには、半導体技術の進歩または派生する別技術によりLSIなどに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if an integrated circuit technology that replaces an LSI or the like appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology.
なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Since the above-described embodiment is for exemplifying the technique in the present disclosure, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent thereof.
本開示は、入力画像を構成する各ピクチャを符号化して動画像符号化データとして出力する動画像符号化装置に適用できる。例えば、ビデオカメラ、デジタルカメラ、ビデオレコーダ、携帯電話、携帯情報端末およびパーソナルコンピューターなどに、本開示は適用可能である。 The present disclosure can be applied to a moving image coding device that encodes each picture constituting an input image and outputs it as moving image coding data. For example, the present disclosure is applicable to video cameras, digital cameras, video recorders, mobile phones, personal digital assistants, personal computers, and the like.
100 動画像符号化装置
101 ピクチャメモリ
102 基本ブロック分割部
103 予測残差符号化部
104 予測残差復号化部
105 ピクチャバッファ
106 予測処理部
107 統合判定部
108 符号列生成部
109 差分演算部
110 加算演算部
111 基本ブロック単位処理ループ部
100 Moving
Claims (1)
前記動画像符号化装置は、
前記符号化対象ピクチャを複数のブロックに分割し、
前記複数のブロック毎に、予測画像と符号化対象ピクチャとの差分から残差係数を生成し、
前記符号化対象内の任意の2つのブロックの予測情報が同じ場合は、共通する予測情報をヘッダとした前記符号列を生成し、
前記符号化対象内の任意の2つのブロックの予測情報が異なる場合は、共通する予測情報をヘッダとした前記符号列を生成する、
動画像符号化装置。 A moving image coding device that encodes a picture to be coded according to a predetermined coding standard and generates a code string.
The moving image coding device is
The picture to be encoded is divided into a plurality of blocks.
A residual coefficient is generated from the difference between the predicted image and the picture to be encoded for each of the plurality of blocks.
When the prediction information of any two blocks in the coding target is the same, the code string with the common prediction information as a header is generated.
When the prediction information of any two blocks in the coding target is different, the code string with the common prediction information as a header is generated.
Video encoding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148156A JP7064644B2 (en) | 2014-03-06 | 2021-09-10 | Video encoding device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014043540 | 2014-03-06 | ||
JP2014043540 | 2014-03-06 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015035041A Division JP6731574B2 (en) | 2014-03-06 | 2015-02-25 | Moving picture coding apparatus and moving picture coding method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148156A Division JP7064644B2 (en) | 2014-03-06 | 2021-09-10 | Video encoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020156106A true JP2020156106A (en) | 2020-09-24 |
Family
ID=72560072
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020104935A Pending JP2020156106A (en) | 2014-03-06 | 2020-06-18 | Video encoding device and video encoding method |
JP2021148156A Active JP7064644B2 (en) | 2014-03-06 | 2021-09-10 | Video encoding device |
JP2022070965A Pending JP2022090059A (en) | 2014-03-06 | 2022-04-22 | Video coding method |
JP2023218676A Pending JP2024023885A (en) | 2014-03-06 | 2023-12-25 | Video encoding device and video encoding method |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148156A Active JP7064644B2 (en) | 2014-03-06 | 2021-09-10 | Video encoding device |
JP2022070965A Pending JP2022090059A (en) | 2014-03-06 | 2022-04-22 | Video coding method |
JP2023218676A Pending JP2024023885A (en) | 2014-03-06 | 2023-12-25 | Video encoding device and video encoding method |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP2020156106A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020156106A (en) * | 2014-03-06 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Video encoding device and video encoding method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013545372A (en) * | 2010-10-28 | 2013-12-19 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | Video information encoding method and decoding method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103765903B (en) | 2012-01-18 | 2017-09-01 | 松下知识产权经营株式会社 | Picture decoding apparatus, picture coding device, picture decoding method and method for encoding images |
WO2013128010A2 (en) | 2012-03-02 | 2013-09-06 | Canon Kabushiki Kaisha | Method and devices for encoding a sequence of images into a scalable video bit-stream, and decoding a corresponding scalable video bit-stream |
JP2020156106A (en) * | 2014-03-06 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Video encoding device and video encoding method |
-
2020
- 2020-06-18 JP JP2020104935A patent/JP2020156106A/en active Pending
-
2021
- 2021-09-10 JP JP2021148156A patent/JP7064644B2/en active Active
-
2022
- 2022-04-22 JP JP2022070965A patent/JP2022090059A/en active Pending
-
2023
- 2023-12-25 JP JP2023218676A patent/JP2024023885A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013545372A (en) * | 2010-10-28 | 2013-12-19 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | Video information encoding method and decoding method |
Also Published As
Publication number | Publication date |
---|---|
JP2022008371A (en) | 2022-01-13 |
JP7064644B2 (en) | 2022-05-10 |
JP2022090059A (en) | 2022-06-16 |
JP2024023885A (en) | 2024-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI759389B (en) | Low-complexity sign prediction for video coding | |
JP6339099B2 (en) | Content adaptive entropy coding of partition data for next generation video | |
JP2022095944A (en) | Method and computer program for encoding and transmitting video | |
JP6731574B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP2022521515A (en) | Methods, devices, and programs for cross-component filtering | |
CN110944173B (en) | Video decoding method, device, electronic equipment and storage medium | |
JP2024023885A (en) | Video encoding device and video encoding method | |
JP2010063092A (en) | Image coding apparatus, image coding method, image coding integrated circuit and camera | |
JP6187826B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP2017073598A (en) | Moving image coding apparatus, moving image coding method, and computer program for moving image coding | |
JP2009111647A (en) | Apparatus for detecting motion vector and method for detecting motion vector | |
CN113678378B (en) | Video decoding method, video decoder, and non-volatile computer readable medium | |
JP5593468B1 (en) | Image coding apparatus and image coding method | |
US8897368B2 (en) | Image coding device, image coding method, image coding integrated circuit and image coding program | |
JP2008141407A (en) | Device and method for converting coding system | |
WO2012120910A1 (en) | Moving image coding device and moving image coding method | |
JP6308409B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP2016106444A (en) | Moving image encoding apparatus and moving image encoding method | |
WO2014147679A1 (en) | Image encoding device and image encoding method | |
JP2005229218A (en) | Image decoding apparatus | |
JP2012235294A (en) | Moving image decoder | |
JP2012249221A (en) | Video encoder and video encoding method | |
JP2012191491A (en) | Moving image decoding device and moving image decoding method | |
JP2012249222A (en) | Video encoder and video encoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20201127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211221 |