JP2012244437A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2012244437A
JP2012244437A JP2011112896A JP2011112896A JP2012244437A JP 2012244437 A JP2012244437 A JP 2012244437A JP 2011112896 A JP2011112896 A JP 2011112896A JP 2011112896 A JP2011112896 A JP 2011112896A JP 2012244437 A JP2012244437 A JP 2012244437A
Authority
JP
Japan
Prior art keywords
image
encoding
frame
target image
specific area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011112896A
Other languages
English (en)
Other versions
JP2012244437A5 (ja
Inventor
Satoshi Naito
聡 内藤
Saki Hiwatari
咲 樋渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011112896A priority Critical patent/JP2012244437A/ja
Priority to US13/461,570 priority patent/US9008358B2/en
Publication of JP2012244437A publication Critical patent/JP2012244437A/ja
Publication of JP2012244437A5 publication Critical patent/JP2012244437A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 特定領域の画質を向上させつつ、フレームバッファに必要なコストを削減するための技術を提供すること。
【解決手段】 各フレームの画像のうち規定フレームの画像を対象画像とし、該対象画像から、規定のパターンが映っている領域を特定領域として検出する。対象画像以外の画像を非対象画像とし、該非対象画像中における特定領域を予測する。特定領域が該特定領域以外の領域よりも高画質に符号化されるように、各フレームの画像を符号化する。符号化では、非対象画像中の特定領域が他のフレームから参照されないように符号化する。
【選択図】 図1

Description

本発明は、画像から特定の対象物を含む領域を検出し、その検出結果に基づいて該画像を符号化する為の技術に関するものである。
動画像の伝送や蓄積再生を行うために画像信号の符号化技術が用いられる。動画像の符号化技術としてはISO/IEC International Standard 13818 (MPEG-2)などの国際標準符号化方式が知られている。また、他の国際標準符号化方式としては、ISO/IEC International Standard 14496-2 (MPEG-4 Visual)が知られている。また、ITU-T Rec. H.264 Advanced Video Coding | ISO/IEC International Standard 14496-10(MPEG-4 AVC/H.264、以下H.264と呼ぶ)なども知られている。これらの技術はデジタルカメラ、ビデオカメラやレコーダ等の分野に用いられている。
一方、近年では画像の中から人間の顔など、重要と思われる特定の対象物を含む領域(以下、「特定領域」と記す)を特定し、特定領域とそれ以外の領域で量子化値などの符号化パラメータを変化させる処理が行われている。この処理により、特定領域については画質を向上させ、それ以外については符号量を抑えることで、記録媒体や通信路に許容されるビットレートを保ちつつ、重要と思われる対象物を含む領域の画質を向上させることができる。
上記の処理を実現するためには、入力される動画像データを構成する全てのフレームに対して特定領域を検出する処理を行う必要がある。しかしながら、高い精度で特定領域を検出する処理(以下、「特定領域検出処理」と記す)を符号化と同一のフレームレートで実現するのは困難である。
このような問題に対し、符号化時に検出した動きベクトルを用いて、特定領域を予測(以下、「特定領域予測処理」と記す)する従来技術が開示されている(特許文献1)。特許文献1では、特定領域検出処理が行われないフレーム内のブロックの動きベクトルが、特定領域検出処理が行われたフレーム内の特定領域を指していれば、該ブロックを特定領域として予測する。
特開2007−336259号公報
一般に、動きベクトル検出処理においてはブロック間の画素値の差分が最小となる個所が動きベクトルとして検出される。ゆえに、特定領域予測対象のブロックが実際には重要と思われる領域を含んでいても、該ブロックの動きベクトルは、特定領域検出処理が行われたフレーム内の特定領域を指すとは限らないため、特定領域として予測されないことが起こり得る。
特定領域以外に対しては量子化値を上げて符号量を抑えるため、特定領域の予測精度が低いと、本来は特定領域とすべき領域の画質が落ちる可能性がある。特定領域の予測が外れた個所がフレーム間予測符号化処理において参照された場合、量子化による誤差が伝搬し、後続するフレームの画質も落ちるという問題がある。
本発明はこのような問題に鑑みてなされたものであり、特定領域の画質を向上させつつ、フレームバッファに必要なコストを削減するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、動画像を構成する各フレームの画像を順次入力する入力手段と、前記各フレームの画像のうち規定フレームの画像を対象画像とし、該対象画像から、規定のパターンが映っている領域を特定領域として検出する手段と、前記対象画像以外の画像を非対象画像とし、該非対象画像中における前記特定領域を予測する予測手段と、前記特定領域が該特定領域以外の領域よりも高画質に符号化されるように、前記各フレームの画像を符号化する符号化手段とを備え、前記符号化手段は、前記非対象画像中の特定領域が他のフレームから参照されないように符号化することを特徴とする。
本発明の構成により、特定領域の画質を向上させつつ、フレームバッファに必要なコストを削減することができる。
画像処理装置の機能構成例を示すブロック図。 符号化モード制御部106が行う処理のフローチャート。 ステップS106における処理の詳細を示すフローチャート。 画像処理装置の機能構成例を示すブロック図。 特定領域予測部104による予測方法を説明する図。 各部の入出力を示すタイミングチャート。 各部の入出力を示すタイミングチャート。 各部の入出力を示すタイミングチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。
[第1の実施形態]
本実施形態の画像処理装置は、動画像を構成する各フレームを符号化するものである。先ず、本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。動画像(動画像データ)を構成する各フレームの画像は、フレームバッファ101及び特定領域検出部103に順次入力される。
フレームバッファ101は、読み書き可能なメモリであり、後述する処理において要求されるフレーム数分の画像を格納することが可能な容量を有している。
特定領域検出部103は、入力された各フレームの画像のうち規定フレームの画像を対象画像とし、該対象画像から、規定のパターンが映っている領域を特定領域として検出する。規定のパターンとは、人体や人の顔など、画像から検出するものとして予め定められたものである。画像から規定のパターンを検出するための技術については既知であるし、規定のパターンについては本実施形態では特定のものに限らないため、これについての説明は省略する。特定領域検出部103は特定領域を検出すると、検出した特定領域の座標位置(例えば右上隅及び左下隅の座標位置。しかし、対象画像中の特定領域を特定できるのであれば座標位置に限定しない)を出力する。
特定領域予測部104は、対象画像以外の画像を非対象画像とし、該非対象画像中における特定領域を、対象画像を用いた内挿により予測する。例えば、フレーム順において非対象画像の前後に位置する2枚の対象画像を用いた内挿により、該非対象画像中の特定領域を予測する。
なお、特定領域予測部104による非対象画像における特定領域の予測方法は特定の方法に限るものではないが、その一例を図5を用いて説明する。特定領域検出部103は、対象画像から規定のパターンを検出すると、その領域に固有のIDを発行する。図5では、対象画像であるフレーム#1の画像から2つのパターンを検出しており、一方にはID#1、他方にはID#2を付与している。また、対象画像であるフレーム#4からも、ID#1、ID#2のそれぞれに対応する領域が検出されている。
そして、特定領域予測部104は、非対象画像であるフレーム#2における特定領域を予測する場合、フレーム#1及びフレーム#4において同一のIDが付与された特定領域を選択する。ここでは先ずID#1が付与された特定領域が選択されたとする。この場合、フレーム#1における特定領域#1の座標位置(x1,y1)とフレーム#4における特定領域#1の座標位置(x4,y4)と、を用いて、フレーム#2における特定領域#1の座標位置(x2,y2)を以下の式を計算することで予測する。
x2=(2×x1+1×x4)/3
y2=(2×y1+1×y4)/3
これは、特定領域#2が選択された場合も同様である。そしてこのような処理を、フレーム#3に対しても行う。これにより、フレーム#2及びフレーム#3における特定領域(の座標位置)を予測することができる。
なお、この他の特定領域予測方法としては、例えば、時間的に前に位置する2枚の対象画像を用いて特定領域を予測する、所謂外挿を行ってもよい。また、入力される動画像のフレームレートが高く、特定領域検出部103の処理フレームレートが符号化部102の処理フレームレートに近い場合は、図4に示す如く、特定領域予測部104を省いても良い。この場合は、符号化パラメータ制御部105は、前のフレームの特定領域検出結果をそのまま現在のフレームの処理に用いるか、特定領域に位置する物体が移動することを前提に、前のフレームの特定領域を前後左右に数画素広げた結果を用いればよい。さらに、特許文献1で開示されている方法で特定領域を予測してもよい。
何れの方法を用いるにせよ、特定領域予測部104は、特定領域検出部103と同様、予測した特定領域の座標位置を出力する。
ここで、符号化部102は、各フレームの画像を符号化する際、この画像を複数の画素ブロックに分割し、それぞれの画素ブロック毎に符号化を行う。然るに符号化パラメータ制御部105は特定領域検出部103や特定領域予測部104から出力された座標位置における特定領域に含まれる画素ブロックがその他の画素ブロックよりも高画質で符号化されるように、この画像に対する符号化パラメータを設定する。これは、特定領域が該特定領域以外の領域よりも高画質に符号化されるようにすることを目的とするものである。
符号化部102がこれから符号化しようとするフレームの画像が対象画像であるとする。この場合、この対象画像について特定領域検出部103から出力された座標位置で特定される特定領域に含まれる画素ブロックがその他の画素ブロックよりも高画質で符号化されるように、この画像に対する符号化パラメータを設定する。一方、符号化部102がこれから符号化しようとするフレームの画像が非対象画像であるとする。この場合、この非対象画像について特定領域予測部104から出力された座標位置で特定される特定領域に含まれる画素ブロックがその他の画素ブロックよりも高画質で符号化されるように、この画像に対する符号化パラメータを設定する。
例えば、特定領域に含まれる画素ブロックに対する量子化ステップをより細かく設定し、特定領域に含まれない画素ブロックに対する量子化ステップをより大まかに設定する。この処理により、人体や顔など、知覚上重要と考えられる領域の画質を向上させつつ、ビットレートを所望の値に抑えることができる。なお、符号化パラメータは、量子化テーブルであってもよいし、解像度やサブサンプリングをフレーム内で制御できる符号化方式であれば、これらを制御してもよい。
符号化モード制御部106は、符号化部102の符号化モードを、フレーム毎に設定する。本実施形態では、符号化部102による符号化方式はMPEG−2であるものとして説明するので、符号化モード制御部106はフレーム毎に、フレーム内符号化方式、前方向予測符号化方式、双方向予測符号化方式、の何れかを設定する。符号化モード制御部106による符号化モードの設定方法について詳しくは後述する。
符号化部102は、フレームバッファ101から、フレーム単位で画像を読み出して符号化する。符号化は、符号化モード制御部106によって設定された符号化方式で、符号化パラメータ制御部105によって設定された符号化パラメータを用いて行う。なお、本実施形態では、符号化部102による符号化方式はMPEG−2であるものとして説明するが、MPEG-4方式やH.264方式等の他の符号化方式を用いても良い。
次に、符号化モード制御部106がフレーム毎に、該フレームに対する符号化モードを決定する為に行う処理について、同処理のフローチャートを示す図2を用いて説明する。
特定領域検出部103が、動画像を構成する最初のフレーム(対象画像)から特定領域を抽出した場合には、処理はステップS101を介してステップS102に進み、未だ抽出が終わっていない場合は、ステップS101にて待機する。この待機中にも、フレームバッファ101には、各フレームの画像が順次入力される。
ステップS102では、符号化部102が既に符号化したフレームの総数を示す為の変数pic_count、符号化部102が双方向予測符号化方式に従って既に符号化したフレームの総数を示す為の変数b_countを0に初期化する。更に、次のフレームをフレーム内符号化方式に従って符号化するか否かを示すフラグintra_flagを1に初期化する。
ステップS103では、これから符号化部102が符号化しようとするフレームが対象画像であるか否か(特定領域検出部103によって特定領域が抽出された画像であるか否か)を判断する。この判断の結果、対象画像である場合には処理はステップS106に進み、対象画像ではない場合には処理はステップS104に進む。
ステップS104では、符号化部102が符号化しようとするフレームに対する符号化モードとして、他のフレームから参照されない符号化モードを設定する。本実施形態の符号化方式はMPEG-2を想定しているので、具体的には双方向予測符号化モード(双方向予測符号化方式に従って符号化を行うモード)を設定する。そしてステップS105では、変数b_countの値を1つインクリメントし、その後、処理はステップS107に進む。
一方、ステップS106では、符号化部102が符号化しようとするフレームに対する符号化モードを、図3のフローチャートに従った処理によって設定する。ステップS106における処理の処理の詳細については後述する。
そして、符号化部102が全てのフレームについて符号化を終えた場合には、処理はステップS107を介して本処理を終了するし、未だ符号化していないフレームが残っている場合には、処理はステップS107を介してステップS108に進む。
ステップS108では、変数pic_countの値を1つインクリメントする。そしてステップS109ではこのインクリメント後の変数pic_countの値が変数intra_periodの値以上であるか否かを判断する。この変数intra_periodは、フレーム内符号化方式に従った符号化を行うフレームの間隔を表す変数であり、本実施形態では15が予め設定されているものとする。即ち本実施形態では、15フレームおきにフレーム内符号化方式に従った符号化を行うものとする。もちろん、変数intra_periodの値はこの値に限るものではない。
そしてインクリメント後の変数pic_countの値が変数intra_periodの値以上である場合、処理はステップS102に戻る。一方、インクリメント後の変数pic_countの値が変数intra_periodの値よりも小さい場合、処理はステップS103に戻る。
次に、図3を用いて、上記ステップS106における処理の詳細について説明する。先ずステップS1061では、フラグintra_flagの値が1であるか否かを判断する。この判断の結果、フラグintra_flagの値が1であれば、処理はステップS1062に進み、0であれば、処理はステップS1064に進む。
ステップS1062では、符号化部102が符号化しようとするフレームに対する符号化モードとして、イントラ符号化モード(フレーム内符号化方式に従った符号化を行うモード)を設定する。即ち、前回フレーム内符号化方式に従って符号化した対象画像から、入力順において規定フレーム数以上後の対象画像に対してフレーム内符号化方式に従った符号化を行うようにする。
ステップS1063では、フラグintra_flagの値を0に設定する。そして、図3のフローチャートに従った処理を終え、処理はステップS107に進む。
一方、ステップS1064では、変数b_countの値が変数p_priodの値以上であるか否かを判断する。変数p_priodは、前方向予測符号化方式に従って符号化するフレームを挿入する間隔を表す変数であり、その値は、フレームバッファ101に格納可能なフレームの枚数に応じて予め設定されている。
この判断の結果、変数b_countの値が変数p_priodの値以上であれば、処理はステップS1065に進み、変数b_countの値が変数p_priodの値よりも小さい場合は、処理はステップS1067に進む。
ステップS1065では、符号化部102が符号化しようとするフレームに対する符号化モードとして、前方向予測符号化モード(前方向予測符号化方式に従った符号化を行うモード)を設定する。即ち、前回前方向予測符号化方式に従って符号化した対象画像から、入力順において規定フレーム数以上後の対象画像に対して、前方向予測符号化方式に従った符号化を行うようにする。そしてステップS1066では、変数b_countの値を0に初期化する。
一方、ステップS1067では、符号化部102が符号化しようとするフレームに対する符号化モードとして、双方向予測符号化モード(双方向予測符号化方式に従った符号化を行うモード)を設定する。即ち、対象画像のうち、フレーム内符号化方式に従った符号化の対象、前方向予測符号化方式に従った符号化の対象、の何れの対象にもなっていない対象画像に対しては双方向予測符号化方式に従った符号化を行うようにする。そしてステップS1068では、変数b_countの値を1つインクリメントする。
次に、特定領域検出部103、特定領域予測部104、フレームバッファ101、符号化部102、の各部におけるフレームの入出力について、図6のタイミングチャートを用いて説明する。図6では、時刻t1〜t16における各部のフレームの入出力を表している。
フレームバッファ101及び特定領域検出部103には、フレーム1〜16がそれぞれ時刻t1〜t16にて入力される。特定領域検出部103は、フレーム1,4,7,10,13,16の各フレーム(対象画像)について特定領域を検出し、フレーム2,3,5,6,8,9,11,12,14,15の各フレームについては特定領域予測部104によって特定領域の予測を行う。
例えば、特定領域予測部104は、時刻t3,t6のそれぞれにて特定領域検出部103から出力された特定領域の座標位置を用いて(フレーム1,4を用いた内挿により)、フレーム2,3における特定領域を予測する。そして特定領域予測部104は、フレーム2に対して予測した特定領域の座標位置を時刻t7にて出力し、フレーム3に対して予測した特定領域の座標位置を時刻t8にて出力する。
フレーム2に対して予測した特定領域の座標位置は、符号化部102がフレーム2を符号化する際に用いる符号化パラメータの決定に用いられ、その結果、符号化部102からはフレーム2に対する符号化結果が時刻t11にて出力される。同様にフレーム3に対して予測した特定領域の座標位置は、符号化部102がフレーム3を符号化する際に用いる符号化パラメータの決定に用いられ、その結果、符号化部102からはフレーム3に対する符号化結果が時刻t12にて出力される。
フレームバッファ101に格納される各フレーム1〜16のうち、フレーム1(図6ではI1)は、上記の処理により、フレーム内符号化方式に従って符号化されるフレームとなる。また、フレーム2〜6、8〜12、14〜16(図6ではB2〜B6、B8〜B12、B14〜B16)は、上記の処理により、双方向予測符号化方式に従って符号化されるフレームとなる。また、フレーム7,13(図6ではP7,P13)は、上記の処理により、前方向予測符号化方式に従って符号化されるフレームとなる。
以上説明したように、本実施形態では、特定領域の座標位置を予測したフレーム、即ち、特定領域を直接検出したフレーム以外のフレームを、双方向予測符号化方式に従って符号化する。本実施形態では符号化方式としてMPEG-2を用いるため、双方向予測符号化方式に従って符号化されたフレームは参照フレームとならないため、特定領域の座標位置を予測したフレームは符号化において参照フレームとしては用いられない。
従来では、特定領域の座標位置を予測したフレームは符号化時に参照フレームとなり得るため、量子化パラメータの制御による画質劣化が伝搬する可能性があった。一方、本実施形態では、特定領域の座標位置を予測したフレームは後続するフレームの符号化時に参照フレームとして用いられないので、上記のような量子化パラメータの制御による誤差の伝搬を低減し、画質を向上させることができる。
なお、H.264符号化方式においては、参照フレームは参照ピクチャリストと呼ばれるリストに登録されて管理される。MPEG-2の双方向予測符号化モードに対応する符号化モードはH.264では双予測符号化モードと呼ばれ、該モードで符号化されたフレームは、予測符号化を行う場合に参照フレームになり得る。即ち、双予測符号化モードで符号化されたフレームは参照ピクチャリストに登録され得る。一方、イントラ符号化モードや前方向予測符号化モードで符号化されたフレームを参照フレームとしない、即ち参照ピクチャに登録しないことも可能である。よって、本実施形態をH.264符号化方式に適用する場合には、図2のステップS104において、該フレームを非参照フレームとする、即ち参照ピクチャリストに登録しないという処理を行うことになる。この処理を行う場合、ステップS104で選択する符号化モードは必ずしも双予測符号化モードでなくてもよい。
また、H.264符号化方式においてはブロック単位で参照フレームを選択できる。然るに更に別の適用方法として、ステップS104において該フレームを参照ピクチャリストに登録しつつ、該フレームが特定領域の座標位置を予測したフレームであることを示すフラグを不図示のメモリに保持してもよい。この場合、後続するフレームの符号化時にこのフラグを参照して、特定領域を含むブロックの予測符号化を行うときは特定領域を直接検出したフレームの中から参照フレームを選択する処理を行う。また、特定領域を含まないブロックの予測符号化を行うときは参照ピクチャリストに登録された全てのフレームの中から参照フレームを選択する処理を行う。
なお、図6においては、特定領域検出部103の処理フレームレートが一定であるように説明しているが、一定に限るものではない。入力される動画像データの性質によっては、特定領域検出部103における計算負荷が重くなる可能性がある。この場合は特定領域検出部103の処理フレームレートが可変になり得るが、符号化モード制御部106は特定領域検出部103からの出力の有無に応じて符号化モードを制御すればよい。
さらに、特定領域検出部103がフレームバッファ101に一時的に格納されているフレーム数を監視し、フレーム数が閾値に到達した場合には特定領域を検出する処理を打ち切り、処理打ち切りまでの結果を符号化モード制御部106に出力してもよい。この場合、フレームバッファ101の使用量を閾値で指定されたサイズに抑えることができるので、コストの削減が可能となる。
また、本実施形態では、対象画像は、フレーム群内に規定の分布に従って分散しているものとして説明したが、様々な状況に応じて決まる規定フレームの画像であれば良く、各フレームの画像における対象画像の分布については特に限るものではない。
[第2の実施形態]
以下に、本実施形態と第1の実施形態との差分のみについて説明する。本実施形態では、第1の実施形態に係る構成において、変数p_periodを予め0に設定しておく点が第1の実施形態と異なる。
この場合、ステップS1064では常にb_countの値がp_priodの値以上となるため、ステップS1064の次は常にステップS1065に処理が進むことになる。これにより、特定領域を直接検出したフレームである対象画像に対する符号化モードは常に、イントラ符号化モード、前方向予測符号化の何れか一方となる。
本実施形態においても、特定領域を予測したフレームの画像については、双方向予測符号化方式に従った符号化を行うので、このフレームは後続するフレームの符号化時に参照フレームとして用いられない。
次に、特定領域検出部103、特定領域予測部104、フレームバッファ101、符号化部102、の各部におけるフレームの入出力について、図7のタイミングチャートを用いて説明する。図7では、時刻t1〜t16における各部のフレームの入出力を表している。図6との相違点は、特定領域予測部104による内挿処理の間隔と、符号化部102による双方向予測符号化方式に従った符号化処理の間隔と、が同じとなる点にある。
例えば、特定領域検出部103から出力されたフレーム1,4,7,10,13における特定領域の座標位置はそれぞれ、符号化部102がフレームI1,P4,P7,P10,P13を符号化する際に用いる符号化パラメータの決定に用いられる。その際、何れのフレームも、特定領域検出部103からの出力時刻(t3,t6,t9,t12,t15)の次の時刻(t4,t7,t10,t13,t16)に符号化部102で用いられている。また、特定領域予測部104から出力されたフレーム2,3,5,6,8,9における特定領域の座標位置はそれぞれ、符号化部102がフレームB2,B3,B5,B6,B8,B9を符号化する際に用いる符号化パラメータの決定に用いられる。その際、何れのフレームも、特定領域予測部104からの出力時刻(t7,t8,t10,t11,t13,t14)の次の時刻(t8,t9,t11,t12,t14,t15)に符号化部102で用いられている。
一方、従来技術を用いて内挿処理の間隔を同一にしないで符号化した場合の、特定領域検出部103、特定領域予測部104、フレームバッファ101、符号化部102、の各部におけるフレームの入出力について、図8のタイミングチャートを用いて説明する。
図8に示す如く、前方向予測符号化モードで符号化されるフレームの間隔を短くしても、ストリーム中で2枚目のフレーム(P3)を符号化するにはフレーム3について予測した特定領域の座標位置(時刻t8)を待つ必要がある。よって、従来技術においては時刻t9で2枚目のフレームP3を出力するまでに、B2〜B8までの合計7枚のフレームをフレームバッファ101へ格納する必要がある。
一方、本実施形態では、図7のようにフレーム4について予測した特定領域の座標位置を時刻t6で得て、ストリーム中で2枚目のフレームP4の符号化結果を時刻t7において出力できる。よって、2枚目のフレームP4を出力するまでに、B2〜B6までの合計5枚のフレームをフレームバッファ101へ格納すればよい。ゆえに、フレームバッファ101に必要なメモリ容量を、従来技術と比較して2フレーム分減らすことができる。ここで、図8において特定領域予測部104からフレーム3より先にフレーム2の予測結果を出力したとしても、ストリーム中で2枚目のフレーム(P3)を符号化できるのは時刻t8である。よって、フレームバッファ101に必要なメモリ容量は本実施形態の方が依然として少ない。
以上説明したように、本実施形態では、特定領域の予測精度を内挿により向上させつつも、フレームバッファの容量を減らしてコストを削減することができる。また、第1の実施形態と同様に、特定領域の座標位置を予測したフレームが後続するフレームの符号化時に参照フレームとして用いられないので、符号化パラメータの制御による誤差の伝搬を低減し、画質を向上させることができる。
以上の各実施形態により、予測された特定領域を含むフレームの符号化モードが他のフレームから参照されない符号化モードに設定されるので、特定領域の予測が外れた場合であっても符号化パラメータによる誤差の伝搬を防ぎ、画質を向上させることができる。
また、特定領域の予測における内挿処理のフレーム間隔と符号化における内挿予測処理のフレーム間隔が同一になるため、特定領域の予測精度を向上させつつ、フレームバッファに必要なコストを削減することができる。
[第3の実施形態]
図1,4に示した各部は何れもハードウェアで構成しても良いが、フレームバッファ101(201)をRAMやハードディスクなどのメモリとして実行し、それ以外の各部をソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このメモリを有し、且つこのソフトウェアを格納するためのメモリも有するコンピュータのCPUがこれらのソフトウェアを実行することで、このコンピュータは、第1,2の実施形態で説明した各処理を実行することになる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (7)

  1. 動画像を構成する各フレームの画像を順次入力する入力手段と、
    前記各フレームの画像のうち規定フレームの画像を対象画像とし、該対象画像から、規定のパターンが映っている領域を特定領域として検出する手段と、
    前記対象画像以外の画像を非対象画像とし、該非対象画像中における前記特定領域を予測する予測手段と、
    前記特定領域が該特定領域以外の領域よりも高画質に符号化されるように、前記各フレームの画像を符号化する符号化手段とを備え、
    前記符号化手段は、前記非対象画像中の特定領域が他のフレームから参照されないように符号化する
    ことを特徴とする画像処理装置。
  2. 前記符号化手段は、前回フレーム内符号化方式に従って符号化した前記対象画像から、前記入力順において規定フレーム数以上後の前記対象画像に対して、前記フレーム内符号化方式に従った符号化を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記符号化手段は、前回前方向予測符号化方式に従って符号化した前記対象画像から、前記入力順において規定フレーム数以上後の前記対象画像に対して、前記前方向予測符号化方式に従った符号化を行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記符号化手段は、前記対象画像のうち、前記フレーム内符号化方式に従った符号化の対象、前記前方向予測符号化方式に従った符号化の対象、の何れの対象にもなっていない対象画像に対して双方向予測符号化方式に従った符号化を行うことを特徴とする請求項3に記載の画像処理装置。
  5. 前記予測手段は、前記対象画像以外の画像を非対象画像とし、該非対象画像中における前記特定領域を、前記対象画像を用いた内挿により予測することを特徴とする請求項1に記載の画像処理装置。
  6. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の入力手段が、動画像を構成する各フレームの画像を順次入力する入力工程と、
    前記画像処理装置の検出手段が、前記各フレームの画像のうち規定フレームの画像を対象画像とし、該対象画像から、規定のパターンが映っている領域を特定領域として検出する工程と、
    前記画像処理装置の予測手段が、前記対象画像以外の画像を非対象画像とし、該非対象画像中における前記特定領域を予測する予測工程と、
    前記画像処理装置の符号化手段が、前記特定領域が該特定領域以外の領域よりも高画質に符号化されるように、前記各フレームの画像を符号化する符号化工程とを備え、
    前記符号化工程では、前記非対象画像中の特定領域が他のフレームから参照されないように符号化する
    ことを特徴とする画像処理方法。
  7. コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011112896A 2011-05-19 2011-05-19 画像処理装置、画像処理方法 Pending JP2012244437A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011112896A JP2012244437A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法
US13/461,570 US9008358B2 (en) 2011-05-19 2012-05-01 Encoding a specific area with higher quality than a non-specific area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011112896A JP2012244437A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2012244437A true JP2012244437A (ja) 2012-12-10
JP2012244437A5 JP2012244437A5 (ja) 2014-06-26

Family

ID=47174946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011112896A Pending JP2012244437A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9008358B2 (ja)
JP (1) JP2012244437A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199696A1 (ja) * 2022-04-11 2023-10-19 住友電気工業株式会社 映像圧縮方法、映像圧縮装置、及びコンピュータプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000670B2 (ja) 2012-06-11 2016-10-05 キヤノン株式会社 画像処理装置、画像処理方法
JP6758977B2 (ja) * 2016-07-22 2020-09-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN107798272B (zh) * 2016-08-30 2021-11-02 佳能株式会社 快速多目标检测与跟踪***
CN108073864B (zh) * 2016-11-15 2021-03-09 北京市商汤科技开发有限公司 目标对象检测方法、装置及***和神经网络结构

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005347955A (ja) * 2004-06-01 2005-12-15 Canon Inc 信号処理装置及び信号処理方法
JP2006041648A (ja) * 2004-07-23 2006-02-09 Renesas Technology Corp 動画像処理ユニット
JP2009027368A (ja) * 2007-07-18 2009-02-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2352300A1 (en) * 1997-02-13 2011-08-03 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
US7106909B2 (en) 2001-12-25 2006-09-12 Canon Kabushiki Kaisha Method and apparatus for encoding image data in accordance with a target data size
JP4047183B2 (ja) 2002-03-07 2008-02-13 キヤノン株式会社 画像圧縮符号化装置及びその制御方法
KR100543700B1 (ko) * 2003-01-30 2006-01-20 삼성전자주식회사 영상의 중복 부호화 및 복호화 방법 및 장치
JP2007336259A (ja) 2006-06-15 2007-12-27 Matsushita Electric Ind Co Ltd 画像符号化装置および方法
JP5173547B2 (ja) 2008-04-15 2013-04-03 キヤノン株式会社 画像復号装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005347955A (ja) * 2004-06-01 2005-12-15 Canon Inc 信号処理装置及び信号処理方法
JP2006041648A (ja) * 2004-07-23 2006-02-09 Renesas Technology Corp 動画像処理ユニット
JP2009027368A (ja) * 2007-07-18 2009-02-05 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199696A1 (ja) * 2022-04-11 2023-10-19 住友電気工業株式会社 映像圧縮方法、映像圧縮装置、及びコンピュータプログラム

Also Published As

Publication number Publication date
US20120294480A1 (en) 2012-11-22
US9008358B2 (en) 2015-04-14

Similar Documents

Publication Publication Date Title
TWI711300B (zh) 照度補償方法及相應之視訊處理裝置
CN107277543B (zh) 编码装置和方法、解码装置和方法以及存储介质
EP2664142B1 (en) Video encoding and decoding with improved error resilience
US10341679B2 (en) Encoding system using motion estimation and encoding method using motion estimation
CN110933426B (zh) 一种解码、编码方法及其设备
GB2492778A (en) Motion compensated image coding by combining motion information predictors
JP5267655B2 (ja) 画像符号化装置、画像符号化制御方法および画像符号化プログラム
JP2003299102A (ja) ビデオ符号化システムにおけるbピクチャーモード決定方法及びその装置
US20090167775A1 (en) Motion estimation compatible with multiple standards
US11095878B2 (en) Method and device for encoding a sequence of images and method and device for decoding a sequence of image
US20120207219A1 (en) Picture encoding apparatus, picture encoding method, and program
JP2012244437A (ja) 画像処理装置、画像処理方法
US11082688B2 (en) Restricted overlapped block motion compensation
KR20170126934A (ko) 컨텐츠-적응적 b-픽쳐 패턴 비디오 인코딩
JP4670085B2 (ja) 直接符号化モードでの参照画像ブロックの確定方法
JP4570098B2 (ja) ビデオデータストリームを符号化するための装置
CN112118451A (zh) 一种编解码方法、装置及其设备
KR20120072205A (ko) 매크로블록 간의 예측 기법을 이용한 움직임 추정 장치 및 방법
CN110662074B (zh) 一种运动矢量确定方法和设备
JP5727398B2 (ja) 動画像符号化方法,動画像符号化装置および動画像符号化プログラム
JP4034180B2 (ja) 動画像圧縮符号化装置、及び動きベクトル検出方法
WO2022117369A1 (en) Content adaptive collocated reference picture selection
JP2007195080A (ja) 動画像復号化装置及び動画像復号化プログラム
CN110691247A (zh) 一种解码、编码方法和设备

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150828