JP2009273048A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2009273048A
JP2009273048A JP2008123905A JP2008123905A JP2009273048A JP 2009273048 A JP2009273048 A JP 2009273048A JP 2008123905 A JP2008123905 A JP 2008123905A JP 2008123905 A JP2008123905 A JP 2008123905A JP 2009273048 A JP2009273048 A JP 2009273048A
Authority
JP
Japan
Prior art keywords
motion vector
unit
edge
block
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008123905A
Other languages
English (en)
Other versions
JP5100495B2 (ja
Inventor
Shingo Suzuki
真吾 鈴木
Hiroshi Mori
弘史 森
Masami Morimoto
正巳 森本
Tatsunori Saito
龍則 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008123905A priority Critical patent/JP5100495B2/ja
Priority to US12/199,422 priority patent/US8077924B2/en
Publication of JP2009273048A publication Critical patent/JP2009273048A/ja
Application granted granted Critical
Publication of JP5100495B2 publication Critical patent/JP5100495B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】プロセッサに大きな負荷を掛けることなく、フレーム補間を行うことが可能で、モバイル機器にも好適する画像処理装置を提供する。
【解決手段】エッジマップ作成部/エッジ重み係数作成部121は、動画像フレームFtを構成する各ブロックについてエッジ検出を行い、各ブロックのエッジとそれに隣接するブロックのエッジとの相関をエッジ重み係数として求める。そして予測ベクトル候補決定部123aは、このエッジ重み係数に基づいて各ブロック毎に動きベクトルの候補を複数求め、このうち予測誤差と動きベクトルコストに基づく評価値が小さな候補を動きベクトル検出部124が動きベクトルとして求め、補間フレームFt-0.5を生成するようにしたものである。
【選択図】 図2

Description

この発明は、動画像の品質を改善する画像処理装置に関する。
周知のように、単位時間当たりの表示フレーム数を増加させる技術として、フレーム補間方法がある。このフレーム補間方法は、入力信号である動画像フレームからそれらフレーム間に存在するであろうフレームを予測・内挿することで、単位時間当たりの表示フレーム数を増加させるものであり、このフレーム補間によってフレーム間のつながりが滑らかになるだけでなく、表示のボケ感がなくなるなどの利点が得られる。
また、特許文献1では、補間ブロック内に存在するエッジ画素を検出し、エッジか否かに応じて異なる動きベクトル補正を行っているため、動き精度は非常に高いが、処理量が多くモバイル向けとは言えない。
特開2004−112229
従来の画像処理装置で採用していたフレーム補間方法では、処理過程が複雑であるためにプロセッサへの負荷が大きく、例えばプロセッサ能力や消費電力の点でモバイル機器への応用の問題となっていた。
この発明は上記の問題を解決すべくなされたもので、プロセッサに大きな負荷を掛けることなく、フレーム補間を行うことが可能で、モバイル機器にも好適する画像処理装置を提供することを目的とする。
上記の目的を達成するために、この発明は、時間的に連続する動画像フレームの間を補間する補間フレームを生成する画像処理装置において、補間フレームを構成するブロック毎に動きベクトルを記憶する動きベクトル蓄積手段と、動画像フレームを構成するブロック毎にエッジを検出するエッジ検出手段と、このエッジ検出手段が検出したエッジに基づいて、ブロック毎に、隣接するブロックのエッジとの相関を求める相関検出手段と、補間フレームを構成するブロック毎に、相関検出手段が検出した相関に基づいて、動きベクトル蓄積手段が記憶する動きベクトルから、動きベクトルの候補を決定する候補決定手段と、この候補決定手段が決定した候補から、補間フレームを構成する各ブロックの動きベクトルを検出する動きベクトル検出手段と、この動きベクトル検出手段が検出した動きベクトルを動きベクトル蓄積手段に記録する制御手段とを具備して構成するようにした。
以上述べたように、この発明では、動画像フレームを構成するブロック毎にエッジを検出し、このエッジに基づいて、ブロック毎に、隣接するブロックのエッジとの相関を求め、補間フレームを構成するブロック毎に、上記相関に基づいて、以前に求めた補間フレームの動きベクトルから動きベクトルの候補を決定し、これらの候補から補間フレームを構成する各ブロックの動きベクトルを検出するようにしている。
したがって、この発明によれば、画素単位ではなくブロック毎にエッジを検出するので処理負荷が小さく、またエッジについて隣接ブロックとの相関を考慮して、動きベクトルの候補を求めるようにしているので、精度の高いフレーム補間を行うことが可能な画像処理装置を提供できる。
以下、図面を参照して、この発明の一実施形態について説明する。
(第1の実施形態)
図1は、この発明の第1の実施形態に係わる画像処理装置を適用した移動無線端末装置の構成を示すブロック図である。この移動無線端末装置は、図1に示すように、主な構成要素として、制御部100と、無線通信部10と、表示部20と、通話部30と、操作部40と、記憶部50と、放送受信部60とを備え、基地局装置BSおよび移動通信網NWを介して通信する機能と、放送局BCから送信される地上デジタル放送信号を受信する機能とを備える。
無線通信部10は、制御部100の指示にしたがって、移動通信網NWに収容された基地局装置BSと無線通信を行うものであって、この無線通信により、音声データや電子メールデータなどの送受信、Webデータやストリーミングデータなどの受信を行う。
表示部20は、例えばLCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどを用いた表示手段であって、制御部100の制御により、画像(静止画像および動画像)や文字情報などを表示して、視覚的にユーザに情報を伝達するものである。
通話部30は、スピーカ31やマイクロホン32を備え、マイクロホン32を通じて入力されたユーザの音声を音声データに変換して制御部100に出力したり、通話相手などから受信した音声データを復号してスピーカ31から出力するものである。
操作部40は、文字や数字、所定の命令を入力するための複数のキースイッチなどを備え、これを通じてユーザから指示を受け付けるものである。
記憶部50は、制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。なお、具体的には、HDD、RAM、ROM、フラッシュメモリなどで構成され、これらの1つで、または複数を組み合わせて構成することができる。
放送受信部60は、放送局BCから送信される地上デジタル放送信号を受信するチューナであって、例えば上記放送信号のうち、ワンセグメントを受信し、映像信号が、例えばH.264などの形式で符号化された放送データ(符号化ストリーム)を得る。
制御部100は、マイクロプロセッサを備え、記憶部50が記憶する制御プログラムや制御データにしたがって動作し、当該移動無線端末装置の各部を統括して制御し、音声通信やデータ通信を実現するものである。また制御部100は、記憶部50が記憶するアプリケーションソフトウェアにしたがって動作し、電子メールの送受信や、Webブラウジング、ダウンロードしたストリーミングデータに基づいて動画像を表示部20に表示したり、音声通信を行う通信制御機能を備える。
さらに制御部100は、画像処理部100aを備える。この画像処理部100aは、放送受信部60で得られた上記放送データを復号し、この復号結果に画像処理を施して、放送される動画像のフレームに、フレームを補間して表示部20に表示する。画像処理部100aは、例えば図2に示すように、動画像復号部110と、フレーム補間部120aと、表示ドライバ130とを備える。この他に、図示しないが、放送受信部60で受信されたオーディオデータを復号して、放送された音声信号を得るオーディオ復号部も備える。
動画像復号部110は、動画像の符号化データ(Video Elementary Stream)を復号し、これによって複数の動画像フレームで構成される動画像データを得る。なお、この時点で得られる動画像データのフレームレートは、15Hzとする。動画像データは、フレーム補間部120aと表示ドライバ130に出力される。
また、動画像復号部110による動画像の復号処理では、受信した符号化ストリームから復号の際に参照する動画像フレームを示す情報、符号化された画像データ、及び符号化された動きベクトルなどを抽出し、これらを用いて画像データを復号する。そして、この復号することで得た画像データと、参照する画像フレームから得た画像データとを合成して動画像フレームを得る。なお、この復号処理は、動画像フレームがインター符号化されている場合の説明であり、動画像フレームがイントラ符号化されている場合は、他のフレームを参照する必要がないので、符号化された画像データを復号することで動画像フレームが得られる。
フレーム補間部120aは、動画像復号部110によって得た動画像フレームFtと、その1フレーム前の動画像フレームFt-1との間に内挿する補間フレームを生成するものである。以下の説明では、例として、時間的にFtとFt-1との中間に位置する補間フレームFt-0.5を生成するものとする。フレーム補間部120aは、エッジマップ作成部/エッジ重み係数作成部121と、動きベクトル制御部122aと、動きベクトル平滑化部125と、動きベクトル蓄積部127と、αブレンディング部128とを備える。
エッジマップ作成部/エッジ重み係数作成部121のうち、エッジマップ作成部は、図3に示すような処理を実施する。すなわち、エッジマップ作成部は、動画像フレームFtを参照フレームとし、これを矩形ブロック単位に分割し、そしてこれらの分割したブロックを左上ブロックからラスタースキャン順にエッジ検出を行い(ステップ3a)、この検出した各ブロックのエッジを予め定めておいたエッジ方向(例えば、360度を90度毎の4分類とする)に分類し、内部に備えたメモリにブロック毎に検出したエッジの方向を示すエッジ情報を記録することで、エッジマップを作成する(ステップ3b)。なお、エッジマップ作成部は、時間的に連続する少なくとも2フレーム(動画像フレームFtと1フレーム前の動画像フレームFt-1)について、作成したエッジマップ(各ブロックのエッジ情報)を記憶する。
また、上述した手法は、エッジ検出を行った場合の例であるが、図4に示すように処理対象ブロックや隣接ブロックがイントラ予測で符号化されたブロックであった場合は、ステップ3aにおいて、イントラ予測モードの隣接ブロックのモード情報(図4では矢印で例示したもの)を検出し、これをエッジ情報として利用してもよい。
そして、エッジマップ作成部/エッジ重み係数作成部121のうち、エッジ重み係数作成部は、エッジマップ作成部が作成したエッジマップに含まれる各エッジ情報を、そのブロック(処理対象ブロック)に隣接するブロックのエッジ情報に基づくエッジ重み係数に変換する。具体的には、処理対象ブロックのエッジ情報が示すエッジ方向に対して、隣接するブロックのエッジ情報が示すエッジ方向が離れる度合いをエッジ重み係数として算出する。例えば、処理対象ブロックのエッジ方向をエッジ重み係数を0とし、このエッジ方向(処理対象ブロックのエッジ方向)から離れた方向ほど、エッジ重み係数を大きくする。
つまり、例えばエッジを90度毎の4つに分類した場合、処理対象ブロックのエッジ方向に対して、隣接するブロックのエッジ方向が0度以上90度未満ならばエッジ重み係数を0とし、90度以上180度未満あるいは270以上360度未満ならばエッジ重み係数を1とし、180度以上270度未満のエッジ重み係数を2とする。ここでは、4つに分類した場合を例に挙げたが、それ以上に分類した場合でも、上記概念は同様である。
なお、エッジ重み係数作成部は、時間的に連続する少なくとも2フレーム(動画像フレームFtと1フレーム前の動画像フレームFt-1)について、各ブロックの重み係数を記憶する。
動きベクトル制御部122aは、動画像復号部110で得た動画像フレームFtと、エッジマップ作成部/エッジ重み係数作成部121で得たエッジ重み係数と、後段の動きベクトル蓄積部127に蓄積しておいた、1フレーム前に生成した補間フレームFt-1.5の動きベクトルに基づいて、補間フレームFt-0.5を構成する矩形ブロック毎に複数の動きベクトル(予測ベクトル)の候補を決定し、そして、矩形ブロック毎にその複数の候補から動きベクトルを検出する。
すなわち、動きベクトル制御部122aは、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。このような動作を実現するために、動きベクトル制御部122aは、予測ベクトル候補決定部123aと動きベクトル検出部124を備える。
具体的には、まず予測ベクトル候補決定部123aが、図5乃至図7に示す処理を、補間フレームFt-0.5を構成する1つの矩形ブロックについて実施して、複数の予測ベクトルの候補を決定する。そして、動きベクトル検出部124が、図8に示す処理を実施して、上記複数の予測ベクトルの候補から上記矩形ブロックの予測ベクトル(動きベクトル)を決定し、これをメモリに保持する。このような予測ベクトル候補決定部123aと動きベクトル検出部124による処理を、矩形ブロック毎にラスタスキャン順に実施して、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。
以下、図5乃至図7を参照して、予測ベクトル候補決定部123aの動作について、より具体的に説明する。予測ベクトル候補決定部123aは、動画像フレームFtが与えられると、補間フレームFt-0.5を構成する各矩形ブロックについて、図5に示す処理をラスタスキャン順に実施する。
ステップ5aにおいて予測ベクトル候補決定部123aは、エッジマップ作成部/エッジ重み係数作成部121に対して、補間フレームFt-0.5を構成する矩形ブロックのうち、処理対象となるブロック(以下、処理対象ブロックと称する)のブロックインデックスを通知する。これに対して、エッジマップ作成部/エッジ重み係数作成部121は、動画像フレームFtを構成する矩形ブロックについてそれぞれ求めておいたエッジ重み係数のうち、予測ベクトル候補決定部123aから通知されたブロックインデックスに対応する矩形ブロックのエッジ重み係数を予測ベクトル候補決定部123aに出力する。予測ベクトル候補決定部123aは、上記エッジ重み係数を取得すると、処理対象ブロックについての候補数のカウンタNcを0に設定し、ステップ5bに移行する。
ステップ5bにおいて予測ベクトル候補決定部123aは、判定値として、ステップ5aで取得したエッジ重み係数を設定し、ステップ5cに移行する。
ステップ5cおよびステップ5gの処理は、予め設定したインデックステーブルを参照し、このテーブルで示される順にしたがい処理対象ブロックに隣接するブロック(以下、隣接ブロックと称する)を検査対象として1つずつ順に選択するループ処理であって、選択した隣接ブロック毎に、ステップ5dから5fの処理を実施する。このため、まずステップ5cにおいて予測ベクトル候補決定部123aは、インデックステーブルを参照して、隣接ブロックのインデックスを1つ選択する。
ここで、インデックステーブルの一例を図6に示す。図6において、補間フレームFt-1.5は、現在生成している補間フレームFt-0.5に対して、1つ前に生成した補間フレームを示すものであって、各ブロックの動きベクトルは、動きベクトル蓄積部127に蓄積されている。また補間フレームFt-0.5において、すでに検出された動きベクトルは、後段の動きベクトル検出部124のメモリに保持されている。ブロック中の数値0〜12は、上記ループ処理で選択する順序を示しており、この情報をインテックステーブルに記録している。
ステップ5cにおいて予測ベクトル候補決定部123aは、まず始めに、過去の補間フレームFt-1.5上の同じ位置のブロック「0」を選択する。その後、「1」〜「4」を付与した隣接ブロック群Aに属するブロックを順に選択する。このブロック群Aは、対象ブロックを中心とした対象の位置に存在するものである。さらにその後、「5」〜「8」を付与した隣接ブロック群Bに属するブロックを順に選択する。このブロック群Bは、対象ブロックを中心とした対象の位置に存在するものである。そしてさらにその後、残るブロック群Cに属する「9」〜「12」を順に選択する。このようなインデックステーブルによれば、類似性の高い動きベクトルを優先的に候補とすることができる。
なお、補間フレームFt-0.5の「1」、「5」、「2」、「6」のブロックについては、当該処理によりラスタスキャン順に実施されているため、以前の処理により動きベクトル検出部124によって既に動きベクトルが求められて、メモリに保持されている。また、補間フレームFt-1.5の「9」、「12」、「10」、「11」、「0」、「8」、「3」、「7」、「4」のブロックについては、1つ前の補間処理によって、動きベクトルが求められて、これが動きベクトル蓄積部127に蓄積されている。
また、予測ベクトル候補決定部123aは、補間フレームFt-1.5の動きベクトルに代わり、もしくは補間フレームFt-1.5の動きベクトルとともに、動画フレームFt-1の動きベクトルを用いるようにしてもよい。この場合、動画像復号部110において動画フレームFt-1を構成した際に動画像ストリームから生成した動きベクトルを流用するために、この動きベクトルを動きベクトル蓄積部127に記憶しておく(図2中の破線矢印)。またインデックステーブルには、補間フレームFt-1.5に代わり、もしくは補間フレームFt-1.5とともに、動画フレームFt-1のブロックインデックスを設定する。そして、ステップ5cにおいて予測ベクトル候補決定部123aは、上記インデックステーブルにしたがって、動きベクトル蓄積部127に記憶しておいた動画フレームFt-1の動きベクトルを、予測ベクトルの候補を検出するために順次選択する。
ステップ5dにおいて予測ベクトル候補決定部123aは、エッジマップ作成部/エッジ重み係数作成部121に対して、ステップ5cで選択したインデックスを通知する。これに対してエッジマップ作成部/エッジ重み係数作成部121は、動画像フレームFtもしくは動画像フレームFt-1を構成する矩形ブロックについてそれぞれ求めておいたエッジ重み係数のうち、予測ベクトル候補決定部123aから通知されたインデックスに対応する矩形ブロックのエッジ重み係数を予測ベクトル候補決定部123aに出力する。予測ベクトル候補決定部123aは、上記エッジ重み係数を取得し、このエッジ重み係数とステップ5bで設定した判定値とが等しいか否かを判定する。ここで、等しい場合には、ステップ5fに移行し、一方、等しくない場合には、ステップ5eに移行する。
ステップ5eにおいて予測ベクトル候補決定部123aは、ステップ5dで判定値に等しいと判定した隣接ブロック(ステップ5cで選択したインデックスに対応する隣接ブロック)の動きベクトルを、予測ベクトルの候補とする。また候補数Ncに1を加算し、ステップ5fに移行する。図6の例では、ステップ5cで選択したインデックスが「1」、「5」、「2」、「6」に対応する矩形ブロックの場合には、動きベクトル検出部124から動きベクトルを取得して予測ベクトルの候補とする。一方、ステップ5cで選択したインデックスが「9」、「12」、「10」、「11」、「0」、「8」、「3」、「7」、「4」に対応する矩形ブロックの場合には、動きベクトル蓄積部127から動きベクトルを取得して予測ベクトルの候補とする。
ステップ5fにおいて予測ベクトル候補決定部123aは、処理対象ブロックについての予測ベクトルの候補数Ncが、予め設定した規定値以上であるか否かを判定する。ここで、候補数Ncが規定値以上の場合には、処理対象ブロックについての当該処理を終了し、一方、候補数Ncが規定値未満の場合には、ステップ5gに移行する。
ステップ5gにおいて予測ベクトル候補決定部123aは、ステップ5d〜5fの処理を施していない隣接ブロックがまだ残っていれば、ステップ5cに移行して残る隣接ブロックのインデックスを選択してステップ5dから処理を実施し、一方、残っていない場合には、ステップ5hに移行する。
ステップ5hは、予測ベクトルの候補数Ncが規定数以下であった場合に、予測ベクトルの候補を追加するために実施される。ステップ5hにおいて予測ベクトル候補決定部123aは、図7に示す処理を実施して、予測ベクトルの候補を追加する。以下、図7を参照して説明する。
なお、この処理では、すべての重み係数(N種類)をそれぞれ処理の対象とするものである。また、ステップ7aからステップ7hの処理は、すべての重み係数を1つずつ順に選択するループ処理であって、選択した重み係数毎に、ステップ7bから7gの処理を実施する。このため、まずステップ7aにおいて予測ベクトル候補決定部123aは、重み係数のインデックスを1つずつ小さい値から順に選択する。
ステップ7bにおいて予測ベクトル候補決定部123aは、判定値として、ステップ7aで選択したインデックスの重み係数を設定し、ステップ7cに移行する。すなわち、図5に示す処理では、判定値として、処理対象ブロックのエッジ重み係数を設定したのに対して、図7に示す処理では、あらゆる重み係数を判定値として、小さい値から順に採用するものである。
ステップ7cおよびステップ7gの処理は、予め設定したインデックステーブルを参照し、このテーブルで示される順にしたがい処理対象ブロックに隣接するブロック(隣接ブロック)を検査対象として1つずつ順に選択するループ処理であって、選択した隣接ブロック毎に、ステップ7dから7fの処理を実施する。このため、インデックステーブルを参照して、ステップ7cでは、隣接ブロックのインデックス1つ選択する。なお、インデックステーブルとしては、図5に示した処理と同様に、図6に示したものを用いてもよい。
ステップ7dにおいて予測ベクトル候補決定部123aは、エッジマップ作成部/エッジ重み係数作成部121に対して、ステップ7cで選択したインデックスを通知する。これに対してエッジマップ作成部/エッジ重み係数作成部121は、動画像フレームFtもしくは動画像フレームFt-1を構成する矩形ブロックについてそれぞれ求めておいたエッジ重み係数のうち、予測ベクトル候補決定部123aから通知されたインデックスに対応する矩形ブロックのエッジ重み係数を予測ベクトル候補決定部123aに出力する。予測ベクトル候補決定部123aは、上記エッジ重み係数を取得し、このエッジ重み係数とステップ7bで設定した判定値とが等しいか否かを判定する。ここで、等しい場合には、ステップ7eに移行し、一方、等しくない場合には、ステップ7fに移行する。
ステップ7eにおいて予測ベクトル候補決定部123aは、ステップ7dで判定値と等しいと判定した隣接ブロック(ステップ7cで選択したインデックスに対応する隣接ブロック)の動きベクトルを、予測ベクトルの候補とする。また候補数Ncに1を加算し、ステップ7fに移行する。図6の例では、ステップ7cで選択したインデックスが「1」、「5」、「2」、「6」に対応する矩形ブロックの場合には、動きベクトル検出部124から動きベクトルを取得して予測ベクトルの候補とする。一方、ステップ7cで選択したインデックスが「9」、「12」、「10」、「11」、「0」、「8」、「3」、「7」、「4」に対応する矩形ブロックの場合には、動きベクトル蓄積部127から動きベクトルを取得して予測ベクトルの候補とする。
ステップ7fにおいて予測ベクトル候補決定部123aは、処理対象ブロックについての予測ベクトルの候補数Nc(ステップ5eおよびステップ7eで候補とした合計数)が、予め設定した規定値以上であるか否かを判定する。ここで、候補数Ncが規定値以上の場合には、処理対象ブロックについての当該処理を終了し、一方、候補数Ncが規定値未満の場合には、ステップ7gに移行する。
ステップ7gにおいて予測ベクトル候補決定部123aは、ステップ7d〜7fの処理を施していない隣接ブロックがまだ残っていれば、ステップ7cに移行して残る隣接ブロックを選択してステップ7dから処理を実施し、一方、残っていない場合には、ステップ7hに移行する。
ステップ7hにおいて予測ベクトル候補決定部123aは、ステップ7bから7gの処理を施していない重み係数がまだ残っていれば、ステップ7aに移行して残る重み係数のインデックスを選択してステップ7bからの処理を実施し、一方、残っていない場合には、処理対象ブロックについての当該処理を終了する。
動きベクトル検出部124は、予測ベクトル候補決定部123aが決定した予測ベクトルの候補について、これら予測ベクトルを処理対象ブロックに割り当てた際の予測誤差を算出し、この算出結果に基づいて、最小の評価値を有する予測ベクトルをそのブロックの動きベクトルとして検出し、これをメモリに保持する。
最小の評価値を算出する処理の一例を図8に示す。この処理は、ブロック毎に実施する。なお、ステップ8aからステップ8fの処理は、予測ベクトルの候補を1つずつ順に選択するループ処理であって、選択した予測ベクトル毎に、ステップ8bから8eの処理を実施する。このため、ステップ8aにおいて動きベクトル検出部124は、予測ベクトルの候補のインデックスを1つずつ順に選択する。
ステップ8bにおいて動きベクトル検出部124は、補間フレーム上の処理対象ブロックにステップ8aで選択したインデックスの予測ベクトルの候補を割り当てる。その後、時間方向を軸とし、上記で選択した予測ベクトルを前後の復号画像フレームに向かって点対称に推移させた先にある輝度値の差を予測誤差として算出する。ここで予測誤差は、動きベクトルにより指し示された輝度値の差分絶対値和でもよいし、二乗誤差和でもよい。その後、ステップ8cに移行する。
ステップ8cにおいて動きベクトル検出部124は、予め設定した評価式を用いて評価値を算出し、ステップ8dに移行する。評価式の一例を以下に示す。
評価値=予測誤差+λ*(動きベクトルコスト)
なお、この式において、動きベクトルコストとは、ステップ8aで選択したインデックスの予測ベクトルと、隣接ブロックが有する動きベクトルとの親和性を表す。つまり予測ベクトルと隣接ブロックの動きベクトルが似通っていれば、その値は小さくなる。またλは、歪みと動きベクトルコストの次元を合わせるための正規化係数である。
ステップ8dにおいて動きベクトル検出部124は、保持しておいた最小評価値が、ステップ8cで求めた評価値以上の場合には、ステップ8eに移行し、一方、ステップ8cで求めた評価値未満の場合には、ステップ8fに移行する。なお、当該処理の初期状態では、十分に大きな値を最小評価値として用いる。
ステップ8eにおいて動きベクトル検出部124は、最小評価値をステップ8cで求めた評価値とする更新を行ってこれを保持し、ステップ8fに移行する。
ステップ8fにおいて動きベクトル検出部124は、すべての予測ベクトルについてステップ8bから8eの処理を実施した場合には、ステップ8eで最後に保持した評価値に対応する予測ベクトルを動きベクトルとしてメモリに保持し当該処理を終了する。一方、すべての予測ベクトルについて上記処理を実施していない場合には、ステップ8aに移行して次の予測ベクトルのインデックスを選択してステップ8bから処理を実施する。
動きベクトル平滑化部125は、矩形ブロック毎に、動きベクトル検出部124で検出した動きベクトル(メモリに保持した動きベクトル)に平滑化処理を実施して、インパルスノイズ的な動きベクトルを除去する。具体的な処理の一例としては、当該処理の対象となる矩形ブロック(以下、平滑化対象ブロックと称する)の動きベクトルと、平滑化対象ブロックに隣接している矩形ブロックの動きベクトルとを候補動きベクトル群W(MV1〜MVN)とし、候補動きベクトル群Wのうち、基点とする動きベクトルMVi(iは1〜Nまで順次変更する)を定め、MViから他の候補動きベクトルMVj(MV1〜MVN)までの距離を算出し、それらの和(|MVi-MV1|+|MVi-MV2|+……+|MVi-MVN|)を算出する。MVi(iは1〜Nまで)を変更し、距離和が最小となる動きベクトルを、平滑化対象ブロックの動きベクトル(以下、平滑化動きベクトルと称する)として出力する。すなわち、下式に基づいて、平滑化動きベクトルを求める。
Figure 2009273048
なお、上記隣接しているブロックとは、時間方向に隣接したブロックや、空間方向に隣接したブロックであって、このうち、一方のブロックの動きベクトルを参照するようにしてもよいし、両方のブロックの動きベクトルを参照してもよい。
αブレンディング部128は、動きベクトル平滑化部125で平滑化された平滑化動きベクトルに基づいて、画像の統計量、歪みおよび動きベクトルの各連続性から平滑化動きベクトルの信頼度を算出する。そして、αブレンディング部128は、上記信頼度に基づいて、補間フレームを構成する補償ブロックを生成する。そして、これらのブロックを対応するもの同士で合成して、補間フレームFt-0.5を生成する。なお、この合成の際に、上記信頼度に基づく合成比で合成する。
表示ドライバ130は、動画像復号部110から与えられる動画像フレームFtと、フレーム補間部120aから与えられる補間フレームFt-0.5とをバッファメモリに記憶し、これらのフレームを交互に表示部20に出力する。動画像フレームFtおよび補間フレームFt-0.5は、それぞれフレームレートが15Hzであるが、これらを表示ドライバ130が交互に出力することで30Hzのフレームレートの動画像データを出力することができる。そして、表示部20は、30Hzのフレームレートの動画像データを表示する。
以上のように、上記構成の画像処理装置では、動画像フレームFtを構成する各ブロックについてエッジ検出を行い、各ブロックのエッジとそれに隣接するブロックのエッジとの相関をエッジ重み係数として求める。そしてこのエッジ重み係数に基づいて各ブロック毎に動きベクトルの候補を複数求め、このうち予測誤差と動きベクトルコストに基づく評価値が小さな候補を動きベクトルとして求め、補間フレームFt-0.5を生成するようにしている。
したがって、上記構成の画像処理装置によれば、画素単位ではなくブロック毎にエッジを検出するので処理負荷が小さく、従来の手法に比べてプロセッサに要求される処理能力が低くて済む。またそのエッジについて隣接ブロックとの相関を考慮して、動きベクトルの候補を求めるようにしているので、ある程度の精度の向上を図ることができ、実用上、十分な精度の補間フレームが生成できる。
(第2の実施形態)
次に、この発明の第2の実施形態に係わる画像処理装置を適用した移動無線端末装置について説明する。この移動無線端末装置は、前述の第1の実施形態の移動無線端末装置と同様に、図1に示すような構成を有している。すなわち、主な構成要素として、制御部100と、無線通信部10と、表示部20と、通話部30と、操作部40と、記憶部50と、放送受信部60とを備え、基地局装置BSおよび移動通信網NWを介して通信する機能と、放送局BCから送信される地上デジタル放送信号を受信する機能とを備える。各構成は、第1の実施形態の移動無線端末装置と同様であることより、詳細な説明は省略し、前述の実施形態と異なる点を中心に説明する。
第2の実施形態の移動無線端末装置では、制御部100が図9に示すような画像処理部100bを備える。この画像処理部100bは、放送受信部60で得られた上記放送データを復号し、この復号結果に画像処理を施して、放送される動画像のフレームに、フレームを補間して表示部20に表示する。画像処理部100bは、例えば図9に示すように、動画像復号部110と、フレーム補間部120bと、表示ドライバ130とを備える。この他に、図示しないが、放送受信部60で受信されたオーディオデータを復号して、放送された音声信号を得るオーディオ復号部も備える。なお、以下の説明では、図2に示した画像処理部100aと異なる部分を中心に説明する。
動画像復号部110は、動画像の符号化データ(Video Elementary Stream)を復号し、これによって複数の動画像フレームで構成される動画像データを得る。なお、この時点で得られる動画像データのフレームレートは、15Hzである。動画像データは、フレーム補間部120bと表示ドライバ130に出力される。
また、動画像復号部110による動画像の復号処理では、受信した符号化ストリームから復号の際に参照する動画像フレームを示す情報、符号化された画像データ、及び符号化された動きベクトルなどを抽出し、これらを用いて画像データを復号する。そして、この復号することで得た画像データと、参照する画像フレームから得た画像データとを合成して動画像フレームを得る。なお、この復号処理は、動画像フレームがインター符号化されている場合の説明であり、動画像フレームがイントラ符号化されている場合は、他のフレームを参照する必要がないので、符号化された画像データを復号することで動画像フレームが得られる。
フレーム補間部120bは、動画像復号部110によって得た動画像フレームFtと、その1フレーム前の動画像フレームFt-1との間に内挿する補間フレームを生成するものである。例えば時間的にFtとFt-1との中間に位置する補間フレームFt-0.5を生成するものである。フレーム補間部120bは、エッジマップ作成部/エッジ重み係数作成部121と、動きベクトル制御部122bと、動きベクトル平滑化部125と、動きベクトル蓄積部127と、αブレンディング部128とを備える。
エッジマップ作成部/エッジ重み係数作成部121のうち、エッジマップ作成部は、図3に示すような処理を実施して、エッジマップを作成する。そして、エッジマップ作成部/エッジ重み係数作成部121のうち、エッジ重み係数作成部は、エッジマップ作成部が作成したエッジマップに含まれる各エッジ情報を、そのブロック(処理対象ブロック)に隣接するブロックのエッジ情報に基づくエッジ重み係数に変換する。
動きベクトル制御部122bは、動画像復号部110で得た動画像フレームFtと、後段の動きベクトル蓄積部127に蓄積しておいた、1つ前に生成した補間フレームFt-1.5の動きベクトルに基づいて、補間フレームFt-0.5を構成する矩形ブロック毎に複数の動きベクトル(予測ベクトル)の候補を決定し、そして、矩形ブロック毎にその複数の候補から動きベクトルを検出する。
すなわち、動きベクトル制御部122bは、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。このような動作を実現するために、動きベクトル制御部122bは、予測ベクトル候補決定部123と動きベクトル検出部124bを備える。
具体的には、まず予測ベクトル候補決定部123が、図10に示す処理を、補間フレームFt-0.5を構成する1つの矩形ブロックについて実施して、複数の予測ベクトルの候補を決定する。そして、動きベクトル検出部124bが、図11に示す処理を実施して、上記複数の予測ベクトルの候補から上記矩形ブロックの予測ベクトル(動きベクトル)を決定し、これをメモリに保持する。このような予測ベクトル候補決定部123と動きベクトル検出部124bによる処理を、矩形ブロック毎にラスタスキャン順に実施して、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。
以下、図10を参照して、予測ベクトル候補決定部123の動作について、より具体的に説明する。予測ベクトル候補決定部123は、動画像フレームFtが与えられると、補間フレームFt-0.5を構成する各矩形ブロックについて、図10に示す処理をラスタスキャン順に実施する。
ステップ10aおよび10eの処理は、予め設定したインデックステーブルを参照し、このテーブルで示される順にしたがい処理対象ブロック隣接ブロックを検査対象として1つずつ順に選択するループ処理であって、選択した隣接ブロック毎に、ステップ10bから10dの処理を実施する。このため、まずステップ10aにおいて予測ベクトル候補決定部123は、インデックステーブルを参照して、隣接ブロックのインデックスを1つ選択する。なお、インデックステーブルとしては、図5に示した処理と同様に、図6に示したものを用いてもよい。
このため、まずステップ10aにおいて予測ベクトル候補決定部123は、隣接ブロックのインデックスを1つずつ順に選択する。そして、ステップ10aでは、上記インデックスの選択の度に、処理対象となるブロックについての候補数のカウンタNcを0に設定し、ステップ10bに移行する。
ステップ10bにおいて予測ベクトル候補決定部123は、ステップ10aで選択した隣接ブロックの動きベクトルが参照可能であるか否かを判定する。参照可能である場合には、ステップ10cに移行し、一方、参照不可能な場合には、ステップ10eに移行する。なお、参照可能とは、隣接ブロックの動きベクトルが、既に動きベクトル検出部124bで求められている場合や、動きベクトル蓄積部127に蓄積されている場合である。
ステップ10cにおいて予測ベクトル候補決定部123は、ステップ10aで選択した隣接ブロックの動きベクトルを、動きベクトル検出部124bあるいは動きベクトル蓄積部127から取得し、これを予測ベクトルの候補とする。また候補数Ncに1を加算し、ステップ10dに移行する。
ここで、予測ベクトル候補決定部123は、補間フレームFt-1.5の動きベクトルに代わり、もしくは補間フレームFt-1.5の動きベクトルとともに、動画フレームFt-1の動きベクトルを用いるようにしてもよい。この場合、動画像復号部110において動画フレームFt-1を構成した際に動画像ストリームから生成した動きベクトルを流用するために、この動きベクトルを動きベクトル蓄積部127に記憶しておく(図9中の破線矢印)。そして、ステップ10cにおいて予測ベクトル候補決定部123は、動きベクトル蓄積部127に記憶しておいた動画フレームFt-1の動きベクトルを参照して、予測ベクトルの候補として設定する。
ステップ10dにおいて予測ベクトル候補決定部123は、処理対象ブロックについての予測ベクトルの候補数Ncが、予め設定した規定値以上であるか否かを判定する。ここで、候補数Ncが規定値以上の場合には、処理対象ブロックについての当該処理を終了し、一方、候補数Ncが規定値未満の場合には、ステップ10eに移行する。
ステップ10eにおいて予測ベクトル候補決定部123は、ステップ10b〜10dの処理を施していない隣接ブロックがまだ残っていれば、ステップ10aに移行して残る隣接ブロックのインデックスを選択してステップ10bから処理を実施し、一方、残っていない場合には、当該処理を終了する。
動きベクトル検出部124bは、予測ベクトル候補決定部123が決定した予測ベクトルの候補について、これら予測ベクトルを処理対象ブロックに割り当てた際の予測誤差を算出し、この算出結果に基づいて、最小の評価値を有する予測ベクトルをそのブロックの動きベクトルとして検出し、これをメモリに保持する。
最小の評価値を算出する処理の一例を図11に示す。この処理は、ブロック毎に実施する。なお、ステップ11aからステップ11fの処理は、予測ベクトルの候補を1つずつ順に選択するループ処理であって、選択した予測ベクトル毎に、ステップ11bから11eの処理を実施する。このため、ステップ11aにおいて動きベクトル検出部124bは、予測ベクトルの候補のインデックスを1つずつ順に選択する。
ステップ11bにおいて動きベクトル検出部124bは、補間フレーム上の処理対象ブロックにステップ11aで選択したインデックスの予測ベクトルの候補を割り当てる。その後、時間方向を軸とし、上記で選択した予測ベクトルを前後の復号画像フレームに向かって点対称に推移させた先にある輝度値の差を予測誤差として算出する。ここで予測誤差は、動きベクトルにより指し示された輝度値の差分絶対値和でもよいし、二乗誤差和でもよい。その後、ステップ11cに移行する。
ステップ11cにおいて動きベクトル検出部124bは、処理対象ブロックのインデックスを通知して、エッジマップ作成部/エッジ重み係数作成部121から、処理対象ブロックのエッジ重み係数を取得し、予め設定した評価式を用いて評価値を算出し、ステップ11dに移行する。評価式の一例を以下に示す。
評価値=予測誤差+λ*(動きベクトルコスト+エッジ重み係数)
なお、この式において、動きベクトルコストとは、ステップ11aで選択したインデックスの予測ベクトルと、隣接ブロックが有する動きベクトルとの親和性を表す。つまり予測ベクトルと隣接ブロックの動きベクトルが似通っていれば、その値は小さくなる。またλは、歪みと動きベクトルコストの次元を合わせるための正規化係数である。
ステップ11dにおいて動きベクトル検出部124bは、保持しておいた最小評価値が、ステップ11cで求めた評価値以上の場合には、ステップ11eに移行し、一方、ステップ11cで求めた評価値未満の場合には、ステップ11fに移行する。なお、当該処理の初期状態では、十分に大きな値を最小評価値として用いる。
ステップ11eにおいて動きベクトル検出部124bは、最小評価値をステップ11cで求めた評価値とする更新を行ってこれを保持し、ステップ11fに移行する。
ステップ11fにおいて動きベクトル検出部124bは、すべての予測ベクトルについてステップ11bから11eの処理を実施した場合には、ステップ11eで最後に保持した評価値に対応する予測ベクトルを動きベクトルとしてメモリに保持し当該処理を終了する。一方、すべての予測ベクトルについて上記処理を実施していない場合には、ステップ8aに移行して次の予測ベクトルを選択してステップ11bから処理を実施する。
動きベクトル平滑化部125は、第1の実施形態で説明したように、矩形ブロック毎に、動きベクトル検出部124bで検出した動きベクトル(メモリに保持した動きベクトル)に平滑化処理を実施して、インパルスノイズ的な動きベクトルを除去する。
αブレンディング部128は、動きベクトル平滑化部125で平滑化された平滑化動きベクトルに基づいて、画像の統計量、歪みおよび動きベクトルの各連続性から平滑化動きベクトルの信頼度を算出する。そして、αブレンディング部128は、上記信頼度に基づいて、補間フレームを構成する補償ブロックを生成する。そして、これらのブロックを対応するもの同士で合成して、補間フレームFt-0.5を生成する。なお、この合成の際に、上記信頼度に基づく合成比で合成する。
表示ドライバ130は、動画像復号部110から与えられる動画像フレームFtと、フレーム補間部120bから与えられる補間フレームFt-0.5とをバッファメモリに記憶し、これらのフレームを交互に表示部20に出力する。動画像フレームFtおよび補間フレームFt-0.5は、それぞれフレームレートが15Hzであるが、これらを表示ドライバ130が交互に出力することで30Hzのフレームレートの動画像データを出力することができる。そして、表示部20は、30Hzのフレームレートの動画像データを表示する。
以上のように、上記構成の画像処理装置では、動画像フレームFtを構成するブロック毎に、隣接するブロックの動きベクトルを予測ベクトルの候補とし、一方、動画像フレームFtを構成する各ブロックについてエッジ検出を行い、各ブロックのエッジとそれに隣接するブロックのエッジとの相関をエッジ重み係数として求める。そして、予測ベクトルの候補のうち、予測誤差、動きベクトルコストおよびエッジ重み係数に基づく評価値が小さな予測値を動きベクトルとして求め、補間フレームFt-0.5を生成するようにしている。
したがって、上記構成の画像処理装置によれば、画素単位ではなくブロック毎にエッジを検出するので処理負荷が小さく、従来の手法に比べてプロセッサに要求される処理能力が低くて済む。またそのエッジについて隣接ブロックとの相関を考慮して、各ブロックの動きベクトルを決定するようにしているので、ある程度の精度の向上を図ることができ、実用上、十分な精度の補間フレームが生成できる。
(第3の実施形態)
次に、この発明の第3の実施形態に係わる画像処理装置を適用した移動無線端末装置について説明する。この移動無線端末装置は、前述の第1の実施形態および第2の実施形態の移動無線端末装置と同様に、図1に示すような構成を有している。すなわち、主な構成要素として、制御部100と、無線通信部10と、表示部20と、通話部30と、操作部40と、記憶部50と、放送受信部60とを備え、基地局装置BSおよび移動通信網NWを介して通信する機能と、放送局BCから送信される地上デジタル放送信号を受信する機能とを備える。各構成は、第1の実施形態および第2の実施形態の移動無線端末装置と同様であることより、詳細な説明は省略し、前述の実施形態と異なる点を中心に説明する。
第3の実施形態の移動無線端末装置では、制御部100が図12に示すような画像処理部100cを備える。この画像処理部100cは、放送受信部60で得られた上記放送データを復号し、この復号結果に画像処理を施して、放送される動画像のフレームに、フレームを補間して表示部20に表示する。画像処理部100cは、例えば図12に示すように、動画像復号部110と、フレーム補間部120cと、表示ドライバ130とを備える。この他に、図示しないが、放送受信部60で受信されたオーディオデータを復号して、放送された音声信号を得るオーディオ復号部も備える。なお、以下の説明では、図2に示した画像処理部100aと異なる部分を中心に説明する。
動画像復号部110は、動画像の符号化データ(Video Elementary Stream)を復号し、これによって複数の動画像フレームで構成される動画像データを得る。なお、この時点で得られる動画像データのフレームレートは、15Hzである。動画像データは、フレーム補間部120cと表示ドライバ130に出力される。
フレーム補間部120cは、動画像復号部110によって得た動画像フレームFtと、その1フレーム前の動画像フレームFt-1との間に内挿する補間フレームを生成するものである。例えば時間的にFtとFt-1との中間に位置する補間フレームFt-0.5を生成するものである。フレーム補間部120cは、エッジマップ作成部/エッジ重み係数作成部121と、動きベクトル制御部122cと、動きベクトル平滑化部125と、動きベクトル補正部126と、動きベクトル蓄積部127と、αブレンディング部128とを備える。
エッジマップ作成部/エッジ重み係数作成部121のうち、エッジマップ作成部は、図3に示すような処理を実施して、エッジマップを作成する。そして、エッジマップ作成部/エッジ重み係数作成部121のうち、エッジ重み係数作成部は、エッジマップ作成部が作成したエッジマップに含まれる各エッジ情報を、そのブロック(処理対象ブロック)に隣接するブロックのエッジ情報に基づくエッジ重み係数に変換する。
動きベクトル制御部122cは、動画像復号部110によって得た動画像フレームFtと、後段の動きベクトル蓄積部127に蓄積しておいた、1つ前に生成した補間フレームFt-1.5の動きベクトルに基づいて、補間フレームFt-0.5構成する矩形ブロック毎に予測ベクトルの候補を決定し、そして、矩形ブロック毎にその複数の候補から動きベクトルを検出する。すなわち、動きベクトル制御部122cは、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。このような動作を実現するために、動きベクトル制御部122cは、予測ベクトル候補決定部123と動きベクトル検出部124を備える。
予測ベクトル候補決定部123は、第2の実施形態で説明したように、図10に示す処理を、補間フレームFt-0.5を構成する1つの矩形ブロックについて実施して、複数の予測ベクトルの候補を決定する。そして、動きベクトル検出部124が、第1の実施形態で説明したように、図8に示す処理を実施して、上記複数の予測ベクトルの候補から上記矩形ブロックの予測ベクトル(動きベクトル)を決定し、これをメモリに保持する。このような予測ベクトル候補決定部123と動きベクトル検出部124による処理を、矩形ブロック毎にラスタスキャン順に実施して、補間フレームFt-0.5を構成する各矩形ブロックの動きベクトルを求める。
動きベクトル平滑化部125は、第1の実施形態で説明したように、矩形ブロック毎に、動きベクトル検出部124で検出した動きベクトルに平滑化処理を実施して、インパルスノイズ的な動きベクトルを除去する。
動きベクトル補正部126は、例えばガウス窓を用いて、動きベクトル平滑化部125にて平滑化された動きベクトルを補正する処理を実施する。具体的には、図13に示す動きベクトル補正処理を実施する。これらの図に示す処理は、動きベクトル補正部126によって、補間フレームFt-0.5を構成する矩形ブロック毎に実施される。
ステップ13aからステップ13dの処理は、補間フレームFt-0.5を構成する矩形ブロックをラスタスキャン順に1つずつ選択するループ処理であって、選択したブロック毎に、ステップ13bおよび13cの処理を実施する。
ステップ13aにおいて動きベクトル補正部126は、補間フレームFt-0.5を構成する矩形ブロックのうち、処理対象となるブロックのインデックスを検出し、ステップ13bに移行する。
ステップ13bにおいて動きベクトル補正部126は、ステップ13aで選択したブロックのインデックスをエッジマップ作成部/エッジ重み係数作成部121に通知する。これに対して、エッジマップ作成部/エッジ重み係数作成部121は、動画像フレームFtを構成する矩形ブロックについてそれぞれ求めておいたエッジ重み係数のうち、動きベクトル補正部126から通知されたインデックスに対応するブロックのエッジ重み係数を動きベクトル補正部126に出力する。動きベクトル補正部126は、処理対象ブロックのエッジ重み係数を取得すると、ステップ13cに移行する。
ステップ13cにおいて動きベクトル補正部126は、ステップ13bで取得したエッジ重み係数を、MV補正テーブルに基づいて、同一エッジ方向の動きベクトルが優位に働くように補正する。例えば、下式を用いる。
補正した動きベクトル=(Σ[MV*MV補正テーブル*(n+1-エッジ重み係数)])/正規化係数
ここでMV補正テーブルは、例えば図14に示すように、補正の対象となる矩形ブロックから離れたブロックほど重みが小さくなるように設定する。あるいは、類似性の高い方向のエッジを持つ隣接ブロックの位置の重みを高く設定し、異なる方向のエッジを持つ隣接ブロックの位置の重みを低く設定するようにしてもよい。なお、図14の例では、3×3のガウス窓に基づいて、隣接ブロックを参照するものとしたが、これ以上のサイズであってもよく、あるいは上下左右の隣接ブロックだけを適用してもよい。
ステップ13dにおいて動きベクトル補正部126は、補間フレームFt-0.5を構成するすべての矩形ブロックについて、ステップ13bおよびステップ13cの処理を実施した場合には、当該処理を終了する。一方、すべての矩形ブロックについて処理を実施していない場合には、ステップ13aに移行して、次の矩形ブロックを選択する。
αブレンディング部128は、動きベクトル補正部126で補正された動きベクトルに基づいて、画像の統計量、歪みおよび動きベクトルの各連続性から動きベクトルの信頼度を算出する。そして、αブレンディング部128は、上記信頼度に基づいて、補間フレームを構成する補償ブロックを生成する。そして、これらのブロックを対応するもの同士で合成して、補間フレームFt-0.5を生成する。なお、この合成の際に、上記信頼度に基づく合成比で合成する。
表示ドライバ130は、動画像復号部110から与えられる動画像フレームFtと、フレーム補間部120cから与えられる補間フレームFt-0.5とをバッファメモリに記憶し、これらのフレームを交互に表示部20に出力する。動画像フレームFtおよび補間フレームFt-0.5は、それぞれフレームレートが15Hzであるが、これらを表示ドライバ130が交互に出力することで30Hzのフレームレートの動画像データを出力することができる。そして、表示部20は、30Hzのフレームレートの動画像データを表示する。
以上のように、上記構成の画像処理装置では、動画像フレームFtを構成するブロック毎に、隣接するブロックの動きベクトルを予測ベクトルの候補とし、このうち、予測誤差および動きベクトルコストに基づく評価値が小さな予測値を動きベクトルとして求める。一方、動画像フレームFtを構成する各ブロックについてエッジ検出を行い、各ブロックのエッジとそれに隣接するブロックのエッジとの相関をエッジ重み係数として求める。そして上記動きベクトルを、エッジ重み係数に基づいて補正して、補間フレームFt-0.5を生成するようにしている。
したがって、上記構成の画像処理装置によれば、画素単位ではなくブロック毎にエッジを検出するので処理負荷が小さく、従来の手法に比べてプロセッサに要求される処理能力が低くて済む。また各ブロックの動きベクトルを、そのブロックのエッジと隣接ブロックのエッジとの相関に基づくエッジ重み係数で補正するようにしているので、ある程度の精度の向上を図ることができ、実用上、十分な精度の補間フレームが生成できる。
なお、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
この発明に係わる画像処理装置を適用した移動無線端末装置の構成を示す回路ブロック図。 図1に示した移動無線端末装置に適用した画像処理装置の第1の実施形態の構成を示す回路ブロック図。 図2に示した画像処理装置のエッジマップ作成部/エッジ重み係数作成部の動作を説明するためのフローチャート。 図3に示した処理においてイントラ予測のモード情報をエッジ情報として用いる動作を説明するための図。 図2に示した画像処理装置の予測ベクトル候補決定部の動作を説明するためのフローチャート。 図5に示した処理で用いるインデックステーブルの一例を示す図。 図2に示した画像処理装置の予測ベクトル候補決定部の動作を説明するためのフローチャート。 図2に示した画像処理装置の動きベクトル検出部の動作を説明するためのフローチャート。 図1に示した移動無線端末装置に適用した画像処理装置の第2の実施形態の構成を示す回路ブロック図。 図9に示した画像処理装置の予測ベクトル候補決定部の動作を説明するためのフローチャート。 図9に示した画像処理装置の動きベクトル検出部の動作を説明するためのフローチャート。 図1に示した移動無線端末装置に適用した画像処理装置の第3の実施形態の構成を示す回路ブロック図。 図12に示した画像処理装置の動きベクトル補正部の動作を説明するためのフローチャート。 図12に示した画像処理装置の動きベクトル補正部で用いるMV補正テーブルの一例を示す図。
符号の説明
10…無線通信部、20…表示部、30…通話部、31…スピーカ、32…マイクロホン、40…操作部、50…記憶部、60…放送受信部、100…制御部、100a,100b,100c…画像処理部、110…動画像復号部、120a,120b,120c…フレーム補間部、121…係数作成部、122a,122b,122c…ベクトル制御部、123,123a…予測ベクトル候補決定部、124,124b…ベクトル検出部、125…ベクトル平滑化部、126…ベクトル補正部、127…ベクトル蓄積部、128…ブレンディング部、130…表示ドライバ、121…エッジマップ作成部/エッジ重み係数作成部、BC…放送局、BS…基地局装置、NW…移動通信網。

Claims (6)

  1. 時間的に連続する動画像フレームの間を補間する補間フレームを生成する画像処理装置において、
    補間フレームを構成するブロック毎に動きベクトルを記憶する動きベクトル蓄積手段と、
    動画像フレームを構成するブロック毎にエッジを検出するエッジ検出手段と、
    このエッジ検出手段が検出したエッジに基づいて、ブロック毎に、隣接するブロックのエッジとの相関を求める相関検出手段と、
    補間フレームを構成するブロック毎に、前記相関検出手段が検出した相関に基づいて、前記動きベクトル蓄積手段が記憶する動きベクトルから、動きベクトルの候補を決定する候補決定手段と、
    この候補決定手段が決定した候補から、補間フレームを構成する各ブロックの動きベクトルを検出する動きベクトル検出手段と、
    この動きベクトル検出手段が検出した動きベクトルを前記動きベクトル蓄積手段に記録する制御手段とを具備することを特徴とする画像処理装置。
  2. 前記エッジ検出手段は、動画像フレームを構成するブロックのうち、イントラ予測モードのブロックのモード情報からエッジを検出することを特徴とする請求項1に記載の画像処理装置。
  3. さらに、動画像フレームを復号する際に用いた第2の動きベクトルを記憶する第2の動きベクトル蓄積手段を備え、
    前記候補決定手段は、補間フレームを構成するブロック毎に、前記相関検出手段が検出した相関に基づいて、前記動きベクトル蓄積手段が記憶する動きベクトルと前記第2の動きベクトル蓄積手段が記憶する第2の動きベクトルとから、動きベクトルの候補を決定することを特徴とする請求項1に記載の画像処理装置。
  4. 時間的に連続する動画像フレームの間を補間する補間フレームを生成する画像処理装置において、
    動画像フレームを構成するブロック毎にエッジを検出するエッジ検出手段と、
    このエッジ検出手段が検出したエッジに基づいて、ブロック毎に、隣接するブロックのエッジとの相関を求める相関検出手段と、
    補間フレームを構成するブロック毎に動きベクトルを記憶する動きベクトル蓄積手段と、
    この動きベクトル蓄積手段が記憶する隣接ブロックの動きベクトルから、動きベクトルの候補を決定する候補決定手段と、
    前記相関検出手段が検出した相関に基づいて、前記候補決定手段が決定した候補から、補間フレームを構成する各ブロックの動きベクトルを検出する動きベクトル検出手段と、
    この動きベクトル検出手段が検出した動きベクトルを前記補間フレーム記憶手段に記録する制御手段とを具備することを特徴とする画像処理装置。
  5. 時間的に連続する動画像フレームの間を補間する補間フレームを生成する画像処理装置において、
    動画像フレームを構成するブロック毎にエッジを検出するエッジ検出手段と、
    このエッジ検出手段が検出したエッジに基づいて、ブロック毎に、隣接するブロックのエッジとの相関を求める相関検出手段と、
    補間フレームを構成するブロック毎に動きベクトルを記憶する動きベクトル蓄積手段と、
    この動きベクトル蓄積手段が記憶する隣接ブロックの動きベクトルから、動きベクトルの候補を決定する候補決定手段と、
    この候補決定手段が決定した候補から、補間フレームを構成する各ブロックの動きベクトルを検出する動きベクトル検出手段と、
    このベクトル検出手段が検出した動きベクトルを、前記相関検出手段が求めた相関で補正する補正手段と、
    この補正手段が補正した動きベクトルを前記動きベクトル蓄積手段に記録する制御手段とを具備することを特徴とする画像処理装置。
  6. さらに、動画像フレームを復号する際に用いた第2の動きベクトルを記憶する第2の動きベクトル蓄積手段を備え、
    前記候補決定手段は、補間フレームを構成するブロック毎に、前記動きベクトル蓄積手段が記憶する動きベクトルと前記第2の動きベクトル蓄積手段が記憶する第2の動きベクトルとから、動きベクトルの候補を決定することを特徴とする請求項4または請求項5に記載の画像処理装置。
JP2008123905A 2008-05-09 2008-05-09 画像処理装置 Expired - Fee Related JP5100495B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008123905A JP5100495B2 (ja) 2008-05-09 2008-05-09 画像処理装置
US12/199,422 US8077924B2 (en) 2008-05-09 2008-08-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008123905A JP5100495B2 (ja) 2008-05-09 2008-05-09 画像処理装置

Publications (2)

Publication Number Publication Date
JP2009273048A true JP2009273048A (ja) 2009-11-19
JP5100495B2 JP5100495B2 (ja) 2012-12-19

Family

ID=41266945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008123905A Expired - Fee Related JP5100495B2 (ja) 2008-05-09 2008-05-09 画像処理装置

Country Status (2)

Country Link
US (1) US8077924B2 (ja)
JP (1) JP5100495B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8471959B1 (en) * 2009-09-17 2013-06-25 Pixelworks, Inc. Multi-channel video frame interpolation
GB0918453D0 (en) * 2009-10-21 2009-12-09 Selexsensors And Airborne Syst Imaging device
EP2375750A1 (en) * 2010-04-12 2011-10-12 Panasonic Corporation Complexity reduction of edge detection for edge based spatial prediction
JP5574830B2 (ja) * 2010-06-03 2014-08-20 三菱電機株式会社 画像処理装置及び方法、並びに画像表示装置及び方法
JPWO2012066866A1 (ja) * 2010-11-17 2014-05-12 三菱電機株式会社 動きベクトル検出装置、動きベクトル検出方法、フレーム補間装置及びフレーム補間方法
GB2521491B (en) * 2014-06-17 2016-10-19 Imagination Tech Ltd Motion estimation
AU2019303651B2 (en) * 2018-07-18 2023-04-20 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
US11997311B2 (en) * 2018-09-17 2024-05-28 Hfi Innovation Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
WO2020059611A1 (ja) * 2018-09-20 2020-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646407A (ja) * 1992-01-30 1994-02-18 Matsushita Electric Ind Co Ltd 走査線補間装置
JP3164121B2 (ja) * 1992-02-21 2001-05-08 キヤノン株式会社 動きベクトル検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581309A (en) * 1992-02-03 1996-12-03 Sanyo Electric Co., Ltd. Motion vector detecting circuit
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
JP3910510B2 (ja) 2002-09-17 2007-04-25 株式会社東芝 フレーム補間システム及びフレーム補間方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646407A (ja) * 1992-01-30 1994-02-18 Matsushita Electric Ind Co Ltd 走査線補間装置
JP3164121B2 (ja) * 1992-02-21 2001-05-08 キヤノン株式会社 動きベクトル検出装置

Also Published As

Publication number Publication date
JP5100495B2 (ja) 2012-12-19
US8077924B2 (en) 2011-12-13
US20090279799A1 (en) 2009-11-12

Similar Documents

Publication Publication Date Title
JP5100495B2 (ja) 画像処理装置
US7564902B2 (en) Device, method and program for generating interpolation frame
JP5245783B2 (ja) フレーム補間装置、方法、及びプログラム、フレームレート変換装置、映像再生装置、映像表示装置
US20110294544A1 (en) Camera parameter-assisted video frame rate up conversion
US7773677B2 (en) Image block error concealing apparatus and method using weight filtering in mobile communication system
JP2005503085A (ja) 動き推定および/または補償
US20100142619A1 (en) Apparatus and method for processing image
JP2011505756A (ja) 時間的画像検出
JP5365687B2 (ja) 情報処理装置およびプログラム
KR100719841B1 (ko) 썸네일 생성 및 표시 방법
KR20040049214A (ko) 고속 모션벡터 추정장치 및 방법
JP5116602B2 (ja) 映像信号処理装置及び方法、プログラム
US9621841B1 (en) Frame rate conversion based on object tracking
US8244055B2 (en) Image processing apparatus and method, and program
US20070263123A1 (en) Method for video mode detection
JP5448983B2 (ja) 解像度変換装置及び方法、走査線補間装置及び方法、並びに映像表示装置及び方法
JP2009044456A (ja) 画像符号化装置および画像符号化方法
JP5225172B2 (ja) 画像処理装置
US20090046208A1 (en) Image processing method and apparatus for generating intermediate frame image
JP3513277B2 (ja) 映像符号化装置及び映像復号化装置
JP2009206940A (ja) 補間フレーム生成回路及びフレーム補間装置
US20100309980A1 (en) Apparatus and method for processing image
JP2013187595A (ja) 画像処理装置、画像処理方法及びプログラム
JP2004187023A (ja) 動画像符号化装置及び動画像復号化装置
JP2008199097A (ja) 映像処理装置、映像処理方法、プログラム、記録媒体、携帯端末、及び、受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120925

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees