JP4613990B2 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP4613990B2
JP4613990B2 JP2008197947A JP2008197947A JP4613990B2 JP 4613990 B2 JP4613990 B2 JP 4613990B2 JP 2008197947 A JP2008197947 A JP 2008197947A JP 2008197947 A JP2008197947 A JP 2008197947A JP 4613990 B2 JP4613990 B2 JP 4613990B2
Authority
JP
Japan
Prior art keywords
motion
motion vector
motion blur
unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008197947A
Other languages
English (en)
Other versions
JP2010041064A (ja
Inventor
厚史 伊藤
寿夫 山崎
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008197947A priority Critical patent/JP4613990B2/ja
Priority to AT09251836T priority patent/ATE535099T1/de
Priority to EP20090251836 priority patent/EP2160015B1/en
Priority to US12/510,578 priority patent/US8488009B2/en
Priority to CN2009101609406A priority patent/CN101640801B/zh
Publication of JP2010041064A publication Critical patent/JP2010041064A/ja
Application granted granted Critical
Publication of JP4613990B2 publication Critical patent/JP4613990B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は画像処理装置、画像処理方法、プログラムに関する。
特開2001−352546号公報
動画像のデータ量は非常に膨大であるため、従来、動画像を保存/送信等する際には、動画像のデータ量を圧縮することが一般的となっている。
動画像のデータ量の圧縮方法としては、MPEG(Moving Picture Experts Group)などのインターフレーム符号化とイントラフレーム符号化を組み合わせた動画像符号化が代表的である。
ところで、MPEG方式による動画像符号化の符号化効率を向上するために、動画像に対して前処理を行う手法が数多く提案されている。
例えば上記特許文献1では前処理としてローパスフィルタを画像に適用することで、符号化後のブロック歪みの発生を抑制している。
但し、特許文献1に記載された方式は、符号化した際に発生するブロック歪みの抑制を意図したものであり、ローパスフィルタの適用によるディテールの欠損は免れない。
本発明では、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する、画像処理による動きぼけ付加、を実行する。これにより、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うこと、を可能とする画像処理装置、および画像処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明に係る画像処理装置は、符号化処理に供する動画像データから、上記動画像データを構成する単位画像間での画像の動きを示す動きベクトルを生成する動きベクトル生成部を備え、また、上記符号化処理の前処理として、上記動画像データに対してフィルタ処理を施すことにより、動きぼけの付加処理を実行する動きぼけ付加部を備え、さらに、被写体速度と、出力画像の画像劣化が低減される撮像シャッタ速度とを対応付ける対応付け情報を参照することによって、上記動きベクトル生成部により生成された動きベクトルに基づき取得した被写体速度に対応する最適シャッタ速度を上記動画像データ内の領域毎に取得し、当該取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、ジャーキネスの発生領域を特定すると共に、当該特定したジャーキネスの発生領域に対して上記動きぼけ付加部による動きぼけ付加処理が実行されるように制御を行う制御部を備える。
また、上記制御部は、上記取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、上記動きぼけの量を調整する制御も行う
またこれらの構成に加えて、上記動きぼけ付加で動きぼけの付加処理が施された動画像データを符号化する符号化を備えるようにする。
また、上記符号化部は、上記動きベクトル生成部により生成された動きベクトルを用いて上記符号化を行う。
また上記動きぼけ付加における動きぼけの付加処理を実行する際に用いた動きぼけ付加パラメータと、上記動画像データとが、外部に出力される。
上記動きぼけ付加パラメータは、動画像データの単位画像の領域毎について動きぼけを付加したか否を示すフラグ情報、又は動きぼけの付加処理に用いた動きベクトル情報、又は上記動きベクトルの補正情報である。
本発明に係る画像処理方法は、画像データを構成する単位画像間での画像の動きを示す動きベクトルを生成する動きベクトル生成ステップを有する。
また、被写体速度と、出力画像の画像劣化が低減される撮像シャッタ速度とを対応付ける対応付け情報を参照することによって、上記動きベクトル生成ステップにより生成した動きベクトルに基づき取得した被写体速度に対応する最適シャッタ速度を上記動画像データ内の領域毎に取得し、当該取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、ジャーキネスの発生領域を特定すると共に、当該特定したジャーキネスの発生領域に対して、フィルタ処理による動きぼけ付加処理を施す動きぼけ付加ステップを有する。
さらに、上記動きぼけ付加ステップで動きぼけの付加処理が施された動画像データを符号化する符号化ステップとを有する。
発明に係るプログラムは、上記の画像処理方法の各ステップを情報処理装置に実行させるプログラムである。
即ちこれらの本発明では、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する「画像処理による動きぼけ付加」を実行する。これにより、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
本発明では、動きぼけを模擬したローパスフィルタを適用することにより、空間的に一様なローパスフィルタを実行した場合と比較して、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
また、動き情報を参照し、領域ごとに適用的なフィルタリングを行う方法であるため、特に高速に被写体が移動する領域においては、広範囲に渡る高強度なローパスフィルタを採用しても、画質を維持しつつ、空間的に一様なローパスフィルタを実行した場合と比較して、符号化効率の向上が期待できる。
また本発明の 符号化に対する復号化側では、動きぼけの削減処理を行うことが想定されるが、上記本発明によれば、符号化前の処理における動きぼけ付加処理のパラメータを伝送しなかった(あるいはできない)場合でも、動きベクトルのみを用いて、動きぼけの削減処理が可能である。
すなわち、符号化・復号化に用いるために伝送された動きベクトル、もしくは、復号化後に求めた動き情報のみによって、実行が可能である。これは、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行する、とした場合、ローパスフィルタ時における、何かしらのフィルタ情報を伝送しなければ、処理できないはずであることに対する利点となる。
また、一般に高速シャッタで撮像された動画像やアニメーションなどを、プロジェクタやディスプレイなどの表示デバイスを用いて表示すると、画像中に含まれる移動物体の動きが不連続に表示され、画像を観察する観察者が多重像を知覚してしまう。これはモーションジャーキネス(Motion Jerkiness)と呼ばれる(参考文献:ANSI T1.801.02-1996)画像劣化であり、これが頻繁に発生する。
明では、動きぼけを付加して符号化の圧縮効率を向上させる。これによって符号化効率の向上を行いつつ上記ジャーキネス劣化の低減を可能とする。
また本発明では、動きベクトルの情報と上記の対応付け情報とに基づき、実際にジャーキネスが発生している領域を特定し、当該特定したジャーキネスの発生領域に対して動きぼけ付加を行うものとしている。このように実際にジャーキネスが発生している領域に対してのみ動きぼけの付加を行うようにすることで、視覚特性上、より自然な動画像となることに寄与する。
本発明により、符号化効率を向上させることができるまた、動画像データに発生するジャーキネス劣化を抑制した自然な画質提示を実現することも可能となる。
さらに、実際にジャーキネスが発生している領域に対してのみ動きぼけの付加を行うようにすることで、視覚特性上、より自然な動画像となることに寄与する。

以下、本発明の実施の形態を次の順序で説明する。なお、第1の画像処理装置とは、符号化の前段で動きぼけ付加処理を行う画像処理装置であり、第2の画像処理装置とは、第1の画像処理装置から伝送されてきた動画像データに対して、復号化及び動きぼけ削減処理を行う画像処理装置である。
[1.第1の画像処理装置]
[1−1:画像処理装置の構成例]
[1−2:動きベクトル生成処理部]
[1−3:動きぼけ付加処理部]
[2.第2の画像処理装置]
[2−1:画像処理装置の構成例]
[2−2:動きぼけ削減処理部]
[3.第1,第2の画像処理装置間の情報伝送]
[4.プログラム]
[1.第1の画像処理装置]
[1−1:画像処理装置の構成例]

図1,図3,図4により、第1の画像処理装置、即ち符号化の前段で動きぼけ付加処理を行う画像処理装置についての構成例を説明する。
なお各図における処理ブロックは、論理的な構成要素として示しており、各処理ブロックは同一筐体内にある場合も考えられるし、別の筐体内にある場合も考えられる。そして、各図において、破線で囲った画像処理装置1、又は同じく破線で囲った画像処理装置100が、本発明の第1の画像処理装置の実施の形態の構成と考えることができる。
図1は、画像処理装置1として動きぼけ付加処理部11を備える構成を示している。或いは画像処理装置100として動きぼけ付加処理部11と符号化処理部2を備える構成を示している。
動きぼけ付加処理部11は、入力された動画像データIDに動きぼけを付加し、後段の符号化処理部2へと出力する。
動きぼけ付加処理部11は、動画像データIDと、当該動画像データIDの各フレームの各領域(領域とは、画素単位又は複数画素による画素ブロック単位)の動き情報MIが入力される。そして動き情報MIを用いて、動画像データID(の各フレーム、各分割領域)に対し適応的にフィルタ処理を行い、動きぼけの付加を実行する。
動きぼけ付加処理された動きぼけ画像データBDは、符号化処理部2へと入力し、符号化処理される。
符号化処理部2では、例えばMPEG(Moving Picture Experts Group)規格などに準じた符号化などの圧縮処理が実行される。
動きぼけ画像データBDを圧縮処理した符号化データEDは、上記動画像データIDを直接、符号化処理部2へと入力し符号化したデータに比較して圧縮効率が向上しているものとなる。
図2により、動画像データに対して動きぼけを付加することにより、圧縮効率が向上する理由について説明する。
ここでは特に、ローパスフィルタを施すことにより圧縮効率が向上することについて説明するが、撮像時の露光期間によって発生する動きぼけを、模擬的に付加することは、ローパスフィルタを実行することの一種であるといえる。
一般に、画像データが圧縮できるのは、近傍画素間相関が高いという性質を持つからであり、より圧縮率を高くするには近傍画素相関をより高くすればよい。
ここで画像を1次元信号とみなし、共分散を導入する。
Figure 0004613990
ここで、共分散はCfg、画像信号はf(x),g(x)、μf,μgはμf=Ex[f(x)],μg=Ex[g(x)]によって与えられる画素値の空間平均値である。
この(数1)は、f(x),g(x)が近くなれば、f(x)またはg(x)の分散値に近くなり、離れれば0に近づくという性質を持ち、この共分散Cfgにより2つの波形の近さの定量化を行う。
画像を圧縮する場合は、画像信号はf(x)のみであり、近傍画素の近さを定量化する必要がある。
そこで画像信号f(x)を変位u(整数)だけずらした信号をg(x)=f(x+u)とおき(数1)を適用する。
このとき、Ex[f(x)]とEx[g(x)]=Ex[f(x+u)]は等しくなりμとおくと、(数2)となる。
Figure 0004613990
このCff(u)を自己共分関数と呼ぶ。
(数2)を元に、実際の画像信号f(x)における自己共分散をプロットしてみる。
なおCff(u)に対して注目すべきは、値の大小ではなく、原点u=0から離れるに従って、どの程度速く減衰するか、という点である。
まず、図2(a)にまったく変化の無い信号を加えた場合を示す。この場合(数2)の定義からCff(u)は0になることは容易にわかる。
続いて、激しく変化のある画像信号f(x)における自己共分散を図2(b)に示す。
信号に激しく変化のある場合、変位uでずらすと正負が打ち消しあうために自己共分散はu=0からすぐに0に収束する。
続いて、なだらかに変化する画像信号f(x)における自己共分散を図2(c)に示す。
信号はなだらかであるから、変位uでずらしても画素間に相関があるため自己共分散はu=0からならだかに減衰していく。
つまり自己共分散は画素間の相関が低ければu=0から0への収束が早まる離散デルタ関数に近くなる。
ローパスフィルタをかけた場合、画素間はなだらかになることは明らかであり、なだらかになるということはより画素間の相関が高まるということである。
画素間の相関が高まるということは図2(b)(c)で例示したように,図2(b)の画素間の相関が少ない自己共分散から、図2(c)で示した画素間の相関が多くなる画素信号に変換されるということであり、より圧縮率が高まると言える。
以上は、動画像データにローパスフィルタ処理を行うと、圧縮効率が向上することの説明であるが、動きぼけ付加処理についてもこれと同様のことが言える。
続いて図3は、画像処理装置1として動きぼけ付加処理部11と動きベクトル生成処理部12を備える構成を示している。或いは画像処理装置100として動きぼけ付加処理部11、動きベクトル生成処理部12、符号化処理部2を備える構成を示している。
この図3は、図1における動き情報MIの例として、動きベクトルVDを用いる構成例となる。
動きベクトル生成処理部12は、入力された動画像データIDの各フレームの各領域(領域とは、画素単位又は複数画素による画素ブロック単位)の動きベクトルVDを生成する。
動きぼけ付加処理部11は、入力された動画像データIDについて、動きベクトルVDを用いて、動画像データID(の各フレーム、各分割領域)に対し適応的にフィルタ処理を行い、動きぼけの付加を実行する。
動きぼけ付加処理された動きぼけ画像データBDは、符号化処理部2へと入力し、例えばMPEG圧縮等の符号化処理される。
この場合も、動きぼけ画像データBDを圧縮処理した符号化データEDは、上記動画像データIDを直接、符号化処理部2へと入力し符号化したデータに比較して圧縮効率が向上しているものとなる。
次に図4は、符号化処理部2内で用いる動きベクトルを動きぼけ付加処理に利用する構成例である。
図4には、符号化処理部2内の構成として基本的なMPEG符号化の処理ブロックを示している。
動きぼけ付加処理部11に入力される動画像データIDは、符号化処理部2内の動きベクトル生成処理部210にも入力される。
動きベクトル生成処理部210は、隣接する2つのピクチャー間の動きを検出し、動きベクトルを生成して動き補償部209及びエントロピー符号化部204に出力する。
減算部201は、動きぼけ付加処理部11から入力される動画像データから、動き補償部209が動き補償した画像データを減算し、DCT処理部202に対して出力する。
DCT部202は、減算部201から入力された動画像データに対してDCT処理を行い、DCT係数を生成して量子化部203に対して出力する。
量子化部203は、DCT部202から入力されたDCT係数を量子化して量子化データを生成し、エントロピー符号化部204および逆量子化部205に対して出力する。
逆量子化部205は、量子化部203から入力された量子化データを逆量子化してDCT係数を生成し、逆DCT部206に対して出力する。
逆DCT部206は、逆量子化部205から入力されたDCT係数を逆DCT処理して画像データを生成し、加算部207に対して出力する。
加算部207は、動き補償部209が動き補償した画像データと、逆DCT部206から入力された画像データを加算して、フレームメモリ208に出力する。フレームメモリ208に一時的に格納された画像データは、動き補償部209に出力され、また動きベクトル生成処理部210に対し、動きベクトル生成に用いる過去フレームの画像データとして供給される。
動き補償部209は、動きベクトル生成処理部210から入力された動きベクトルに基づいて、加算部207からフレームメモリ208を介して入力された画像データを動き補償処理し、加算部207および減算部201に対して出力する。
エントロピー符号化部204は、量子化部203から入力された量子化データを可変長符号化処理し、圧縮画像データ(符号化データED)を生成し、出力する。
この図4の構成では、動きベクトル生成処理部210で生成される動きベクトル、つまりMPEG圧縮処理に用いる動きベクトルを動きぼけ付加処理部11に供給する。そして動きぼけ付加処理部11では、この供給された動きベクトルを用いて動きぼけ付加処理を行う。
この例のように、MPEG方式のような画像の動き情報に基づいた予測符号化において、その符号化処理過程で生成される動きベクトルを利用することも考えられる。
なお、図示は省略するが、例えば図3のように動きぼけ付加処理のために動きぼけ付加処理部11によって生成される動きベクトルVDを、符号化処理部2に供給して、符号化処理部2で動きベクトルVDを用いた予測符号化処理が行われるようにしてもよい。
これらの第1の画像処理装置1(又は100)では、動画像中の動き情報を用いて適応的に、撮像時の露光期間に起因する動きぼけを模擬したローパスフィルタを画像に適用する、画像処理による動きぼけ付加を実行することになる。これにより、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
そして動きぼけを模擬したローパスフィルタを適用することにより、空間的に一様なローパスフィルタを実行した場合と比較して、動画像の観察者にとって自然な画質を提示しつつ、符号化効率の向上を行うことを可能とする。
また、動き情報を参照し、領域ごとに適用的なフィルタリングを行うものであるため、特に高速に被写体が移動する領域においては、広範囲に渡る高強度なローパスフィルタを採用しても、画質を維持しつつ、空間的に一様なローパスフィルタを実行した場合と比較して、符号化効率の向上が期待できる。
そしてその上で第1の画像処理装置1(又は100)では、ジャーキネス劣化の低減を可能とするものである。
[1−2:動きベクトル生成処理部]

以上のように第1の画像処理装置1(又は100)の構成例は各種考えられる。以下では、図3に示した構成例を基本とし、動きベクトル生成処理部12及び動きぼけ付加処理部11について、詳細な構成例を説明する。
ここではまず、動きベクトル生成処理部12の構成と動作について図5,図6を用いて説明する。
動きベクトル生成処理部12は、画素又は画素ブロック単位としての領域毎で動きベクトルを精度良く生成する部位である。具体的には図5に示すように、動きベクトル検出部121、画素ブロック特定処理部122、動きベクトル推定処理部123、動きベクトル平滑化処理部124、及び遅延部121a,122aを有する。
動きベクトル検出部121は、処理対象フレームと直前フレームとから動きベクトルを検出する。
画素ブロック特定処理部122は、処理対象フレームの動きベクトルと直前フレームの動きベクトルとを画素ブロック毎に比較して、相関の高い画素ブロックを特定する。
動きベクトル推定処理部123は、画素ブロック特定処理部122により特定された画素ブロックの動きベクトルから、それ以外の画素ブロックの動きベクトルを推定する。
動きベクトル平滑化処理部124は、動きベクトルに対して平滑化処理を施す。
図3のように入力される動画像データIDは、動きベクトル検出部121と、動画像データIDを1フレーム分遅延させる遅延部121aに供給される。
動きベクトル検出部121は、供給された動画像データIDを処理対象フレームとする。そして当該処理対象フレームと、遅延部121aにより1フレーム分遅延された直前フレームとから、処理対象フレームの動きベクトルを、例えば画素ブロック単位で検出する。
なお、動きベクトル検出部121に係る処理をソフトウェアによって実装する場合には、一般的なブロックマッチング法を用いて画素ブロック単位で動きベクトルを検出すればよい。
動きベクトル検出部121で検出された動きベクトルは、画素ブロック特定処理部122と遅延部122aに供給される。遅延部122aは入力された動きベクトルを1フレーム分遅延させる。
画素ブロック特定処理部122は、動きベクトル検出部121から供給される処理対象フレームの動きベクトルと、遅延部122aにより遅延された直前フレームの動きベクトルとを、次に示すように画素ブロック単位で比較して、この比較結果から相関の高い画素ブロックを特定する。
具体的に、画素ブロック特定処理部122は、処理対象フレームの一の画素ブロックの動きベクトルを(x,y)とし、これに対応する直前フレームの画素ブロックの動きベクトルを(x’,y’)とし、任意に決定される相関判定係数をαとして、次の(数3)により、この画素ブロックのベクトル相関係数σを算出する。
Figure 0004613990
なお、相関判定係数αは、その定義域を0<α<1とし、αの値が大きいほど、ベクトル相関係数σの値が1として算出される係数である。
そして画素ブロック特定処理部122は、上述した(数3)から各画素ブロックのベクトル相関係数σを算出して、ベクトル相関係数σが1である画素ブロックを相関の高い動きベクトルを有するものとして特定する。
動きベクトル推定処理部123は、画素ブロック特定処理部122でベクトル相関係数σの値が1として特定された画素ブロックの動きベクトルから、このベクトル相関係数σの値が0である画素ブロックの動きベクトルを推定する。
即ち動きベクトル推定処理部123は、前段の画素ブロック特定処理部122で、ベクトル相関係数σの値が1とされた画素ブロックが有効な動きベクトルを有しているものとして、それ以外の画素ブロック、つまりベクトル相関係数σの値が0とされ有効ではない動きベクトルを有している画素ブロックの動きベクトルを更新する。
具体的な動きベクトル推定処理部123の処理工程について、図6を参照して詳細に説明する。
ステップS1において、動きベクトル推定処理部123は、処理対象フレームにおける現在の処理対象の画素ブロック(以下、注目画素ブロックという。)のベクトル相関係数σが1か0であるかを判断する。すなわち、動きベクトル推定処理部123は、この画素ブロックの動きベクトルが有効であるか否かを判断する。そして、動きベクトル推定処理部123は、この画素ブロックの動きベクトルが有効であるとき動きベクトルの値を更新せずに本処理工程を終了し、この画素ブロックの動きベクトルが有効でないときステップS2に進む。
ステップS2において、動きベクトル推定処理部123は、注目画素ブロックに対して、その注目画素ブロックの周辺に有効なベクトルを有する周辺画素ブロックが存在するか否かを判断する。具体的には、動きベクトル推定処理部123は、周辺画素ブロックとして、この注目画素ブロックに隣接する合計8つの画素ブロックに対して有効な動きベクトルが存在するか否かを判断し、有効な動きベクトルが存在するとき、ステップS3に進み、有効な動きベクトルが存在しないとき、この注目画素ブロックの動きベクトルを更新せずに本処理工程を終了する。
ここで、有効な動きベクトルが存在しない注目画素ブロックに対して、より広範囲に位置する周辺画素ブロックを用いて推定処理を行わない理由は、次の通りである。
第1の理由としては、より広範囲に位置する画素ブロックを用いて推定処理を行うことは可能であるが、仮に実現したとしても、固定時間処理で本処理工程を終了するためには、周辺画素ブロックとして扱われる画像データを一時的に記憶するための記憶領域が増大してしまうからである。
第2の理由としては、本処理工程の後段で、上述した隣接する合計8つの画素ブロックよりも広範囲の周辺画素ブロックを用いて注目画素ブロックの動きベクトルに対して平滑化処理を施すことにより、有効ではない動きベクトルを適切に補正することができるからである。
ステップS3において、動きベクトル推定処理部123は、有効な動きベクトルを有する周辺画素ブロックの動きベクトルのみから、この注目画素ブロックの動きベクトルを推定して更新して、本処理を終了する。動きベクトル推定処理部123では、推定処理の一例として、有効な動きベクトルを有する周辺画素ブロックの動きベクトルのみを入力としたメディアンフィルタにより注目画素ブロックの動きベクトルを出力して平滑化する。
動きベクトル推定処理部123は、以上のようにして、処理対象フレームの動きベクトルを画素ブロック単位で推定する。そして、動きベクトル推定処理部123は、画素ブロック特定処理部122で特定された動きベクトルを含めた動きベクトルを、動きベクトル平滑化処理部124に供給する。
動きベクトル平滑化処理部124は、処理対象画像を構成する各画素ブロックの動きベクトルに対して平滑化処理を施す。具体的に、動きベクトル平滑化処理部124は、平滑化処理前の注目画素ブロックの動きベクトルと上述した隣接画素ブロックよりも広範囲の周辺画素ブロックの動きベクトルとを入力I(x+i,y+j)として、下記に示す(数4)に示すようなガウス型関数により、平滑化処理後の注目画素ブロックの動きベクトルJ(x,y)を出力する。
Figure 0004613990
ここで、rは注目画素ブロックと各周辺画素ブロックとの2次元空間上の距離を示し、σ2はこの距離rについての分散を示し、t2は動きベクトルについての分散を示している。すなわち、σ2及びt2は、平滑化の度合いを表す値として任意に設定されるパラメータとなっている。
動きベクトル平滑化処理部124は、処理対象フレームを構成する各画素ブロックに対して上述した平滑化処理を施して、動きベクトルVDを動きぼけ付加処理部11に供給する。
このように、動きベクトル平滑化処理部124は、処理対象フレームを構成する各画素ブロックから、有効な動きベクトルを有する画素ブロックを特定し、この有効な動きベクトルからそれ以外の動きベクトルを推定する。このため精度良く実際の動体の動きに応じた動きベクトルを生成することができる。
なお、動きベクトル生成処理部12では、動きベクトル検出部121により検出した動きベクトルを、画素ブロック特定処理部122及び動きベクトル推定処理部123を介さずに、直接動きベクトル平滑化処理部124に供給して平滑化処理を施してもよい。このような処理を行った場合にも、上述した符号化情報として動きベクトルに比べて、実際の動体の動きに応じた精度の良い動きベクトルを生成することができる。
[1−3:動きぼけ付加処理部]

続いて動きぼけ付加処理部11の構成例を説明する。
なお、動きぼけ付加処理部11としては、図7の構成例と図12の構成例の2つの例を説明する。
まず図7の例としての動きぼけ付加処理部11について説明する。
動きぼけ付加処理部11は、図7に示すように、動きぼけを付加する画像領域を特定する動きベクトルマスク情報を生成する動きベクトルマスク処理部113を備える。
また動きぼけ付加処理部11は、動きベクトルに応じて適したシャッタ速度(以下、最適シャッタ速度情報という)を算出するとともに、この最適シャッタ速度情報と実際に動画像が撮像されたときのシャッタ速度情報とを比較して後述する判別処理を行う最適シャッタ速度算出/判別部114を備える。
また動きぼけ付加処理部11は、最適シャッタ速度算出/判別部114の判別結果に基づいて動きベクトルを補正する動きベクトル補正部115を備える。
また動きぼけ付加処理部11は、処理対象フレームの各画素に応じた動きぼけ付加のためのフィルタパラメータを算出するフィルタパラメータ算出部111を備える。
また動きぼけ付加処理部11は、処理対象フレームの各画素の画素値に対して動きぼけフィルタ処理を施す動きぼけ付加フィルタ112を備える。
ここで、画素単位で全ての処理を行うことも可能であるが、演算処理の負担を軽減するため、動きぼけ付加処理部11では、動きベクトルマスク処理部113、最適シャッタ速度算出/判別部114、及び動きベクトル補正部115に係る処理を、画素ブロック単位で行うものとする。
また、フィルタパラメータ算出部111、及び、動きぼけ付加フィルタ112は、動画像データIDに動きぼけを付加するフィルタ処理に当たるため、画素ブロックではなく、画素単位で行う。
動きベクトルマスク処理部113は、処理対象フレームのうち、動きぼけを付加する画像領域を特定するため、動きベクトル生成処理部12から供給される画素ブロック単位の動きベクトルVDに対して、図8に示すようなマスク処理を施す。そして、マスク処理後の画素ブロック単位の動きベクトルを最適シャッタ速度算出/判別部114及び動きベクトル補正部115に供給する。
動きぼけを付加する必要がある、ジャーキネス劣化が発生しやすい画像領域は、特に画面内の動体画像領域及びエッジ周辺の画像領域に集中する。
よって、動きベクトルマスク処理部113では、図8に示す処理により、ジャーキネスが発生しやすい、空間コントラストの高いエッジ周辺の画素ブロックの動きベクトルだけ有効な値として出力する。
すなわち、ステップS11において、動きベクトルマスク処理部113は、入力される動画像データIDに対し、画素ブロック単位で、処理対象フレーム内の空間コントラストの高い領域を特定するための処理として画像のエッジを検出する。
またステップS11の処理と並列して、ステップS12において、動きベクトルマスク処理部113は、処理対象フレーム内の動体領域を特定するための処理を行う。即ちフレーム間での差分を画素ブロック単位で算出することによって動体画像領域を検出する。
ステップS13において、動きベクトルマスク処理部113は、上述したステップS11及びステップS12の何れか一方又は両方に係る処理で、ジャーキネス劣化が発生しやすい領域として検出されたか否かを、画素ブロック単位で判断する。そして、ジャーキネス劣化が発生しやすい領域と判断した画素ブロックに対して、動きベクトルマスク処理部113は、マスク処理用のフラグを「1」に設定する。また、ジャーキネスが発生しやすい領域と判断されなかった画素ブロックに対して、動きベクトルマスク処理部113は、マスク処理用のフラグを「0」に設定する。
ステップS14において、動きベクトルマスク処理部113は、動きベクトル生成処理部12から供給される動きベクトルVDに対して、上述したフラグが「1」に設定されている画素ブロックの動きベクトルVDであるか否かを判断する。
動きベクトルマスク処理部113は、フラグが「1」に設定されている画素ブロックの動きベクトルに対しては、その値を変えずに、後段の最適シャッタ速度算出/判別部114及び動きベクトル補正部115に出力する。
また、動きベクトルマスク処理部113は、フラグが「0」に設定されている画素ブロックの動きベクトルに対しては、ステップS15において、動きベクトルの値を0又は無効にするマスク処理を施して、後段の最適シャッタ速度算出/判別部114及び動きベクトル補正部115に出力する。
次に最適シャッタ速度算出/判別部114、及び動きベクトル補正部115に係る処理工程について図9を用いて説明する。
ステップS31として、最適シャッタ速度算出/判別部114は、例えば図10に示すような評価指標に基づいて処理対象フレームの各画素ブロックの動きベクトルに応じた最適シャッタ速度を算出する。
ここで、図10は、動きベクトルとして検出される動体の移動速度を示す被写体速度と、この被写体速度に応じた最適シャッタ速度曲線を表した図である。また、最適シャッタ速度とは、被写体の移動速度に応じた、視覚特性上、ジャーキネス劣化が知覚されにくく、且つ、動きぼけが過度に付加されることによって被写体のディテールが欠損したり不鮮明になるぼけ劣化も知覚されにくいシャッタ速度である。すなわち、この最適シャッタ速度よりも速いシャッタ速度で被写体を撮像すると、撮像画像には、ジャーキネス劣化が生じていると判断できる。一方、この最適シャッタ速度よりも遅いシャッタ速度で被写体を撮像すると、撮像画像には、ぼけ劣化が生じていると判断することができる。
そこで、最適シャッタ速度算出/判別部114は、各画素ブロックの動きベクトルを図10中の被写体速度に対応させることにより、各画素の動きベクトルに応じた最適シャッタ速度を算出する。
なお、図10の実線で示されている最適シャッタ速度曲線SS0は、任意の被写体速度と最適なシャッタ速度との対応関係を示した一例であって、具体的には心理実験に基づいて得られた実験結果値を結んだ曲線である。
ここで、図10に示す動きぼけ領域A1は、最適シャッタ速度曲線SS0に基づいて、被写体の動きによる動きぼけが過度に含まれると判別される領域である。同様にして、ジャーキネス領域A2は、最適シャッタ速度曲線SS0に基づいて、被写体の動きによる動きぼけが含まれず、視覚特性上ジャーキネス劣化が生じていると判別される領域である。
この実線で示されている最適シャッタ速度曲線SS0を直接用いて、動きベクトルに応じた最適シャッタ速度を求める場合には、任意の刻み幅で動きベクトルに応じた最適シャッタ速度情報をテーブルとして記憶媒体に予め記憶して、この記録媒体を参照すればよい。
また、本実施の形態では、この実線で示された最適シャッタ速度曲線に近似する関数を用いることにより、動きベクトルに応じた最適シャッタ速度を算出するようにしてもよい。
この場合、最適シャッタ速度算出/判別部114は、ある画素ブロックでの動きベクトルをvとして、下記の(数5)に示す最適シャッタ速度曲線の近似関数により最適シャッタ速度SSD’を算出する。
Figure 0004613990
なお、この(数5)における各パラメータA、B、γは、図10中に示す最適シャッタ速度曲線の曲線形状に応じて適当な値を選択して用いるようにすればよい。シャッタ速度曲線の具体例として、図10では、(数5)中の各パラメータのうち、A、Bの値を固定にして、γを3段階に変化させたときの曲線形状SS1〜SS3を示している。
動きベクトルに応じた最適シャッタ速度SSD’が算出されると、図9のステップS32において、最適シャッタ速度算出/判別部114は、この最適シャッタ速度SSD’と、実際に撮像されたシャッタ速度SSDとを比較して、画素ブロック単位で図10に示すジャーキネス領域A2に該当しているかを判別する。
なお、実際に撮像されたシャッタ速度SSDとは、例えば動画像データIDにおいてメタデータとして付加されているものであればよい。また本例の画像処理装置1(100)が撮像装置内に搭載されるものである場合、自機による撮像時のシャッタ速度情報として取得できる。
このステップS32の判別結果から、現在の処理対象の画素ブロックにおいて、シャッタ速度SSDが最適シャッタ速度SSD’よりも速く、ジャーキネス領域A2に該当しているとき、動きベクトル補正部115は、ステップS33に進む。
また、現在の処理対象の画素ブロックにおいて、シャッタ速度SSDが最適シャッタ速度SSD’よりも遅くジャーキネス領域A2に該当してないとき、動きベクトル補正部115は、ステップS34に進む。
ステップS33において、動きベクトル補正部115は、処理対象の画素ブロックにおいてジャーキネス劣化が生じているので、例えば、シャッタ速度SSDが速くなるのに伴って増加して値が1に収束する関数fs(SSD)を動きベクトルの値に乗じる処理を行う。
なお、動きベクトル補正部153は、関数fs(SSD)に代えて、動きベクトルVDを変数としたfs(VD)又は、シャッタ速度SSDと動きベクトルVDとを2変数としたfs(SSD,VD)を用いて乗算処理を行うようにしてもよい。
ステップS34において、動きベクトル補正部153は、処理対象の画素ブロックにおいてジャーキネス劣化が生じていないので、例えばこの動きベクトルの値に0を乗じて無効にするマスク処理を施す。
このようにして、最適シャッタ速度算出/判別部114は、処理対象となっている動画像が実際に撮像された時のシャッタ速度SSDを考慮して、ジャーキネス劣化が生じているか否かを判別する。そして、動きベクトル補正部115は、ジャーキネス劣化が生じていると判別された画素ブロックの動きベクトルに対して、適切な動きぼけを付加するための補正処理を施す。これは、動きぼけ付加フィルタ112で行われる動きぼけ付加処理が、視覚特性上、より自然な動画像となることに寄与する。
フィルタパラメータ算出部111は、処理対象フレームを構成する各画素に対して動きぼけを付加するため、次に示すようなフィルタパラメータを画素単位で算出する。
まず、フィルタパラメータ算出部111は、有効な動きベクトル情報を有する画素を注目画素として、各注目画素の動きベクトル上に位置する画素(以下、パラメータ算出対象画素という。)を特定する。そして、フィルタパラメータ算出部111は、この注目画素に対する特定されたパラメータ算出対象画素の相対位置に応じたフィルタパラメータを、次に示すようにして算出する。
すなわち、フィルタパラメータ算出部111は、図11に示すように、動きベクトルの始点Sと終点Eとの中点を注目画素P0の位置としたベクトル上に位置する画素の全てをパラメータ算出対象画素として特定する。なお、図11に示すように、絶対値vは注目画素の動きベクトルの絶対値である。
続いて、フィルタパラメータ算出部111は、動きベクトルの絶対値vと、注目画素P0の画素位置と上述した処理により特定したパラメータ算出対象画素P1の画素位置との間の距離dとに応じて、動きぼけ付加の強度σを下記の(数6)により算出する。
Figure 0004613990
ここで、式中の強度σを二乗した値が後段の動きぼけ付加フィルタ112におけるガウス型関数の分散となるように、(数6)は設定されている。
また、フィルタパラメータ算出部111は、注目画素P0を原点としたときの各パラメータ算出対象画素P1の直交座標平面x−yの座標点を(x1,y1)として、動きぼけを付加する角度方向θを下記の(数7)より算出する。
Figure 0004613990
このようにして、フィルタパラメータ算出部111は、注目画素の動きベクトルからパラメータ算出対象画素を特定して、特定した各パラメータ算出対象画素に対してパラメータ情報(σ,θ)を設定し、処理対象フレーム単位で動きぼけ付加フィルタ112に供給する。
なお、フィルタパラメータ算出部111に係る処理では、ある画素に対して重複してパラメータ算出対象画素が特定される場合がある。この場合には、処理を単純化するため、例えば、重複して特定されたパラメータ情報のうち、σの大きい値の情報を、その画素のパラメータ情報として設定すればよい。また、フィルタパラメータ算出部111では、各パラメータ算出対象画素のパラメータ情報(σ,θ)に対して、ガウス関数型フィルタ処理やメディアンフィルタ処理などの平滑化処理を施すことにより、後段の動きぼけ付加フィルタ112から出力される動画像の画質を高めることができる。
動きぼけ付加フィルタ112は、フィルタパラメータ算出部111から供給されるパラメータ情報に応じて、入力される動画像データIDの処理対象フレームの各画素の画素値に対して、次に示すような処理対象フレーム内での空間的なフィルタ処理を施す。
本実施の形態において、動きぼけ付加フィルタ112は、以下に示す第1のフィルタ処理、又は第2のフィルタ処理の一方又は両方を実行することにより、動きぼけを付加した画像を出力する。
まず、第1のフィルタ処理について説明する。第1のフィルタ処理において、動きぼけ付加フィルタ112は、動きぼけ付加フィルタ処理前の動きぼけ付加対象画素の画素値とこの画素の周辺に位置する周辺画素の画素値とを入力I(x+i,y+j)として、下記の(数8)に示すようなガウス型関数により、フィルタ処理後の注目画像の画素値J(x,y)を出力する。
Figure 0004613990
なお、入力I(x+i,y+j)となる周辺画素は、動きベクトルを付加する角度方向に応じて設定される。また、rは、動きぼけ付加対象画素と周辺画素との間の距離を示す。
動きぼけ付加フィルタ112は、処理対象フレームを構成する全画素のうち、パラメータ情報(σ,θ)が設定されている画素毎に、上述したフィルタ処理を施して画素値を更新する。このようにして動きぼけ付加フィルタ112は、ジャーキネス劣化が低減された動画像データBDを、後段の符号化処理部2に供給することができる。
ところで、注目画素の周辺に位置する周辺画素には、元々動きのない領域、すなわち背景領域となっているものがある。このような背景領域に位置する周辺画素は、本来注目画素に対して動きぼけを付加するのに考慮する必要がない。このような点に注目した処理方法が次に示す第2のフィルタ処理である。
すなわち、第2のフィルタ処理において、動きぼけ付加フィルタ112は、注目画素の動きベクトルの値が0又は無効であるときに、その注目画素の周辺に位置する周辺画素のうち動きベクトルの値が0又は無効である画素の画素値I(x+i0,y+j0)を注目画素の画素値I(x,y)に代えて、上記の(数8)により注目画素の画素値J(x,y)を算出する。このようにして、動きぼけ付加フィルタ112は、第1のフィルタ処理よりも、視覚特性上自然にジャーキネス劣化を低減した画像を出力する。
動きぼけ付加処理部11では、以上の例のようにして動きぼけ付加処理を施した動画像データBDを出力することができる、
特にこの例の場合、最適シャッタ速度算出/判別部114が動画像の撮像時のシャッタ速度情報に応じて動きベクトルを補正することにより、後段のフィルタパラメータ算出部111で算出される動きぼけ付加強度σの値を制御するので、動きぼけ付加フィルタ112により撮像時のシャッタ速度情報に応じて適切な動きぼけを付加することができ、人間の視覚特性上、より自然にジャーキネス劣化を低減した動画像データBDを出力することができる。
次に、動きぼけ付加処理部11の構成例として図12の構成例を説明する。図12に示すように、動きぼけ付加処理部11は、フィルタパラメータ算出部111と動きぼけ付加フィルタ112によって構成してもよい。即ち図7の構成から、動きベクトルの補正に関する処理ブロックを削除した構成である。
先に述べたように本実施の形態は、符号化処理部2の前段において、動画像データIDに対して動きぼけ付加処理部を行うものであるが、その目的の1つは、符号化効率の向上である。
そして、上記図7の構成例のようにすることで、知覚特性に応じてぼけ付加具合を最適なものにすることができるが、符号化効率の観点を重視すれば、それは必須ではない。その場合、図12の構成でもよいことになる。
この図12の構成例では、動きベクトル生成処理部12から供給される動きベクトルVDが直接フィルタパラメータ算出部111に入力される。
フィルタパラメータ算出部111は、補正されていない動きベクトルVDを用いて、上記同様の処理を行ってフィルタパラメータ算出を行う。そして動きぼけ付加フィルタ112は、フィルタパラメータに基づいて、上述した動きぼけ付加処理を行う。
この構成例によれば、動きベクトル生成処理部12で検出された動きベクトルの大きさに忠実に動きぼけが付加されることになる。
後述する第2の画像処理装置4(400)に関することとなるが、このようにすることで、より容易に忠実な動きぼけ削減処理を行うことができる。
以上、図7,図12として動きぼけ付加処理部11の構成及び動作を説明したが、これら以外の構成例、動作例も各種考えられる。
上記の動きぼけ付加処理部11では、動きベクトルを用いて各単位画像に動きぼけを付加する空間的なフィルタ処理に代えて、他の動き情報を用いて画像データに動きぼけを付加するようにしてもよい。
例えば、1フレームに対して複数のフレームを重ね合わせる時間的なフィルタ処理を行うことにより、動画像データIDに動きぼけを付加する処理を行うようにしても良い。この場合、動きぼけ付加処理部11は、動きベクトルの代わりに、動き情報としてフレーム間の差分により動体画像領域を検出する。そして、この検出した動体画像領域を示す情報を撮像情報に基づいて補正してから、この動き情報を用いて時間的なフィルタ処理を施すことによって、撮像時のシャッタ速度情報等に応じて適切な動きぼけを付加することができる。
[2.第2の画像処理装置]
[2−1:画像処理装置の構成例]

続いて、本発明の実施の形態としての第2の画像処理装置について説明する。第2の画像処理装置とは、上述してきた第1の画像処理装置から伝送されてきた動画像データ、即ち動きぼけ付加処理及び符号化処理が施された動画像データED(以下「符号化状態の動画像データED」という)に対して、復号化及び動きぼけ削減処理を行う画像処理装置である。
図13,図14,図15により、第2の画像処理装置についての構成例を説明する。
なお各図における処理ブロックは、論理的な構成要素として示しており、各処理ブロックは同一筐体内にある場合も考えられるし、別の筐体内にある場合も考えられる。そして、各図において、破線で囲った画像処理装置4、又は同じく破線で囲った画像処理装置400が、本発明の第2の画像処理装置の実施の形態の構成と考えることができる。
図13は、画像処理装置4として動きぼけ削減処理部41を備える構成を示している。或いは画像処理装置400として復号化処理部3と動きぼけ削減処理部41を備える構成を示している。
復号化処理部3には符号化状態の動画像データEDが入力される。復号化処理部3は、符号化状態の動画像データEDに対して復号化処理を行って復号された動画像データDDを出力する。例えば上述した第1の画像処理装置100における符号化処理部2が実行した符号化に対する復号処理を実行する。
従って出力される動画像データDDは、第1の画像処理装置100の動きぼけ付加処理部11によって動きぼけが付加された状態の動画像データと考えることができる。
動きぼけ削減処理部41は、前段の復号化処理部3によって復号化された画像データDDに、動きぼけの削減処理を実行し、処理後の動画像データODを出力する。
この動きぼけ削減処理部41は、復号後の動画像データDDの各フレーム、各分割領域に対し、同様に入力している、動画像データDDの各フレーム、各分割領域に対応した動き情報MIに応じたフィルタ処理を、動画像データDDに対し適応的に行って、動きぼけの削減を実行する。
動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
なお、図示しているように、復号化処理部3で復号化された動画像データDDを、表示装置等へ出力することも考えられる。
ここで、本例の第2の画像処理装置4(400)による機能・効果としては、次の(i)(ii)(iii)の3つが考えられる。
(i)伝送されてきた動画像データのブラー劣化の低減による高画質化。
動きぼけ削減処理部41で動きぼけ削減処理されて表示装置等に出力される動画像データODは、復号画像データDDを直接表示装置で表示した場合と比較し、画像のディテールを損なうブラー劣化が解消され、高画質に表示されることになる。
即ち特に動画像データの伝送元を特定しないという前提のもとで、動きぼけ削減処理によるブラー劣化低減効果が得られる。
(ii)第1の画像処理装置100から伝送されてきた動画像データについて、ジャーキネス劣化及びブラー劣化の低減による高画質化。
上述の第1の画像処理装置100側で動きぼけ付加処理部11によってジャーキネス劣化が解消されている符号化状態の動画像データEDが、この第2の画像処理装置400に入力されることを考慮すれば、動きぼけ削減処理された動画像データODは、ジャーキネス劣化とブラー劣化が共に低減された高画質な動画像データとなる。
つまりこの意味で言えば、動画像データDDは、ジャーキネス劣化が低減された動画像データであり、動画像データODは、ジャーキネス劣化及びブラー劣化が共に低減された動画像データとなる。
(iii)第1の画像処理装置100の処理前の動画像データの復元。
さらに本例では、動画像データODは、第1の画像処理装置100に入力された元の動画像データIDと同等の画像とすることも可能である。つまり、動きぼけ付加処理部11で付加した動きぼけを、動きぼけ削減処理部41で忠実に削減するという考え方である。これは、第1の画像処理装置100における符号化処理部2での符号化効率の向上という観点を重視するために動きぼけを付加し、伝送先となる第2の画像処理装置400側では、元の動画像データを復元したいという場合に適したものとなる。
例えば先に説明したとおり、図12に構成例を示す動きぼけ付加処理部11を用いて動きぼけを付加したデータが符号・復号処理された画像データの入力を想定すると、動画像データDDには、動きベクトルVDの大きさに忠実に、補正することなく、動きぼけが付加されている。
そのため、動きぼけ削減処理部41にて、動きベクトルVDのみをパラメータとして動きぼけ削減処理を行った場合、原理的には第1の画像処理装置1(100)にて動きぼけが付加される以前と同等の動画像データが得られるはずである。
続いて図14は、画像処理装置4として動きぼけ削減処理部41と動きベクトル生成処理部42を備える構成を示している。或いは画像処理装置400として復号化処理部3と、動きぼけ削減処理部41と、動きベクトル生成処理部42を備える構成を示している。
この図14は、図13における動き情報MIの例として、動きベクトルVDを用いる構成例となる。
動きベクトル生成処理部42は、復号化された動画像データDDの各フレームの各領域(画素単位又は複数画素による画素ブロック単位)の動きベクトルVDを生成する。
動きぼけ削減処理部41は、復号化された動画像データDDについて、動きベクトルVDを用いて、動画像データDD(の各フレーム、各分割領域)に対し適応的にフィルタ処
理を行い、動きぼけの削減を実行する。動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
この場合も、上記(i)(ii)(iii)のいずれかの機能・効果が想定される。
次に図15は、復号化処理部3内で用いる動きベクトルを動きぼけ削減処理に利用する構成例である。
動きぼけ推定処理は、MPEGのような画像の動き情報に基づいた予測符号化において、その符号化処理過程で行われており、その動きぼけ推定結果は符号化データとともに復号化処理部3へと伝送されている。
復号化処理部3では、上記伝送された動きベクトルを用いて復号化処理を実行するが、図15に示す構成例では、この動きベクトルを用いて、動きぼけの削減処理を実行する。
図15中には、簡易なMPEG復号化の処理ブロックを示している。
符号化状態の動画像データEDは、復号化処理部3において、エントロピー復号化部301に入力される。エントロピー復号化部301は、入力された符号化状態の動画像データEDに対する復号処理を行い、量子化データを得るとともに、動きベクトルVDを抽出する。即ちこれは、例えば図4の動きベクトル生成処理部210で生成され、エントロピー符号化部204での符号化において符号化動画像データに重畳された動きベクトルVDである。
エントロピー復号化部301は、量子化データを逆量子化部302に出力し、また動きベクトルVDを動き補償部306及び動きぼけ削減処理部41に出力する。
逆量子化部302は、入力された量子化データを逆量子化してDCT係数を生成し、逆DCT部303に対して出力する。
逆DCT部303は、逆量子化部302から入力されたDCT係数を逆DCT処理して画像データを生成し、加算部304に対して出力する。
加算部304は、動き補償部306が動き補償した画像データと、逆DCT部303から入力された画像データを加算して、これを復号化された動画像データDDとして出力するとともに、フレームメモリ305に出力する。フレームメモリ305に一時的に格納された画像データは、動き補償部306に出力される。
動き補償部306は、エントロピー復号化部301から入力された動きベクトルに基づいて、加算部304からフレームメモリ305を介して入力された画像データを動き補償処理し、加算部304に対して出力する。
このような復号化処理部3によって復号化された動画像データDDは、動きぼけ削減処理部41に供給される。また動きぼけ削減処理部41には動きベクトルVDも供給される。動きぼけ削減処理部41は、動きベクトルVDを用いて動画像データDDに対し、動きぼけ削減処理を行う。動きぼけ削減処理された動画像データODは、図示しない表示装置などへと出力される。
この例のように、MPEG復号化過程で抽出される動きベクトルを利用して、動きぼけ削減処理を行うことも考えられる。
この場合も、上記(i)(ii)(iii)のいずれかの機能・効果が想定される。
また、以上の各例の画像処理装置4(400)では、動き情報を参照し、領域ごとに適用的なフィルタリングを行うものである。このため、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行するとした場合と比較して、動きの大きさに応じた、領域ごとに適応的な動きぼけの削減が、必要であれば後処理としての動きぼけ量の調整も含めて、実行可能であり、動画像の観察者にとって自然な画質が提示できる。
また、符号化前の処理における動きぼけ付加処理のパラメータを伝送しなかった(あるいはできない)場合でも、動き情報のみを用いて、動きぼけの削減処理が可能である。
すなわち、符号化・復号化に用いるために伝送された動きベクトル、もしくは、復号化後に求めた動き情報のみによって、実行が可能である。これは、符号化時に空間的に一様なローパスフィルタ(つまり復号化時に空間的に一様なハイパスフィルタ)を実行する、とした場合、ローパスフィルタ時における、何かしらのフィルタ情報を伝送しなければ、処理できないはずであることに対する利点となる。
[2−2:動きぼけ削減処理部]

上記図13,図14,図15の構成例における動きぼけ削減処理部41について説明する。ここでは動きぼけ削減処理部41の構成として図16の例と図18の例をそれぞれ述べる。
まず、図16の動きぼけ削減処理部41の構成例を説明する。
図16の動きぼけ削減処理部41は、移動平均フィルタ特性変換部411、移動平均フィルタ部412、減算部413、加算部414から構成されており、入力された動画像データDDに対して、動きぼけ量の削減を実現する。
なお移動平均フィルタ部412として用いる移動平均フィルタとは、最も簡易なローパスフィルタの一種であり、処理対象画素が1画素移動する毎に、周辺画素との平均値を算出して出力するフィルタである。例えばある時点では、図17(a)のように現在のサンプル値を含めてn個(図では4個)のサンプルで平均をとる。次の時点でも図17(b)のように現在のサンプル値を含めてn個(図では4個)のサンプルで平均をとる。ここでいうサンプル値が画素値となり、処理対象画素が1画素移動する毎に、処理対象画素を含む周辺画素のnサンプルの平均を出力するものとする。
移動平均フィルタ特性変換部411には、動きベクトルVDが入力している。移動平均フィルタ特性変換部411では、動画像データDD中の当該分割領域に位置的に対応する動きベクトルVDを、入力された動きベクトルVDからフィルタパラメータとして抽出し、これに基づいて移動平均フィルタ部412にて行われる処理のフィルタ特性を決定する。
例えば、複数の動きベクトルVDに対して、移動平均フィルタを1つずつ予め用意しておき、注目画素において用いるべきフィルタを決定すればよい。具体的には、以下のように行う。
移動平均フィルタの特性を、注目画素周辺の何画素について平均処理を実行するか、と置き換えて考え、フィルタパラメータの一例として動きベクトルVDを用いることとする。このとき、動きベクトルVDに対して、移動平均フィルタに用いる画素数を1つ決定するテーブルを用意しておき、各領域の動きベクトルVDが入力するたびに、移動平均フィルタに用いる画素数を出力する。
決定された移動平均フィルタに用いる画素数は、移動平均フィルタ部412へと出力される。
移動平均フィルタ部412(ローパスフィルタ)は、処理対象の当該フレーム内の注目画素を含む所定のブロックに対して、移動平均フィルタ特性変換部411により特性が決定された移動平均フィルタをかけることで、注目画素の画素値を変換する。移動平均フィルタ部412により変換された注目画素の画素値は、減算部413へと出力される。
すなわち、減算部413には、移動平均フィルタ部412により変換された注目画素の画素値が極性反転されて入力される。減算部413にはまた、入力された動画像データDD中の処理対象のフレームのうちの注目画素が入力されている。
減算部413は、動画像データDD中の当該画素の画素値と、移動平均フィルタ部412により変換された注目画素の画素値との差分を求め、その差分値を加算部414へと出力する。
このようにして、加算部414には、移動平均フィルタ前後の差分が入力される。加算部414にはまた、動画像データDD中の処理対象のフレームのうちの注目画素が入力されている。加算部414は、注目画素の補正前の画素値に対して、移動平均フィルタ前後の差分値を加算し、その加算結果を出力画像(その一部)として出力する。
以上が、動きぼけ削減処理部41の処理内容であるが、この処理の意味を理解するためには、周波数領域で考えるとわかりやすい。
減算部413の出力信号である移動平均フィルタ前後の差分を周波数領域で考えた場合、着目された周波数において、入力された画像信号のゲインと、移動平均フィルタがかけられた後の画像信号のゲインとの差分が、減算部413の出力信号のゲインとなる。さらに、加算部414の出力画像信号のゲインは、入力された画像信号のゲインに対して、移動平均フィルタ前後の差分ゲインが加算された値となる。すなわち、各周波数のそれぞれにおいて、出力画像信号のゲインは、入力画像のゲインに比較して、移動平均フィルタ前後の差分ゲイン分だけ持ち上げられてことになる。
移動平均フィルタがローパスフィルタであることを踏まえ、上記の内容を換言すると、図16の構成例に示す動きぼけ削減処理部41全体では、ハイパスフィルタをかける処理と基本的に等価な処理を実行していることになる。
次に動きぼけ削減処理部41として図18の構成例を説明する。
図18の構成例が上記図16と異なるのは、付加する動きぼけ量をジャーキネス劣化が最も低減される動きぼけ量に調整するために必要な、動きベクトル補正処理の要素が加わっている点である。
具体的には、最適シャッタ速度算出/判別部415、および、動きベクトル補正部416が加わっており、図7で示した動きぼけ付加処理部11における最適シャッタ速度算出/判別部114、および、動きベクトル補正部115と同様の動きベクトルのスケーリング処理が行われる。異なるのは、撮像シャッタ速度SSDの入力はない点である。
しかしながら先に説明した図12の動きぼけ付加処理部11によって動きぼけ付加処理がされた動画像データが入力されることを想定すると、動きベクトルVDの大きさに忠実に、補正することなく、動きぼけが付加されていると考えればよい。
すると、復号化された動画像データDDは一様に、ほぼオープンシャッタ相当の動きぼけが付加されていると見なしてよく、例えば図10におけるところの、最も長いシャッタ速度の状態で撮像されている動画像データが常に入力しているものとして処理を行えばよい。
具体的には、動きベクトル補正部416において、例えば図10の最適シャッタ速度曲線SS0に応じて、入力した動きベクトルを補正(縮小)して、後段の移動平均フィルタ特性変換部411へと出力すればよい。移動平均フィルタ特性変換部411、移動平均フィルタ部412、減算器413、加算器414の処理は上記と同様である。
以上、図16,図18に示した構成例などを用いて、動きぼけ削減処理の実現が可能である。当然ながら、動きぼけ削減処理部41の構成及び動作は上記に限られるものではない。
[3.第1,第2の画像処理装置間の情報伝送]

続いて、符号化の前処理装置となる第1の画像処理装置1と、復号化の後処理装置となる第2の画像処理装置4の間における、動きぼけ付加情報の共有について説明する。
上記までに、復号化処理の後処理を行う画像処理装置4について説明した。ここでは、符号化の前処理として画像処理装置1が動きぼけを付加した際に用いたパラメータなどを、復号化処理側へと伝送し、復号化の後処理として画像処理装置4が、受信した動きぼけ付加情報を用いて、動きぼけ削減処理の実行可否や、削減する動きぼけ量の度合いを決定する形態を示す。
図19は、図3の画像処理装置1(100)と、図13の画像処理装置4(400)を示している。
そして特に、動きぼけ付加処理部11は、処理後の動画像データBDに加えて、動きぼけを付加した際に用いた動きぼけ付加パラメータPMを、符号化処理部2に伝送することを示している。
符号化処理部2は、動きぼけ付加パラメータPMを符号化状態の動画像データEDのメタデータとして追加して伝送出力する。
画像処理装置4(400)側では、復号化処理部3は、復号処理を行って動画像データDDを動きぼけ削減処理部41に出力するとともに、メタデータから動きぼけ付加パラメータPMを抽出して動きぼけ削減処理部41に供給する。
動きぼけ削減処理部41は、動きぼけ付加パラメータPMを基に動きぼけ削減処理の内容を決める。
なお、動きぼけ付加パラメータPMの伝送方式として、符号化信号のメタデータとして用いる方法を示しているが、伝送の方法はこれに限らない。別のストリームとして伝送しても構わない。
上記図13等のおける動きぼけ削減処理部41では、動きベクトルに対して忠実に(例えば図12のようにベクトルの補正処理を行うことなく)動きぼけが付加された信号の入力を想定した場合、動きぼけ付加パラメータPMを必要とすることなく、図16や図18の構成例によって、動きぼけを削減する処理を実行していた。
しかし、図7のように、ジャーキネス劣化が発生しやすい領域のみを選択して動きぼけを付加したり、人間によるジャーキネス劣化の知覚を考慮し、動きぼけ量を調整して付加する、などの処理を実行された信号の場合には、動きぼけを付加した際に用いた動きぼけ付加パラメータPMを後段へと伝送することが効果的である。
動きぼけ付加パラメータPMの具体的な例としては、まず、最も簡単なものとして、画像中の当該画素(または当該領域)に動きぼけを付加したかどうかを示す「0」「1」のフラグ信号が考えられる。
動きぼけ削減処理部41においては、これを参照し、動きぼけ削減処理を行うか、否か、を判別する。
また動きぼけ付加パラメータPMの具体的な例として、図7の構成で補正されたベクトルそのものを伝送することも考えられる。即ち図7の動きベクトル補正部115の出力を伝送することである。
動きぼけ削減処理部41においては、この補正ベクトルを用いて、動きぼけ削減処理を実行する。
またベクトルそのものの伝送には、多大なデータ量の追加を必要としてしまうため、動きぼけ付加パラメータPMとして、ベクトルに補正を施した補正値のみを送ることや、補正時に施したベクトル変換のルールのみを伝送して、動きぼけ削減処理部41側でベクトル逆変換を行うことも考えられる。
例えば各画素または各ブロックにおいて、上記の動きぼけ付加時に行ったベクトル補正値を各画素または各ブロックに追加して伝送する。最も単純には、0〜1の間の実数αを伝送することであり、動きぼけ削減処理部41においては、当該ベクトルVを、V’=α×Vの式で縮小してから、動きぼけの削減処理を行うことになる。動きぼけを付加していない場合は、「0」を伝送する。
実数の場合には、データ量が増大するため、例えば、0〜Nまでの値の量子化した補正値を伝送するのが現実的である。
また、動きぼけ付加パラメータPMとして、例えば図7のフィルタパラメータ算出部111の出力である動きぼけ付加フィルタパラメータ、即ち各画素に与えられたθ値とσ値を伝送することも考えられる。
さらに、動きぼけ付加パラメータPMを伝送することにより、以下の利点が考えられる。
符号化の前処理として動きぼけ付加処理部11で動きぼけを過剰に付加しても(そのまま表示した場合にブラー劣化が発生するほどに)、動きぼけ削減処理部41により、動きぼけを削減することでブラー劣化の低減ができる。
すなわち、圧縮効率の改善のために有効な動きぼけ量を付加することで、画質の劣化を招いたとしても、動きぼけを付加した際のパラメータを既知として後段の動きぼけの削減処理を行うことにより、画質の回復が可能である、ことである。
[4.プログラム]

以上の実施の形態は、画像処理装置1(100)、4(400)について説明したが、本発明は画像処理を行う各種機器に適用できる。例えば画像再生装置、撮像装置、通信装置、画像記録装置、ゲーム機器、ビデオ編集機、などが想定される。
さらに、汎用のパーソナルコンピュータその他の情報処理装置において、画像処理装置1(100)、4(400)を実現することも当然想定される。
例えば図1,図3,図4、図13,図14,図15の各処理ブロックの動作を演算処理装置に実行させるプログラムを画像処理アプリケーションソフトウエアとして提供することで、パーソナルコンピュータ等において、適切な画像処理を実現できる。
即ち画像処理装置100の画像処理を実現するプログラムとは、動画像データIDに対し、動画像データIDを構成する単位画像間での画像の動きを示す動き情報MI(例えば動きベクトルVD)に応じたフィルタ処理を施すことにより、動きぼけの付加処理を実行する動きぼけ付加ステップと、動きぼけ付加ステップで動きぼけの付加処理が施された動画像データBDを符号化して出力する符号化ステップとを情報処理装置に実行させるプログラムである。
なお、上記動きぼけ付加ステップのみであれば、画像処理装置1の画像処理を実現させるプログラムとなる。
また画像処理装置400の画像処理を実現するプログラムとは、動きぼけ付加処理が施された上で符号化状態の動画像データEDを復号化する復号化ステップと、復号化ステップによって得られた復号化された動画像データDDに対して、該動画像データを構成する単位画像間での画像の動きを示す動き情報MI(例えば動きベクトルVD)に応じたフィルタ処理を施すことにより、動きぼけの削減処理を実行する動きぼけ削減ステップとを情報処理装置に実行させるプログラムである。
なお、上記動きぼけ削減ステップのみであれば、画像処理装置4の画像処理を実現させるプログラムとなる。
このようなプログラムにより、本発明をパーソナルコンピュータ、携帯電話機、PDA(Personal Digital Assistant)、その他画像データを用いる多様な情報処理装置においても同様の画像処理を実行できるようにすることができる。
なお、このようなプログラムは、パーソナルコンピュータ等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROMやフラッシュメモリ等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
本発明の実施の形態の第1の画像処理装置のブロック図である。 実施の形態において動きぼけ付加による符号化効率向上の説明図である。 実施の形態の第1の画像処理装置の他の構成例のブロック図である。 実施の形態の第1の画像処理装置のさらに他の構成例のブロック図である。 実施の形態の動きベクトル生成処理部のブロック図である。 実施の形態の動きベクトル生成処理部の処理のフローチャートである。 実施の形態の動きぼけ付加処理部のブロック図である。 実施の形態の動きベクトルマスク処理部の処理のフローチャートである。 実施の形態の最適シャッタ速度算出/判別部と動きベクトル補正部の処理のフローチャートである。 実施の形態の最適シャッタ速度に関する説明図である。 実施の形態のフィルタパラメータ算出部の処理の説明図である。 実施の形態の動きぼけ付加処理部の他のブロック図である。 実施の形態の第2の画像処理装置のブロック図である。 実施の形態の第2の画像処理装置の他の構成例のブロック図である。 実施の形態の第2の画像処理装置のさらに他の構成例のブロック図である。 実施の形態の動きぼけ削減処理部のブロック図である。 移動平均フィルタの説明図である。 実施の形態の動きぼけ削減処理部の他のブロック図である。 実施の形態のフィルタパラメータの伝送の説明図である。
符号の説明
1,100,4,400 画像処理装置、2 符号化処理部、3 復号化処理部、11 動きぼけ付加処理部、12,42 動きベクトル生成処理部、41 動きぼけ削減処理部

Claims (8)

  1. 符号化処理に供する動画像データから、上記動画像データを構成する単位画像間での画像の動きを示す動きベクトルを生成する動きベクトル生成部と、
    上記符号化処理の前処理として、上記動画像データに対してフィルタ処理を施すことにより、動きぼけの付加処理を実行する動きぼけ付加部と、
    被写体速度と、出力画像の画像劣化が低減される撮像シャッタ速度とを対応付ける対応付け情報を参照することによって、上記動きベクトル生成部により生成された動きベクトルに基づき取得した被写体速度に対応する最適シャッタ速度を上記動画像データ内の領域毎に取得し、当該取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、ジャーキネスの発生領域を特定すると共に、当該特定したジャーキネスの発生領域に対して上記動きぼけ付加部による動きぼけ付加処理が実行されるように制御を行う制御部と
    を備える画像処理装置。
  2. 上記制御部は、
    上記取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、上記動きぼけの量を調整する制御も行う
    請求項1に記載の画像処理装置。
  3. 上記動きぼけ付加で動きぼけの付加処理が施された動画像データを符号化する符号化をさらに備える請求項1に記載の画像処理装置。
  4. 上記符号化部は、上記動きベクトル生成部により生成された動きベクトルを用いて上記符号化を行う請求項3に記載の画像処理装置。
  5. 上記動きぼけ付加における動きぼけの付加処理を実行する際に用いた動きぼけ付加パラメータと、上記動画像データとが、外部に出力される請求項に記載の画像処理装置。
  6. 上記動きぼけ付加パラメータは、動画像データの単位画像の領域毎について動きぼけを付加したか否を示すフラグ情報、又は動きぼけの付加処理に用いた動きベクトル情報、又は上記動きベクトルの補正情報である請求項に記載の画像処理装置。
  7. 画像データを構成する単位画像間での画像の動きを示す動きベクトルを生成する動きベクトル生成ステップと、
    被写体速度と、出力画像の画像劣化が低減される撮像シャッタ速度とを対応付ける対応付け情報を参照することによって、上記動きベクトル生成ステップにより生成した動きベクトルに基づき取得した被写体速度に対応する最適シャッタ速度を上記動画像データ内の領域毎に取得し、当該取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、ジャーキネスの発生領域を特定すると共に、当該特定したジャーキネスの発生領域に対して、フィルタ処理による動きぼけ付加処理を施す動きぼけ付加ステップと、
    上記動きぼけ付加ステップで動きぼけの付加処理が施された動画像データを符号化する符号化ステップ
    を有する画像処理方法。
  8. 画像データを構成する単位画像間での画像の動きを示す動きベクトルを生成する動きベクトル生成ステップと、
    被写体速度と、出力画像の画像劣化が低減される撮像シャッタ速度とを対応付ける対応付け情報を参照することによって、上記動きベクトル生成ステップにより生成した動きベクトルに基づき取得した被写体速度に対応する最適シャッタ速度を上記動画像データ内の領域毎に取得し、当該取得した最適シャッタ速度と実際の撮像シャッタ速度との関係に基づいて、ジャーキネスの発生領域を特定すると共に、当該特定したジャーキネスの発生領域に対して、フィルタ処理による動きぼけ付加処理を施す動きぼけ付加ステップと、
    上記動きぼけ付加ステップで動きぼけの付加処理が施された動画像データを符号化する符号化ステップ
    を情報処理装置に実行させるプログラム。
JP2008197947A 2008-07-31 2008-07-31 画像処理装置、画像処理方法、プログラム Expired - Fee Related JP4613990B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008197947A JP4613990B2 (ja) 2008-07-31 2008-07-31 画像処理装置、画像処理方法、プログラム
AT09251836T ATE535099T1 (de) 2008-07-31 2009-07-21 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
EP20090251836 EP2160015B1 (en) 2008-07-31 2009-07-21 Image processing apparatus, image processing method, and program
US12/510,578 US8488009B2 (en) 2008-07-31 2009-07-28 Image processing apparatus, image processing method, and program
CN2009101609406A CN101640801B (zh) 2008-07-31 2009-07-31 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008197947A JP4613990B2 (ja) 2008-07-31 2008-07-31 画像処理装置、画像処理方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010192818A Division JP4915468B2 (ja) 2010-08-30 2010-08-30 画像処理装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2010041064A JP2010041064A (ja) 2010-02-18
JP4613990B2 true JP4613990B2 (ja) 2011-01-19

Family

ID=41200249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008197947A Expired - Fee Related JP4613990B2 (ja) 2008-07-31 2008-07-31 画像処理装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US8488009B2 (ja)
EP (1) EP2160015B1 (ja)
JP (1) JP4613990B2 (ja)
CN (1) CN101640801B (ja)
AT (1) ATE535099T1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4674620B2 (ja) * 2008-07-29 2011-04-20 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2010258494A (ja) * 2009-04-21 2010-11-11 Sanyo Electric Co Ltd 防振制御回路
US8823746B2 (en) * 2010-10-19 2014-09-02 Apple Inc. System and method for motion blur using velocity vectors
WO2013048521A1 (en) * 2011-10-01 2013-04-04 Intel Corporation Systems, methods and computer program products for integrated post-processing and pre-processing in video transcoding
KR101896026B1 (ko) * 2011-11-08 2018-09-07 삼성전자주식회사 휴대 단말기에서 움직임 블러를 생성하는 장치 및 방법
US9560308B2 (en) * 2012-01-25 2017-01-31 Sony Corporation Applying motion blur to only select objects in video
CN104123723A (zh) * 2014-07-08 2014-10-29 上海交通大学 基于结构补偿的图像质量评价方法
MY190056A (en) * 2015-05-21 2022-03-23 Huawei Tech Co Ltd Apparatus and method for video motion compensation
EP3136726B1 (en) * 2015-08-27 2018-03-07 Axis AB Pre-processing of digital images
US10397469B1 (en) * 2015-08-31 2019-08-27 Snap Inc. Dynamic image-based adjustment of image capture parameters
CN110036629B (zh) * 2016-09-30 2021-08-24 株式会社尼康 拍摄装置、由拍摄装置执行的方法
JP7077396B2 (ja) 2017-04-21 2022-05-30 ゼニマックス メディア インク. ビデオエンコードの延期されたポストプロセスのためのシステムおよび方法
TWI788772B (zh) * 2017-04-21 2023-01-01 美商時美媒體公司 用於藉由預測運動向量及/或快取重複運動向量的玩家輸入運動補償的系統及方法
CN107578439B (zh) * 2017-07-19 2020-04-28 创新先进技术有限公司 生成目标图像的方法、装置及设备
US11240528B2 (en) * 2018-01-30 2022-02-01 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction for video coding using motion vector predictor origins
US11032345B2 (en) * 2018-05-10 2021-06-08 Microsoft Technology Licensing, Llc Client side data stream processing
WO2019241909A1 (en) * 2018-06-19 2019-12-26 Hangzhou Taro Positioning Technology Co., Ltd. Camera mobile device holder with stablization
CN112805990A (zh) * 2018-11-15 2021-05-14 深圳市欢太科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN111860764A (zh) * 2020-06-05 2020-10-30 北京迈格威科技有限公司 视觉任务处理方法及其模型训练方法、装置和电子***
CN112217988B (zh) * 2020-09-21 2022-03-04 深圳市美格智联信息技术有限公司 基于人工智能的光伏相机运动模糊自适应调整方法与***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203428A (ja) * 1993-12-28 1995-08-04 Canon Inc 画像処理方法及び装置
JPH11266462A (ja) * 1998-03-16 1999-09-28 Nec Corp 動画像符号化装置のプレフィルタ
JP2003006650A (ja) * 2001-06-20 2003-01-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2005348176A (ja) * 2004-06-03 2005-12-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP2007124397A (ja) * 2005-10-28 2007-05-17 Nikon Corp 画像処理装置および画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05161103A (ja) * 1991-12-04 1993-06-25 Ricoh Co Ltd 映像データ表示方法と装置
GB2297450B (en) 1995-01-18 1999-03-10 Sony Uk Ltd Video processing method and apparatus
JPH11252409A (ja) 1998-03-04 1999-09-17 Hitachi Ltd 画質改善回路
US6782132B1 (en) 1998-08-12 2004-08-24 Pixonics, Inc. Video coding and reconstruction apparatus and methods
JP4017318B2 (ja) 2000-06-09 2007-12-05 日本放送協会 高能率符号化における前処理装置
JP4596221B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2004080252A (ja) 2002-08-14 2004-03-11 Toshiba Corp 映像表示装置及びその方法
JP5062968B2 (ja) 2004-08-11 2012-10-31 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
EP1631090A1 (en) 2004-08-31 2006-03-01 Matsushita Electric Industrial Co., Ltd. Moving picture coding apparatus and moving picture decoding apparatus
WO2006068293A1 (ja) * 2004-12-21 2006-06-29 Sony Corporation 画像処理装置と画像処理方法および画像処理プログラム
JP3753731B1 (ja) 2005-02-18 2006-03-08 三菱電機株式会社 画像処理装置、画像処理方法、及び画像表示装置
JPWO2007063819A1 (ja) * 2005-11-29 2009-05-07 パイオニア株式会社 記録装置、再生装置、記録方法、記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4961800B2 (ja) * 2006-03-31 2012-06-27 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
MY151708A (en) 2007-02-07 2014-06-30 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203428A (ja) * 1993-12-28 1995-08-04 Canon Inc 画像処理方法及び装置
JPH11266462A (ja) * 1998-03-16 1999-09-28 Nec Corp 動画像符号化装置のプレフィルタ
JP2003006650A (ja) * 2001-06-20 2003-01-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2005348176A (ja) * 2004-06-03 2005-12-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP2007124397A (ja) * 2005-10-28 2007-05-17 Nikon Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20100026880A1 (en) 2010-02-04
EP2160015B1 (en) 2011-11-23
ATE535099T1 (de) 2011-12-15
JP2010041064A (ja) 2010-02-18
EP2160015A1 (en) 2010-03-03
US8488009B2 (en) 2013-07-16
CN101640801B (zh) 2012-05-30
CN101640801A (zh) 2010-02-03

Similar Documents

Publication Publication Date Title
JP4613990B2 (ja) 画像処理装置、画像処理方法、プログラム
JP4666012B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5045674B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR101298642B1 (ko) 영상 잡음 제거 방법 및 장치
Norkin et al. Film grain synthesis for AV1 video codec
JP2012516637A5 (ja)
JP2007188493A (ja) 動きボケ画像中の動きボケを減らす方法、それぞれが各自のボケ・パラメータを持つ複数の動きボケ画像を用いて動きボケの減らされた画像を生成する方法、動きボケ画像中の動きボケを減らす装置、およびそれぞれが各自のボケ・パラメータを持つ複数の動きボケ画像を用いて動きボケの減らされた画像を生成する装置
JP2013192224A (ja) ブラー映像及びノイズ映像で構成されたマルチフレームを用いて非均一モーションブラーを除去する方法及び装置
KR20150145725A (ko) Ldr 비디오 시퀀스의 동적 범위 확장을 위한 방법 및 장치
Dai et al. Film grain noise removal and synthesis in video coding
JP2012249038A (ja) 画像信号処理装置、画像信号処理方法
JP2004159311A (ja) 画像処理装置および画像処理方法
JP2008301336A (ja) 画像処理装置、画像符号化装置及び画像復号化装置
KR20200019853A (ko) 비디오 인코딩의 연기된 포스트-프로세스들을 위한 시스템들 및 방법들
JP4915468B2 (ja) 画像処理装置、画像処理方法、プログラム
CN111800583B (zh) 高动态范围图像分区处理方法、装置及计算机可读存储介质
JP2005141722A (ja) 画像信号処理方法、画像信号処理装置、及び画像信号プログラム
JP2011199349A (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP2009182768A (ja) 動画像符号化方法,装置,プログラムおよびコンピュータ読み取り可能な記録媒体
JP2009077240A (ja) 画像処理装置及び画像処理方法
AU2016201449B2 (en) Encoding and decoding using perceptual representations
JP2014110509A (ja) 画像符号化装置及び画像符号化方法
CN113766239B (zh) 数据处理的方法和***
TWI519139B (zh) 資料處理方法及數位影像處理裝置
JP5715533B2 (ja) 動画像画質復元装置、動画像画質復元方法、およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

R151 Written notification of patent or utility model registration

Ref document number: 4613990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees