JP5121852B2 - 画像ブロックの分類 - Google Patents

画像ブロックの分類 Download PDF

Info

Publication number
JP5121852B2
JP5121852B2 JP2009547198A JP2009547198A JP5121852B2 JP 5121852 B2 JP5121852 B2 JP 5121852B2 JP 2009547198 A JP2009547198 A JP 2009547198A JP 2009547198 A JP2009547198 A JP 2009547198A JP 5121852 B2 JP5121852 B2 JP 5121852B2
Authority
JP
Japan
Prior art keywords
group
frame
image element
classification parameter
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009547198A
Other languages
English (en)
Other versions
JP2010517415A (ja
Inventor
ケネス アンデション,
クリントン プリドル,
ヨナタン サミュエルソン,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2010517415A publication Critical patent/JP2010517415A/ja
Application granted granted Critical
Publication of JP5121852B2 publication Critical patent/JP5121852B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、一般に画像処理に関し、特に画像フレームのビデオシーケンスの画像中の画像ブロックの分類を提供することに関する。
より高いフレームレートのビデオシーケンスがより低いフレームレートのビデオシーケンスより高品質の体験を与えると一般に考えられるため、フレームレートアップ変換が行なわれる。ビデオシーケンスのフレームレートは、既存のフレーム間に予想されるフレームを挿入することにより増加される。適切な方法は、双方向ブロック動き推定(非特許文献1)を使用して中間フレームを予測することであり、それにより入力されたビデオシーケンスの先行フレームと次のフレームとの間の直線運動を探索する。加速を表せる非線形方法を使用することも可能であるが、単純であり且つそれ程複雑でないために線形方法が使用される。中間フレームはブロックに分割され、各ブロックには動きベクトルが何らかの方法で割り当てられる必要がある。しかし、動きベクトルの集合が現在のブロックに対する候補である可能性があり、それらの候補動きベクトルのうちの1つのみが動きを表すために選択される。
それらの候補ベクトルのうち選択されるベクトルに関して評価が実行される場合、種々のパラメータが使用される。最も一般的なのは差分絶対値和(SAD)(非特許文献2)であり、これは先行フレームにおいて指し示される画素と次のフレームにおいて指し示される画素との間の値の差分から計算される。
場合によっては、2つ(又はそれ以上)の異なる動きベクトルは小さいSAD値を有するが、動きを表すために1つの動きベクトルのみが選択される。図8は、ビデオシーケンス中の2つのフレーム10、20を示す。(ユーザにとって)中間フレーム30の内容を推測するのは困難なことではない。
背景は、変更されていないため、2つの隣接フレーム10、20と同一である可能性が高く、先行フレーム20においてボールが左側にあり且つ後続フレーム10においてボールが右側にあるため、直感的に中間フレーム30の中心にボールが存在すると考えられる。フレーム10のボールからフレーム20のボールを指し示す動きベクトルは小さいSAD値を与え、ベクトルの長さの半分の位置で画像の中心を通過する。
しかし、中央の領域は、先行フレーム20において後続フレーム10と全く同一又はほぼ同一に見える。局所的に考慮すると、この領域が中間フレーム30において同一に見え、ゼロ動きベクトルは非常に小さなSAD値を与える。従って、動きベクトルを選択する従来技術は、この状況において問題を生じる可能性がある。背景のゼロ動きを正確に撮影するのは最も容易であるため、この動きベクトルは、ボールの動きに対応する動きベクトルの代わりに選択される。その結果、中間画像30はボールを全く含まないものになる。
Choi, B.T., Lee, S.H., & Ko, S.J., 2000,「双方向動き推定を用いたフレームレート・アップコンバージョンの新手法」IEEE トランザクション、コンシューマ・エレクトロニクス第46巻、第3号、603〜609ページ Zhai, J., Yu, K., Li, J. & Li, S., 2005,「低複雑度動き補償フレーム補間法」神戸(日本)で開催されたIEEE主催の回路とシステムの国際シンポジウム(ISCAS2005),2005年5月23日〜26日
本発明は、従来技術の構成の上記欠点及び他の欠点を克服する。
本発明の一般的な目的は、画像フレーム中の前景と背景とを区別するために利用される分類パラメータを提供することである。
本発明の特定の目的は、候補画素ブロックを選択する時に分類パラメータを利用するフレーム補間/外挿を提供することである。
これらの目的及び他の目的は、添付の請求の範囲により規定される本発明により達成される。
簡単に説明すると、本発明は、フレームシーケンスの現在のフレーム中の少なくとも1つの画像要素の現在のグループに対する分類パラメータを判定することを含む。シーケンス中の参照フレームから現在のフレームへの画像要素プロパティ値のグローバル動きの表現は、好ましくは現在のブロックのグループに対して割り当てられるか又は推定される変位ベクトルに基づいて判定される。参照グループは、判定されたグローバル動き表現を利用して現在のグループに対する参照フレームにおいて識別される。本発明の分類パラメータは、現在のグループ及び参照グループの画像要素のプロパティ値の差分に基づいて、好ましくは現在のグループ及び参照グループにおける対応する画素位置を占める画像要素に対するプロパティ値の差分の絶対値の和又は差分平方和として計算される。
判定された分類パラメータは、現在のグループが現在のフレームの前景に属するか又は背景に属するかを示し、グループの分類に利用される。パラメータが閾値を上回る場合、グループはフレーム中の前景グループと考えられ、パラメータが閾値を上回らない場合、グループは背景に属すると考えられる。
好適な実現例は、現在のグループと関連付けられる変位ベクトルを利用して現在のグループに対する参照フレームの第2の参照グループを識別する。その後、グローバル動き表現は、識別された第2の参照グループから開始して、現在のフレームの第2のグループを識別するために利用される。第2の分類パラメータは、第2のグループ及び第2の参照グループの画像要素のプロパティ値に基づいて計算される。現在のグループの分類は、第1の分類パラメータ及び第2の分類パラメータの双方に基づいて実行される。
本発明の分類パラメータは、既存の第1のフレーム及び第2のフレームに基づいてビデオシーケンスに新しいフレームを補間又は外挿する時、フレームレートアップ変換中に有利に利用される。第1のフレームに存在する複数の候補グループの集合が提供される。本発明の分類パラメータは、候補グループ毎に判定される。各候補グループは、第2のフレームの各参照グループを識別するために利用される関連する変位ベクトルを有する。各差分パラメータは、候補グループ及びその識別された参照グループに対するプロパティ値の差分に基づいて計算される。新しいフレームに画像要素グループを補間/外挿する時に使用する候補グループは、従来の差分基準及び本発明の分類パラメータの双方に基づいて選択される。この選択は、選択において前景に属するグループに背景グループより大きな重みを与えるために分類パラメータを利用する。新しいフレーム中のグループのプロパティ値は、選択されたグループ及びその識別された参照グループに基づいて判定される。
本発明は、添付の図面と共に以下の説明を参照することにより、本発明の更なる目的及び利点と共に最もよく理解されるだろう。
本発明の一実施形態に係る画像処理方法を示すフローチャートである。 本発明の教示が適用されるフレームのビデオシーケンスを示す概略図である。 ビデオシーケンスの2つのフレームを示す図である。 図1のグローバル動きベクトル判定ステップの一実施形態を示すフローチャートである。 図1の分類パラメータ計算ステップの一実施形態を示すフローチャートである。 図1の方法の追加のステップを示すフローチャートである。 図1の方法の追加のステップを示すフローチャートである。 補間される中間画像フレームと共に2つの画像フレームを示す図である。 本発明の一実施形態に係る動きベクトルを選択する方法を示す図である。 補間される中間画像フレームと共に2つの画像フレームを示す図である。 動きベクトルを選択する際の問題を示す図である。 本発明の一実施形態に係る補間方法を示すフローチャートである。 補間方法において使用される候補動きベクトルを示す図である。 本発明に係る画像プロセッサを示す概略ブロック図である。 図14のパラメータ計算器を示す概略ブロック図である。 本発明に係るブロック補間器を示す概略ブロック図である。
図中、同一の図中符号が対応する要素又は類似する要素に対して使用される。
本発明は、一般に、フレームの背景及びフレームの前景にそれぞれ属するフレーム部分を識別するためのフレームシーケンスにおける画像及びフレーム処理に関する。
このフレーム部分の分類は、フレームレートアップ変換中は非常に重要であり、シーケンス中の構成フレームに画素値を補間又は外挿するために採用される候補画素ブロックを決定する際に使用される。
本発明において、ビデオ又はフレームシーケンスは、複数、すなわち少なくとも2つのフレーム又はピクチャを含む。そのようなフレームは、一連の1つ以上のスライスから構成されると考えられ、そのようなスライスは、画像要素又は画素の1つ以上のマクロブロックから構成される。本発明において、表現「画像要素」は、シーケンス中のフレーム又はピクチャの最小要素を示すために使用される。そのような画像要素は、色(赤色、緑色、青色、すなわちRGB空間における)又は輝度(Y)及びクロミナンス(Cr、Cb又はU、Vで示される場合もある)等の関連する画像要素プロパティを有する。画像要素の一般的な一例は、フレーム又はピクチャの画素である。本発明は、所定のフレームレートの複数の連続フレームを含むビデオシーケンスに特に適応される。しかし、本発明は、少なくとも2つのフレーム又は画像を含むフレームシーケンスにも適用可能である。そのようなシーケンスは、異なる位置又は角度から同時に得られた2つのピクチャを含むことができる。このように、本発明は、ビデオシーケンスの異なる時刻、及び/又は、異なる位置又は角度と関連付けられる少なくとも2つのフレームを含む任意のフレームシーケンスに適用可能である。
画像要素は、画像要素のグループに編成される。表現「画像要素のグループ」は、復号化及び符号化中に共に処理される画像要素の集合へのフレーム及びスライスの任意の従来の周知の区画を示す。一般に、そのようなグループは、画像要素の矩形(M×N)又は正方形(M×M)グループである。そのようなグループ化の一例は、ビデオ圧縮規格におけるマクロブロックである。そのようなマクロブロックは、一般に16×16の画像要素のサイズを有する。マクロブロックは、16×8、8×16、8×8、8×4、4×8及び4×4の画像要素等の複数のいわゆるサブマクロブロック区画から成る。8×8サブマクロブロック区画はサブマクロブロック又はサブブロックとして示される場合が多く、4×4区画はブロックとして示される場合が多い。
図1は、複数のフレームを含むフレームシーケンスに適用可能な画像処理方法を示すフローチャートである。シーケンス中の各フレームは、少なくとも1つの画像要素、一般に4×4の画像要素等の複数の画像要素の複数のグループ又はブロックを含む。方法はステップS1で開始し、参照フレームの少なくとも参照部分からフレーム/ビデオシーケンスの現在のフレームの少なくとも一部分への画像要素プロパティ値のグローバル動きの表現を判定する。このグローバル動き表現は、シーケンスの参照フレームから現在のフレームへ進む時の画素のグローバルな又は全体的な移動を示す。
次のステップS2は、現在のフレームの少なくとも1つの画像要素の現在のグループに対して参照フレームの少なくとも1つの画像要素の参照グループを識別するために、判定したグローバル動き表現を使用する。換言すると、ステップS2において、現在のフレームの現在のグループの位置に適用される際にグローバル動き表現が指し示す参照フレームの参照グループが識別される。
グローバル動き表現は、必ずしも整数動きである必要はない。逆に、参照グループのプロパティ値がフィルタリングされ、1/2画素値、1/4画素値又は1/8画素値等のサブ画素値を取得できる。これは、十進数がグローバル動き表現のベクトル成分に対して可能であることを意味する。
ステップS3は、現在のグループ及び参照グループの画像要素のプロパティ値に基づいて現在のグループに対する分類パラメータを計算する。従って、この分類パラメータは、現在のグループとグローバル動き表現に基づいて識別された対応する参照グループとの間の画像要素プロパティ値の差分を表す。分類パラメータは、現在のグループが現在のフレームの前景に属するか又は背景に属するかを更に示す。一般に、分類パラメータに対して選択された特定のパラメータ形式に依存して、現在のグループが前景に属する場合には大きなパラメータ値が取得される一方、比較的小さいパラメータ値は、現在のグループが現在のフレームの背景部分の一部を形成することを示す。
分類パラメータは、本明細書において更に説明するように、現在のフレームの種々のグループを分類するためだけでなく、フレームレートアップ変換中に新しいフレームを補間/外挿する等の他の目的にも使用される。
図1で実行される動作は、現在のフレームの全ての画像要素グループ等の複数の画像要素グループに適用されるのが好ましい。そのような場合、ステップS2及びS3は、現在のフレームの全てのグループに対して繰り返され、種々の画像要素グループに対するそれぞれの分類パラメータを取得する。その後、方法は終了する。
図2は、本発明の教示が適用されるフレーム10、20のビデオシーケンス1を示す概略図である。元のビデオシーケンスは、異なる時刻ti−1、ti+1及びti+3等と関連付けられる複数のフレーム10、20を含む。レートアップ変換の場合、1つ以上の追加のフレーム30がシーケンス1の2つの元のフレーム10、20間で発生する時刻tに対応するように判定される。本発明の画像処理方法をそのようなシーケンスに適用する場合、時刻ti+1のフレーム10が現在のフレームと考えられる一方、時刻ti−1の先行する元のフレーム20は参照フレームとなる。あるいは、異なるフレーム10、20は、種々のカメラビューから得られるが、同一時点又はほぼ同一時点のものである。
図3は、現在のフレーム10及び参照フレーム20を更に詳細に示す。現在のフレーム10の少なくとも1つの画像要素14の現在のグループ12は、分類パラメータを計算する目的で本発明に従って処理される。グローバル動き表現50は計算されており、図示される。このグローバル動き表現50は、参照フレーム20における現在のグループ12の対応する位置から現在のグループ12に対する参照フレーム20中の参照グループ28となる少なくとも1つの画像要素24のグループ28までを指し示すベクトルとして考えられる。図示するように、画像要素24の数に関する参照グループ28のサイズは、現在のグループ12の対応するサイズと同一である。しかし、サブ画素値が使用される場合、それらの画素値は、グループのサイズより大きい参照フレームの部分をフィルタリングすることにより判定される。これは、従来技術において周知である。
本発明のグローバル動き表現50は、シーケンス中の参照フレーム20から現在のフレーム10に進む際の画素パラメータ値の動き方に依存して、ベクトル成分x及びyに対してゼロベクトルから非ゼロ値までの範囲の任意のベクトル値
をとることができる。
図4は、本発明のグローバル動き表現を判定する好適な一実施形態を示すフローチャートである。方法はステップS10で開始し、ベクトルの集合が提供される。このベクトルの集合は、現在のフレームの少なくとも一部分における画像要素グループ毎に、参照フレームの少なくとも1つの画像要素の参照グループを参照する関連する変位又は動きベクトルを含む。従って、現在のフレームの少なくとも一部分の各グループ、好ましくはフレームの各グループは、参照フレームの参照グループを指し示すか又はそれと関連付けられる割り当てられた変位ベクトルを有する。
変位ベクトルは、H.264等のビデオコーデックの符号化動きベクトル場から提供される。そのような動きベクトルは、従来、フレームのフレーム間符号化において使用されるが、本発明に係る別の目的で再利用可能である。そのような動きベクトルがビデオコーデックから入手可能でない場合、それらの動きベクトルは動き推定探索から判定される。そのような場合、専用の動き推定探索は、好ましくは従来のアルゴリズムに従って、本発明のグローバル動き表現を判定するのに使用される動きベクトル集合を生成する目的で実行される。
一般に、現在のフレームの各画像要素グループは、ビデオコーデックにより又は動き推定から生成される関連する動きベクトルを有することができる。しかし、一部のグループは、ビデオコーデックによりフレーム内ブロックとして符号化されるため、割り当てられた動きベクトルを有さないことがある。そのような場合、そのようなグループは、本発明の動きベクトルの処理から省略される。これは、現在のフレームのグループの一部分のみ(殆どの部分であるが)及びそれらの割り当てられた動き/変位ベクトルがグローバル動き表現を計算するために後続ステップS11において利用されることを意味する。
次のステップS11は、ステップS10において提供された(取り出されたか又は計算された)ベクトル集合からの変位ベクトルを使用して、グローバル動きベクトルを判定する。単純な一実現例において、グローバル動き表現は、ベクトル集合中の変位ベクトルの平均ベクトルとして判定される。これは計算上単純な実施形態であるが、正確なグローバル動き表現を取得する目的に最適な実施形態には程遠い。従って、ステップS11の好適な一実施形態において、現在のフレームの種々の画像要素位置によって変動するベクトル成分値を有する位置に依存するグローバル動きベクトル又は表現、すなわちv = v(x, y)は、ステップS11で判定される。
ステップS11の好適な一実現例は、グローバル動き表現の以下の表現を利用する:
v = Ax + b
式中、
は現在のフレームの現在のグループの位置であり、
は現在のグループのグローバル動き表現である。
及び
は、ステップS10で提供される変位ベクトルに基づいて推定される行列及びベクトルである。行列A及びベクトルbに対する値を計算するために、最小二乗法が提供された変位ベクトルに対して使用されるのが好ましい。従って、変位ベクトルとグローバル動き表現との平方差分を最小にするという点に関して最適な結果を与える行列及びベクトルは、ステップS11で推定される。最終的なグローバル動き表現v = Ax + bは、カメラのパニング、ズーム及び回転等の最も一般的な背景の動きを撮影する。
当然、上記概念は、
又は高次成分等のグローバル動き表現の他のパラメータ化に適用可能である。方法は、図1のステップS2に進み、グローバル動きの判定された表現は、現在のグループのグループ座標x及びyを使用して、その点におけるグローバル動きを計算し、参照フレームの参照グループを識別するために適用される。
ビデオコーデック又は専用の動き推定探索からの変位ベクトルを使用することは、本発明のグローバル動き表現を判定するために使用される変位ベクトル集合を取得する特定の一実施形態である。他の実施形態も使用可能であり、本発明により考慮される。例えば位相相関に基づく動き推定は、グローバル動きの表現を取得するために使用される。グローバル動きに対する動き推定の別の例は、画素再帰的動き推定、すなわち画素動き推定である。
図5は、図1のパラメータ計算ステップS3の特定の一実施形態を示すフローチャートである。方法は、図1のステップS2から継続する。次のステップS20は、現在のグループ及び識別された参照グループの画像要素のパラメータ値の間の差分を計算する。それらの差分は、現在のグループの画像要素毎に、その画像要素のプロパティ値と現在のグループにおいて画像要素が有する位置に対応する位置を参照グループにおいて有する参照画像要素のプロパティ値とに基づいて計算される。換言すると、差分はDx,y = IEx,y - RIEx,yで計算される。式中、IEx,yは現在のグループの位置x,yの画像要素のプロパティ値であり、RIEx,yは参照グループの位置x,yの参照画像要素のプロパティ値であり、Dx,yは差分である。
次のステップS21は、差分の絶対値に基づいて分類パラメータを計算する。種々の実施形態が絶対値に基づくこのパラメータ計算において使用される。第1の実施形態は、差分絶対値和(SAD)に基づく分類パラメータを利用する:
分類パラメータの別の好適な実施形態は、差分平方和(SSD)である:
双方の場合において、大きいSAD値又はSSD値が現在のフレームの前景に属するグループに対して取得される一方、背景グループは相対的に小さいSAD値及びSSD値を有する。
図6は、図1の画像処理方法の追加のステップを示すフローチャートである。方法は、図1のステップS3から継続する。次のステップS30は、計算された分類パラメータに基づいて、現在のグループを現在のフレームの背景又は前景に属するものとして分類する。本明細書において更に説明するように、ステップS30の分類は、分類パラメータと閾値との比較に基づいて実行されるのが好ましい。そのような場合、現在のグループは、計算された分類パラメータが閾値を上回る場合には現在のフレームの前景に属するものとして分類され、分類パラメータが閾値を下回る場合には背景に属するものとして分類される。
図3及び図7を参照すると、図1の画像処理方法の好適な追加のステップが示される。方法は、図1のステップS3から継続する。次のステップS40は、現在のフレーム10の現在のグループ12に対する参照フレーム20の少なくとも1つの画像要素24の第2の参照グループ22を識別する。この識別は、現在のグループ12と現在のグループ12に関連付けられる変位ベクトル又は表現16とに基づいて実行される。変位ベクトル16は、参照フレーム20において現在のグループ12が有していた位置に対応する位置から第2の参照グループ22までを指し示す。
変位ベクトル16は、現在のフレーム10に対するグローバル動き表現50を計算するために先に使用されたベクトル集合から取り出される。従って、ベクトル16は、ビデオコーデックから取得されるか又は動き推定探索において判定される。
次のステップS41は、第2の参照グループ22の画像要素24のプロパティ値及び現在のグループ12の画像要素14のプロパティ値に基づいて、いわゆる廃棄パラメータを計算する。この廃棄パラメータは、現在のグループ12及び参照グループ22の対応する位置を占める画像要素に対するプロパティ値の対毎の差分の絶対値に基づくのが好ましい。計算は、上述の分類パラメータ計算と同様の方法で実行されるのが好ましいが、使用されるのは変位ベクトル16により識別される第2の参照グループ22の画像プロパティ値であり、グローバル動き表現50に基づいて識別される第1の参照グループ28のプロパティ値ではないという点が異なる。
廃棄パラメータは、上述の第1の分類パラメータと同一の種類のパラメータであるのが好ましい。換言すると、分類パラメータがSAD(SSD)値である場合、廃棄パラーメータもSAD(SSD)値であるのが好ましい。
ステップS42において、計算された廃棄パラメータDPは第1の閾値Tと比較される。廃棄パラメータが第1の閾値より小さい場合、ステップS43に進む。廃棄パラメータが第1の閾値より小さくない場合、方法は終了する。この場合、現在のグループの分類は不可能であるか、あるいは分類は図1のステップS3で計算された第1の分類パラメータにのみ基づく。
ステップS43において、少なくとも1つの画像要素14の第2のグループ18は、参照フレーム20の第2の参照グループ22及びグローバル動き表現50に基づいて現在のフレーム10において識別される。この第2のグループ18は、現在のフレーム10において第2の参照グループ22が有していた位置と対応する位置からグローバル動き表現50を適用することにより識別され、表現50は、第2のグループ18の位置を指し示す。図3から明らかなように、グローバル動き表現50の方向は、第2の参照グループ22から開始して第2のグループ18で終了する時と比較して現在のグループ12から第1の参照グループ28に進む時には反対になる。従って、グローバル動き表現50は、前者の場合に値
を有していた時、第2の例の場合に値
を有するのが好ましい。
次のステップS44は、第2の参照グループ22及び第2のグループ18の画像要素プロパティ値の差分に基づいて第2の分類パラメータを計算する。このステップS44は、第1の分類パラメータの計算と同様の方法で実行されるのが好ましいが、使用されるのは第2のグループ18及び第2の参照グループ22からのプロパティ値であり、現在のグループ14及び第1の参照グループ28からの値ではないという点において異なる。従って、第2のグループ18及び第2の参照グループ22の対応する位置を占める画像要素14、24のプロパティ値間の対毎の差分が計算される。差分の絶対値が合計されてSADに基づく第2の分類パラメータを得るか、あるいは平方差分が合計されてSSD形式の第2の分類パラメータを取得する。第2の分類パラメータCPは、第1の分類パラメータCP及び廃棄パラメータと同一のパラメータ形式であるのが好ましい。
ステップS45において、第1の分類パラメータCPが第2の閾値Tと比較されるのが好ましい。第1の分類パラメータが第2の閾値を下回る場合、ステップS46に進み、第2のパラメータCPが第3の閾値Tと比較される。一般的な一実現例において、第3の閾値は第2の閾値と等しい。閾値は、固定であるか又は適応されるか、あるいは特定のビデオシーケンスに基づいて判定される。
第2の分類パラメータが第3の閾値を下回る場合、ステップS47に進み、現在のグループ12が現在のフレーム10の背景に属するものとして分類される。しかし、ステップS46において第2の分類パラメータが閾値を上回る場合、ステップS48に進む。この場合、第1のパラメータが閾値を下回る一方、第2の分類パラメータはその閾値を上回る。そのような場合、現在のグループ12の分類は不確かであると考えられる。あるいは、第1の分類パラメータのみが利用される。すなわち、グループ12は背景グループと考えられる。
ステップS45において第1の分類パラメータが第2の閾値を上回る場合、ステップS49に進み、ステップS46と同様に第2の分類パラメータが第3の閾値と比較される。上述と同様に、第2の分類パラメータが第3の閾値を下回る場合、すなわち一方のパラメータが閾値を上回り且つ他方のパラメータが閾値を下回る場合、現在のグループ12の分類が不確かであると考えられる。しかし、ステップS49において第2の分類パラメータが比較された閾値を上回る場合、ステップS50に進み、現在のグループ12が現在のフレーム10の前景に属するものとして分類される。
不確かな分類を回避する別の方法は、好ましくは同一のパラメータ重みを使用して、2つの分類パラメータの加重和を計算することである。その和は、分類パラメータと比較される。別の可能性は、双方の分類パラメータがそれぞれの閾値を上回る場合にのみ現在のグループを前景に属するものとして分類することであり、上回らない場合、グループは背景に属するものとして考えられる。
比較の順番は、第1のパラメータが第2の閾値と比較される前に第2の分類パラメータがまず第3の閾値と比較されるように交換可能であることは、本発明により予想される。これに対して、廃棄パラメータとの比較は分類パラメータの比較の後に実行可能である。
従って、この特定の実施形態において、現在のグループ12の分類は、第1の分類パラメータ及び第2の分類パラメータ、並びに好ましくは廃棄パラメータに基づいて実行される。しかし、本発明の別の実施形態において、ステップS41及びS42は省略されるため、分類は、廃棄パラメータを用いずに行なわれ、その代わりに第1のパラメータ及び第2のパラメータを利用する。
上述の方法は、現在のフレーム10の全てのグループ12に対して実行され、それにより背景グループ又は前景グループとしてのグループの完全な分類(又は不確かな分類)を形成するのが好ましい。オプションとして画像処理方法を継続すると、グローバル動き表現の改善された更新が現在のフレーム10の背景に属するものとして分類されたグループにのみ基づいて実行される。そのような場合、判定は、背景グループのみを利用して上述の任意の実施形態に従って実行される。例えば、行列A‘及びベクトルb‘の新たな推定は、背景グループと関連付けられる変位ベクトルを利用して実行され、更新済みグローバル動き表現v‘を判定できる。
新たな分類パラメータの計算及び分類パラメータの処理は、更新済みグローバル動き表現に基づいて実行される。これは、先に実行された計算に基づいて更新済みグローバル動き表現を生成することにより反復的に繰り返され、更に正確なグローバル動き表現及びグループ分類が得られる。しかし、殆どの画像フレームの場合、グローバル動きの判定及び分類は1度だけ実行される必要がある。すなわち、更新又は改善は行なわれない。
本発明に従って判定される分類パラメータ及び背景又は前景グループへのグループの分類は、フレームレートアップ変換に関連して新しいフレームを補間又は外挿する際に有利に利用される。
図8は、そのようなアップ変換中に起こる状況を示す。左側の画像は、ビデオシーケンス中の先行参照フレーム20に対応し、サッカーボールがピクチャ中の左側にあるサッカー競技場の一部分を示す。ビデオシーケンス中の後続のフレーム10は基本的に同一のサッカー競技場の部分を示すが、ここではサッカーボールはピクチャの右側にある。レートアップ変換において、中間フレーム30は、参照フレーム20と現在のフレーム10との間に補間される。この中間フレーム30が、サッカーボールが基本的にピクチャの下半分の中央にあるサッカー競技場を示すことを推測することは、観察者にとって困難なことではない。しかし、現在のフレーム10と参照フレーム20とのグループ間の動きベクトルに基づく補間のみを実行し、少なくとも部分的に前景/背景分類に基づく補間を実行しない従来のレートアップ変換方式では、背景の節において説明したようにサッカーボールを全く含まない中間フレーム30を生成する可能性が高い。
図9は、図8に示す例に対する本発明の優れた補間を概略的に示す。この場合、時刻ti−1の先行フレーム20から時刻ti+1の現在のフレーム10への画像要素プロパティ値のグローバル動きはゼロ動きとなる(背景が2つのフレーム10、20間で全く移動しないため)。時刻tの中間フレーム30の中央領域に対して2つの候補変位ベクトルが存在する。一方は、変位ベクトル40により表されるボールの動きを表現し、他方は、ベクトル42により表される中央の背景の(ゼロ)動きを表す。グローバル動き表現50が先行フレーム20のボールを範囲に含む画像要素グループに適用される場合、芝を範囲に含む後続フレーム10の画像要素グループが得られる。同様に、先行フレーム20の右下の画像要素グループ、すなわち背景の芝を含む画像要素グループから開始し、グローバル動きに従って後続フレーム10に移動した場合、サッカーボールを範囲に含むグループが得られる。これは、フレーム10、20の一方がボールを含み且つ他方のフレーム10、20がそれらの特定領域において芝を含むため、ボールの動きと関連付けられる変位ベクトル40により指し示される領域がグローバル動き50と一致しないことを意味する。従って、芝のグループ及びサッカーボールのグループの画素パラメータ値に基づいて計算される分類パラメータは大きなパラメータ値を有する。
しかし、この場合は変位ベクトル42及びグローバル動き表現50が双方ともゼロであるため、先行フレーム20の下半分の中央の芝から後続フレーム10の下半分の中央の芝のグループへの(ゼロ)変位ベクトル42はグローバル動き50と一致する。従って、グローバル動き50を適用することにより識別される先行フレーム20及び後続フレーム10のグループのプロパティ値の差分に基づいて計算される分類パラメータは、この場合、背景の芝を示すため小さい。
本発明の画像処理をこの単純な例に適用すると、サッカーボールに対応する画像要素グループが前景として分類される一方、残りのグループは背景となる。この分類は、2つの候補変位ベクトル40、42間で選択する時に利用される。従って、他方の(ゼロ)候補ベクトル42はサッカーボールベクトル40と比較してSAD値又はSSD値等の小さい弁別値を達成する可能性が高いが、補間が本発明の分類に少なくとも部分的に基づくことにより、(正確な)変位ベクトル40は中間フレーム30の下半分の中央の領域に対して選択される。
候補動きベクトル40、42をグローバル動き50と直接比較する方が容易であると考えられるかもしれないが、それらが十分に異なる場合、ベクトル40、42は前景オブジェクトに対応する。しかし、そのような処理は無駄となる可能性が高い。図8のボールの場合、先行フレーム20のサッカーボールの右側に領域が存在する。図10を参照すると、その領域は後続フレーム10のボールの左側の領域に類似する。この第3の別の方法に対する変位ベクトル44を上述の他の2つの候補40、42と共に図11に示す。
図10の印をつけられた領域の間を指し示す動きベクトル44は、(ゼロ)グローバル動き50とは異なるが、依然として前景オブジェクトに対応しない。これは、後続フレーム10の円の中のグループから開始し且つグローバル動き50に従って先行フレーム20のグループに移動することにより取得されるパラメータのように、先行フレーム20の円の中のグループ及びグローバル動き表現50に基づいて識別される後続フレーム10のグループから画像要素プロパティ値の差分を計算することにより取得される分類パラメータが相対的に小さいため明らかである。この場合、全ての4つのグループは、芝オブジェクトに対応するため、背景の一部を形成する。従って、変位ベクトル40、42、44がグローバル動き表現50と直接比較される場合、この場合と同様に、グループは間違えて分類される。しかし、本発明により、第3の別の方法により指し示される領域は、グローバル動きと一致するため背景の一部であることが容易に分かる。
図12は、ビデオシーケンスの時刻と関連付けられるフレームの少なくとも1つの画像要素のグループのプロパティ値を推定する方法を示すフローチャートである。この推定は、フレームの補間又は外挿を介して1つ以上のフレームをビデオシーケンスに追加するために、レートアップ変換手順の一部として実行されるのが好ましい。
方法は、オプションのステップS60で開始し、推定において使用するビデオシーケンスの少なくとも2つのフレームが識別される。一般的な一実施形態において、一方のフレームが補間される中間フレームに対して先行する時刻に対応し、他方のフレームはシーケンス中の後続する時刻に対応する。好適な一実施形態において、2つのフレームは、時間に関して中間フレームの直前及び直後に位置付けられるフレームである。換言すると、フレームは隣接するフレームとして考えられる。このフレームの補間において、3つ以上のフレームが実際に使用可能である。例えば、時刻tのフレームを補間するために時刻ti−1,ti−3,...,ti+1−2Nに対応するN個の先行フレーム及び時刻ti+1,ti+3,...,ti−1+2Mに対応するM個の後続フレームを使用する。
同様に、時間tのフレームを外挿する時、時刻ti−1,ti−3,...,ti+1−2Nの2つ以上の先行フレーム又は時刻ti+1,ti+3,...,ti−1+2Mの2つ以上の後続フレームが使用される。
補間及び外挿に関する同様の手順は、時間領域の代わりに空間領域において適用可能である。そのような場合、新しい「ビュー」は、同一時間であるが異なる角度及び/又は変位の2つの画像又はフレームから補間又は外挿される。
次のステップS61は、判定されるフレームと比較されるビデオシーケンス中の先行又は後続する時刻と関連付けられる第1の(先行又は後続)フレームにおける複数、すなわち少なくとも2つの候補グループの集合を提供する。それらの候補グループの各々は、少なくとも1つの画像要素を含み、各変位表現又はベクトルと関連付けられる。それらの変位ベクトルは、フレームのフレーム間符号化、すなわちビデオコーデックから取り出されるか、あるいは動き推定探索から判定される。次のステップS62は、候補グループ毎に分類パラメータを判定する。このパラメータの判定は、本発明の任意の上述の実施形態に従って実行される。
次のステップS63は、候補グループ毎に、ビデオシーケンス中の先行又は後続する時刻と関連付けられる第2の(先行又は後続)フレームの少なくとも1つの画像要素の参照グループを識別する。候補グループと関連付けられる参照グループは、候補グループと関連付けられる変位ベクトルに基づいて識別されるのが好ましい。従って、変位ベクトルは、第2のフレームにおいて候補グループが有していた位置に対応する位置から適用される場合、参照グループを指し示す。この時点で、各候補グループは判定された分類パラメータ及び識別された参照グループを有する。
後続ステップS64は、候補グループ毎に、候補グループ及びその識別された参照グループの画像要素のプロパティ値の差分を表す差分基準を計算する。好適な一実施形態において、基準は、候補グループ及び基準グループの対応する位置を占める画像要素に対するプロパティ値の差分の絶対値に基づいて計算される。そのような差分基準の好適な例はSAD及びSSDを含む。
次のステップS65は、計算された差分基準及び判定された分類パラメータに基づいて、提供されたグループの集合から候補グループを選択する。ステップS65における選択は、分類パラメータ及び差分基準、例えばそれらの加重和から計算される選択パラメータに基づいて実行されるのが好ましい。好適な選択パラメータeは、e = w1 ( DM - w2 ( CPで定義可能である。式中、DMは差分基準であり、CPは候補グループに対する分類パラメータであり、w、wは重みである。ステップS65において、最小の関連する値eを有する候補グループが選択される。選択パラメータeを調査することにより、前景(大きい分類パラメータ)として分類されるグループが背景グループ(小さい分類パラメータ)より優先されることが理解される。更に、同様に、候補グループの画像要素プロパティ値に非常に適合する(小さい差分基準)関連する参照グループを有する候補グループは、第2のフレームにおいてより適合しない候補グループより優先される。好適な一実施形態においてはw>wであり、選択の際の差分基準の影響に対してグループの分類より大きな重みを与える。重みが非ゼロ(正の)重みであることは、上述から明らかである。
最後にステップS66は、選択された候補グループ及び選択された候補グループと関連付けられる参照グループのプロパティ値に基づいて、補間/外挿されたフレームのグループのプロパティ値を判定する。好適な一実施形態において、画像要素プロパティ値は、選択された候補グループ及び関連する参照グループのプロパティ値の線形結合として判定される。選択されたグループのプロパティ値に適用される重み及び関連するグループのプロパティ値の重みは、補間/外挿されたフレームと選択された候補グループを含む第1のフレームとの時間の差分及び補間/外挿されたフレームと第2のフレームとの時間の差分にそれぞれ基づいて判定されるのが好ましい。換言すると、時間の経過がより長い時間の経過と比較して短い場合、より大きい重みが使用される。更にフレームの重みの値は、従来技術において周知のように加速を反映するために利用される。
上述の実施形態において、候補グループと関連付けられる参照グループは、候補グループに割り当てられるか又は候補グループに対して推定される変位ベクトルに基づいて識別される。これは、判定されるグループから参照グループに進む時と同様に、同一のベクトルが候補グループから補間/外挿されるグループに移動するために使用されると推定する。しかし、本発明はこれに限定されない。
別の実施形態において、第1のフレームの複数の第1の候補グループの第1の集合が提供されるのと共に、第2のフレームに存在する複数の第2の候補グループの第2の集合は提供される。また、これらの第2の候補グループは、それぞれ少なくとも1つの画像要素を含み、好ましくはそれぞれ変位ベクトルを有する。第1の候補グループに対する第1の分類パラメータに加え、第2の分類パラメータが第2の候補グループの各々に対して上述のように判定される。差分基準は、第1の集合の1つの第1の候補グループ及び第2の集合の1つの第2の候補グループの対毎に計算される。あるいは、第1の候補及び第2の候補の全ての組合せがテストされるわけではなく、それらのうち限定された部分のみがテストされ、第1のフレーム及び第2のフレームの同一のフレーム位置に存在するグループ及び他のフレームの他の候補グループを識別する関連する変位ベクトルを有するグループ等の候補グループの妥当な組合せを反映する。
その後、第1の候補グループ及び第2の候補グループは、第1の分類パラメータ、第2の分類パラメータ及び差分基準に基づいて選択される。判定されるグループの画像要素プロパティ値は、上述のようにそれらの選択された候補グループのプロパティ値に基づいて計算される。
図13は、第1のフレーム10、第2のフレーム20及びフレームレートアップ変換中に判定される中間フレーム30を有するビデオシーケンス1の一部分を示す。判定される画像要素34のグループ32は、中間フレーム30に示される。適切な第1の候補グループ11、13、15を第1のフレーム10に示し、対応する第2の候補グループ21、23、25を第2のフレーム20に示す。一般的にこれらの候補グループは、グループ32が中間フレーム30において有する位置と対応する位置を第1のフレーム10及び第2のフレーム20に有するグループ11、21を含む。それらのグループ11、21の変位ベクトル42、62は図示されており、判定されるグループ32を通過する。他の候補は、候補グループ11、21の隣接グループ13、23から変位ベクトルを利用して取得される。また、中間フレーム30のグループ32を通過する関連する変位ベクトル40、60を有するグループ15、25は、本発明に係る好適な候補グループである。
先に開示したように、グループの分類及び本発明に従って計算された分類パラメータは、画像要素グループの新しいフレームの補間又は外挿のためにフレームレートアップ変換中に有利に利用される。しかし、本発明は画像処理の分野において他の応用例を有する。例えば、分類は、損失フレームに対するエラー隠蔽機構と関連して利用される。エラー隠蔽機構において、歪みフレーム又はその一部は、ビデオシーケンスの隣接フレームからの一方向(外挿)又は双方向(補間)予測により置換される。そのようなフレーム(部分)置換の際に分類パラメータを利用して達成される改善により、置換は従来の解決策と比較してより正確になる。
図14は、本発明に係る画像プロセッサ100を示す概略ブロック図である。プロセッサ100は、少なくとも1つの画像要素のグループを有する複数のフレームを含むビデオシーケンス等のフレームシーケンスに適用可能である。グローバル動き判定器120は、シーケンス中の参照フレームの少なくとも一部分から現在のフレームの少なくとも一部分への画像要素プロパティ値のグローバル動きの表現を判定するようにプロセッサ100内に構成される。判定器120は、集合提供器110に接続されるのが好ましい。集合提供器110は、フレームの一部分の画像要素グループ毎に参照フレームの参照グループを参照する変位ベクトルを含むベクトルの集合を提供するように構成される。集合提供器110は、内部又は外部ビデオコーデックからその集合を取り出せるか、あるいは動き推定探索で変位ベクトルを推定するための機能性を含むことができる。判定器120は、グローバル動き表現の行列A及びベクトルbを判定することにより、上述の位置に依存するグローバル動きベクトルの1つとしてグローバル動き表現を生成するのが好ましい。
グループ識別器130は、判定器120からのグローバル動き表現に基づいて現在のフレームの現在のグループに対して参照フレームの参照グループを識別するためにプロセッサ100内に設けられる。
パラメータ計算器140は、現在のグループ及びグループ識別器130により識別される参照グループの画像要素プロパティ値の差分に基づいて、現在のグループに対する分類パラメータを計算する。このパラメータは、グループが現在のフレームの背景に属するか又は前景に属するかを示す。その結果、オプションの好適なグループ分類器150は、分類パラメータを使用して現在のグループを背景グループ又は前景グループとして分類するように実現される。この分類動作において、分類器150は、パラメータを閾値と比較し、パラメータが閾値を上回る場合にはブロックを前景ブロックとして分類し、上回らない場合には背景グループとして考えるのが好ましい。
好適な一実施形態において、グループ識別器130は、参照フレームの第2の参照グループを更に識別する。グローバル動き判定器により判定されるグローバル動き表現に基づいて識別された第1の参照グループとは明らかに異なり、第2の参照グループは、現在のグループと関連付けられる変位ベクトルに基づいて識別され、集合提供器110により取り出されるか又は推定される。更にグループ識別器130は、現在のフレームの第2の画像要素グループを識別するためにグローバル動き表現及び新たに識別された第2の参照グループを利用する。従って、全体で4つのグループ、すなわち現在のフレームの現在のグループ、現在のグループから開始し且つグローバル動き表現を利用して識別可能な参照フレームの第1の参照グループ、現在のグループから開始し且つその関連する変位表現を利用して識別可能な参照フレームの第2の参照グループ及び第2の参照グループから開始し且つグローバル動き表現を利用して識別可能な現在のフレームの第2のグループを有する。
パラメータ計算器140は、現在のグループ及び第1の参照グループに対する画像要素プロパティ値に基づいて第1の分類パラメータを計算し、第2のグループ及び第2の参照グループのプロパティ値に基づいて第2の分類パラメータを計算する。グループ分類器150は、現在のグループの分類において第1の分類パラメータ及び第2の分類パラメータの双方を使用する。従って、第1のパラメータ及び第2のパラメータの双方が好ましくは互いに等しい各閾値を超える場合、現在のグループは前景グループであり、双方のパラメータが各閾値を下回る場合、グループは背景グループである。それ以外の場合、分類は不確かであると考えられる。
あるいは、パラメータ計算器140は、第1の分類パラメータ及び第2の分類パラメータの加重和として単一の分類パラメータを計算する。この単一パラメータは、閾値と比較され、前景グループ(大きいパラメータ値)と背景グループ(小さいパラメータ値)とを区別するために使用される。
更なる一実施形態において、計算器140は、グループの分類において分類器150により利用される廃棄パラメータを更に計算する。廃棄パラメータは、現在のグループ及び第2の参照グループにおいて対応する位置を有する画像要素に対するプロパティ値の差分の絶対値に基づいて計算される。例えば、廃棄パラメータはSAD又はSSDパラメータであってもよい。分類器150は、廃棄パラメータを関連する閾値と比較するのが好ましく、廃棄パラメータがその閾値を上回る場合、分類を中止するか又は第1の分類パラメータのみ利用することを決定できる。
画像プロセッサ100のユニット110〜150は、ハードウェア、ソフトウェア、及び/又はハードウェア及びソフトウェアの組合せで提供可能である。ユニット110〜150は、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又はフレーム処理端末又はサーバで実現可能である。あるいは、画像プロセッサ100のユニット110〜150は、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。
図15は、図14のパラメータ計算器140の可能な実現例を示す概略ブロック図である。計算器140は、現在のグループ及び第1の参照グループ等の2つの異なるグループにおける対応する位置を占める画像要素のプロパティ値の差分を計算する差分計算器142を含む。SAD/SSD計算器144は、絶対値の和又は平方絶対値の和等の差分計算器142からの差分の絶対値に基づいて分類パラメータを計算する。
パラメータ計算器140のユニット142及び144は、ハードウェア、ソフトウェア、及び/又はハードウェア及びソフトウェアの組合せで実現されてもよい。
図16は、画像要素のグループの少なくとも1つの画像要素のプロパティ値を推定することによりそのグループを判定するデバイス200を示す概略ブロック図である。デバイス200は、ビデオシーケンスの少なくとも第1のフレーム及び第2のフレームを識別するフレーム識別器210をオプションとして含む。それらの2つのフレームは、判定されるグループを含む現在のフレームと比較してシーケンス中の異なる時刻と関連付けられる。グループの補間の場合、第1のフレームが先行又は後続フレームである一方、第2のフレームは後続又は先行フレームである。グループの外挿の場合、第1のフレーム及び第2のフレームの双方が現在のフレームに対する先行又は後続フレームである。
集合提供器220は、第1のフレームの複数の候補グループの集合を提供するようにデバイス200内に構成される。各候補グループは、少なくとも1つの画像要素を含み、各変位ベクトルを有する。上述し且つ図14に開示される本発明の画像プロセッサ100は、集合の候補グループ毎に分類パラメータを計算するようにデバイス200内に構成される。
グループ識別器230は、候補グループ毎に第2のフレームの第2のグループを識別する。この識別は、候補グループと関連付けられる変位ベクトルに基づいて実行されるのが好ましい。基準計算器240は、候補グループ毎に差分基準を計算する。ここで、基準は候補グループ及びその識別された第2のグループのプロパティ値の差分を表す。基準は、SAD又はSSD基準であるの好ましい。すなわち、画像要素差分の絶対値に基づくのが好ましい。
デバイス200は、画像プロセッサ100からの分類パラメータ及び計算器240による差分基準に基づいて、提供された集合から候補グループを選択するグループ選択器250を更に含む。選択器250は、候補毎に基準及び分類パラメータの加重差分又は和を計算し、最小の加重差分/和を与える候補グループを選択するのが好ましい。値判定器260は、選択された候補グループ及びその関連する第2のグループのプロパティ値に基づいて、一般にはそれらの2つのグループの画像要素値の線形結合に基づいて、現在のグループのプロパティ値を判定する。
上述のように、集合提供器220は、第2のフレームの複数の第2の候補グループの別の集合を提供できる。そのような場合、画像プロセッサ100は、それらの候補グループに対する第2の分類パラメータを更に計算する。グループ選択器250による第1の候補グループ及び第2の候補グループの選択は、第1の分類パラメータ、第2の分類パラメータ及び差分基準に基づいて実行される。選択された第1の候補グループ及び第2の候補グループのプロパティ値は、現在のグループのプロパティ値を補間又は外挿するために値判定器260により利用される。
判定デバイス200のユニット100、210〜260は、ハードウェア、ソフトウェア、及び/又はハードウェア及びソフトウェアの組合せで提供可能である。ユニット100、210〜260は、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又はフレーム処理端末又はサーバで実現可能である。あるいは、判定デバイス200のユニット100、210〜260は、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。
添付の請求の範囲により規定される本発明の範囲から逸脱せずに、種々の変形及び変更が本発明に対して行なわれてもよいことが当業者には理解されるだろう。

Claims (21)

  1. 複数のフレームを含むフレームシーケンスに適用可能な画像処理方法であり、各フレームが画像要素の複数のグループを含む方法であって、
    −参照フレーム(20)の少なくとも参照部分から現在のフレームの少なくとも一部分への、画像要素プロパティ値のグローバル動きの表現を判定するステップと、
    −前記現在のフレームの少なくとも1つの画像要素の第1のグループについて、前記グローバル動き表現に基づいて前記参照フレームの少なくとも1つの画像要素の第1の参照グループを識別するステップと、
    −前記第1のグループ及び前記第1の参照グループの画像要素プロパティ値の差分を表すものとして、第1の分類パラメータを計算するステップと
    −前記第1のグループと関連付けられる変位ベクトルに基づいて前記参照フレームの少なくとも1つの画像要素の第2の参照グループを識別するステップと、
    −前記グローバル動き表現及び前記第2の参照グループに基づいて前記現在のフレームの少なくとも1つの画像要素の第2のグループを識別するステップと、
    −前記第2の参照グループ及び前記第2のグループの画像要素プロパティ値の差分を表す第2の分類パラメータを計算するステップと
    を備え、
    前記第1の分類パラメータと前記第2の分類パラメータとが、前記第1のグループが前記現在のフレームの前景に属するか又は背景に属するかを示すことを特徴とする方法。
  2. 前記現在のフレームの前記少なくとも一部分の画像要素のグループ毎に、前記フレームシーケンスの前記参照フレームの画像要素の参照グループを参照する各変位ベクトルを含むベクトル集合を提供するステップを更に備え、
    前記判定ステップは、前記ベクトル集合の前記変位ベクトルの少なくとも一部分に基づいて前記グローバル動き表現を判定するステップを含むことを含むことを特徴とする請求項1記載の方法。
  3. 前記判定ステップは、前記ベクトル集合の前記変位ベクトル(16)の前記少なくとも一部分に基づいて、位置に依存するグローバル動きベクトルを判定するステップを含むことを特徴とする請求項2記載の方法。
  4. 前記判定ステップは、前記ベクトル集合の前記変位ベクトルの前記少なくとも一部分に基づいて、v = Ax + bで表現される前記位置に依存するグローバル動きベクトルを判定するために最小二乗法により行列
    の要素及びベクトルb = [b1 b2]Tを推定するステップを含み、
    v = [vx vy]Tが前記グローバル動きベクトルであり、vが第1の方向の前記グローバル動きベクトルの第1のベクトル成分であり、vが第2の垂直方向の前記グローバル動きベクトルの第2のベクトル成分であり、x = [x y]Tが前記現在のフレームの画像要素位置であることを特徴とする請求項2又は3記載の方法。
  5. 前記計算ステップは、
    −前記第1のグループの画像要素毎に、前記画像要素のプロパティ値と前記第1の参照グループにおいて対応する画像要素位置を有する画像要素のプロパティ値との間の差分を計算するステップと、
    −前記差分の絶対値に基づいて前記第1の分類パラメータを計算するステップと
    を含むことを特徴とする請求項1から4のいずれか1項に記載の方法。
  6. −画像要素の前記第2の参照グループの画像要素毎に、前記画像要素のプロパティ値と前記第のグループにおいて対応する画像要素位置を有する画像要素のプロパティ値との間の差分を計算するステップと、
    −前記差分の絶対値に基づいて廃棄パラメータを計算するステップと
    を更に備えることを特徴とする請求項1から5のいずれか1項に記載の方法。
  7. 前記第1の分類パラメータ及び前記第2の分類パラメータに基づいて前記第1のグループを背景又は前景に属するものとして分類するステップを更に備えることを特徴とする請求項1から6のいずれか1項に記載の方法。
  8. 前記分類ステップは、前記第1の分類パラメータ、前記第2の分類パラメータ及び前記廃棄パラメータに基づいて前記第1のグループを背景又は前景に属するものとして分類するステップを含むことを特徴とする請求項6または7記載の方法。
  9. 前記分類ステップは、前記第1の分類パラメータと第1の閾値との比較、及び、前記第2の分類パラメータと第2の閾値との比較に基づいて前記第1のグループを前記背景又は前記前景に属するものとして分類するステップを含むことを特徴とする請求項7または8に記載の方法。
  10. 前記分類ステップは、
    −前記第1の分類パラメータが前記第1の閾値を上回り、かつ、前記第2の分類パラメータが前記第2の閾値を上回る場合に前記第1のグループを前記前景に属するものとして分類するステップと、
    −前記第1の分類パラメータが前記第1の閾値より小さく、かつ、前記第2の分類パラメータが前記第2の閾値より小さい場合に前記第1のグループを前記背景に属するものとして分類するステップと
    を含むことを特徴とする請求項9記載の方法。
  11. −前記現在のフレームの前記少なくとも一部分の画像要素のグループ毎に前記識別ステップ、前記計算ステップ及び前記分類ステップを実行するステップと、
    −前記背景に属するものとして分類された前記現在のフレームの前記少なくとも一部分の前記グループに基づいて、前記参照フレームの前記少なくとも参照部分から前記現在のフレームの前記少なくとも一部分への前記画像要素プロパティ値の更新されたグローバル動きを判定するステップと
    を更に含むことを特徴とする請求項1から10のいずれか1項に記載の方法。
  12. ビデオシーケンスの時刻と関連付けられる補間フレームまたは外挿フレームの少なくとも1つの画像要素のグループのプロパティ値を推定する方法であって、
    −前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1のフレームの複数の第1の候補グループの第1の集合を提供するステップであり、前記第1の候補グループの各々が少なくとも1つの画像要素を含み且つ第1の変位ベクトルと関連付けられるステップと、
    前記第1の集合の第1の候補グループ毎に、
    −請求項1から11のいずれか1項に従って第1の分類パラメータ及び第2の分類パラメータを判定するステップと、
    前記第1の集合の第1の候補グループ毎に、前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2のフレームの少なくとも1つの画像要素の第2のグループを、前記第1の候補グループと関連付けられる前記変位ベクトルに基づいて識別するステップと、
    −前記第1の候補グループ及び該第1の候補グループについて識別された前記第2のグループのプロパティ値の差分を表す基準を計算するステップと、
    −前記基準、前記第1の分類パラメータ及び前記第2の分類パラメータに基づいて前記第1の集合の第1の候補グループを選択するステップと、
    −前記選択された第1の候補グループ及び前記選択された第1の候補グループと関連付けられる前記第2のグループの前記プロパティ値に基づいて、前記補間フレームまたは外挿フレームの前記少なくとも1つの画像要素のグループの前記プロパティ値を判定するステップと
    を備えることを特徴とする方法。
  13. 複数のフレームを含むフレームシーケンスに適用可能な画像プロセッサであり、各フレームが画像要素の複数のグループを含むプロセッサであって、
    −参照フレームの少なくとも参照部分から現在のフレームの少なくとも一部分への画像要素プロパティ値のグローバル動きの表現を判定するグローバル動き判定器と、
    −i)前記現在のフレームの少なくとも1つの画像要素の第1のグループに対して、前記グローバル動き表現に基づいて前記参照フレームの少なくとも1つの画像要素の第1の参照グループを識別し、ii)前記第1のグループと関連付けられる変位ベクトルに基づいて前記参照フレームの少なくとも1つの画像要素の第2の参照グループを識別し、iii)前記グローバル動き表現及び前記第2の参照グループに基づいて前記現在のフレームの少なくとも1つの画像要素の第2のグループを識別するグループ識別器と、
    −i)前記第1のグループ及び前記第1の参照グループの画像要素プロパティ値の差分を表すものとして、第1の分類パラメータを計算し、ii)前記第2の参照グループ及び前記第2のグループの画像要素プロパティ値の差分を表す第2の分類パラメータを計算する計算器と
    を備え、
    前記第1の分類パラメータと前記第2の分類パラメータとが前記第1のグループが前記現在のフレームの前景に属するか又は背景に属するかを示すことを特徴とするプロセッサ。
  14. 前記現在のフレームの前記少なくとも一部分の画像要素のグループ毎に前記フレームシーケンスの前記参照フレームの画像要素の参照グループを参照する変位ベクトルを含むベクトル集合を提供する集合提供器を更に備え、
    前記グローバル動き判定器は、前記ベクトル集合の前記変位ベクトルの少なくとも一部分に基づいて前記グローバル動き表現を判定するように構成されていることを特徴とする請求項13記載のプロセッサ。
  15. 前記計算器は、
    −前記第1のグループの画像要素毎に、前記画像要素のプロパティ値と前記第1の参照グループにおいて対応する画像要素位置を有する画像要素のプロパティ値との間の差分を計算する差分計算器と、
    −前記差分の絶対値に基づいて前記第1の分類パラメータを計算する和計算器と
    を含むことを特徴とする請求項13又は14記載のプロセッサ。
  16. 前記計算器は、i)前記第2の参照グループの画像要素毎に前記画像要素のプロパティ値と前記第のグループにおいて対応する画像要素位置を有する画像要素のプロパティ値との間の差分を計算し、ii)前記差分の絶対値に基づいて廃棄パラメータを計算するように構成されていることを特徴とする請求項13から15のいずれか1項に記載のプロセッサ。
  17. 前記第1の分類パラメータ及び前記第2の分類パラメータに基づいて前記第1のグループを前記背景又は前記前景に属するものとして分類するように構成された分類器をさらに備えることを特徴とする請求項13から16のいずれか1項に記載のプロセッサ。
  18. 前記分類器は、前記第1の分類パラメータ、前記第2の分類パラメータ及び前記廃棄パラメータに基づいて前記第1のグループを前記背景又は前記前景に属するものとして分類するように構成されていることを特徴とする請求項17に記載のプロセッサ。
  19. 前記分類器は、前記第1の分類パラメータと第1の閾値との比較、及び、前記第2の分類パラメータと第2の閾値との比較に基づいて前記第1のグループを前記背景又は前記前景に属するものとして分類するように構成されていることを特徴とする請求項17または18に記載のプロセッサ。
  20. 前記分類器は、
    i)前記第1の分類パラメータが前記第1の閾値を上回り、かつ、前記第2の分類パラメータが前記第2の閾値を上回る場合に前記第1のグループを前記前景に属するものとして分類し、
    ii)前記第1の分類パラメータが前記第1の閾値より小さく、かつ、前記第2の分類パラメータが前記第2の閾値より小さい場合に前記第1のグループを前記背景に属するものとして分類するように構成されていることを特徴とする請求項19記載のプロセッサ。
  21. ビデオシーケンスの時刻と関連付けられる補間フレームまたは外挿フレームの少なくとも1つの画像要素のグループのプロパティ値を推定するデバイスであって、
    −前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1のフレームの複数の第1の候補グループの第1の集合を提供する集合提供器であり、前記第1の候補グループの各々が少なくとも1つの画像要素を含み且つ第1の変位ベクトルと関連付けられる集合提供器と、
    −前記第1の集合の第1の候補グループ毎に第1の分類パラメータと、第2の分類パラメータとを計算する請求項13から20のいずれか1項に記載の画像プロセッサと、
    −前記第1の集合の第1の候補グループ毎に、前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2のフレームの少なくとも1つの画像要素の第2のグループを、前記第1の候補グループと関連付けられる前記変位ベクトルに基づいて識別するグループ識別器と、
    −前記第1の集合の第1の候補グループ毎に、前記第1の候補グループ及び該第1の候補グループについて前記グループ識別器により識別された前記第2のグループのプロパティ値の差分を表す基準を計算する基準計算器と、
    −前記基準、前記第1の分類パラメータ及び前記第2の分類パラメータに基づいて第1の候補グループを選択するグループ選択器と、
    −前記選択された第1の候補グループ及び前記選択された第1の候補グループと関連付けられる前記第2のグループのプロパティ値に基づいて、前記補間フレームまたは外挿フレームの前記少なくとも1つの画像要素のグループの前記プロパティ値を判定する値判定器と
    を備えることを特徴とするデバイス。
JP2009547198A 2007-01-26 2008-01-14 画像ブロックの分類 Expired - Fee Related JP5121852B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US89751207P 2007-01-26 2007-01-26
US60/897,512 2007-01-26
PCT/SE2008/050033 WO2008091205A1 (en) 2007-01-26 2008-01-14 Image block classification

Publications (2)

Publication Number Publication Date
JP2010517415A JP2010517415A (ja) 2010-05-20
JP5121852B2 true JP5121852B2 (ja) 2013-01-16

Family

ID=39644715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009547198A Expired - Fee Related JP5121852B2 (ja) 2007-01-26 2008-01-14 画像ブロックの分類

Country Status (4)

Country Link
US (1) US8837591B2 (ja)
EP (1) EP2127392B1 (ja)
JP (1) JP5121852B2 (ja)
WO (1) WO2008091205A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385404B2 (en) * 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
KR101634562B1 (ko) 2009-09-22 2016-06-30 삼성전자주식회사 저해상도 비디오로부터 고해상도 비디오를 생성하는 방법
TR200909007A2 (tr) 2009-12-01 2011-06-21 Vestel Elektroni̇k San. Ve Ti̇c. A.Ş. Ön plan-arka plan ayrıştırma yöntemi
JP5295089B2 (ja) * 2009-12-16 2013-09-18 キヤノン株式会社 画像符号化装置
US8446524B2 (en) * 2010-06-21 2013-05-21 Realtek Semiconductor Corp. Apparatus and method for frame rate conversion
WO2012061549A2 (en) * 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US9171372B2 (en) * 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
US20120155727A1 (en) * 2010-12-15 2012-06-21 General Electric Company Method and apparatus for providing motion-compensated images
US10659724B2 (en) * 2011-08-24 2020-05-19 Ati Technologies Ulc Method and apparatus for providing dropped picture image processing
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
CN103888767B (zh) * 2014-03-31 2017-07-28 山东大学 Umh块匹配运动估计与光流场运动估计相结合的一种帧率提升方法
GB2521491B (en) * 2014-06-17 2016-10-19 Imagination Tech Ltd Motion estimation
US9977642B2 (en) * 2015-01-27 2018-05-22 Telefonaktiebolaget L M Ericsson (Publ) Methods and apparatuses for supporting screen sharing
EP3343925A1 (en) * 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
CN113873095A (zh) * 2020-06-30 2021-12-31 晶晨半导体(上海)股份有限公司 运动补偿方法和模块、芯片、电子设备及存储介质
CN112995677B (zh) * 2021-02-08 2022-05-31 信阳师范学院 一种基于像素语义匹配的视频帧率上转换方法
US11993283B2 (en) * 2021-08-31 2024-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for performing graph imputation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
US5812787A (en) * 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
US5764803A (en) * 1996-04-03 1998-06-09 Lucent Technologies Inc. Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences
US6249613B1 (en) * 1997-03-31 2001-06-19 Sharp Laboratories Of America, Inc. Mosaic generation and sprite-based coding with automatic foreground and background separation
KR19990008977A (ko) * 1997-07-05 1999-02-05 배순훈 윤곽선 부호화 방법
US6192079B1 (en) * 1998-05-07 2001-02-20 Intel Corporation Method and apparatus for increasing video frame rate
JP4407985B2 (ja) * 1999-09-02 2010-02-03 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
WO2001041451A1 (en) * 1999-11-29 2001-06-07 Sony Corporation Video/audio signal processing method and video/audio signal processing apparatus
JP3823767B2 (ja) * 2001-07-18 2006-09-20 日本電信電話株式会社 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
EP1817912A1 (en) * 2004-11-22 2007-08-15 Koninklijke Philips Electronics N.V. Motion vector field projection dealing with covering and uncovering
KR100728587B1 (ko) * 2006-01-05 2007-06-14 건국대학교 산학협력단 하이브리드 에러 은닉 방법

Also Published As

Publication number Publication date
EP2127392B1 (en) 2013-08-07
US8837591B2 (en) 2014-09-16
WO2008091205A1 (en) 2008-07-31
EP2127392A4 (en) 2012-10-03
JP2010517415A (ja) 2010-05-20
US20100149422A1 (en) 2010-06-17
EP2127392A1 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
JP5121852B2 (ja) 画像ブロックの分類
JP5254997B2 (ja) 発見フレーム領域についての動き推定
JP6905093B2 (ja) 映像コーディングにおける動き補償予測のオプティカルフロー推定
JP2920210B2 (ja) 動画像の動きベクトル予測方法
US6711211B1 (en) Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
JP6121518B2 (ja) ビデオストリームの選択された空間部分を符号化するための方法および装置
Yu et al. Multi-level video frame interpolation: Exploiting the interaction among different levels
CN110312130B (zh) 基于三角模式的帧间预测、视频编码方法及设备
WO2014194722A1 (zh) 确定小物体区域的方法、视频帧之间插补帧的方法和装置
JP2006513478A (ja) 効率的な予測画像のパラメータの推定
CN106303545B (zh) 用于在帧序列中执行运动估计的数据处理***和方法
JP6335191B2 (ja) 画像/ビデオ解像度とカラーサブサンプリングの自動検出方法及び装置
JP6090430B2 (ja) 符号化装置、方法、プログラム、コンピュータシステム、記録媒体
JP4083159B2 (ja) デジタル動画像のモーションベクトル設定方法
US9549205B2 (en) Method and device for encoding video
Xu et al. Frame rate up-conversion with true motion estimation and adaptive motion vector refinement
Lu et al. An artifact information based motion vector processing method for motion compensated frame interpolation
Li et al. Bilateral video super-resolution using non-local means with adaptive parameters
JP4349542B2 (ja) 動画像内のテロップ領域検出装置
JP3335137B2 (ja) 動きベクトル探索方法、動きベクトル探索装置および動きベクトル探索プログラムを記録した記録媒体
N'guessan et al. Human attention region-of interest in I-frame for video coding
Fu et al. Fast global motion estimation based on local motion segmentation
Choi et al. Optimal reference view selection algorithm for low complexity disparity estimation
KR20230119806A (ko) 동영상에서 사람의 자세를 추정하는 장치, 방법 및 컴퓨터 프로그램
JP6071618B2 (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5121852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees