JP2012523641A - ビデオコンテンツ解析のためのキーフレーム抽出 - Google Patents
ビデオコンテンツ解析のためのキーフレーム抽出 Download PDFInfo
- Publication number
- JP2012523641A JP2012523641A JP2012505283A JP2012505283A JP2012523641A JP 2012523641 A JP2012523641 A JP 2012523641A JP 2012505283 A JP2012505283 A JP 2012505283A JP 2012505283 A JP2012505283 A JP 2012505283A JP 2012523641 A JP2012523641 A JP 2012523641A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- motion
- frames
- entropy value
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
ショットを構成するフレームのシーケンスからキーフレームを抽出する方法であって、各フレームは画素のマトリクスにより構成される方法は、該フレームのシーケンスの各フレームについて、該フレームから後続するフレームまで各画素の変位のマトリクスとして該後続するフレームに比べた該フレームのオプティカルフローを計算するステップ3と、該フレームの該オプティカルフローに基づいて動きエントロピー値を計算するステップ5と、を有し、該方法は更に、最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ7を有する。
Description
本発明は、ビデオ要約、閲覧、検索及び理解における、ショットを構成するフレームのシーケンスにおける、該ショットを表すためのキーフレームの抽出の分野に関する。
インターネット、モバイル装置及び広範囲のビデオアプリケーションにおいてディジタルビデオを保存及び視聴する人気の急速な上昇に伴い、ビデオデータの効果的な管理は、以前よりもかなり重要なものとなっている。
自動的なビデオ検索のためには、ビデオシーケンスを記述するキーワードを利用することが略不可能である。その理由は、手動による注釈付け(annotation)は膨大な人力を必要とし、利用されるキーワードも不正確で主観的なものとなってしまう傾向があることである。それ故、ビデオシーケンスに対して効率的なインデクシング、検索及び閲覧を提供することができる、コンテンツベースの手法が解決方法となろう。
ビデオデータを管理するための一般的な手法は、「ショット」と呼ばれる関連するフレームの群へと、ショットカット検出又は場面切り換え検出によってビデオをセグメント化することである。ショット境界を特定した後、各フレームの群(GoF)又はビデオショットから、1つ以上のキーフレーム即ち代表フレームが抽出されることができる。このとき、これらキーフレームにおける可視のコンテンツが、インデクシング及び検索のためビデオショットを表わすために用いられる。
キーフレーム検出は、ビデオ解析及び管理における必須部分であり、ビデオのインデクシング、閲覧及び検索のための適切なビデオ要約を提供する。キーフレームの利用は、ビデオのインデクシングにおいて必要とされるデータの量を削減し、ビデオコンテンツを管理するための枠組みを提供する。
キーフレーム抽出は、場面レベルで為されても良いし、ショットレベルで為されても良い。通常は、ショットレベルでの解析が好適である。なぜなら、ビデオフレームのセットにおいて選択されるキーフレームの時間シーケンスを保存するからである。
現在のキーフレーム抽出手法は、以下の6つのクラスに分類できる:即ち、
ショット境界ベースの手法、可視コンテンツベースの手法、動き解析ベースの手法、ショットアクティビティベースの手法、教師なし分類ベースの手法、及びマクロブロックベースの手法、である。これらの方法は、それぞれ長所を持っている。
ショット境界ベースの手法、可視コンテンツベースの手法、動き解析ベースの手法、ショットアクティビティベースの手法、教師なし分類ベースの手法、及びマクロブロックベースの手法、である。これらの方法は、それぞれ長所を持っている。
例えば、米国特許出願公開US2005/0002452は、輝度分布及び隣接フレームとの比較により定義されるエントロピー値に基づく、最小の動きアクティビティを持つフレームが選択される、キーフレーム抽出を開示している。
既知の抽出方法は、動作認識のために利用され得る複雑で高速に変化する動きを含むフレームを選択するには、十分に動作しないと考えられる。
ショットによって捕捉された動きを代表するキーフレームを抽出する方法を実現することが有利となる。
1つ以上のこれら事項に適切に対処するため、本発明の第1の態様においては、ショットを構成するフレームのシーケンスからキーフレームを抽出する方法であって、各前記フレームは画素のマトリクスにより構成される方法は、
前記フレームのシーケンスの各フレームについて、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べた前記フレームのオプティカルフローを計算するステップと、
前記フレームの前記オプティカルフローに基づいて動きエントロピー値を計算するステップと、
を有し、前記方法は更に、
最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ
を有する。
前記フレームのシーケンスの各フレームについて、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べた前記フレームのオプティカルフローを計算するステップと、
前記フレームの前記オプティカルフローに基づいて動きエントロピー値を計算するステップと、
を有し、前記方法は更に、
最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ
を有する。
本方法は、複雑で高速に変化する動きを含むフレームを選択するために、特に利点を持つ。
特定の実施例においては、
前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義され、
最も高い頻度を持つビンが破棄され、
前記動きエントロピー値は、全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は、前記動きヒストグラムにおける前記ビンの出現の頻度に比例し、
前記ビンのエントロピー値は、前記ビンの出現の対数頻度の絶対値により重み付けされ、
各前記フレームの動きヒストグラムは、他のフレームの動きヒストグラムと比較され、前記フレームの前記動きエントロピー値を類似度として定義し、
所定の長さのフレームを持つ滑動するウィンドウにおいて最大動きエントロピー値を持つフレームのシーケンスのフレームを選択することにより、複数のキーフレームが抽出され、
前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義され、前記動きエントロピー値は全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は前記動きヒストグラムにおける前記ビンの出現の頻度に比例し、
前記方法は更に、各選択されたフレームについて、隣接するフレームの動きヒストグラムと比較し、前記比較の結果により各選択されたフレームの動きエントロピー値を重み付けするステップを有する。
前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義され、
最も高い頻度を持つビンが破棄され、
前記動きエントロピー値は、全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は、前記動きヒストグラムにおける前記ビンの出現の頻度に比例し、
前記ビンのエントロピー値は、前記ビンの出現の対数頻度の絶対値により重み付けされ、
各前記フレームの動きヒストグラムは、他のフレームの動きヒストグラムと比較され、前記フレームの前記動きエントロピー値を類似度として定義し、
所定の長さのフレームを持つ滑動するウィンドウにおいて最大動きエントロピー値を持つフレームのシーケンスのフレームを選択することにより、複数のキーフレームが抽出され、
前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義され、前記動きエントロピー値は全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は前記動きヒストグラムにおける前記ビンの出現の頻度に比例し、
前記方法は更に、各選択されたフレームについて、隣接するフレームの動きヒストグラムと比較し、前記比較の結果により各選択されたフレームの動きエントロピー値を重み付けするステップを有する。
本発明の第2の態様においては、記録媒体に保存され、命令のセットであってコンピュータが前記命令のセットを実行するときに前記コンピュータが以上に開示された方法を実行することを可能とする命令のセットを有する、コンピュータソフトウェアが提供される。
本発明の第3の態様においては、ショットを構成するフレームのシーケンスからキーフレームを抽出するための装置であって、各前記フレームは画素のマトリクスにより構成された装置は、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたフレームのシーケンスの各フレームのオプティカルフローを計算するための、フレーム・オプティカルフロー算出器と、
前記フレーム・オプティカルフロー算出器の出力に基づく動きエントロピー値算出器と、
最大動きエントロピー値を持つフレームのシーケンスのフレームを選択するためのキーフレーム選択器と、
を有する。
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたフレームのシーケンスの各フレームのオプティカルフローを計算するための、フレーム・オプティカルフロー算出器と、
前記フレーム・オプティカルフロー算出器の出力に基づく動きエントロピー値算出器と、
最大動きエントロピー値を持つフレームのシーケンスのフレームを選択するためのキーフレーム選択器と、
を有する。
画像のタイプに依存して、特定の実施例が、適合が容易であり又は好適な結果をもたらすため、好適となり得る。しかしながら、これら特定の実施例の態様は、適宜組み合わせられ又は変更されても良い。
本発明のこれらの及び他の態様は、以下に説明される実施例を参照しながら説明され明らかとなるであろう。
図1を参照すると、ショットを構成するフレームのシーケンスからキーフレームを抽出する方法であって、各前記フレームは画素のマトリクスにより構成される方法において、前記方法は、
前記フレームのシーケンスの各フレームについて(ステップ1)、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたフレーム・オプティカルフロー(optical flow)を計算するステップ(ステップ3)と、
前記フレーム・オプティカルフローに基づいて動きエントロピー値を計算するステップ(ステップ5)と、
を有し、前記方法は更に、
最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ(ステップ7)
を有する。
前記フレームのシーケンスの各フレームについて(ステップ1)、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたフレーム・オプティカルフロー(optical flow)を計算するステップ(ステップ3)と、
前記フレーム・オプティカルフローに基づいて動きエントロピー値を計算するステップ(ステップ5)と、
を有し、前記方法は更に、
最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ(ステップ7)
を有する。
オプティカルフローの計算を考慮すると、人間の行動は、観測者によって容易に認識され得る特徴的な動きパターンを生じることは、留意されるべきである。オプティカルフローは、人間の行動を認識するために適した動き記述子である。
第1のステップにおいて、該フレームの各画素の変位が、オプティカルフロー場として、後続するフレームとの比較により計算される。例えば、オプティカルフロー場のシーケンスが、Lucas-Kanadeアルゴリズムのような標準的な手法を用いて計算される。
従って、フレームkについて、フレームiとフレームi+1との間のオプティカルフローFkは、それぞれモジュラスMi(x,y)及び角度θi(x,y)を持つ速度ベクトルFi(x,y)のマトリクスである。速度ベクトルFi(x,y)は、フレームiからフレームi+1までの画素(x,y)の変位を示す。
エントロピーは、データのセットの不純物度又は予測不可能さを表わす好適な方法である。なぜなら、エントロピーは測定が行われるコンテンツに依存するからである。
以上において定義されたオプティカルフローに基づいて、動きエントロピー値が計算される。
オプティカルフロー出力に基づく各速度ベクトルは、該ベクトルの大きさMi(x,y)及び向きθi(x,y)により量子化される。動きヒストグラムは所定の数のビンとして定義され、ここで各ビンは大きさと向きとの組み合わせであり、大きさ及び向きの値のスペクトル全体がカバーされるようにされる。例えば、5個の大きさレベルと8個の向き角度を表わす40本のヒストグラムビンが利用される。
或るフレームにおいてk番目のビンの出現の可能性は、
として与えられる。ここで、M及びNはフレームのサイズであり、hはk番目のビンのカウントを示す。従ってPf(k)は、画素の総数に対する、ビンkに含まれる画素カウントの比である。
ここでKmaxはヒストグラムにおけるビンの総数であり、本例においてはKmax=40であり、全てのビン・エントロピーef(k)の合計は当該フレームにおける動きの総エントロピーである。従って、ビン・エントロピー値ef(k)は、該ビンの出現の対数確率の絶対値によって重み付けされた、該ビンの出現の確率である。対数確率は常に負であるため、エントロピーとして正の値を得るため絶対値がとられる。
直感的に、ピークを持つ動きヒストグラムは、あまり動き情報を含まず、従って低いエントロピー値をもたらし、平坦で分散したヒストグラムは、より多くの動き情報を含み、それ故高いエントロピー値をもたらす。
以上に開示されたエントロピー最大法は、どのフレームが最も複雑な動きを含むかについての情報を提供する。幾つかの状況においては、周囲のフレームに対して動きヒストグラムが高速に変化するフレームは、重要な情報を含む。それ故、フレーム間法又はヒストグラム交差法と呼ばれ、連続するフレームの動きの間の差を測定する、第2の実施例が開示される。
該手法は、2つのヒストグラム間の類似度を算出する。
フレームiと隣接フレーム(先行又は後続するx個のフレーム)の動きヒストグラムはそれぞれHf(i)及びHf(i±x)であり、それぞれがKmax個のビンHf(i,k)及びHf(i±x,k)を含む。2つのヒストグラムの交差HIは、
として定義される。
分母は、ヒストグラム交差を正規化し、ヒストグラム交差の値を0と1との間にする。該値は実際には、隣接フレームにおいて同じ動きベクトルの対応する画素を持つ現在のフレームの画素の数に比例する。HI値が高いほど、2つのフレーム間の類似度が高いことを示す。
本方法においては、HIが動きエントロピー値として利用され、最も高いHIを持つフレームがキーフレームとして選択される。
本方法は、開示された第1の方法に対する補助的な方法として利用され得る。なぜなら、2つのフレーム間の動きベクトル分布についての付加的な情報を提供するからである。
これら2つの方法の変形例においては、ビデオフレームは通常前景の動き(オブジェクト)と背景の動き(カメラ)との両方を持ち、背景の動きは通常動きヒストグラムにおいて一定であって支配的であることに留意されたい。
図2に示されるように、最も高いビンが背景の動きを示す。背景の動きは、該ヒストグラムから最も高いビンを単に除去することにより、取り除かれ得る。これにより、ビデオシーケンスの突出したオブジェクトを含む領域に焦点を合わせられる。図3は、背景の動きを取り除いた後の、図2の動きヒストグラムを示し、39本のビンのみが残されている。背景の動きの除去の後、ヒストグラムは前景オブジェクトの動き分布のより好適な表現となる。背景の動きの除去は、キーフレーム抽出の性能を改善する。
動作認識のような特定の用途については、1つのキーフレームでは不十分となり、ショットを要約するためには複数のキーフレームが必要となり得る。それ故、ショット全体についてエントロピー関数の総最大値を見つける代わりに、局所最大値が探される。例えば、n個のフレームの長さを持つ滑動するウィンドウにおける局所最大値が考慮される。勿論、局所最大値を見出すための、より高度な手法が利用されても良い。
局所最大法を用いることにより選択されたキーフレームは、ビデオ要約のような用途のために利用され得る。低いアクティビティのショットについては、単一のキーフレームで十分となり得るが、殆どの場合、ショットの内容を表わすためには複数のキーフレームが必要とされる。単一のキーフレームの代わりにキーフレームのセットを観測することにより、例えば動きの方向、背景の変化等のようなショットの外観の好適な理解が得られる。
キーフレームは、エントロピー最大アルゴリズム及びフレーム間アルゴリズムを組み合わせることにより得られても良い。組み合わせられたアルゴリズムは、最も複雑な動きを含むだけでなく、隣接するフレームと比べて突出した動き変化をも持つフレームを抽出する。
・エントロピー最大法を用いて局所最大値を選択することにより、初期フレームが選択される(図4、ステップ10)。
・該選択された初期フレームに対してヒストグラム交差法が適用される(ステップ12)。
・該選択された初期フレームのエントロピー値が、対応するヒストグラム交差値によって重み付けされる(ステップ14)。
・該重み付けされたエントロピー曲線におけるピークを見出すことにより、最終的なキーフレームが抽出される(ステップ16)。
・エントロピー最大法を用いて局所最大値を選択することにより、初期フレームが選択される(図4、ステップ10)。
・該選択された初期フレームに対してヒストグラム交差法が適用される(ステップ12)。
・該選択された初期フレームのエントロピー値が、対応するヒストグラム交差値によって重み付けされる(ステップ14)。
・該重み付けされたエントロピー曲線におけるピークを見出すことにより、最終的なキーフレームが抽出される(ステップ16)。
開示された方法は、ショットを構成するフレームのシーケンスからキーフレームを抽出するための装置であって、
・前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたショットの各フレームのオプティカルフローを計算するための、フレーム・オプティカルフロー算出器20と、
・前記フレーム・オプティカルフロー算出器の出力に基づく動きエントロピー値算出器22と、
・最大動きエントロピー値を持つショットのフレームを選択するためのキーフレーム選択器24と、
を有する装置(図5)によって実装されても良い。
・前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたショットの各フレームのオプティカルフローを計算するための、フレーム・オプティカルフロー算出器20と、
・前記フレーム・オプティカルフロー算出器の出力に基づく動きエントロピー値算出器22と、
・最大動きエントロピー値を持つショットのフレームを選択するためのキーフレーム選択器24と、
を有する装置(図5)によって実装されても良い。
該装置は、解析されるべきショットを受信するための入力手段と、キーフレームを例えばビデオデータベースインデクスに送信するための出力手段と、を有しても良い。
本発明は図面及び以上の記述において説明され記載されたが、斯かる説明及び記載は説明するもの又は例示的なものであって限定的なものではないとみなされるべきであり、本発明は開示された実施例に限定されるものではない。
前記装置は、プログラム可能なコンピュータと、記録媒体に保存され、命令のセットであってコンピュータが当該命令のセットを実行するときに開示された方法を実行することを可能とする命令のセットを有するコンピュータソフトウェア製品とを用いて実装されても良い。しかしながら、特にビデオ処理により要求される各動作の高い並列性及び高いスループットのため、当業者は該システムを、FPGA(Field Programmable Gate Arrays)のような特定のハードウェアコンポーネントに有利に実装しても良く、又は何らかの特定のディジタル信号プロセッサを用いることにより実装しても良い。
図面、説明及び添付される請求項を読むことにより、請求される本発明を実施化する当業者によって、開示された実施例に対する他の変形が理解され実行され得る。請求項において、「有する(comprising)」なる語は他の要素を除外するものではなく、「1つの(a又はan)」なる不定冠詞は複数を除外するものではない。
Claims (10)
- ショットを構成するフレームのシーケンスからキーフレームを抽出する方法であって、各前記フレームは画素のマトリクスにより構成される方法において、前記方法は、
前記フレームのシーケンスの各フレームについて、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べた前記フレームのオプティカルフローを計算するステップと、
前記フレームの前記オプティカルフローに基づいて動きエントロピー値を計算するステップと、
を有し、前記方法は更に、
最大の動きエントロピー値を持つフレームのシーケンスのフレームをキーフレームとして選択するステップ
を有する方法。 - 前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義される、請求項1に記載の方法。
- 最も高い頻度を持つビンが破棄される、請求項2に記載の方法。
- 前記動きエントロピー値は、全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は、前記動きヒストグラムにおける前記ビンの出現の頻度に比例する、請求項2又は3に記載の方法。
- 前記ビンのエントロピー値は、前記ビンの出現の対数頻度の絶対値により重み付けされる、請求項4に記載の方法。
- 各前記フレームの動きヒストグラムは、他のフレームの動きヒストグラムと比較され、前記フレームの前記動きエントロピー値を類似度として定義する、請求項2又は3に記載の方法。
- 所定の長さのフレームを持つ滑動するウィンドウにおいて最大動きエントロピー値を持つフレームのシーケンスのフレームを選択することにより、複数のキーフレームが抽出される、請求項1に記載の方法。
- 前記各画素の変位は変位のモジュラス及び角度を持つベクトルとして定義され、変位のモジュラスと角度との組み合わせを表わす所定の数のビンにより動きヒストグラムが定義され、前記動きエントロピー値は全てのビンの動きエントロピー値の合計であり、1つのビンの動きエントロピー値は前記動きヒストグラムにおける前記ビンの出現の頻度に比例し、
前記方法は更に、各選択されたフレームについて、隣接するフレームの動きヒストグラムと比較し、前記比較の結果により各選択されたフレームの動きエントロピー値を重み付けするステップを有する、請求項7に記載の方法。 - 記録媒体に保存され、命令のセットであってコンピュータが前記命令のセットを実行するときに前記コンピュータが請求項1に記載の方法を実行することを可能とする命令のセットを有する、コンピュータソフトウェア。
- ショットを構成するフレームのシーケンスからキーフレームを抽出するための装置であって、各前記フレームは画素のマトリクスにより構成された装置において、
前記フレームから後続するフレームまで各画素の変位のマトリクスとして前記後続するフレームに比べたフレームのシーケンスの各フレームのオプティカルフローを計算するための、フレーム・オプティカルフロー算出器と、
前記フレーム・オプティカルフロー算出器の出力に基づく動きエントロピー値算出器と、
最大動きエントロピー値を持つフレームのシーケンスのフレームを選択するためのキーフレーム選択器と、
を有する装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09305316 | 2009-04-14 | ||
EP09305316.3 | 2009-04-14 | ||
PCT/IB2010/051620 WO2010119410A1 (en) | 2009-04-14 | 2010-04-14 | Key frames extraction for video content analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012523641A true JP2012523641A (ja) | 2012-10-04 |
Family
ID=42634832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012505283A Withdrawn JP2012523641A (ja) | 2009-04-14 | 2010-04-14 | ビデオコンテンツ解析のためのキーフレーム抽出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20120027295A1 (ja) |
EP (1) | EP2419861A1 (ja) |
JP (1) | JP2012523641A (ja) |
CN (1) | CN102395984A (ja) |
RU (1) | RU2011146075A (ja) |
WO (1) | WO2010119410A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840435A (zh) * | 2010-05-14 | 2010-09-22 | 中兴通讯股份有限公司 | 一种实现视频预览和检索的方法及移动终端 |
GB2484133B (en) | 2010-09-30 | 2013-08-14 | Toshiba Res Europ Ltd | A video analysis method and system |
CN102708571B (zh) * | 2011-06-24 | 2014-10-22 | 杭州海康威视数字技术股份有限公司 | 视频中剧烈运动的检测方法及其装置 |
JP5868053B2 (ja) * | 2011-07-23 | 2016-02-24 | キヤノン株式会社 | 画像処理方法、画像処理装置、およびプログラム |
US10638221B2 (en) | 2012-11-13 | 2020-04-28 | Adobe Inc. | Time interval sound alignment |
US9355649B2 (en) | 2012-11-13 | 2016-05-31 | Adobe Systems Incorporated | Sound alignment using timing information |
US10249321B2 (en) | 2012-11-20 | 2019-04-02 | Adobe Inc. | Sound rate modification |
US9025822B2 (en) | 2013-03-11 | 2015-05-05 | Adobe Systems Incorporated | Spatially coherent nearest neighbor fields |
US9129399B2 (en) | 2013-03-11 | 2015-09-08 | Adobe Systems Incorporated | Optical flow with nearest neighbor field fusion |
US9031345B2 (en) | 2013-03-11 | 2015-05-12 | Adobe Systems Incorporated | Optical flow accounting for image haze |
US9165373B2 (en) * | 2013-03-11 | 2015-10-20 | Adobe Systems Incorporated | Statistics of nearest neighbor fields |
CN103413322B (zh) * | 2013-07-16 | 2015-11-18 | 南京师范大学 | 序列视频关键帧提取方法 |
EP3031205A4 (en) | 2013-08-07 | 2017-06-14 | Audiostreamtv Inc. | Systems and methods for providing synchronized content |
JP6160480B2 (ja) * | 2013-12-27 | 2017-07-12 | 富士ゼロックス株式会社 | 代表フレーム選定システム、代表フレーム選定プログラム |
US10832158B2 (en) * | 2014-03-31 | 2020-11-10 | Google Llc | Mutual information with absolute dependency for feature selection in machine learning models |
US9799376B2 (en) * | 2014-09-17 | 2017-10-24 | Xiaomi Inc. | Method and device for video browsing based on keyframe |
CN104331911A (zh) * | 2014-11-21 | 2015-02-04 | 大连大学 | 基于改进二阶振荡粒子群优化算法的关键帧提取方法 |
CN104463864B (zh) * | 2014-12-05 | 2018-08-14 | 华南师范大学 | 多级并行关键帧云提取方法及*** |
CN106296631A (zh) * | 2015-05-20 | 2017-01-04 | 中国科学院沈阳自动化研究所 | 一种基于注意力先验的胃镜视频摘要方法 |
US10181195B2 (en) * | 2015-12-28 | 2019-01-15 | Facebook, Inc. | Systems and methods for determining optical flow |
US10254845B2 (en) * | 2016-01-05 | 2019-04-09 | Intel Corporation | Hand gesture recognition for cursor control |
CN106228111A (zh) * | 2016-07-08 | 2016-12-14 | 天津大学 | 一种基于骨骼序列提取关键帧的方法 |
CN106611157B (zh) * | 2016-11-17 | 2019-11-29 | 中国石油大学(华东) | 一种基于光流定位和滑动窗口检测的多人姿态识别方法 |
CN106911943B (zh) * | 2017-02-21 | 2021-10-26 | 腾讯科技(深圳)有限公司 | 一种视频展示方法、装置及存储介质 |
BR112020001729A8 (pt) * | 2017-08-01 | 2023-04-11 | Huawei Tech Co Ltd | Método, aparelho e dispositivo de reconhecimento de gestos |
CN110008789A (zh) * | 2018-01-05 | 2019-07-12 | ***通信有限公司研究院 | 多类物体检测与识别的方法、设备及计算机可读存储介质 |
CN108615241B (zh) * | 2018-04-28 | 2020-10-27 | 四川大学 | 一种基于光流的快速人体姿态估计方法 |
US20220189174A1 (en) * | 2019-03-28 | 2022-06-16 | Piksel, Inc. | A method and system for matching clips with videos via media analysis |
US11074457B2 (en) | 2019-04-17 | 2021-07-27 | International Business Machines Corporation | Identifying advertisements embedded in videos |
CN110381392B (zh) * | 2019-06-06 | 2021-08-10 | 五邑大学 | 一种视频摘要提取方法及其***、装置、存储介质 |
CN111597911B (zh) * | 2020-04-22 | 2023-08-29 | 成都运达科技股份有限公司 | 一种基于图像特征快速提取关键帧的方法和*** |
CN112949428B (zh) * | 2021-02-09 | 2021-09-07 | 中国科学院空间应用工程与技术中心 | 基于视频卫星对地观测数据的关键帧提取方法和*** |
CN113361426A (zh) * | 2021-06-11 | 2021-09-07 | 爱保科技有限公司 | 车辆定损图像获取方法、介质、装置和电子设备 |
US11762939B2 (en) * | 2021-08-25 | 2023-09-19 | International Business Machines Corporation | Measure GUI response time |
US11417099B1 (en) * | 2021-11-08 | 2022-08-16 | 9219-1568 Quebec Inc. | System and method for digital fingerprinting of media content |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5872599A (en) * | 1995-03-08 | 1999-02-16 | Lucent Technologies Inc. | Method and apparatus for selectively discarding data when required in order to achieve a desired Huffman coding rate |
US6389168B2 (en) * | 1998-10-13 | 2002-05-14 | Hewlett Packard Co | Object-based parsing and indexing of compressed video streams |
US6782049B1 (en) * | 1999-01-29 | 2004-08-24 | Hewlett-Packard Development Company, L.P. | System for selecting a keyframe to represent a video |
US6597738B1 (en) * | 1999-02-01 | 2003-07-22 | Hyundai Curitel, Inc. | Motion descriptor generating apparatus by using accumulated motion histogram and a method therefor |
JP2003503971A (ja) * | 1999-07-06 | 2003-01-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオシーケンスの構造の自動抽出方法 |
US6697523B1 (en) * | 2000-08-09 | 2004-02-24 | Mitsubishi Electric Research Laboratories, Inc. | Method for summarizing a video using motion and color descriptors |
JP2002064825A (ja) * | 2000-08-23 | 2002-02-28 | Kddi Research & Development Laboratories Inc | 画像の領域分割装置 |
US6711587B1 (en) * | 2000-09-05 | 2004-03-23 | Hewlett-Packard Development Company, L.P. | Keyframe selection to represent a video |
KR100422710B1 (ko) * | 2000-11-25 | 2004-03-12 | 엘지전자 주식회사 | 다중 가중치 구조를 사용한 멀티미디어 검색 방법 |
US20020147834A1 (en) * | 2000-12-19 | 2002-10-10 | Shih-Ping Liou | Streaming videos over connections with narrow bandwidth |
US6965645B2 (en) * | 2001-09-25 | 2005-11-15 | Microsoft Corporation | Content-based characterization of video frame sequences |
US8238718B2 (en) * | 2002-06-19 | 2012-08-07 | Microsoft Corporaton | System and method for automatically generating video cliplets from digital video |
FR2843212B1 (fr) * | 2002-08-05 | 2005-07-22 | Ltu Technologies | Detection d'une image de reference robuste a de grandes transformations photometriques |
JP4036328B2 (ja) * | 2002-09-30 | 2008-01-23 | 株式会社Kddi研究所 | 動画像データのシーン分類装置 |
US20040088723A1 (en) * | 2002-11-01 | 2004-05-06 | Yu-Fei Ma | Systems and methods for generating a video summary |
US7116716B2 (en) * | 2002-11-01 | 2006-10-03 | Microsoft Corporation | Systems and methods for generating a motion attention model |
US7027513B2 (en) * | 2003-01-15 | 2006-04-11 | Microsoft Corporation | Method and system for extracting key frames from video using a triangle model of motion based on perceived motion energy |
US7327885B2 (en) * | 2003-06-30 | 2008-02-05 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting short term unusual events in videos |
US7587064B2 (en) * | 2004-02-03 | 2009-09-08 | Hrl Laboratories, Llc | Active learning system for object fingerprinting |
GB2429597B (en) * | 2004-02-06 | 2009-09-23 | Agency Science Tech & Res | Automatic video event detection and indexing |
US7324711B2 (en) * | 2004-02-26 | 2008-01-29 | Xerox Corporation | Method for automated image indexing and retrieval |
US7843512B2 (en) * | 2004-03-31 | 2010-11-30 | Honeywell International Inc. | Identifying key video frames |
EP1615447B1 (en) * | 2004-07-09 | 2016-03-09 | STMicroelectronics Srl | Method and system for delivery of coded information streams, related network and computer program product therefor |
WO2007011308A1 (en) * | 2005-07-22 | 2007-01-25 | Agency For Science, Technology And Research | Automatic creation of thumbnails for music videos |
US20070067482A1 (en) * | 2005-09-16 | 2007-03-22 | Johnson J M | System and method for providing a media content exchange |
WO2007053112A1 (en) * | 2005-11-07 | 2007-05-10 | Agency For Science, Technology And Research | Repeat clip identification in video data |
EP1811457A1 (en) * | 2006-01-20 | 2007-07-25 | BRITISH TELECOMMUNICATIONS public limited company | Video signal analysis |
US8494052B2 (en) * | 2006-04-07 | 2013-07-23 | Microsoft Corporation | Dynamic selection of motion estimation search ranges and extended motion vector ranges |
US8379154B2 (en) * | 2006-05-12 | 2013-02-19 | Tong Zhang | Key-frame extraction from video |
US7853071B2 (en) * | 2006-11-16 | 2010-12-14 | Tandent Vision Science, Inc. | Method and system for learning object recognition in images |
US8671346B2 (en) * | 2007-02-09 | 2014-03-11 | Microsoft Corporation | Smart video thumbnail |
EP1988488A1 (en) * | 2007-05-03 | 2008-11-05 | Sony Deutschland Gmbh | Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device |
US8224087B2 (en) * | 2007-07-16 | 2012-07-17 | Michael Bronstein | Method and apparatus for video digest generation |
US8200063B2 (en) * | 2007-09-24 | 2012-06-12 | Fuji Xerox Co., Ltd. | System and method for video summarization |
US8514939B2 (en) * | 2007-10-31 | 2013-08-20 | Broadcom Corporation | Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing |
US8265158B2 (en) * | 2007-12-20 | 2012-09-11 | Qualcomm Incorporated | Motion estimation with an adaptive search range |
CN101582063A (zh) * | 2008-05-13 | 2009-11-18 | 华为技术有限公司 | 视频服务***、视频服务装置及其关键帧的提取方法 |
US8634638B2 (en) * | 2008-06-20 | 2014-01-21 | Sri International | Real-time action detection and classification |
US8170278B2 (en) * | 2008-08-06 | 2012-05-01 | Sri International | System and method for detecting and tracking an object of interest in spatio-temporal space |
EP2399386A4 (en) * | 2009-02-20 | 2014-12-10 | Indian Inst Technology Bombay | DEVICE AND METHOD FOR AUTOMATICALLY RECREATING EFFICIENTLY COMPRESSED MAGISTRAL COURSE VIDEO AND MITIGATING THE CONTENTS |
-
2010
- 2010-04-14 US US13/263,628 patent/US20120027295A1/en not_active Abandoned
- 2010-04-14 JP JP2012505283A patent/JP2012523641A/ja not_active Withdrawn
- 2010-04-14 RU RU2011146075/08A patent/RU2011146075A/ru not_active Application Discontinuation
- 2010-04-14 EP EP10717279A patent/EP2419861A1/en not_active Withdrawn
- 2010-04-14 WO PCT/IB2010/051620 patent/WO2010119410A1/en active Application Filing
- 2010-04-14 CN CN2010800167531A patent/CN102395984A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP2419861A1 (en) | 2012-02-22 |
CN102395984A (zh) | 2012-03-28 |
RU2011146075A (ru) | 2013-05-20 |
US20120027295A1 (en) | 2012-02-02 |
WO2010119410A1 (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012523641A (ja) | ビデオコンテンツ解析のためのキーフレーム抽出 | |
Mussel Cirne et al. | VISCOM: A robust video summarization approach using color co-occurrence matrices | |
US8467611B2 (en) | Video key-frame extraction using bi-level sparsity | |
US20120148149A1 (en) | Video key frame extraction using sparse representation | |
TWI712316B (zh) | 視訊摘要的生成方法及裝置 | |
US8942469B2 (en) | Method for classification of videos | |
Pal et al. | Video segmentation using minimum ratio similarity measurement | |
CN1909677A (zh) | 图像表示和分析方法 | |
Vila et al. | Tsallis entropy-based information measures for shot boundary detection and keyframe selection | |
Asha et al. | Content based video retrieval using SURF descriptor | |
Idan et al. | Fast shot boundary detection based on separable moments and support vector machine | |
Chavate et al. | A comparative analysis of video shot boundary detection using different approaches | |
Shao et al. | Motion histogram analysis based key frame extraction for human action/activity representation | |
EP2325802A2 (en) | Methods of representing and analysing images | |
Tsingalis et al. | Svm-based shot type classification of movie content | |
Premaratne et al. | Structural approach for event resolution in cricket videos | |
Cirne et al. | Summarization of videos by image quality assessment | |
Guru et al. | Histogram based split and merge framework for shot boundary detection | |
Rashmi et al. | Shot-based keyframe extraction using bitwise-XOR dissimilarity approach | |
Chatur et al. | A simple review on content based video images retrieval | |
Asatryan et al. | Improved algorithm for video shot detection | |
Zhang et al. | Shot boundary detection based on block-wise principal component analysis | |
Madhusudhan et al. | Video shot boundary detection using statistical methods | |
Bhaumik et al. | Real-time storyboard generation in videos using a probability distribution based threshold | |
Gushchin et al. | Shot boundary detection method based on a new extensive dataset and mixed features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130702 |