JP4924423B2 - 特徴量の予測誤差に基づいて動画像のカット点を検出する装置 - Google Patents

特徴量の予測誤差に基づいて動画像のカット点を検出する装置 Download PDF

Info

Publication number
JP4924423B2
JP4924423B2 JP2007518981A JP2007518981A JP4924423B2 JP 4924423 B2 JP4924423 B2 JP 4924423B2 JP 2007518981 A JP2007518981 A JP 2007518981A JP 2007518981 A JP2007518981 A JP 2007518981A JP 4924423 B2 JP4924423 B2 JP 4924423B2
Authority
JP
Japan
Prior art keywords
frame
current frame
prediction error
cut point
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007518981A
Other languages
English (en)
Other versions
JPWO2006129622A1 (ja
Inventor
浩太 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007518981A priority Critical patent/JP4924423B2/ja
Publication of JPWO2006129622A1 publication Critical patent/JPWO2006129622A1/ja
Application granted granted Critical
Publication of JP4924423B2 publication Critical patent/JP4924423B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像のカット点を検出する装置に関する。なお、カット点とは、ショット(1台のカメラで連続的に撮影された映像区間)とショットの間が瞬間的に切り替わる境界である。
従来の動画像カット点検出装置は、フレーム間の特徴量の比較に基づいて動画像のカット点を検出している。
図1に示すように、この従来の動画像カット点検出装置はフレーム特徴量抽出部11とフレーム間差分値算出部12とカット点判定部13とを有している。フレーム特徴量抽出部11は動画像の各フレームからそれぞれの特徴量を抽出し、フレーム間差分値算出部12に出力する。フレーム間差分値算出部12はフレーム間の特徴量を比較してその差分値(または類似度)を算出し、カット点判定部13に出力する。カット点判定部13はフレーム間差分値の大きい(または類似度の小さい)場合に当該フレームをカット点と判定する。
この従来のカット点検出装置(方法)については、用いる特徴量に応じて様々な発明が出願されている。特許文献1には、画素値(輝度情報・色情報)を特徴量として用いるカット点検出方法が記載されている。特許文献2には、ヒストグラムを特徴量として用いるカット点検出方法が記載されている。特許文献3には動きベクトルを特徴量として用いるカット点検出方法が、特許文献4には周波数情報を特徴量として用いるカット点検出方法が、特許文献5にはエッジ情報を特徴量として用いるカット点検出方法がそれぞれ記載されている。また、符号化された動画像を対象に、符号化の情報を特徴量やフレーム間の差分値として用いる方法も提案されている。特許文献6には、符号化における動きベクトルを特徴量として用いるカット点検出方法が記載されている。特許文献7には、符号化モード情報をフレーム間の差分値として用いるカット点検出方法が記載されている。
しかし、特許文献1から特許文献7に記載された、フレーム間の特徴量の比較に基づく従来のカット点検出方法には、次のような問題点がある。
第1に、動きのあるシーン(例えば、パン・ズームなどのカメラモーションを含むシーンや、オブジェクトの動きを含むシーンなど)において、カット点を誤って過剰に検出してしまう。その理由は、動きのあるシーンでは隣接するフレーム間の特徴量の差が大きくなるためである。
第2に、フラッシュや映像の瞬時的な乱れなど、映像の一時的な変動が発生した場合に、誤ってカット点を過剰に検出してしまう。その理由は、映像の一時的な変動によって隣接するフレーム間の特徴量の差が大きくなるためである。
この問題点に対処するために、特許文献8には、フレームの明度情報を用いてフラッシュの検出を行い、フラッシュに起因する過剰なカット点の検出を排除する方法が記載されている。しかし、明度情報のみを用いてフラッシュを特定するのは困難である。また、この方法では、映像の瞬時的な乱れなど、フラッシュ以外の映像の一時的な変動には対応できない。特許文献9には、カット点と検出されたフレームの前後のフレームを比較し、それらの類似度が高い場合に、映像の一時的な変動に起因する過剰なカット点の検出であったと判断する方法が記載されている。しかしこの方法では、映像の一時的な変動が連続的に発生した場合(例えばフラッシュが連続的に発生した場合など)や、動きのあるシーンにおいて映像の一時的な変動が発生した場合に、正しいカット点と過剰に検出されたカット点との区別が非常に困難である。
以下、本明細書で用いる特許文献のリストを記載する。
特開平5−37853号公報(段落0011−0016) 特開2000−36966号公報(段落0028−0034) 特開2003−196662号公報(段落0034−0041) 特開2002−133420号公報(段落0021−0031) 特開平6−237414号公報(段落0017−0018) 特開2002−281505号公報(段落0019−0025) 特開平11−252509号公報(段落0026−0028) 特開2002−101337号公報(段落0031−0034) 特開平11−252509号公報(段落0023−0024)
本発明の目的は、動きのあるシーンにおいても、また映像の一時的な変動が発生した場合にも過剰にカット点を検出することがなく、動画像のカット点を高精度に検出する動画像のカット点検出装置および方法を提供することにある。
本発明による動画像のカット点検出装置は、入力される動画像を構成する各フレームの特徴量を抽出するフレーム特徴量抽出手段と、各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、フレーム特徴量抽出手段によって抽出された現フレームよりも過去の所定数のフレームの特徴量の差分を用いて算出する予測手段と、フレーム特徴量抽出手段によって抽出された現フレーム以降の各フレームの特徴量と、予測手段によって算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する予測誤差算出手段と、予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、各予測誤差が判定基準を満たす場合に、現フレームがカット点であると判定するカット点判定手段とを有し、カット点判定手段は、予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差を、現フレームからのフレーム数ごとに異なる閾値と比較し、各予測誤差がいずれも閾値よりも大きい場合に、現フレームをカット点と判定する。
本発明による他の、動画像のカット点検出装置は、入力された動画像を構成する各フレームの特徴量を抽出するフレーム特徴量抽出手段と、各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、フレーム特徴量抽出手段によって抽出された現フレームよりも過去の所定数のフレームの特徴量の変化を用いて、動きのあるシーンにおける特徴量の変化に追随するように算出する予測手段と、フレーム特徴量抽出手段によって抽出された現フレーム以降の各フレームの特徴量と、予測手段によって算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する予測誤差算出手段と、予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、各予測誤差がいずれも所定の判定基準を満たす場合に、現フレームがカット点であると判定するカット点判定手段とを有し、カット点判定手段は、予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差を、現フレームからのフレーム数ごとに異なる閾値と比較し、各予測誤差がいずれも閾値よりも大きい場合に、現フレームをカット点と判定する。
現フレームよりも過去のフレーム群の特徴量から現フレーム以降の各フレームの特徴量の予測値、すなわち、現フレームよりも過去の複数のフレームの特徴量から、それら特徴量の推移を考慮して現フレーム以降の各フレームの特徴量の予測値を算出する。算出された特徴量の予測値と実際の特徴量の予測誤差に基づいてカット点の判定を行う。したがって、動きのあるシーンにおける特徴量の変化に追随できる(すなわち動きのあるシーンにおけるフレーム間の特徴量の差を吸収できる)。そのため、動きのあるシーンにおいて過剰にカット点を検出することがなく、高精度に動画像のカット点を検出することができる。
また、現フレーム以降の複数のフレームの予測誤差に基づいて現フレームがカット点であるか否かを判定することによって、現フレーム、または現フレームを含む現フレーム以降のいくつかのフレームにおいて映像の一時的な変動による特徴量の大きな変化が発生した場合でも、誤って現フレームをカット点と判定しない。そのため、フラッシュや映像の瞬時的な乱れなど、映像の一時的な変動が発生した場合にも過剰にカット点を検出することがなく、高精度に動画像のカット点を検出することができる。
閾値は、入力として与えられるあらかじめ観測された予測誤差の確率分布と、入力として与えられる棄却率から、予測誤差の確率分布において棄却率を実現する閾値を決定し、決定された閾値を出力する閾値決定手段によって与えられてもよい。この構成によれば、所望の棄却率を指定することができる。
特徴量は、フレーム画像の明度情報、色情報、分散値情報、エッジ情報、テクスチャ情報、形状情報、動き情報、国際標準規格ISO/IEC 15938−3に規定されているDominant Color、Color Layout、Scalable Color、Color Structure、Edge Histogram、Homogeneous Texture、Texture Browsing、Contour Shape、Shape 3D、Camera Motion、Motion Activityのうち1つ以上の特徴量であるか、フレーム画像から抽出した様々な特徴量に対して主成分分析を行って得られた特徴量であってもよい。
予測手段は、自己回帰モデルに基づく線形予測法によって特徴量の予測値を算出してもよい。
予測手段は、カルマンフィルタによって特徴量の予測値を算出してもよい。
予測誤差算出手段は、特徴量と特徴量の予測値との間のユークリッド距離を、予測誤差として算出してもよい。
予測誤差算出手段は、特徴量と特徴量の予測値との各次元ごとの差分値である予測誤差ベクトルを求め、あらかじめ学習によって与えられる予測誤差ベクトルの平均ベクトルに対する、求められた予測誤差ベクトルのマハラノビス距離を、予測誤差として算出してもよい。
図1は従来例の動画像カット点検出装置のブロック図である。 図2は本発明の第1の実施の形態による動画像カット点検出装置のブロック図である。 図3は本発明の第1の実施の形態による動画像カット点検出装置の動作を示す流れ図である。 図4は本発明の第2の実施の形態による動画像カット点検出装置のブロック図である。
(第1の実施の形態)
図1を参照すると、本発明の第1の実施の形態による動画像カット点検出装置はフレーム特徴量抽出部21と予測部22と予測誤差算出部23とカット点判定部24とを有している。
フレーム特徴量抽出部21は、入力として与えられた動画像の各フレームから特徴量を抽出する。特徴量は、画像処理によって抽出可能な複数種類の特徴量の情報およびフレームに付随する情報としてあらかじめ所定の形式で記述されている複数種類の特徴量の情報のうち少なくとも一つの情報である。ここで、画像処理によって抽出可能な各フレームの特徴量とは、当該フレームのみを画像処理することによって得られる特徴量でもよいし、当該フレームの近傍のフレームを含めた複数のフレームを画像処理することによって得られる特徴量(例えば、当該フレームと隣接フレームから求められる動きベクトル)であってもよく任意である。また、特徴量の次元数も任意である。
フレーム特徴量抽出部21が抽出する特徴量の例として、フレーム画像の明度情報、色情報、分散値情報、ヒストグラム情報、エッジ情報、テクスチャ情報、形状情報、動き情報などがあるが、これらに限ったものではない。また、国際標準規格ISO/IEC 15938−3に規定されているDominant Color、Color Layout、Scalable Color、Color Structure、Edge Histogram、Homogeneous Texture、Texture Browsing、Contour Shape、Shape 3D、Camera Motion、Motion Activityなどの特徴量を用いてもよい。また、これらの特徴量を2つ以上組み合わせたものを、フレーム特徴量抽出部21で抽出する特徴量としてもよい。
特徴量は画像全体から抽出したものでもよい。あるいは、画像を複数の小領域に分割し、各小領域からそれぞれ特徴量を抽出し、それらの集合体をフレーム特徴量抽出部21で抽出する特徴量としてもよい。
また、抽出された様々な特徴量に対して主成分分析を行って得られた主成分特徴量、すなわち抽出された元の特徴量を、主成分分析によって得られた固有空間に射影して得られた特徴量を、フレーム特徴量抽出部21で抽出する特徴量としてもよい。具体的には、フレーム特徴量抽出部21は、抽出した複数種類の特徴量の情報のうち、主成分分析によって相関関係のあるいくつかの特徴量の情報を合成して少数個の総合特性値に集約し、少数個の総合特性値をカット点判定のための主成分特徴量としてもよい。
予測部22は、フレーム特徴量抽出部21から現フレームよりも過去のフレーム群(すなわち複数のフレーム)の特徴量を受け取り、受け取った特徴量を用いて、現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を算出する。
すなわち、現フレームのフレーム番号をNと表し、特徴量の予測値を算出する際に使用する現フレームNよりも過去のフレームを、フレームN−1からフレームN−Mまでのフレームとし(ただしMは2以上の任意の整数)、特徴量の
予測値を求める現フレームN以降のフレームを、現フレームNからフレームN+Tまでのフレームとすると(ただしTは0以上の任意の整数)、予測部22は、フレーム特徴量抽出部21から、フレームN−1、フレームN−2、・・・、フレームN−Mの特徴量を受け取り、それらフレームN−1、フレームN−2、・・・、フレームN−Mの特徴量を用いて、現フレームNからフレームN+Tまでの特徴量の予測値を算出する。
このように、現フレームよりも過去の複数のフレームの特徴量から現フレーム以降の各フレームの特徴量の予測値を算出することによって、過去のフレーム群における特徴量の推移(動き)を考慮して高精度な予測値を算出することができる。
ここで、T=0、すなわち特徴量の予測値を求めるフレームを現フレームNのみ、としてもよい。
また、フレームN−1、フレームN−2、・・・、フレームN−Mの特徴量を用いて、フレームNからフレームN+Tまでの特徴量の予測値を算出する際の予測方法(予測関数)は任意である。
予測方法の例としては、自己回帰モデルに基づく線形予測法が挙げられる。この方法では、フレームN−1、フレームN−2、・・・、フレームN−Mの各特徴量を、学習によってあらかじめ得られた自己回帰係数を用いて重み付けし、その和を求めることによって、予測値を算出する。例えば、それぞれの自己回帰係数をA1、A2、A3、・・・、AMと表すと、現フレームNの特徴量の予測値は以下の式のように算出することができる。
フレームNの特徴量の予測値=A1×フレームN−1の特徴量+A2×フレームN−2の特徴量+A3×フレームN−3の特徴量+・・・+AM×フレームN−Mの特徴量
また、予測方法にカルマンフィルタを用いてもよい。
予測誤差算出部23は、フレーム特徴量抽出部21から、現フレームNからフレームN+Tまでの特徴量を受け取り、予測部22から、現フレームNからフレームN+Tまでの特徴量の予測値を受け取り、それぞれのフレームの特徴量とその予測値とを比較して、現フレームNからフレームN+Tまでの予測誤差を算出する。
ここで、予測誤差とは、予測部22から入力される特徴量の予測値が、フレーム特徴量抽出部1から入力される実際の特徴量の値からどの程度はずれているかを数値化した値である。
予測誤差は、フレーム特徴量抽出部21から入力される実際の特徴量と、予測部22から入力される特徴量の予測値との間の距離を算出することで求めることができる。
例えば、フレーム特徴量抽出部21から入力される実際の特徴量と、予測部22から入力される特徴量の予測値との間のユークリッド距離を予測誤差としてもよい。また、フレーム特徴量抽出部21から入力される実際の特徴量と、予測部22から入力される特徴量の予測値との各次元ごとの差分値である予測誤差ベクトルを求め、求めた予測誤差ベクトルの、あらかじめ学習によって与えられる予測誤差ベクトルの平均ベクトルに対するマハラノビス距離を予測誤差としてもよい。
カット点判定部24は、予測誤差算出部23から、現フレームNからフレームN+Tまでの予測誤差を受け取り、それぞれの予測誤差を、入力として与えられる閾値と比較し、現フレームNからフレームN+Tまでの予測誤差のそれぞれが閾値よりも大きい場合に、現フレームNをカット点と判定する。現フレームがカット点であると判定した場合、カット点判定部24は、現フレームのフレーム番号をカット点検出結果として出力する。
ここで、閾値は、現フレームNからのフレーム数ごとに異なる値として与えられてもよい。例えば、現フレームから遠くなるに従って、閾値を大きくしてもよい。このようにして、予測誤差が発生する確率に応じて異なる閾値を設定することができる。
次に、本実施の形態による動画像カット点検出装置の動作を、図3を参照して説明する。
なお、本説明では、カット判定の対象である現フレームのフレーム番号をNと表す。また、特徴量の予測値を算出する際に使用する現フレームNよりも過去のフレームをフレームN−Mまでのフレームとし(ただし、Mは2以上の任意の整数の定数)、特徴量の予測値を求める現フレームN以降のフレームを、フレームN+Tまでのフレームとする(ただし、Tは0以上の任意の整数の定数)。
まず、ステップ101に、現フレームNのフレーム番号を、特徴量の予測値の算出に必要なフレーム数を考慮して、N=動画像の開始フレーム番号+Mと定める。
次に、ステップ102に、N+Tが動画像の終了フレーム番号を超えたかどうか判定し、超えた場合は処理を終了する。
ステップ102において、N+Tが動画像の終了フレーム番号を超えない場合には、フレーム特徴量抽出部21は、ステップ103に、新規ショットにおける初期処理として、フレームN−MからフレームN+T−1までの各フレームから特徴量を抽出する。
初期処理が終了すると、フレーム特徴量抽出部21は、ステップ104に、最新フレームであるフレームN+Tから特徴量を抽出する。
ステップ105に、予測部22は、フレーム特徴量抽出部21から、フレームN−1、フレームN−2、・・・、フレームN−Mの特徴量を受け取り、それらフレームN−1、フレームN−2、・・・、フレームN−Mの特徴量を用いて、現フレームNからフレームN+Tまでの特徴量の予測値を算出する。
ステップ106に、予測誤差算出部23は、フレーム特徴量抽出部21から、現フレームNからフレームN+Tまでの特徴量を受け取るとともに、予測部22から、現フレームNからフレームN+Tまでの特徴量の予測値を受け取り、それぞれのフレームの特徴量とその予測値とを比較して、現フレームNからフレームN+Tまでの予測誤差を算出する。
ステップ107に、カット点判定部24は、予測誤差算出部23から、現フレームNからフレームN+Tまでの予測誤差を受け取り、それぞれの予測誤差を、入力として与えられた閾値と比較し、現フレームNからフレームN+Tまでの予測誤差のそれぞれが閾値よりも大きいか否かを判定する。現フレームNからフレームN+Tまでの予測誤差のそれぞれがいずれも閾値よりも大きい場合は、カット点判定部24は、ステップ108に、現フレームNをカット点と判定し、そのフレーム番号であるNをカット点検出結果として出力する。
ステップ108の処理が終了すると、カット点判定部24は、ステップ109に、カット点と検出されたフレームの後のショットから再度カット点検出の処理を行うために、現フレームNをN=N+1+Mと更新し、ステップ102以降の処理を再度実行する。
ステップ107において、現フレームNからフレームN+Tまでの予測誤差のいずれかが閾値よりも小さい場合、カット点判定部24は、ステップ110に、現フレームNはカット点ではないと判定し、現フレームNを次のフレームに更新する。
ステップ111に、N+Tが動画像の終了フレーム番号を超えたかどうか判定し、超えた場合は処理を終了する。ステップ111において、N+Tが動画像の終了フレーム番号を超えない場合は、ステップ104以降の処理を実行する。
以上に説明したように、本実施の形態は、動画像において動きのあるシーンにおいても、カット点を過剰に検出することがなく、高精度に動画像のカット点を検出することができ、また、動画像においてフラッシュや映像の瞬時的な乱れなど、映像の一時的な変動が発生した場合にも、カット点を過剰に検出することがなく、高精度に動画像のカット点を検出することができるという利点がある。
(第2の実施の形態)
図4に示すように、本発明の第2の実施の形態による動画像カット点検出装置は、閾値決定部25をさらに有する点が、図2に示された本発明の第1の実施の形態による動画像カット点検出装置とは異なる。
閾値決定部25には、入力として、あらかじめ観測された予測誤差の確率分布(予測誤差確率分布)と、任意に設定される棄却率とが与えられる。ここで、予測誤差確率分布とは、カット点を含まない(すなわち同一のショットの)動画像において予測誤差算出部23が出力する予測誤差が発生する確率分布を、あらかじめ観測したものである。また、棄却率とは、確率分布に従って発生する予測誤差を棄却する割合である。閾値決定部25は、入力として与えられた予測誤差の確率分布において、閾値よりも大きな予測誤差が発生する確率が棄却率に一致するような閾値を決定し、決定された閾値をカット点判定部24へ供給する。予測誤差をE(E≧0)、予測誤差の確率分布をP(E)、棄却率をR(0≦R≦1)、閾値をThと表すと、
Figure 0004924423
を満たすようなThが、求める閾値となる。
なお、本実施の形態の動画像カット点検出装置のその他の構成および動作は、第1の実施の形態と同じであるため、その説明は省略する。
このように、本実施の形態による動画像カット点検出装置は、第1の実施の形態による動画像カット点検出装置の利点に加えて、所望の棄却率を指定することができるという利点がある。
なお、本発明の動画像カット点検出装置は、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータ内の揮発性メモリのように、一定時間プログラムを保持しているものを含む。

Claims (13)

  1. 動画像における映像区間の切替点であるカット点を検出する装置であって、
    入力された動画像を構成する各フレームの特徴量を抽出するフレーム特徴量抽出手段と、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、前記フレーム特徴量抽出手段によって抽出された現フレームよりも過去の所定数のフレームの特徴量の差分を用いて算出する予測手段と、
    前記フレーム特徴量抽出手段によって抽出された現フレーム以降の各フレームの特徴量と、前記予測手段によって算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する予測誤差算出手段と、
    前記予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定するカット点判定手段と
    を有し、
    前記カット点判定手段は、前記予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    動画像のカット点検出装置。
  2. 動画像における映像区間の切替点であるカット点を検出する装置であって、
    入力された動画像を構成する各フレームの特徴量を抽出するフレーム特徴量抽出手段と、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、前記フレーム特徴量抽出手段によって抽出された現フレームよりも過去の所定数のフレームの特徴量の変化を用いて、動きのあるシーンにおける特徴量の変化に追随するように算出する予測手段と、
    前記フレーム特徴量抽出手段によって抽出された現フレーム以降の各フレームの特徴量と、前記予測手段によって算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する予測誤差算出手段と、
    前記予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定するカット点判定手段と
    を有し、
    前記カット点判定手段は、前記予測誤差算出手段によって算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    動画像のカット点検出装置。
  3. カット点を含まない動画像において予測誤差が発生する確率分布と、該確率分布に従って発生する予測誤差を棄却する割合である棄却率とにもとづいて、前記確率分布において前記棄却率を実現する閾値を決定し、決定された閾値を前記カット点判定手段に出力する閾値決定手段をさらに有する、請求項または請求項記載の動画像のカット点検出装置。
  4. 前記特徴量は、画像処理によって抽出可能な複数種類の特徴量の情報およびフレームに付随する情報としてあらかじめ所定の形式で記述されている複数種類の特徴量の情報のうちの少なくとも一つの情報である、請求項1から請求項のいずれかに記載の動画像のカット点検出装置。
  5. 前記フレーム特徴量抽出手段は、抽出した複数種類の特徴量の情報のうち、主成分分析によって相関関係のあるいくつかの特徴量の情報を合成して少数個の総合特性値に集約し、少数個の総合特性値をカット点判定のための主成分特徴量とする、請求項1から請求項のうちいずれかに記載の動画像のカット点検出装置。
  6. 前記予測手段は、自己回帰モデルに基づく線形予測法によって特徴量の予測値を算出する、請求項1から請求項のいずれかに記載の動画像のカット点検出装置。
  7. 前記予測手段は、カルマンフィルタによって特徴量の予測値を算出する、請求項1から請求項のいずれかに記載の動画像のカット点検出装置。
  8. 前記予測誤差算出手段は、特徴量と特徴量の予測値の間のユークリッド距離を予測誤差として算出する、請求項1から請求項のうちいずれかに記載の動画像のカット点検出装置。
  9. 前記予測誤差算出手段は、特徴量と特徴量の予測値との各次元ごとの差分値である予測誤差ベクトルを求め、あらかじめ学習によって与えられる予測誤差ベクトルの平均ベクトルに対する、求められた予測誤差ベクトルのマハラノビス距離を予測誤差として算出する、請求項1から請求項のいずれかに記載の動画像のカット点検出装置。
  10. 動画像における映像区間の切替点であるカット点を検出する方法であって、
    入力される動画像を構成する各フレームの特徴量を抽出するステップと、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、抽出された現フレームよりも過去の所定数のフレームの特徴量の差分を用いて算出するステップと、
    前記抽出された現フレーム以降の各フレームの特徴量と、前記算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出するステップと、
    前記算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定するステップと
    を有し、
    前記カット点であると判定するステップは、算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    動画像のカット点検出方法。
  11. 動画像における映像区間の切替点であるカット点を検出する方法であって、
    入力される動画像を構成する各フレームの特徴量を抽出するステップと、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、抽出された現フレームよりも過去の所定数のフレームの特徴量の変化を用いて、動きのあるシーンにおける特徴量の変化に追随するように算出するステップと、
    前記抽出された現フレーム以降の各フレームの特徴量と、前記算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出するステップと、
    前記算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定するステップと
    を有し、
    前記カット点であると判定するステップは、算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    動画像のカット点検出方法。
  12. コンピュータに、動画像における映像区間の切替点であるカット点を検出させるプログラムであって、
    入力される動画像を構成する各フレームの特徴量を抽出する手順と、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、前記抽出された現フレームよりも過去の所定数のフレームの特徴量の差分を用いて算出する手順と、
    前記抽出された現フレーム以降の各フレームの特徴量と、前記算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する手順と、
    前記算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定する手順と
    をコンピュータに実行させ
    前記カット点であると判定する手順は、算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    プログラム。
  13. コンピュータに、動画像における映像区間の切替点であるカット点を検出させるプログラムであって、
    入力される動画像を構成する各フレームの特徴量を抽出する手順と、
    各フレームについて順番に判定対象のフレームを選択し、現在の判定対象のフレームである現フレームを含めた現フレーム以降の各フレームの特徴量の予測値を、前記抽出された現フレームよりも過去の所定数のフレームの特徴量の変化を用いて、動きのあるシーンにおける特徴量の変化に追随するように算出する手順と、
    前記抽出された現フレーム以降の各フレームの特徴量と、前記算出された現フレーム以降の、対応するフレームの特徴量の予測値とを比較して、現フレーム以降の各フレームについて特徴量と予測値との予測誤差を算出する手順と、
    前記算出された現フレーム以降の各フレームの予測誤差が所定の判定基準を満たすか否かを判定し、前記各予測誤差がいずれも前記所定の判定基準を満たす場合に、現フレームがカット点であると判定する手順と
    をコンピュータに実行させ
    前記カット点であると判定する手順は、算出された現フレーム以降の各フレームの予測誤差を、前記現フレームからのフレーム数ごとに異なる閾値と比較し、前記各予測誤差がいずれも前記閾値よりも大きい場合に、現フレームをカット点と判定する、
    プログラム。
JP2007518981A 2005-06-01 2006-05-30 特徴量の予測誤差に基づいて動画像のカット点を検出する装置 Active JP4924423B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007518981A JP4924423B2 (ja) 2005-06-01 2006-05-30 特徴量の予測誤差に基づいて動画像のカット点を検出する装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005161875 2005-06-01
JP2005161875 2005-06-01
PCT/JP2006/310706 WO2006129622A1 (ja) 2005-06-01 2006-05-30 特徴量の予測誤差に基づいて動画像のカット点を検出する装置
JP2007518981A JP4924423B2 (ja) 2005-06-01 2006-05-30 特徴量の予測誤差に基づいて動画像のカット点を検出する装置

Publications (2)

Publication Number Publication Date
JPWO2006129622A1 JPWO2006129622A1 (ja) 2009-01-08
JP4924423B2 true JP4924423B2 (ja) 2012-04-25

Family

ID=37481551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007518981A Active JP4924423B2 (ja) 2005-06-01 2006-05-30 特徴量の予測誤差に基づいて動画像のカット点を検出する装置

Country Status (2)

Country Link
JP (1) JP4924423B2 (ja)
WO (1) WO2006129622A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101029437B1 (ko) * 2009-04-01 2011-04-14 엔에이치엔(주) 동영상 중복 검출 방법 및 시스템
CN112735164B (zh) * 2020-12-25 2022-08-05 北京智能车联产业创新中心有限公司 测试数据构建方法及测试方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153155A (ja) * 1992-11-09 1994-05-31 Matsushita Electric Ind Co Ltd 動画像の拾い見装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153155A (ja) * 1992-11-09 1994-05-31 Matsushita Electric Ind Co Ltd 動画像の拾い見装置

Also Published As

Publication number Publication date
JPWO2006129622A1 (ja) 2009-01-08
WO2006129622A1 (ja) 2006-12-07

Similar Documents

Publication Publication Date Title
EP3008696B1 (en) Tracker assisted image capture
JP5908174B2 (ja) 画像処理装置及び画像処理方法
US7567704B2 (en) Method and apparatus for identifying physical features in video
JP6474854B2 (ja) 背景モデルを更新するための方法及び装置
JP5478047B2 (ja) 映像データ圧縮前処理方法およびこれを用いた映像データ圧縮方法と映像データ圧縮システム
JP2007323572A (ja) 物体検出装置、物体検出方法および物体検出プログラム
EP1542153A1 (en) Object detection
JP2009512246A (ja) 画像のショットタイプを決定する方法及び装置
EP1542154A2 (en) Object detection
US20220321792A1 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
KR101281850B1 (ko) 영상 디스크립터 생성 장치
EP4038540B1 (en) Object detection
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4924423B2 (ja) 特徴量の予測誤差に基づいて動画像のカット点を検出する装置
JP5644505B2 (ja) 照合加重情報抽出装置
KR100963701B1 (ko) 영상 식별 장치
KR101667011B1 (ko) 입체 영상의 장면 전환 검출 장치 및 방법
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
JP4979029B2 (ja) 動画像データのシーン分割装置
JP4349574B2 (ja) 動画像データのシーン分割装置
Prabavathy et al. Gradual transition detection in shot boundary using gradual curve point.
Saoudi et al. Spatio-temporal video slice edges analysis for shot transition detection and classification
JP5336017B2 (ja) 撮像装置及び撮像方法
JP5230404B2 (ja) 撮像装置、その制御方法、及びプログラム
CN116320658A (zh) 用于管理元数据的***和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4924423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150