JP4372202B1 - ビデオコンテンツ解析装置及び方法 - Google Patents

ビデオコンテンツ解析装置及び方法 Download PDF

Info

Publication number
JP4372202B1
JP4372202B1 JP2008138395A JP2008138395A JP4372202B1 JP 4372202 B1 JP4372202 B1 JP 4372202B1 JP 2008138395 A JP2008138395 A JP 2008138395A JP 2008138395 A JP2008138395 A JP 2008138395A JP 4372202 B1 JP4372202 B1 JP 4372202B1
Authority
JP
Japan
Prior art keywords
event
video
section
time
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008138395A
Other languages
English (en)
Other versions
JP2009290330A (ja
Inventor
祐治 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008138395A priority Critical patent/JP4372202B1/ja
Priority to US12/404,985 priority patent/US8150233B2/en
Application granted granted Critical
Publication of JP4372202B1 publication Critical patent/JP4372202B1/ja
Publication of JP2009290330A publication Critical patent/JP2009290330A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】特定区間の認定が誤り無く行え、特定区間とその隣の区間との識別を正確にできるようする。
【解決手段】この発明の装置のイベント検出部101は、デコーディングユニット3によりデコードされた映像の中で、特定の特徴が生じている区間をイベント区間として検出する。イベント時刻情報格納部1012は、前記検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納する。複数イベント区間特定部103は、隣り合う前記イベント区間の2つの解析用時刻の間隔が所定の条件を満たす場合に、前記隣り合うイベント区間をグループ内として特定する。そして、映像種別識別部104は、グループ内として特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する。
【選択図】 図1

Description

この発明は、ビデオコンテンツ解析装置及び方法に関するものであり、映像・音声データの途中に含まれる特定の信号区間を検出し、映像・音声データの編集を行う場合に有効である。
テレビジョン放送信号には、プログラムの境界、あるいはプログラムの途中においてコマーシャル(CM)タイムが設けられている。今、ここでは1つのCMが放送される区間をCM区間とし、複数のCMが次々と放送される区間をグループCM区間と称することにする。記録再生装置において、前記CM区間を検出する方法として、プログラム本編とCM区間との間のブラックフレームを検出するとともに、グループCM区間では隣り合うCM区間の間にあるブラックフレームを検出する方法がある。ブラックフレームの検出タイミングを参照してグループCM区間の全体をスキップし、プログラム本編のみを再生することができる。
しかしブラックフレームのフレーム数は番組よって異なる場合があり、複数のCM区間が連続している場合、そのスキップ長に誤差が生じることがあり、プログラム本編に不要な映像が混入することがある。
またCM区間を検出する方法として、次のような方法が開発されている(特許文献1)。音声信号を用いて音声レベルが、所定時間、閾値以下の区間を無音部として判定し、無音部と次の無音部との時間間隔が一定時間(A:たとえば15秒)の倍数であるかどうかを判定する。次に時間間隔が一定時間(A)の倍数であれば、無音部の検出をカウントし、前記無音部のカウント数が閾値(B)個以上あれば、最初と最後に現れた無音部に対して、区切り情報を設定する。しかし無音部(音声レベルが閾値以下の区間)の時間長は必ずしも一定とは限らない。このために、無音部と次の無音部との時間間隔を測定する場合、各無音部の基準時刻の設定位置が問題となる。つまり無音部の先頭、終端のどの位置を基準時刻とするかにより、前記時間間隔の測定結果が不正確となることがある。測定結果が不正確な場合、CM区間とプログラム本編との区分が不正確になる。
US2006/0263062A1
従来の技術であると、CM区間をスキップした連続再生映像の途中で一部に無関係のフレーム映像(CM区間の残留像)が見えることがある。そこで上記のCMなどの特定区間をさらに正確に検出したいという要望がある。
この発明では、上記の事情に鑑みてなされたもので、特定区間の認定が誤り無く行え、特定区間とその隣の区間との識別を正確にできるようにしたビデオコンテンツ解析装置及び方法を提供することを目的とする。
この発明は、映像・音声データをデコードするデコーディングユニットと、前記デコーディングユニットによりデコードされた映像の中で、特定の特徴が生じている区間をイベント区間として検出するイベント検出部と、前記検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納するイベント時刻情報格納部と、隣り合う前記イベント区間の2つの前記解析用時刻の間隔が所定の条件を満たす場合に、前記隣り合うイベント区間をグループ内として特定する複数イベント区間特定部と、グループ内として特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する映像種別識別部と有することを特徴とする。
上記の手段によると、複数のイベント区間をグループ化する上で、イベント区間の解析用時刻の間隔が用いられる。この間隔が所定の条件を満たすことを判定した上で、先頭のイベント区間から最後のイベント区間の映像を第1の種別とする。イベント区間の長さが変動しても、グループとしての複数のイベント区間の検出が正確となるため、イベント区間の検出ミスが低減され、複数のイベント区間の範囲確定が正確となり、第1の種別と第2の種別の映像の識別が正確となる。
以下、図面を参照してこの発明の実施の形態を説明する。図1はこの発明が適用された信号処理装置の構成例である。この信号処理装置は、例えばデジタルテレビジョン受信装置、あるいは情報記録再生装置などに適用可能である。
チューナ1は、例えばデジタル放送信号を受信し、受信信号を復調し、復調出力をトランスポートデコーダ2に供給する。トランスポートデコーダ2で選択された番組の映像データ・音声データはパケット毎にオーディオビデオ(AV)デコーダ3に入力されて復調される。AVデコーディングユニット3で復調された音声出力は、出力端子4Aに出力され、映像出力は、出力端子4Pに出力される。出力端子4Pの映像データには、合成回路5にて、オンスクリーンディスプレイ(OSD)コントローラ6からの映像データが合成される場合もある。
SDRAM8は、例えば受信信号のエラー訂正処理などを行うときに、一時的にデータを格納する場合に利用される。また、EEPROM9は、例えば装置の機能を実行するプログラムあるいはパラメータなどを保存しておくために利用される。
10は、メインバスであり、上記のトランスポートデコーダ2、AVデコーディングユニット3、OSDコントローラ6、SDRAM8、EEPROM9などに接続されている。そしてメインバス10には、装置を統括する制御部としてのCPU11が接続されている。さらにこの装置は、バス10を介して外部機器と接続することが可能である。このためにメインバス10には、モデムインターフェース12a,リモコンインターフェース12b、ATAPIインターフェース12cが接続されている。インターフェース12cを介してハードディスクドライブ(HDD)13を接続することも可能である。
トランスポートストリームデコーダ2で分離されたAVストリームは、ATAPIインターフェース12cを介して、HDD13に記録することができる。再生時時には、HDD13から読み出されたAVストリームがAVデコーディングユニット3でデコードされる。
AVデコーディングユニット3は、トランスポートストリームからオーディオ信号、ビデオ信号を再生することができる。またDVD規格のオーディオストリーム、ビデオストリームからもオーディオ信号、ビデオ信号を再生することができる。また更に他の規格の信号からオーディオ信号、ビデオ信号を再生できるように構成されていてもよい。
またメインバス10には、AVエンコーダ14が接続され、このAVエンコーダ14は、映像データを記録媒体に記録するために所定のフォーマット(例えばDVD規格、トランスポートストリーム、ベースバンド、その他)に変換することができる。変換されたAV情報は、例えばHDD13に記録される。
さらにインターフェース15を介して、DVDドライブ16が接続されていてもよい。そしてDVD規格の情報は、DVDドライブ16を介して光ディスクに記録される、あるいは光ディスクから再生されるようにしてもよい。
CPU11は、上記した各ブロックを統括して制御する。またCPU11内部には、イベント検出部101、イベント時刻情報格納部102、複数イベント区間特定部103、映像種別識別部104が設けられている。
イベント検出部101は、AVデコーディングユニット3によりデコードされた映像の中で、特定の特徴が生じた区間をイベント区間として検出する。イベント時刻情報格納部102は、検出したイベント区間の開始時刻、終了時刻、その間の解析用時刻を格納する。解析用時刻は、開始時刻と終了時刻の中央の中央時刻が望ましいが中央時刻にさらに±αの時刻であってもよい。
複数イベント区間特定部103は、隣り合うイベント区間に対して求められた隣り合う解析用時刻の間隔が所定の条件を満たす場合に、隣り合うイベント区間を特定する。映像種別識別部104は、特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する部分である。そして識別情報を生成することもできる。この識別情報は、1つの管理情報としてAVエンコーダ14でエンコードされた圧縮映像データに関連付けられる。そして圧縮映像データとともに識別情報は、例えば、HDD13に記録される。
図2はイベント検出方法の一例を示している。イベント検出部101にあっては、デコードされたビデオデータをフレーム単位で監視し、フレーム全体が特定の色(例えば青)であるか否かを判定する。この場合、必ずしも青とは限らず、他の色でもよく、1フレームが単色であるか否かを判定するよういしてもよい。そして、フレーム全体が特定の色(単色)に変化したときを、特徴が発生した時刻(t1)、特定の色から通常のビデオ内容に変化したときを特徴が消失した時刻(t3)とする。さらに時刻t1とt3の解析用時刻を計算し解析用時刻(t2)とする。解析用時刻は例えば、t1とt3の中間の時刻である。そして時刻t1からt3までをイベント区間(EV)として定義する。
上記のようにイベント区間を検出すると、例えば図3の例のように、複数のイベント区間(EV1、EV2,EV3、EV4)を検出することができる。イベント時刻情報格納部102は、それぞれのイベント区間の特徴が発生した時刻、特徴が消失した時刻、その解析用時刻を一時的に格納する。そして、複数イベント区間特定部103により、隣り合うイベント区の中央時刻間の時間差がn秒か又はその倍数秒であるかを判断する。そして、隣り合うイベント区の中央時刻間の時間差がn秒か又はその倍数秒であれば、この期間を複数イベント区間として特定する。
さらに映像種別識別部104は、特定された複数のイベント区間のうち先頭のイベント区間の開始時刻から最後のイベント区間の終了時刻までの映像を第1の種別として、それ以外の映像を第2の種別として識別する。
図3の例は、グループとしての複数のイベント区間を特定する場合、隣り合うイベント区間の解析用時刻間の時間差がn秒か又はその倍数秒であることを条件にした。しかしこれに限定されるものではない。n秒としては、たとえば10秒、20秒、30秒などがある。
図4の例は、隣り合うイベント区間の解析用時刻間の時間差がn秒以内であることを条件にして、グループとしての複数のイベント区間の範囲を認定する例である。
上記したように、イベント区間の解析用時刻の間隔が、所定の条件を満たすことを判定した上で、先頭のイベント区間から最後のイベント区間の映像を第1の種別としている。このためにイベント区間の検出ミスが低減され、複数のイベント区間の範囲確定が正確となり、第1の種別と第2の種別の映像の識別が正確となる。
CMによっては、短いイベント区間,長いイベント区間があり、一律に、イベントの先頭のみの情報からCM区間を特定すると、CM区間の検出ミスが生じることがある。しかしこの発明であると、イベント区間の解析用時刻間を測定しているので、このような検出ミスが低減される。
次に本発明では、映像種別識別部104は、複数のイベント区間のうち先頭のイベント区間の開始時刻から最後のイベント区間の終了時刻までを映像の第1の種別として、それ以外を映像の第2の種別として設定する。このために、正確にフレーム単位で映像の第1の種別と、それ以外の映像の第2の種別とが分離識別される。この様子を示した図が図5である。即ち、複数のイベント区間のうち先頭のイベント区間(EV1)の開始時刻から最後のイベント区間(EV4)の終了時刻までを映像の第1の種別の区間として設定できる。
上記の実施の形態では、イベント区間を検出するためにフレーム全体が単色であるか否かを判定した。しかしこれに限らず、以下のような方法であってもよい。即ち、CM期間の始まりと終わりには一瞬無音期間が存在するので、この期間を先のイベント区間と同様な検出結果として利用するのである。なおここで、無音期間検出は、完全な音声レベルゼロを意味するのではなく、音声レベルが所定レベル以下になったことを検出することである。
図6と図7は、無音部を検出することで無音イベント区間を検出するときの動作と制御部11の内部を示している。この場合も無音部の開始時刻、終了時刻を判定し、次に、開始時刻と終了時刻との解析用時刻を計算により求めて、メモリに格納する。
ビデオ信号には、プログラム本編の途中に第1回目のコマーシャルとしてCM1,CM2,CM3,CM4存在し、第2回目のコマーシャルとしてCM5,CM6,CM7が存在する例を示している。コマーシャルの境目にはイベント区間EV11−EV19が存在する。
無音部イベント検出部201は、オーディオ信号レベルが所定の閾値以下に変化したときを前記イベント区間の開始、前記オーディオ信号レベルが前記所定の閾値以下から以上に変化したときを前記イベント区間の終了と判定している。イベント時刻情報格納部102は、検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納する。
以後の処理は、図1に示した実施の形態と同様である。つまり、制御部11内には、隣り合う無音イベント区間に対して求められた隣り合う解析用時刻の間隔が所定の条件を満たす場合に、隣り合うイベント区間をグループ内として特定する複数イベント区間特定部103と、特定された複数のイベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する映像種別識別部と104有する。
図8、図9は、図1の実施形態と、図6、図7の実施形態を合体した実施の形態である。映像の全フレームが単色に変化したときであり、かつオーディオ信号レベルが所定の閾値以下に変化したときをイベント区間の開始と判定し、映像の全フレームが単色から通常画像状態に変化したときであり、かつオーディオ信号レベルが所定の閾値以下から以上に変化したときをイベント区間の終了と判定する例である。
この実施の形態によれば、誤って検出された不要なイベント区間EVA5、EVA7,EVP7,EVP11が存在しても、これらのイベント区間が採用されることはない。制御部11内には、図9に示すようにイベント検出部101、無音イベント検出部201、イベント時刻情報格納部102、複数イベント区間特定部103、映像種別識別部104が存在する。
図10には、第1の実施の形態の動作フローチャートを示している。ビデオタイトルの先頭からの再生が開始されると、時間カウンタがスタートする(ステップSA1)。全フレームが単色になったかどうかの判定が行なわれ((ステップSA2)る。単色なったときイベント区間の始まりと認識し、開始時刻を格納する(ステップSA3)。ビデオタイトルの再生が終了したかどうかをチェックしつつ((ステップSA4)、全フレーム単色検出状態から通常画像検出状態に変化したからどうかを判定する(ステップSA5)。
ビデオタイトルが終了したら動作が終了する。全フレーム単色検出状態から通常画像検出状態に変化したら、終了時刻を格納し(ステップSA6)、次に中間の解析用時刻を計算して、イベント時刻情報格納部102に格納する(ステップSA7)。
つぎのステップではグループ内としての前回の解析用時刻情報が存在するかどうかを判定し、なければ、今回が最初のイベント区間であるとして認識し(ステップSA10)、次のイベント区間のサーチに移行する(ステップSA11→SA2)。
ステップSA8において、グループ内としての前回の解析用時刻情報が存在する場合は、前回の解析用時刻と今回の解析用時刻との差が所定の条件を満足しているかどうかを判定する(ステップSA9)。満足している場合には、今回のイベント区間をグループ内のものとして特定し、次のイベント区間の検索に移行する。
前回の解析用時刻と今回の解析用時刻との差が所定の条件を満足していない場合は、今回のイベント区間がグループ内ではないと判定し、今まで検出した複数のイベント区間を決定し、最初(先頭)のイベント区間の開始時刻、最後のイベント区間の終了時刻を決定する(ステップSA12)。
次にステップSA13に移行して、映像種別の確定を行ない、今までのイベント区間情報をクリアし(ステップSA14)、ステップSA2に戻る。次の複数のイベント区間の検索に移行する。
図11は、図8に示した実施形態に対応するフローチャートである。
ビデオタイトルの先頭からの再生が開始されると、時間カウンタがスタートする(ステップSC1)。音声レベルが閾値以下になったかどうかの判定が行なわれ(ステップSC2)る。閾値以下になったときイベント区間の始まりと認識し、開始時刻を格納する(ステップSC3)。ビデオタイトルの再生が終了したかどうかをチェックしつつ((ステップSC4)、音声レベルが閾値以下の状態から閾値以上に変化したか、その変化するまでの時間間隔は十分かの判定がなされる(ステップSC5)。時間間隔が一定の幅を持つことを確認する理由は、ノイズに反応しないためである。
ビデオタイトルが終了したら動作が終了する。音声レベルが閾値以下の状態から閾値以上に変化したら、終了時刻を格納し(ステップSC6)、次に中間の解析用時刻を計算して、イベント時刻情報格納部102に格納する(ステップSC7)。
つぎのステップではグループ内としての前回の解析用時刻情報が存在するかどうかを判定し、なければ、今回が最初のイベント区間であるとして認識し(ステップSC10)、次のイベント区間のサーチに移行する(ステップSC11→SC2)。
ステップSC8において、グループ内としての前回の中間の解析用時刻情報が存在する場合は、前回の解析用時刻と今回の中間の解析用時刻との差が所定の条件を満足しているかどうかを判定する(ステップSC9)。満足している場合には、今回のイベント区間をグループ内のものとして特定し、次のイベント区間の検索に移行する。
前回の解析用時刻と今回の解析用時刻との差が所定の条件を満足していない場合は、今回のイベント区間がグループ内ではないと判定し、今まで検出した複数のイベント区間を決定し、最初(先頭)のイベント区間の開始時刻、最後のイベント区間の終了時刻を決定する(ステップSC12)。
次にステップSA13に移行して、映像種別の確定を行ない、今までのイベント区間情報をクリアし(ステップSC14)、ステップSA2に戻る。次の複数のイベント区間の検索に移行する。
図12は、図10と図11の実施の形態が一体化された例である。図10との違いは、ステップSA2とステップSA3の間にステップSB1が設けられ、音声レベルが閾値以下か動かを判定している。またステップSA5とSA6の間に音声レベルが閾値以下から閾値以上に変化したどうかを判定している点である。そのたの部分は図10と同じである。
上記した映像の種別確定は、例えばチューナからの受信信号が図1のAVデコーダでデコードされているビデオ信号に対して行われる。そして圧縮処理されたAVデータに関連付けて映像種別情報もハードディスクに記録される。または、ハードディスクに記録されているトラスポートストリームが、AVデコーダでデコードされるとともにビデオ信号に同期する映像種別情報も成生される。そして圧縮処理されたAVデータに関連つけて映像種別情報もハードディスクに記録される。圧縮処理されたAVデータがAVデコーダでデコードされたときは、映像種別情報も参照され、映像の第1の種別の部分がスキップされ、映像の第2の種別の部分だけが出力される。あるいは逆に映像の第1の種別の部分のみが出力されるようにしてもよい。この種別の選択は、利用者が操作部を介して任意に設定することができる。
上記したようにこの発明によれば、イベント区間の解析用時刻の間隔が、前記所定の条件を満たすことを判定した上で、先頭のイベント区間から最後のイベント区間の映像を第1の種別とするので、イベント区間の検出ミスが低減され、複数のイベント区間の範囲確定が正確となり、第1の種別と第2の種別の映像の識別が正確となる。イベント区間が変動してもグループとしての複数のイベント区間の検出が正確となる。
なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
この発明が適用された信号処理装置の構成例を示す図である。 イベント検出方法の一例を示す図である。 グループとしての複数のイベント区間を特定する場合の条件例を示す説明図である。 グループとしての複数のイベント区間を特定する場合の他の条件例を示す説明図である。 グループとしての複数のイベント区間を映像の第1の種別とし、他の部分を映像の第2の種別とするときの分割点を示す説明図である。 無音イベント区間を検出するときの動作タイミングチャートの例を示す図である。 図6の無音イベント区間を検出するときの動作タイミングチャートを得る制御部の構成例を示す図である。 単色のイベント区間と無音イベント区間を検出するときの動作タイミングチャートの例を示す図である。 図8の単色のイベント区間と無音イベント区間を検出するときの動作タイミングチャートを得る制御部の構成例を示す図である。 単色のイベント区間を検出するときのフローチャートの例を示す図である。 無音部のイベント区間を検出するときのフローチャートの例を示す図である。 単色のイベント区間と無音イベント区間を検出するときフローチャートの例を示す図である。
符号の説明
1・・・チューナ、2・・・トランスポートデコーダ、3・・・AVデコーディングユニット、11・・・制御部、13・・・ハードディスクドライブ、101・・・イベント検出部、102・・・イベント時刻情報格納部、103・・・複数イベント区間特定部、104・・・映像種別識別部、201・・・無音イベント検出部。

Claims (10)

  1. 映像・音声データをデコードするデコーディングユニットと、
    前記デコーディングユニットによりデコードされた映像の中で、特定の特徴が生じている区間をイベント区間として検出するイベント検出部と、
    前記検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納するイベント時刻情報格納部と、
    隣り合う前記イベント区間の2つの前記解析用時刻の間隔が所定の条件を満たす場合に、前記隣り合うイベント区間をグループ内として特定する複数イベント区間特定部と、
    グループ内として特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する映像種別識別部と有するビデオコンテンツ解析装置。
  2. 前記映像種別識別部は、前記複数の前記イベント区間のうち先頭のイベント区間の開始時刻から最後のイベント区間の終了時刻までを前記映像の第1の種別として、それ以外を前記映像の第2の種別として設定することを特徴とする請求項1記載のビデオコンテンツ解析装置。
  3. 前記特定の特徴部を検出する前記イベント検出部は、
    映像の全フレームが単色に変化したときを前記イベント区間の開始、前記映像の全フレームが単色から通常画像状態に変化したときを前記イベント区間の終了と判定していることを特徴とする請求項2記載のビデオコンテンツ解析装置。
  4. 前記特定の特徴部を検出する前記イベント検出部は、
    オーディオ信号レベルが所定の閾値以下に変化したときを前記イベント区間の開始、前記オーディオ信号レベルが前記所定の閾値以下から以上に変化したときを前記イベント区間の終了と判定していることを特徴とする請求項2記載のビデオコンテンツ解析装置。
  5. 前記特定の特徴部を検出する前記イベント検出部は、映像の全フレームが単色に変化したときであり、かつオーディオ信号レベルが所定の閾値以下に変化したときを前記イベント区間の開始、前記映像の全フレームが単色から通常画像状態に変化したときであり、かつ前記オーディオ信号レベルが前記所定の閾値以下から以上に変化したときを前記イベント区間の終了と判定していることを特徴とする請求項2記載のビデオコンテンツ解析装置。
  6. 前記映像の第1の種別は、コマーシャルメッセージであることを特徴とする請求項2に記載のビデオコンテンツ解析装置。
  7. 映像・音声データをデコードするデコーディングユニットと、
    前記デコーディングユニットによりデコードされた映像の中で、映像の全フレームが単色に変化したとき及び又はオーディオ信号レベルが所定の閾値以下に変化したときを前記イベント区間の開始、前記映像の全フレームが単色から通常画像状態に変化したとき及び又は前記オーディオ信号レベルが前記所定の閾値以下から以上に変化したときを前記イベント区間の終了と判定してイベント区間を検出するイベント検出部と、
    前記検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納するイベント時刻情報格納部と、
    隣り合う前記イベント区間の2つの解析用時刻の間隔が所定の条件を満たす場合に、前記隣り合うイベント区間をグループ内として特定する複数イベント区間特定部と、
    グループ内として特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別する映像種別識別部と有するビデオコンテンツ解析装置。
  8. 前記映像の第1の種別は、コマーシャルメッセージであることを特徴とする請求項7記載のビデオコンテンツ解析装置。
  9. 映像・音声データをデコードするデコーディングユニットと、このデコーディングユニットを制御する制御部とを有する装置のビデオコンテンツ解析方法であって、
    前記制御部では、
    前記デコーディングユニットによりデコードされた映像の中で、特定の特徴が生じている区間をイベント区間として検出し、
    前記検出したイベント区間の開始時刻及び終了時刻と、この開始時刻と終了時刻の間の解析用時刻を求めて格納し、
    隣り合う前記イベント区間の2つの前記解析用時刻の間隔が所定の条件を満たす場合に、前記隣り合うイベント区間をグループ内として特定し、
    グループ内として特定された複数の前記イベント区間のうち先頭イベント区間から最終イベント区間までを映像の第1の種別、その他を映像の第2の種別として識別すことを特徴とするビデオコンテンツ解析方法。
  10. 前記特定の特徴は、映像の全フレームが単色に変化したとき及び又はオーディオ信号レベルが所定の閾値以下に変化したときを前記イベント区間の開始、前記映像の全フレームが単色から通常画像状態に変化したとき及び又は前記オーディオ信号レベルが前記所定の閾値以下から以上に変化したときを前記イベント区間の終了と判定してイベント区間を特定することを特徴とする請求項9記載のビデオコンテンツ解析方法。
JP2008138395A 2008-05-27 2008-05-27 ビデオコンテンツ解析装置及び方法 Expired - Fee Related JP4372202B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008138395A JP4372202B1 (ja) 2008-05-27 2008-05-27 ビデオコンテンツ解析装置及び方法
US12/404,985 US8150233B2 (en) 2008-05-27 2009-03-16 Apparatus for and method of analyzing video contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008138395A JP4372202B1 (ja) 2008-05-27 2008-05-27 ビデオコンテンツ解析装置及び方法

Publications (2)

Publication Number Publication Date
JP4372202B1 true JP4372202B1 (ja) 2009-11-25
JP2009290330A JP2009290330A (ja) 2009-12-10

Family

ID=40591993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008138395A Expired - Fee Related JP4372202B1 (ja) 2008-05-27 2008-05-27 ビデオコンテンツ解析装置及び方法

Country Status (2)

Country Link
US (1) US8150233B2 (ja)
JP (1) JP4372202B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451335B2 (en) 2014-04-29 2016-09-20 At&T Intellectual Property I, Lp Method and apparatus for augmenting media content
KR102424296B1 (ko) * 2016-02-19 2022-07-25 삼성전자주식회사 복수의 영상들을 제공하기 위한 방법, 저장 매체 및 전자 장치
US10390089B2 (en) * 2016-12-09 2019-08-20 Google Llc Integral program content distribution

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696866A (en) 1993-01-08 1997-12-09 Srt, Inc. Method and apparatus for eliminating television commercial messages
US5999688A (en) 1993-01-08 1999-12-07 Srt, Inc. Method and apparatus for controlling a video player to automatically locate a segment of a recorded program
US7120351B2 (en) * 2002-05-09 2006-10-10 Thomson Licensing Control field event detection in a digital video recorder
JP2005277754A (ja) 2004-03-24 2005-10-06 Orion Denki Kk テレビ放送番組見逃し防止装置を備えた映像表示装置、及びテレビ放送番組見逃し防止方法。
JP2006303868A (ja) 2005-04-20 2006-11-02 Sony Corp 信号属性判定装置、信号属性判定方法、情報信号記録装置、情報信号記録方法、情報信号再生装置、情報信号再生方法、情報信号記録再生装置および情報信号記録再生方法並びに記録媒体
JP2006324743A (ja) * 2005-05-17 2006-11-30 Toshiba Corp 無音部を利用した映像信号の区切り情報設定方法及び装置
JP4259500B2 (ja) 2005-08-09 2009-04-30 三菱電機株式会社 映像音声記録装置
JP4698453B2 (ja) * 2006-02-28 2011-06-08 三洋電機株式会社 コマーシャル検出装置、映像再生装置
JP4719604B2 (ja) 2006-03-29 2011-07-06 エヌ・ティ・ティ アイティ株式会社 コマーシャル検出方法およびコマーシャル検出装置並びにコマーシャル検出プログラムが記録された記録媒体

Also Published As

Publication number Publication date
JP2009290330A (ja) 2009-12-10
US20090296825A1 (en) 2009-12-03
US8150233B2 (en) 2012-04-03

Similar Documents

Publication Publication Date Title
US7764862B2 (en) Method of and apparatus for setting video signal delimiter information judged from audio and video signals
JP4767216B2 (ja) ダイジェスト生成装置、方法及びプログラム
JP4698453B2 (ja) コマーシャル検出装置、映像再生装置
US7801420B2 (en) Video image recording and reproducing apparatus and video image recording and reproducing method
JP4372202B1 (ja) ビデオコンテンツ解析装置及び方法
EP1760718A2 (en) Information editing apparatus, information editing method, and information editing program
US8078033B2 (en) Recording apparatus
JP2008098960A (ja) 情報記録再生装置
JP4198744B2 (ja) 再生装置、情報共有システム
JP4600236B2 (ja) 再生装置、記録再生装置、データ処理方法及びそのプログラム
JP2008154132A (ja) 音声映像ストリーム圧縮装置及び音声映像記録装置
US20060263062A1 (en) Method of and apparatus for setting video signal delimiter information using silent portions
US7756390B2 (en) Video signal separation information setting method and apparatus using audio modes
JP4661469B2 (ja) 放送受信録画装置
JP4799484B2 (ja) コマーシャル判別装置、方法及びプログラム並びにデジタル放送記録装置、方法及びプログラム
JP2008141383A (ja) 映像編集装置、映像編集システムおよび映像編集方法
JP4599263B2 (ja) 録画予約装置及び録画予約方法
JP2008257767A (ja) 情報再生装置
JP2007124550A (ja) 映像編集装置と方法
JP2008206076A (ja) 再生装置および方法、並びにプログラム
JP2007250104A (ja) 映像再生装置
JP5075423B2 (ja) 推薦番組提示装置、および推薦番組提示方法
JP2006121570A (ja) 変速再生装置及び変速再生方法
JP2007234089A (ja) 記録再生装置
JP2005159537A (ja) 映像記録装置および映像記録方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090901

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees