JP4398994B2 - 映像処理装置及び方法 - Google Patents

映像処理装置及び方法 Download PDF

Info

Publication number
JP4398994B2
JP4398994B2 JP2007119564A JP2007119564A JP4398994B2 JP 4398994 B2 JP4398994 B2 JP 4398994B2 JP 2007119564 A JP2007119564 A JP 2007119564A JP 2007119564 A JP2007119564 A JP 2007119564A JP 4398994 B2 JP4398994 B2 JP 4398994B2
Authority
JP
Japan
Prior art keywords
image object
display
time
video data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007119564A
Other languages
English (en)
Other versions
JP2008278212A (ja
Inventor
浩平 桃崎
晃司 山本
龍也 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007119564A priority Critical patent/JP4398994B2/ja
Priority to US12/076,059 priority patent/US20080266319A1/en
Publication of JP2008278212A publication Critical patent/JP2008278212A/ja
Application granted granted Critical
Publication of JP4398994B2 publication Critical patent/JP4398994B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/04Partial updating of the display screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、画面上で文字または画像が合成された映像データを扱う映像処理装置及び方法に関する。
近年、放送の多チャンネル化等、情報インフラの発展により、多くの映像コンテンツが流通するようになっている。一方で、録画装置の側もハードディスク・レコーダーやチューナー搭載パソコンのような機器の普及によって、映像コンテンツをデジタルデータとして保存し、処理を行うことで、効率的な視聴が可能となっている。このような処理の1つとして1つの映像コンテンツを一定のまとまりのあるシーンに分割し、「頭出し」や「とばし見」ができる機能がある。これらのシーンの開始点はチャプタ点とも呼ばれ、機器が自動的にチャプタ点を検出して設定したり、ユーザが任意の箇所にチャプタ点を設定できる。
映像をシーンに分割する方法として、テロップの出現を検出し、同一のテロップが出現している区間を1つのシーンとする方法がある。例えば、テロップを検出するために、1フレーム内の画像をブロックに分割し、隣接する2フレーム間で輝度などが一定の条件を満たすブロックを抽出し、縦または横に連続するブロックをテロップ領域とする(例えば、特許文献1参照)。
また、重要なシーンを抽出することにより、短時間に要約された映像を作成したり、コンテンツの代表フレームを決定してサムネイル画像を作成したりすることができる。例えば、スポーツ映像における重要シーンを抽出するために、歓声を利用して盛りあがりを検出する方法がある。
チャプタ点により、分割されたシーン単位で再生や編集を行うことができる。サムネイルにより、一覧から好みのコンテンツや好みのシーンを探して選択して再生したりすることができる。要約された映像データや、映像を要約再生させるためのプレイリストのデータにより、短時間で映像を再生させることができる。このように、映像データの再生、編集、検索に用いられる支援データが利用されている。
また、会社名や商品名等のロゴは映像コンテンツを通じた広告の手段としてよく用いられる。このようなロゴの存在を映像中から検出して、放送における広告効果を分析する方法がある(例えば、特許文献2参照)。
特開平10−154148号公報 特開2005−509962公報
スポーツ映像においては、得点や試合経過、残り時間を表示するテロップが長時間表示されるものがある。このようなテロップの出現を検出することにより試合部分を他と分割することはできるが、同一テロップが表示されている区間内での重要なシーンを得ることはできない。
歓声による重要シーン抽出方法は、時間精度を高くすることが難しい。また、競技時間が短い場合に、さらにその中の重要シーンを精度よく得ることが難しい。
また、同一のテロップが断続的に出現する場合、テロップの出現する区間を基準に映像を分割すると過剰に分割される恐れがある。
そこで、本発明は上記問題点を解決するためになされたもので、スポーツなどの映像中の重要シーンを精度よく抽出することができるとともに、分割に適した区間を求めることができる映像処理装置及び方法を提供することを目的とする。
映像データを記憶手段に記憶し、
前記映像データから、表示時間が予め定められた時間以上の第1の画像オブジェクトの表示領域及び該第1の画像オブジェクトの表示区間と、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準とする所定の範囲内にあり、且つ前記第1の画像オブジェクトよりも表示時間が短い第2の画像オブジェクトの表示領域及び該第2の画像オブジェクトの表示区間とを検出し、
前記映像データ中の前記第2の画像オブジェクトの表示区間に基づき、前記映像データの再生、編集、及び検索のうちの少なくとも1つに用いられる支援データを生成する生成する。
スポーツなどの映像中の重要シーンを精度よく抽出することができるとともに、分割に適した区間を求めることができる。
以下、本発明の実施形態について図面を参照しながら説明する。
(第1の実施形態)
第1の実施形態に係る映像処理装置について図1を参照して説明する。
図1の映像処理装置は、映像記憶部101、第1画像検出部102、第2画像検出部103及び支援データ生成部104を備えている。
映像記憶部101には、映像データ、すなわち、時系列な複数の映像フレーム(映像フレーム群)が入力される。映像記憶部101は、入力された映像フレーム群を1つの時空間画像として記憶する。
第1画像検出部102は、映像記憶部101に記憶された映像フレーム群から、予め定められた時間以上(予め定められたフレーム数以上の映像フレームに連続して)表示されている第1の画像オブジェクトの表示領域161と、該第1の画像オブジェクトが上記映像フレーム群のうち、どこからどこまでの映像フレームに表示されているかを示す表示区間162とを検出する。そして、各映像フレーム中の第1の画像オブジェクトの表示領域161の位置情報と、該第1の画像オブジェクトの表示区間162とを含む第1の画像オブジェクト情報を出力する。
第2画像検出部103は、上記第1の画像オブジェクト情報を基に、各第1の画像オブジェクトの表示領域161が検出された各映像フレーム中の、該表示領域161を基準とする所定の範囲163から、該第1の画像オブジェクトの表示区間162より短い時間表示されている(第1の画像オブジェクトが表示されている映像フレーム数より少ない数の映像フレームに連続して表示されている)第2の画像オブジェクトの表示領域171と、該第2の画像オブジェクトが上記映像フレーム群のうち、どこからどこまでの映像フレームに表示されているかを示す表示区間172とを検出する。そして、各映像フレーム中の第2の画像オブジェクトの表示領域171の位置情報と、該第2の画像オブジェクトの表示区間172とを含む第2の画像オブジェクト情報を出力する。
支援データ生成部104は、第2の画像オブジェクトの表示区間172に基づいて、上記映像フレーム群に対応する支援データを生成する。
ここで、支援データとは、映像データの再生、編集、検索などに用いられる区間の開始時刻や終了時刻、当該区間内の映像データなどを含み、利用者が所望する再生や編集、検索等ができるように支援するものである。
次に、第1画像検出部102及び第2画像検出部103において検出される第1及び第2の画像オブジェクトの表示領域と表示区間とについて、図2及び図3を参照して説明する。
図2(a)は、第1画像検出部102により、映像フレーム群から検出される第1の画像オブジェクトの表示領域161の例を示している。ここでは、2つの第1の画像オブジェクトA、Bのそれぞれの表示領域161A、161Bを示している。
図2(b)は、時間を横軸にとり、第1の画像オブジェクトAに対応する表示区間162Aと、第2の画像オブジェクトBに対応する表示区間162Bを示している。第1の画像オブジェクトAは図2(b)中の左端から右端までの長時間表示されており、第2の画像オブジェクトBは左端から右端までのうち中央付近に若干表示されていない区間がある。
図3(a)は、第2画像検出部103により、第1の画像オブジェクトAの表示領域161A及び第1の画像オブジェクトBの表示領域161Bを基準とする所定の範囲163A及び163Bと、そこで検出された第2の画像オブジェクトの表示領域171の例を示している。ここでは、表示領域161Bを基準とする所定の範囲163Bに、第2の画像オブジェクトC及びDがあり、そのそれぞれの表示領域171として表示領域171C、表示領域171Dと示している。
図3(a)に示すように、所定の範囲163Aや163Bは、表示領域161Aや161Bの上下左右に接する領域である。または、表示領域161Aや161Bの上下左右で所定距離以内の領域である。
また、第2の画像オブジェクトは、図3(a)に示すように、矩形または角の丸い矩形あるいは長円形のグラフィックである場合が多い。
図3(b)は、時間を横軸にとり、第1の画像オブジェクトAの表示区間162A、第1の画像オブジェクトBの表示区間162Bの他、さらに、第2の画像オブジェクトCの表示区間172Cと第2の画像オブジェクトDの表示区間172Dを示している。
次に、第1画像検出部102及び第2画像検出部103の処理の流れについて、図4のフローチャートを参照して説明する。
まず、第1画像検出部102は、全画面(長時間領域)探索処理を行う(ステップS1)。すなわち、映像フレーム群の各映像フレームの全画面を探索して、予め定められた時間以上表示されている第1の画像オブジェクトの表示領域(例えば、図2(a)の161A、161B)と表示区間(図2(b)の162A、162B)を検出する。
全映像フレームの全画面についての探索が終了したら(ステップS2)、検出された第1の画像オブジェクトの表示領域の位置情報と表示区間とを含む第1の画像オブジェクト情報を出力する。なお、ここでは、検出された第1の画像オブジェクトの表示領域及び表示区間を長時間領域と呼ぶ。
次に、第2画像検出部103は、検出された上記長時間領域周辺を探索対象とする周辺(短時間領域)再探索処理を行う(ステップS3)。すなわち、検出された第1の画像オブジェクトの各表示領域の周辺の所定の範囲(例えば図3の163A、163B)を探索し、該第1の画像オブジェクトの表示区間より短い時間表示されている第2の画像オブジェクトの表示領域(例えば図3(a)の171C、171D)及び表示区間(図3(b)の172C、172D)を検出する。
検出された全ての長時間領域についての探索が終了したら(ステップS4)、検出された第2の画像オブジェクトの表示領域の位置情報と表示区間とを含む第2のオブジェクト情報を出力する。なお、ここでは、検出された第2の画像オブジェクトの表示領域及び表示区間を短時間領域と呼ぶ。
次に、ステップS1の全画面(長時間領域)探索処理について説明する。図5の300は、映像記憶部101に記憶されている映像フレーム群を、奥行き方向を時間軸として、時刻順に並べた時空間画像を表している。すなわち、時空間画像は、時刻の小さい映像フレームから順に時間軸の対応する時刻上に映像フレームを並べた、複数の映像フレームからなる集合である。映像フレーム301は、時空間画像に含まれる1枚の映像フレームを抜き出したものを示す。
第1画像検出部102は、時空間画像300を時間軸に平行な1つ以上の面で切断する。面は水平な面(y=一定)でもよいし、垂直な面(x=一定)でもよいし、斜めの面でもよいし、曲面であってもよい。第1画像検出部102は、まず、時空間画像を曲面で切断し、テロップなどの第1の画像オブジェクトが存在しそうな位置を探る。次ぎに、探った位置近辺を切断するような面で時空間画像を切断してもよい。また、テロップなどの第1の画像オブジェクトは通常、画面の端近辺に存在することが多いので、端近辺を切断するような面で時空間画像を切断することが望ましい。
切断面が複数あるときは複数のスライス画像が生成される。yを1ずつずらしながら水平な面で切断すれば、画像の高さと同じ数のスライス画像が生成される。図5では、例として、y=s1、s2、s3の3箇所の面で切断して3つのスライス画像を得ている。スライス画像302はy=s3のスライス画像である。303のようなテロップなどの第1の画像オブジェクトを含む面で切断したスライス画像には、第1の画像オブジェクトと背景とのエッジ部分が304のような複数の線分の集合として現れる。第1画像検出部102はこれらの線分の集合を、図2(b)に示したような表示区間162A、162Bとして検出する。なお、この線分の長さは表示時間に相当する。
次に、この線分の検出方法について図6〜図13を参照して説明する。画像から線分を検出するには様々な方法があるが、ここではその一例を示す。
図6の線分500は、図5のスライス画像302における線分集合304のうちの一本の線分付近を拡大した図である。501は注目画素502(太線内)を中心にした一部の画素の配置を示す。以下、注目画素502が線分の一部であるか否かを判定する方法について、図7に示すフローチャートを参照して説明する。
まず、注目画素が一定以上の輝度であるか判定する(ステップS601)。これは第1のオブジェクトとなり得るテロップが背景に対して輝度が高い場合が多いためである。一定以上の輝度である場合はステップS602へ進む。そうでない場合は線分ではないとして処理を終了する。
次に、注目画素が時間軸方向に連続した色成分であるかを判定する(ステップS602)。図8のように、注目画素と、注目画素と同じ時間軸上にある別の画素との距離をd1とし、「d1 < 閾値」を満たす場合、注目画素が時間軸方向に連続した色成分であると判定できる。ここでの距離には色や輝度などの特徴量の距離を用いる。色の距離としては、例えば、RGB値またはHSV値のユークリッド距離がある。Hは色相、Sは彩度、Vは輝度を示す。また、別の方法として、図9のように注目画素の近傍のN個の画素との距離の平均<d1>=Σd1/Nを求め、「<d1> < 閾値」を満たす場合に注目画素が時間軸方向に連続した色成分であると判定してもよい。このNは予め決定しておく。以後同様。注目画素が時間軸方向に連続した色成分である場合はステップS604へ進む。そうでない場合は線分ではないとして処理を終了する。
次に、注目画素のエッジの強度が一定以上であるかを判定する(ステップS604)。図10のように、注目画素と、時間軸に直交する向きに隣接する画素との距離をd2とし、「d2 > 閾値」を満たす場合、注目画素のエッジの強度が一定以上であると判定する。また、別の方法として、図11に示すように、注目画素の近傍のN個の隣接画素の組の距離の平均<d2>=Σd2/Nを求め、「<d2> > 閾値」を満たす場合に注目画素のエッジの強度が一定以上であると判定してもよい。注目画素のエッジの強度が一定以上である場合は線分であるとして処理を終了する。そうでない場合は線分ではないとして処理を終了する。
次に、半透明の線分の検出を可能にするため、注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続しているかを判定する(ステップS603)。注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定された場合にはステップS604に進み、連続していないと判定された場合には線分ではないとして処理を終了する。図10と同様に、注目画素と隣接する画素との組の距離色成分ごとの差分を求め、図12のように時間軸方向に隣接する別の組との距離差分の差分距離d3を求める。「d3 < 閾値」を満たす場合、注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定する。また、別の方法として、図13のように注目画素の近傍のN個の組との距離差分の差分距離の平均<d3> = Σd3/Nを求め、「<d3> < 閾値」を満たす場合に注目画素のエッジの強度から隣接画素の色成分を差し引いた差分が時間方向に連続していると判定してもよい。
図7のフローチャートはあくまで一例を示したものであり、ステップS601〜S604の処理は必ずしもすべてが必要なわけではなく、一部の処理だけを含んだり、順番が入れ替わったり、他の処理を含んだフローを用いて判定してもよい。他の処理としては分断された微小な領域を結合したり除去するための線分の拡張や閾値処理なども含まれる。
線分の拡張は、図7のフローチャートの後の処理であり、例えば、注目画素の周りの9画素について5個以上が線分であるかどうかを判定する。5個以上が線分である場合にはその注目画素も線分に含まれ、5個以上が線分でない場合には注目画素は線分に含まれないとして、線分の拡張を行う。線分の閾値処理は、注目画素を他の線分と結合したり、注目画素を消去することである。例えば、注目画素が2つの線分の間に挟まれている場合には、2つの線分を1つの線分に結合して、その注目画素を新たな線分に含める。また、例えば、注目画素が線分から所定の距離以上離れている場合には、その線分を消去する。
第1画像検出部102は、以上のようにして、線分の長さ(時間)が予め定められた値以上の線分の集合を検出し、スライス画像内の該線分の集合が検出された位置及び線分の長さ(区間)を、第1の画像オブジェクトの表示領域の位置及び表示区間として検出する。
次に、ステップS3の周辺(短時間領域)再探索処理について説明する。第2の画像検出部103は、図5の時空間画像300を、第1のオブジェクトの表示領域の周辺で切断することにより、上述の全画面(長時間領域)探索処理と同様にして、第1のオブジェクトに対応する線分よりも短い線分の集合を検出する。そして、第2画像検出部103は、当該スライス画像内の該線分の集合が検出された位置及び線分の長さを、第2の画像オブジェクトの表示領域の位置及び表示区間として検出する。
図14〜図17に示す映像フレームに基づいて、検出される画像オブジェクトの具体例を説明する。
図14乃至図16は、競泳の映像の例である。図14に示すように、競技の開始から終了までの間、画面の隅の方にタイム(経過)201が表示されることが多い。
ここで、図15のように、タイム201の表示に接して、注目すべき情報(ここでは50mターンを表す「50m」と、トップの泳者が3コースであることを表す「3」)202〜203を表示することもよく行われる。また、図16のように、ゴールのタイミングに合わせて(ゴールの数秒前から)従来の世界記録「WR」204が表示されたり、ゴール直後に世界新記録「NewWR」205などの表示が行われたりする。さらに、特に大きな国際競技大会等では、世界中に配信される国際映像として制作される場合に、ゴールのタイミングに合わせて数秒間(一般的には5秒以下)、タイムの表示領域に接した領域に、広告として商標・社名などのデザイン文字(ロゴ)206を表示することがよく行われる。
図14〜図16に示した映像からは、タイム201の部分が第1の画像オブジェクトとして検出され、第2の画像オブジェクトとして、図15や図16にあるような202〜206が検出される。
陸上の短距離、自転車、ボート、アルペンスキー等のタイム競技の映像も、上述の競泳の映像と同様である。
柔道の映像では、競技の開始から終了までの間、画面の隅の方にタイム(残り時)が表示されるが、一本勝ちで終了した場合などに図16と同様にロゴが表示されることも多い。ただし、一瞬で決まる一本勝ちのタイミングに合わせて事前に表示することは困難なため、ロゴ表示のタイミングは遅れるのが普通であり、重要シーンはロゴよりかなり前にある可能性がある。このように、競技によって、ロゴの表示区間と重要シーンとの時間区間は異なるように構成するのがよい。
図17は、サッカーの映像の例である。タイム(経過)とともに得点も表示されるのが普通である。両方を常時表示しつづける場合もあるが、得点は必要に応じて表示するようになっている場合もある。国際映像では、得点表示は若干長め(例えば8秒)であっても、それに接して表示されるロゴは短い(例えば5秒)ことが多い。この場合、第1の画像オブジェクトの1つとして得点表示部分211が検出され、第2の画像オブジェクトとしてロゴ部分212が検出される。このように、タイムより得点が注目される競技においても適用可能な場合がある。
次に、支援データ生成部104において生成される支援データについて説明する。
支援データ生成部104では、第2の画像オブジェクト情報に含まれる表示区間172に基づいて、重要シーンの区間を選択したり、選択された重要シーンを繋げた短縮映像を作成したり、代表画像を作成したり、映像データを複数の区間に分割して、頭出し等に用いる各区間の開始時刻を求める。これら重要シーン、短縮映像、代表画像、頭出し等に用いる各区間の開始時刻をチャプタ点(頭出し点)として設定された映像データなどを、ここでは支援データと呼ぶ。
支援データ生成部104で、これら支援データを生成する際に用いる映像データの区間は、表示区間172と同一であってもよいが、それに限られない。例えば、表示区間172の開始数秒前(ゴール目前で盛りあがることが多い部分に相当)から終了数秒後(続々と各選手がゴールしたり、勝った選手のアップが入ったりする部分に相当)までのように、前後を含む区間を使用してもよい。
支援データ生成部104は、例えば、第2の画像オブジェクトの表示区間172を基準とする所定の区間(例えば当該表示区間172の開始時刻より数秒前から当該表示区間172の終了時刻の数秒後までの区間)を重要シーンとして抽出する。この重要シーンとして抽出された区間のなかから代表画像を選択する。複数の表示区間172が検出された場合には、各表示区間172に対し、上記重要シーンを抽出し、これら重要シーンとして抽出された区間の映像データを繋げて短縮映像を生成する。
短縮映像や代表画像を作成する場合、上記所定の区間に、第2の画像オブジェクトの表示区間が含まれていてもいが、第2の画像オブジェクトが競技の結果に関するものである場合、特にスポーツにおいては、結果が最初にわかってしまうと映像の視聴目的を損なうおそれもある。従って、短縮映像や代表画像を作成する場合、上記所定の区間に第2の画像オブジェクトの表示区間が含まれていない方が望ましい。この場合は、第2の画像オブジェクトの表示区間172を基準とする所定の区間(例えば当該表示区間172の開始時刻より数秒前から当該表示区間172の終了時刻の数秒後までの区間)から、当該表示区間172を除いて、当該表示区間172の前後の区間のみから短縮映像や代表画像を作成する。あるいは、当該所定の区間内の第2の画像オブジェクトが表示されているフレームから当該第2の画像オブジェクトの表示領域を削除したり、当該表示領域にぼかし処理をして識別できないように処理したりした後に、短縮映像や代表画像を作成する。また、第2の画像オブジェクトがロゴの場合、短縮映像や代表画像に必要以上にロゴが含まれないことが望ましい場合もあり、上記同様の処理をするとよい。
また、支援データ生成部104は、表示区間172を容易に頭出しして視聴できるように、映像データ中に支援データとしてチャプタ点(頭出し点)を決定する。例えば、第2の画像オブジェクトの表示区間172の開始時刻から所定時間前を頭出し点と決定する。頭出しを可能にすることにより、第2の画像オブジェクトの表示されていない区間をスキップして視聴することが可能になる。支援データ生成部104は、上記決定された時刻をチャプタ点(頭出し点)として設定された映像データを支援データとして生成する。
以上説明したように、上記第1の実施形態によれば、スポーツなどの映像中の重要シーンを(支援データとして)精度よく抽出することが可能となり、より適切な要約映像やサムネイル画像、プロモ映像が支援データとして作成できる。また、スポーツなどの映像を分割する際に、分割に適した区間を求めることができる。
(第2の実施形態)
第2の実施形態に係る映像処理装置について図18を参照して説明する。
図18の映像処理装置は、映像記憶部601、画像検出部602、画像選択部603及び支援データ生成部604を備えている。
映像記憶部601は、第1の実施形態における映像記憶部101と同様、映像データ、すなわち、時系列な複数の映像フレーム(以下、映像フレーム群)が入力され、入力された映像フレーム群を1つの時空間画像として記憶する。
以下、画像検出部602及び画像選択部603について、図20のフローチャートを参照して説明する。
画像検出部602は、図20のステップS21において、第1の実施形態で説明した、第1画像検出部102と同様の処理(図7参照)を行って、映像記憶部601に記憶された映像フレーム群について、予め定められた第1の時間以上(予め定められた第1のフレーム数以上の映像フレームに連続して)表示されている画像オブジェクトの表示領域180と、該画像オブジェクトが上記映像フレーム群のうち、どこからどこまでの映像フレームに表示されているかを示す表示区間181とを検出する。全映像フレームの全画面についての探索が終了したら(ステップS22)、検出された画像オブジェクトの表示領域の位置情報と表示区間とを含む画像オブジェクト情報を出力する。
次に、画像選択部603は、図20のステップS23において、画像オブジェクト情報を参照して、表示領域及び表示区間の検出された画像オブジェクトのなかから、上記第1の時間よりも長い予め定められた第2の時間以上(上記第1のフレーム数より多い予め定められた第2のフレーム数以上の映像フレームに連続して)表示されている画像オブジェクトを第1の画像オブジェクトとして選択し、その表示領域及び表示区間を得る。これは、前述の第1の実施形態における第1の画像オブジェクトの表示領域161及び表示区間162に対応する。さらに、第1の画像オブジェクトの表示領域161を基準とする所定の範囲163から、表示区間が上記第2の時間よりも短い画像オブジェクトを第2の画像オブジェクトとして選択し、その表示領域及び表示区間を得る。これは、前述の第2の実施形態における第2の画像オブジェクトの表示領域171及び表示区間172に対応する。そして、各映像フレーム中の第2の画像オブジェクトの表示領域171の位置情報と、該第2の画像オブジェクトの表示区間172とを含む第2の画像オブジェクト情報を出力する。
支援データ生成部604は、第2の画像オブジェクトの表示区間172に基づいて、上記映像フレーム群に対応する支援データを生成する。
次に、画像検出部602で検出される画像オブジェクトと、画像選択部203で選択される第1及び第2の画像オブジェクトについて、図19を参照して説明する。
図19(a)は、画像検出部602により、映像フレーム群から検出される画像オブジェクトの表示領域180の例を示している。ここでは、4つの画像オブジェクトA〜Dのそれぞれの表示領域180A〜180Dを示している。
図19(b)は、時間を横軸にとり、画像オブジェクトAに対応する表示区間181Aと、画像オブジェクトBに対応する表示区間181Bと、画像オブジェクトCに対応する表示区間181Cと、画像オブジェクトDに対応する表示区間181Dとを示している。
画像検出部602は、図7に示した手順で、これら画像オブジェクトの表示領域や表示区間を検出する。
画像オブジェクトAは図19(b)の左端から右端までの長時間表示されており、画像オブジェクトBは左端から右端までのうち中央付近に若干表示されていない区間がある。画像オブジェクトC及びDは、より短い区間のみ表示されている。
画像選択部603は、これら画像オブジェクトA〜Dのうち、表示区間が第1の時間以上の画像オブジェクトA及びBを第1の画像オブジェクトとして選択する。次に、画像選択部603は、第1の画像オブジェクトA及びBのそれぞれを基準とする所定の範囲から第2の画像オブジェクトを選択する。図19(b)の点線で囲まれた部分は、画像オブジェクトBを基準とする所定の範囲183Bを示している。画像選択部603は、この範囲183Bに存在する画像オブジェクトC及びDを第2の画像オブジェクトとして選択する。
支援データ生成部604は、第1の実施形態における支援データ生成部104と同様であり、第2の画像オブジェクトの表示区間181情報に基づいて、重要シーンを選択したり、短縮映像や代表画像を作成したり、頭出し等を可能にしたりする。
以上説明したように、上記第2の実施形態によれば、上記第1の実施形態と同様、スポーツなどの映像中の重要シーンを(支援データとして)精度よく抽出することが可能となり、より適切な要約映像やサムネイル画像、プロモ映像が支援データとして作成できる。また、スポーツなどの映像を分割する際に、分割に適した区間を求めることができる。
(第3の実施形態)
第3の実施形態に係る映像処理装置について図21を参照して説明する。
なお、図21において、図1と同一部分には同一符号を付し、異なる部分について説明する。すなわち、図21の映像処理装置は、図1の映像記憶部101、第1画像検出部102、及び第2画像検出部103の他、図1の支援データ生成部104に代わる支援データ生成部704と、さらに音声記憶部701及び盛りあがり検出部702を備えている。
音声記憶部701は、入力される映像データに含まれている音声を、映像フレームと対応付けて(例えば、映像フレーム群の再生時刻や各映像フレームのフレーム番号と対応付けて)記憶する。
盛りあがり検出部702は、音声記憶部701に記憶された音声を分析し、歓声や拍手の音の大きさにより盛りあがりシーンの時刻または区間を検出する。
支援データ生成部704は、第2の画像オブジェクトの表示区間172と、盛りあがり検出部702で検出された盛りあがりシーンの時刻または区間とに基づいて、映像フレーム群に対応する支援データを生成する。
例えば、第2の画像オブジェクトの表示区間の開始時点より所定時間(例えば1分)前までの区間に、盛りあがりシーンの時刻または区間の開始時刻が存在する場合には、当該第2の画像オブジェクトの表示区間の開始時刻より所定時間前の時刻、あるいは盛りあがりシーンの時刻または盛りあがりシーン区間の開始時刻を頭出し点(チャプタ点)として決定する。そして、この時刻を頭出し点(チャプタ点)として設定された映像データを支援データとして生成する。
以上説明したように、上記第3の実施形態によれば、上記第1乃至第2の実施形態と同様、スポーツなどの映像中の重要シーンを(支援データとして)精度よく抽出することが可能となり、より適切な要約映像やサムネイル画像、プロモ映像が支援データとして作成できる。また、スポーツなどの映像を分割する際に、分割に適した区間を求めることができる。
(第4の実施形態)
第4の実施形態に係る映像処理装置について図22を参照して説明する。
なお、図22において、図1と同一部分には同一符号を付し、異なる部分について説明する。すなわち、図22の映像処理装置は、図1の映像記憶部101、第1画像検出部102、及び第2画像検出部103の他、図1の支援データ生成部104に代わる支援データ生成部714と、さらに統合部711を備えている。
統合部711は、第1画像検出部102で求めた第1の画像オブジェクトの複数の表示区間のうち、第2の画像オブジェクトが表示されていない区間を、その後続の当該第1の画像オブジェクトの表示区間と統合する。なお、当該後続の表示区間との間隔が所定時間以上の場合には統合しないようにしてもよい。この結果、第2の画像オブジェクトの表示区間は後続区間とは統合されず、区間の末尾となる。
例えば、図23に示すように、第1画像検出部102により、映像フレーム群から、2つの第1の画像オブジェクトA、Bの表示区間が162A、162Bが検出され、第2画像検出部103により、第2の画像オブジェクトDの表示区間172Dが検出されたとする。なお、図23では、時間を横軸にとり、各表示区間を示している。
また、ここでは、第1画像検出部102で検出された複数の表示区間162B−1〜162B−7は、第1画像検出部102において、映像フレーム中の位置や色などの特徴量の類似度に基づくクラスタリングを行うことにより、1つの画像オブジェクトBの表示区間162Bにグルーピングされている。各表示区間162B−1〜162B−7の合計時間が予め定められた時間以上であるため、ここでは、複数の表示区間162B−1〜162B−7は、第1の画像オブジェクトBの表示区間として検出されている。
さらに、第2画像検出部103により、第1の画像オブジェクトBの表示領域を基準するとする所定の範囲から検出された複数の表示区間172D−1〜172D−3は、第2画像検出部103において、映像フレーム中の位置や色などの特徴量の類似度に基づくクラスタリングを行うことにより、1つの画像オブジェクトDの表示区間172Dにグルーピングされている。
図23に示すように、第1の画像オブジェクトBの表示区間162B−2は、第2の画像オブジェクトDの表示区間172D−1を含み、第1の画像オブジェクトBの表示区間162B−4は、第2の画像オブジェクトDの表示区間172D−2を含み、第1の画像オブジェクトBの表示区間162B−7は、第2の画像オブジェクトDの表示区間172D−3を含む。
統合部711は、第1の画像オブジェクトBの表示区間162B−1は、第2の画像オブジェクトの表示区間が含まれていないので、その後続の表示区間162B−2と統合する。表示区間162B−2は、第2の画像オブジェクトDの表示区間172D−1を含むので、その後続の表示区間162B−3とは統合されない。同様に、第1の画像オブジェクトBの表示区間162B−3は、第2の画像オブジェクトの表示区間が含まれていないので、その後続の(第2の画像オブジェクトDの表示区間172D−2を含む)表示区間162B−4と統合される。さらに、第1の画像オブジェクトBの表示区間162B−5及び162B−6は、第2の画像オブジェクトの表示区間が含まれていないので、その後続の(第2の画像オブジェクトDの表示区間172D−3を含む)表示区間162B−7と統合される。
支援データ生成部714は、統合部711での上記統合結果を用いて、図23に示すように、映像データを、表示区間162B−1及び162B−2を含む第1の区間と、表示区間162B−3及び162B−4を含む第2の区間と、表示区間162B−5〜162B−7を含む第3の区間とに分割する。支援データ生成部714は、当該映像データ中の上記各区間の開始時刻をチャプタの開始点に設定することにより、支援データを生成する。
以上説明したように、上記第4の実施形態によれば、上記第1乃至第3の実施形態と同様、スポーツなどの映像中の重要シーンを(支援データとして)精度よく抽出することが可能となり、より適切な要約映像やサムネイル画像、プロモ映像が支援データとして作成できる。また、スポーツなどの映像を分割する際に、分割に適した区間を求めることができる。
本発明の実施の形態に記載した本発明の手法(特に、図1,図18、図21,及び図22に示した各構成部)は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することもできる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
第1の実施形態に係る映像処理装置の構成例を示した図。 第1の画像オブジェクトの表示領域及び表示区間を説明するための図。 第2の画像オブジェクトの表示領域及び表示区間を説明するための図。 第1画像検出部及び第2画像検出部の処理動作を説明するためのフローチャート。 時空間画像とスライス画像の関係を示す図。 線分検出方法を説明するための図。 線分検出方法を説明するためのフローチャート。 注目画素と、注目画素と同じ時間軸上にある別の画素との距離を示す図。 注目画素の近傍のN個の画素との距離の平均を示す図。 注目画素と、時間軸に直交する向きに隣接する画素との距離を示す図。 注目画素の近傍のN個の隣接画素の組の距離の平均を示す図。 時間軸方向に隣接する別の組との距離の差分を示す図。 注目画素の近傍のN個の組との距離の差分の平均を示す図。 競泳の映像データから検出される、画像オブジェクト(第1の画像オブジェクト)の具体例を示した図。 競泳の映像データから検出される、画像オブジェクト(第1及び第2の画像オブジェクト)の具体例を示した図。 競泳の映像データから検出される、画像オブジェクト(第1及び第2の画像オブジェクト)の具体例を示した図。 サッカーの映像データから検出される、画像オブジェクト(第1及び第2の画像オブジェクト)の具体例を示した図。 第2の実施形態に係る映像処理装置の構成例を示した図。 映像データから検出される各画像オブジェクトの表示領域及び表示区間を説明するための図。 画像検出部及び画像選択部の処理動作について説明するためのフローチャート。 第3の実施形態に係る映像処理装置の構成例を示した図。 第4の実施形態に係る映像処理装置の構成例を示した図。 図22の統合部の処理動作を説明するための図。
符号の説明
101、601…映像記憶部
102…第1画像検出部
103…第2画像検出部
104、604、704、714…支援データ生成部
602…画像検出部
603…画像選択部
701…音声記憶部
702…盛りあがり検出部
711…統合部

Claims (20)

  1. 映像データを記憶する記憶手段と、
    前記映像データから、表示時間が予め定められた時間以上の第1の画像オブジェクトの表示領域及び該第1の画像オブジェクトの表示区間と、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準とする所定の範囲内にあり、且つ前記第1の画像オブジェクトよりも表示時間が短い第2の画像オブジェクトの表示領域及び該第2の画像オブジェクトの表示区間とを検出する検出手段と、
    前記映像データ中の前記第2の画像オブジェクトの表示区間に基づき、前記映像データの再生、編集、及び検索のうちの少なくとも1つに用いられる支援データを生成する生成手段と、
    を具備したことを特徴とする映像処理装置。
  2. 前記検出手段は、
    前記映像データから、前記第1の画像オブジェクトの表示領域及び表示区間を検出する第1の検出手段と、
    前記映像データ中の前記第1の画像オブジェクトの表示領域を基準とする所定の範囲から、前記第2の画像オブジェクトの表示領域及び表示区間を検出する第2の検出手段と、
    を含む請求項1記載の映像処理装置。
  3. 前記検出手段は、
    前記映像データから、表示時間が予め定められた第1の時間以上の画像オブジェクトの表示領域及び該画像オブジェクトの表示区間を検出する手段と、
    検出された画像オブジェクトのなかから、表示時間が前記第1の時間よりも長い予め定められた第2の時間以上の第1の画像オブジェクトと、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準する所定の範囲内にあり、且つ表示時間が前記第2の時間よりも短い第2の画像オブジェクトとを選択する選択手段と、
    を含む請求項1記載の映像処理装置。
  4. 前記生成手段は、前記第2の画像オブジェクトの前記表示区間を基準とする所定区間を重要シーンとして抽出することにより、前記支援データを生成することを特徴とする請求項1記載の映像処理装置。
  5. 前記生成手段は、前記第2の画像オブジェクトの前記表示区間を基準とする所定区間の映像データに基づいて、前記支援データとしての短縮映像を生成することを特徴とする請求項1記載の映像処理装置。
  6. 前記生成手段は、前記第2の画像オブジェクトの前記表示区間を基準とする所定区間の映像データに基づいて、前記支援データとしての代表画像を生成することを特徴とする請求項1記載の映像処理装置。
  7. 前記所定の区間の映像データから、前記第2のオブジェクトの前記表示区間内の映像データを削除した後、あるいは、前記所定の区間の映像データから前記第2のオブジェクトの表示領域を削除した後、前記支援データを生成することを特徴とする請求項4乃至請求項6のいずれか1つに記載の映像処理装置。
  8. 前記生成手段は、前記第2の画像オブジェクトの前記表示区間の開始時刻から所定時間前を頭出し点として設定された映像データを前記支援データとして生成することを特徴とする請求項1記載の映像処理装置。
  9. 前記映像データに含まれる音声から盛りあがりシーンの時刻または区間を検出する盛りあがり検出手段をさらに具備し、
    前記生成手段は、前記第2の画像オブジェクトの表示区間の開始時刻より所定時間前の、前記盛りあがりシーンの時刻または前記盛りあがりシーンの区間の開始時刻を頭出し点として設定された映像データを前記支援データとして生成することを特徴とする請求項1記載の映像処理装置。
  10. 前記盛りあがり検出手段は、前記音声に含まれる歓声または拍手を検出することを特徴とする請求項9に記載の映像処理装置。
  11. 前記検出手段で検出された、前記第1の画像オブジェクトの複数の前記表示区間のうち前記第2の画像オブジェクトの前記表示区間を含まない表示区間を、その後続の他の表示区間と統合する統合手段をさらに具備し、
    前記生成手段は、前記統合手段で統合した結果得られた複数の区間に基づいて、前記映像データを分割することにより、前記支援データを生成することを特徴とする請求項1記載の映像処理装置。
  12. 前記統合手段は、前記複数の表示区間のうち、前記第2の画像オブジェクトの前記表示区間を含む表示区間は、その後続の表示区間と統合しないことを特徴とする請求項11記載の映像処理装置。
  13. 前記第1の画像オブジェクトの表示領域を基準とする所定の範囲は、前記表示領域の上下左右に接する領域、または、所定距離以内の領域であることを特徴とする請求項1記載の映像処理装置。
  14. 前記検出手段は、前記映像データの複数の映像フレームが時刻順に配置されている時空間画像を時間軸に平行な面で切断したスライス画像から時間軸に平行な線分の集合を抽出し、該線分の集合の長さを基に、前記第1の画像オブジェクトの表示領域及び表示区間を検出することを特徴とする請求項1記載の映像処理装置。
  15. 前記第2の画像オブジェクトは、矩形または角の丸い矩形あるいは長円形のグラフィックであることを特徴とする請求項1記載の映像処理装置。
  16. 前記第2の画像オブジェクトの表示時間は5秒以下であることを特徴とする請求項1記載の映像処理装置。
  17. 映像データを記憶手段に記憶するステップと、
    前記映像データから、表示時間が予め定められた時間以上の第1の画像オブジェクトの表示領域及び該第1の画像オブジェクトの表示区間と、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準とする所定の範囲内にあり、且つ前記第1の画像オブジェクトよりも表示時間が短い第2の画像オブジェクトの表示領域及び該第2の画像オブジェクトの表示区間とを検出する検出ステップと、
    前記映像データ中の前記第2の画像オブジェクトの表示区間に基づき、前記映像データの再生、編集、及び検索のうちの少なくとも1つに用いられる支援データを生成する生成ステップと、
    を含む映像処理方法。
  18. 前記検出ステップは、
    前記映像データから、表示時間が予め定められた第1の時間以上の画像オブジェクトの表示領域及び該画像オブジェクトの表示区間を検出するステップと、
    検出された画像オブジェクトのなかから、表示時間が前記第1の時間よりも長い予め定められた第2の時間以上の第1の画像オブジェクトと、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準する所定の範囲内にあり、且つ表示時間が前記第2の時間よりも短い第2の画像オブジェクトとを選択する選択ステップと、
    を含む請求項17記載の映像処理方法。
  19. コンピュータを、
    映像データを記憶する記憶手段、
    前記映像データから、表示時間が予め定められた時間以上の第1の画像オブジェクトの表示領域及び該第1の画像オブジェクトの表示区間と、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準とする所定の範囲内にあり、且つ前記第1の画像オブジェクトよりも表示時間が短い第2の画像オブジェクトの表示領域及び該第2の画像オブジェクトの表示区間とを検出する検出手段、
    前記映像データ中の前記第2の画像オブジェクトの表示区間に基づき、前記映像データの再生、編集、及び検索のうちの少なくとも1つに用いられる支援データを生成する生成手段、
    として機能させるためのプログラム。
  20. 前記検出手段は、
    前記映像データから、表示時間が予め定められた第1の時間以上の画像オブジェクトの表示領域及び該画像オブジェクトの表示区間を検出する手段と、
    検出された画像オブジェクトのなかから、表示時間が前記第1の時間よりも長い予め定められた第2の時間以上の第1の画像オブジェクトと、前記映像データ中の前記第1の画像オブジェクトの表示領域を基準する所定の範囲内にあり、且つ表示時間が前記第2の時間よりも短い第2の画像オブジェクトとを選択する選択手段と、
    を含む請求項19記載のプログラム。
JP2007119564A 2007-04-27 2007-04-27 映像処理装置及び方法 Expired - Fee Related JP4398994B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007119564A JP4398994B2 (ja) 2007-04-27 2007-04-27 映像処理装置及び方法
US12/076,059 US20080266319A1 (en) 2007-04-27 2008-03-13 Video processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007119564A JP4398994B2 (ja) 2007-04-27 2007-04-27 映像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2008278212A JP2008278212A (ja) 2008-11-13
JP4398994B2 true JP4398994B2 (ja) 2010-01-13

Family

ID=39886408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007119564A Expired - Fee Related JP4398994B2 (ja) 2007-04-27 2007-04-27 映像処理装置及び方法

Country Status (2)

Country Link
US (1) US20080266319A1 (ja)
JP (1) JP4398994B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5091806B2 (ja) * 2008-09-01 2012-12-05 株式会社東芝 映像処理装置及びその方法
US20100316608A1 (en) * 2009-06-15 2010-12-16 Vijayaprakash Suppiah Method of Determining A Response To Treatment With Immunomodulatory Composition
JP5928196B2 (ja) * 2012-06-29 2016-06-01 ブラザー工業株式会社 通信システム、端末装置、登録方法、及びプログラム
US9906820B2 (en) * 2015-07-06 2018-02-27 Korea Advanced Institute Of Science And Technology Method and system for providing video content based on image
CN107690088A (zh) * 2017-08-04 2018-02-13 天脉聚源(北京)传媒科技有限公司 一种智能播放视频的方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US6219382B1 (en) * 1996-11-25 2001-04-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for locating a caption-added frame in a moving picture signal
JP2002501345A (ja) * 1998-01-07 2002-01-15 トムソン ライセンシング ソシエテ アノニム ビデオ信号を処理する方法および装置
US7085401B2 (en) * 2001-10-31 2006-08-01 Infowrap Systems Ltd. Automatic object extraction
US7020336B2 (en) * 2001-11-13 2006-03-28 Koninklijke Philips Electronics N.V. Identification and evaluation of audience exposure to logos in a broadcast event
KR100764175B1 (ko) * 2006-02-27 2007-10-08 삼성전자주식회사 맞춤형 방송 서비스를 위한 동영상의 중요 자막을 검출하는장치 및 방법
JP4377887B2 (ja) * 2006-03-30 2009-12-02 株式会社東芝 映像分割装置
JP4442585B2 (ja) * 2006-05-11 2010-03-31 三菱電機株式会社 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置

Also Published As

Publication number Publication date
US20080266319A1 (en) 2008-10-30
JP2008278212A (ja) 2008-11-13

Similar Documents

Publication Publication Date Title
JP5010292B2 (ja) 映像属性情報出力装置、映像要約装置、プログラムおよび映像属性情報出力方法
US8971633B2 (en) Content retrieval to facilitate recognizing content details of a moving image
JP4166707B2 (ja) 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム
JP4635891B2 (ja) 情報処理装置および方法、並びにプログラム
US20130011120A1 (en) Content processing apparatus and method, and program
JP2006148932A (ja) スポーツ動映像の要約方法及び装置
JP2007274154A (ja) 映像分割装置、テロップ抽出装置、方法およびプログラム
JP2008283486A (ja) 情報処理装置、情報処理方法、およびプログラム
JP4398994B2 (ja) 映像処理装置及び方法
US20080269924A1 (en) Method of summarizing sports video and apparatus thereof
KR20130045248A (ko) 동화상 콘텐츠에 포함된 정지 화상을 식별하기 위한 장치 및 방법
US20070094602A1 (en) Display control device, and associated method of identifying content
KR100612862B1 (ko) 스포츠 동영상의 요약 방법 및 장치
RU2609071C2 (ru) Навигация по видеопоследовательности через местоположение объекта
US8300894B2 (en) Method for decomposition and rendering of video content and user interface for operating the method thereof
JPH11220689A (ja) 映像ソフト処理装置及び同処理プログラム記録記憶媒体
KR101580944B1 (ko) 이벤트 영상 및 비-이벤트 영상을 포함하는 탐색 바를 구비한 영상 재생 장치 및 그 동작 방법
JP4276042B2 (ja) 索引データ生成装置、索引データ生成方法、索引データ生成プログラムおよびそれを記録した情報記録媒体、並びに、コンテンツデータ再生装置、コンテンツデータ再生方法、コンテンツデータ再生プログラムおよびそれを記録した情報記録媒体
KR20200013145A (ko) 하이라이트 추출 방법 및 하이라이트 추출 장치
JP2010081531A (ja) 映像処理装置及びその方法
JP2004363917A (ja) 音楽番組内容メニュー作成装置及び方法
Lee et al. Highlight generation for basketball video using probabilistic excitement
Jung et al. Player information extraction for semantic annotation in golf videos
JP4904316B2 (ja) 特定シーン抽出装置及び特定シーン抽出プログラム
Coimbra et al. The shape of the game

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees