JP7166796B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7166796B2
JP7166796B2 JP2018112751A JP2018112751A JP7166796B2 JP 7166796 B2 JP7166796 B2 JP 7166796B2 JP 2018112751 A JP2018112751 A JP 2018112751A JP 2018112751 A JP2018112751 A JP 2018112751A JP 7166796 B2 JP7166796 B2 JP 7166796B2
Authority
JP
Japan
Prior art keywords
section
candidate
frame
sub
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018112751A
Other languages
English (en)
Other versions
JP2019216364A (ja
JP2019216364A5 (ja
Inventor
竜也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018112751A priority Critical patent/JP7166796B2/ja
Priority to US16/428,463 priority patent/US11023738B2/en
Publication of JP2019216364A publication Critical patent/JP2019216364A/ja
Publication of JP2019216364A5 publication Critical patent/JP2019216364A5/ja
Application granted granted Critical
Publication of JP7166796B2 publication Critical patent/JP7166796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画の情報を処理する技術に関する。
近年、デジタルカメラやスマートフォンの普及に伴い、動画の撮影が手軽になったことから、自分で撮影した未編集の動画を保有しているユーザは多い。ユーザが動画を視聴するとき、動画の再生に時間がかかり過ぎたり、途中で退屈になったりすることを防ぐために、例えば動画のハイライトの部分だけを抜き出して短縮した動画(以下、ハイライト動画とする。)を視聴するという方法が広く知られている。
しかしながら、動画から手動でハイライトの部分だけを抜き出してハイライト動画を作成することは非常に手間がかかる。これに対し、特許文献1には、動画に含まれるフレームを評価し、例えば閾値以上の評価値を持つフレームが連続した区間(フレーム群)をハイライトの候補区間とし、その候補区間を用いてハイライト動画を生成可能とする技術が開示されている。また特許文献1には、例えば、評価値が最も高いフレームを含む候補区間や、フレームの評価値の変化が大きい候補区間、フレームの評価値の合計が最大となる候補区間などを選択して、ハイライト動画を生成する技術も開示されている。
国際公開第2005/086478号
前述したように、ハイライト動画は候補区間を用いて生成されるため、その候補区間は、動画のハイライト部分に相当する区間であることが望ましい。また、候補区間は、フレームの評価値に基づいて求められるため、その評価値を得る評価方法は、動画に含まれる各フレームがハイライトに含まれるフレームであるかどうかを高い精度で判定できるような方法であるべきである。しかしながら、特許文献1に開示されているようなフレームの評価方法では、動画のハイライトに含まれるフレームを高い精度で判定することが難しい。
そこで、本発明は、フレームの評価方法の精度が高精度でない場合でも、動画からハイライトの区間を適切に取得可能にすることを目的とする。
本発明の情報処理装置は、動画に含まれるフレームを評価する評価手段と、前記評価手段による評価を基に、前記動画から候補区間を特定する特定手段と、前記候補区間の長さを基に、ハイライト動画に用いるフレームを選択する選択手段と、前記候補区間をサブ区間に分割する分割手段と、を有し、前記選択手段は、前記長さが長い前記候補区間のサブ区間に含まれるフレームを前記ハイライト動画に用いるフレームとして選択することを特徴とする。
本発明によれば、フレームの評価方法の精度が高精度でない場合でも、動画の中からハイライトの区間を適切に取得可能となる。
情報処理装置のハードウェア構成例を示す図である。 ハイライト動画作成装置の機能構成図である。 フレーム情報を管理するテーブルを示す図である。 候補区間情報を管理するテーブルを示す図である。 ハイライト区間情報を管理するテーブルを示す図である。 候補区間特定処理のフローチャートである。 ハイライト区間選択処理のフローチャートである。 候補区間の除去を含むハイライト区間選択処理のフローチャートである。 サブ区間の分割部を含むハイライト動画作成装置の機能構成図である。 サブ区間情報を管理するテーブルを示す図である。 サブ区間情報に基づく区間情報管理のテーブルを示す図である。 サブ区間分割処理のフローチャートである。 サブ区間にスコアを付与する処理のフローチャートである。 サブ区間スコアによるハイライト区間選択処理のフローチャートである。 補完顔スコアを追加したフレーム情報管理テーブルを示す図である。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
図1は、本実施形態における情報処理装置100のハードウェア構成例を示す図である。
CPU101は、装置全体を統括的に制御する中央演算装置である。CPU101が制御プログラムに基づいて、情報の演算や加工、各ハードウェアの制御を実行することにより、本実施形態の情報処理装置100の動作を実現する。RAM102は、汎用的なRAMであり、CPU101の主メモリとして、若しくは、実行プログラムのロードやプログラム実行に必要なワークメモリとして機能する。ROM103は、汎用的なROMであり、例えば、本実施形態の情報処理装置100の各動作を実現するための手順を規定するプログラムを記憶する。また、ROM103には、コンピュータシステムの機器制御を行うシステムプログラムである基本ソフトウェア(OS)等を記憶したプログラムROMと、システムを稼動するために必要な情報などが記憶されたデータROMが含まれる。また、ROM103の代わりに、HDD109が用いられても良い。
ネットワークIF104は、ネットワークインタフェースであり、LAN等のネットワークを介して送受信される動画データなどの各種データの入出力制御を行う。ネットワークIF104は、有線や無線等、ネットワークの媒体に応じた構成を有する。VRAM105は、ビデオRAMであり、表示装置であるディスプレイ106の画面に表示される画像を展開する。ディスプレイ106は、表示装置であり、例えば、液晶ディスプレイや液晶パネルである。入力コントローラ107は、入力装置108からの入力信号を制御するコントローラである。入力装置108は、ユーザからの操作指示を受け付けるための外部入力装置であり、例えば、タッチパネル、キーボード、ポインティングデバイス、リモートコントローラなどである。
HDD109は、ハードディスクドライブである。HDD109は、アプリケーションプログラムや、動画データや画像データなどのデータ保存用に用いられる。アプリケーションプログラムには、CPU101が本実施形態に係る後述するハイライト動画生成処理を実行するためのハイライト動画作成アプリケーションが含まれる。入力IF110は、CD(DVD)-ROMドライブ、メモリカードドライブ等の外部装置と接続するためのインタフェースであり、例えば、デジタルカメラで撮影した動画データの読出しなどに用いられる。入出力バス111は、上述した各ユニット間を相互に通信可能に接続するための入出力バスであり、例えばアドレスバス、データバス、制御バスを含む。
図2は、図1に示した情報処理装置100においてハイライト動画作成処理を実行することにより実現される、本実施形態のハイライト動画作成装置200の機能構成例を示したブロック図である。詳細は後述するが、本実施形態のハイライト動画作成装置200は、動画に含まれるフレームを評価した評価結果(評価値)を基に、動画からハイライトの候補区間を特定する。候補区間は、一例として、フレームの評価値が所定の閾値以上となるような評価の高いフレームが連続した区間として、動画から特定される。さらに、ハイライト動画作成装置200は、特定した候補区間のなかから、相対的に長さが長い候補区間を優先的にハイライト動画に適したハイライト区間として選択する。そして、ハイライト動画作成装置200は、選択したハイライト区間を、元の動画から抽出してハイライト動画を生成する。すなわちハイライト動画作成装置200は、フレームの評価値以外の指標として候補区間の長さの情報を用い、候補区間のなかで、長さが長い候補区間を優先して選択することにより、ハイライト動画に好適なハイライト区間を適切に選択可能としている。なお、本実施形態のハイライト動画作成装置200は、選択したハイライト区間を基にハイライト動画を作成するが、ハイライト区間に含まれる特定のフレームを使用して、いわゆるフォトブックなどの他のコンテンツを作成してもよい。
入力部201は、入力IF110を介して動画データを読み込み、動画に含まれる各フレームの画像を抽出してHDD109に保存する。対象とするフレームは動画に含まれる全てのフレームでもよいし、動画の圧縮符号化にフレーム間予測を用いている場合にはIフレーム(intra frame)のみでもよい。本実施形態では、1秒ごとに15フレーム間隔で出現するIフレームの画像を入力としてHDD109に保存するものとする。
評価部202は、入力部201から入力されたフレームの画像を解析して得られる輝度や画像内の特定の被写体(本実施形態では顔とする。)などの特徴量を用いてフレームの評価値を算出する。なお、動画を撮影したカメラが撮影時にメタデータとして輝度や顔の特徴量を記録している場合、入力部201はメタデータを取得し、評価部202では、そのメタデータを用いて評価値を算出するようにしてもよい。
特定部203は、閾値以上の評価値を持つフレームが一定数以上連続している区間をハイライトの候補区間として特定する。そして、選択部204は、特定部203にて特定された候補区間の長さ(例えばフレーム数)の情報を基に、ハイライト区間を選択する。出力部205は、選択部204により選択された複数のハイライト区間を、元の動画から抽出して繋ぎ合わせることで、ハイライト動画を生成する。このようにして生成されたハイライト動画は、例えばHDD109に保存されたり、ディスプレイ106に表示されたりする。なお選択されたハイライト動画が複数でない場合は、選択された1つのハイライト区間がハイライト動画として出力される。
図3は、評価部202が評価した動画の各フレームの情報を管理するテーブルの一例を示す図である。図3に示したフレームテーブル301は、ID、フレーム番号、輝度変化量、顔スコア、評価値の各項目を含むフレーム情報により構成される。IDは、フレーム情報について順番に付けられた識別情報である。フレーム番号は、動画の各フレームのうち評価値算出の解析に用いられたフレーム(本実施形態ではIフレーム)に付与されているフレーム番号である。輝度変化量は、フレーム解析により算出された輝度の変化量であり、時間軸上で一つ前のIフレームとの輝度値の差を基に算出される値である。顔スコアは、Iフレームから被写体の顔が検出された場合に、その検出された顔の座標と大きさを基に、画像の中心に近く大きい顔ほど高い値になるように算出される値である。評価値は、輝度変化量と顔スコアの値を足して0~1の範囲に丸めた値であり、本実施形態では評価値が1に近いほどハイライトに適したフレームであることを示している。
図4は、特定部203が特定した候補区間の情報を管理するテーブルの一例を示す図である。図4に示した候補区間テーブル401は、ID、区間の開始フレームID、区間の終了フレームID、区間の長さ、区間内の顔検出有無の各項目を含む候補区間情報により構成される。IDは、候補区間について順番に付けられた識別情報である。区間の開始フレームIDと終了フレームIDは、当該区間の最初のIフレームと最後のIフレームの情報(例えばフレーム番号)である。なお、候補区間はこれら開始フレームIDと終了フレームIDにより指し示されるが、候補区間にはIフレーム以外の他のフレームも含められるものとする。つまり、本実施形態の場合、Iフレームは15フレーム間隔であるため、候補区間の終了は、終了フレームIDの指すIフレームの14フレーム先のフレームとなる。また、区間の長さは、開始フレームIDのIフレームから終了フレームIDのIフレームの数×15のフレーム数で表される長さとなる。
図5は、選択部204が選択したハイライト区間の選択結果の情報を管理するテーブルの一例を示す図である。図5に示したハイライト区間テーブル501は、ID、候補区間のID、区間の開始フレームID、区間の終了フレームIDの項目を含むハイライト区間情報として構成される。図5のID、候補区間のID、区間の開始フレームID、区間の終了フレームIDは、図4で説明したものと同様である。
図6は、特定部203が、図3に示したフレームテーブル301のフレーム情報を基に動画からハイライトの候補区間を特定する処理の流れを示すフローチャートである。以下の説明では、図6のフローチャートにおける各ステップS601~S611をS601~S611と略記する。このことは後述する他のフローチャートにおいても同様とする。
先ずS601において、特定部203は、フレームテーブル301のフレーム情報を格納するリストの変数frameListを空に初期化し、また、IDを示す変数iを1に初期化する。そして、特定部203は、次のS602において、IDが変数iのフレーム情報をフレームテーブル301から取得した後、S603に処理を進める。
S603に進むと、特定部203は、フレームの評価値が、所定の閾値である0.5以上かどうかを判定する。ここでは閾値を0.5とするが、ハイライトに含めるフレームをより評価の高いフレームに限定したいのであれば、閾値をさらに大きな値にしてもよい。そして、特定部203は、S603において、評価値が閾値以上であると判定した場合にはS604に処理を進めてframeListにフレーム情報を追加した後、S608に処理を進める。
一方、特定部203は、S603において評価値が閾値より小さいと判定した場合、S605に処理を進め、frameListに追加したフレーム情報が3以上有るかどうかを判定する。そして、特定部203は、S605において、フレーム情報が3未満であると判定した場合にはS607に処理を進め、フレーム情報が3以上であると判定した場合にはS606に処理を進める。
S606に進むと、特定部203は、frameListに追加されたフレーム情報を基に候補区間情報を生成し、その候補区間情報を図4の候補区間テーブル401に新規登録する。ここで、候補区間情報の開始と終了は、frameListに追加された先頭と末尾のフレーム情報のIDとなり、候補区間情報の長さは、frameListに追加されたフレーム情報の数×15フレームで算出したフレーム数となる。また、frameListに追加されたフレーム情報の顔スコアが何れか一つでも0でない場合、候補区間情報の顔検出は「有」となり、顔スコアが何れも0の場合、候補区間情報の顔検出は「無」となる。S606の後、特定部203はS607に処理を進める。
S607に進むと、特定部203は、frameListを空に初期化した後、S608に処理を進める。
S608に進むと、特定部203は、変数iがフレームテーブル301の最後のIDかどうかを判定し、変数iが最後のIDでないと判定した場合にはS609で変数iに1を足した後、S602に処理を戻す。これにより、S602~S607までの処理は、S608において変数iが最後のIDであると判定されるまで繰り返される。そして、S608において変数iが最後のIDであると判定すると、特定部203は、S610に処理を進める。
S610に進むと、特定部203は、最後のIDのフレーム情報についてS605と同様に、frameListに追加したフレーム情報が3以上有るかどうかを判定する。そして、特定部203は、S610において、フレーム情報が3未満であると判定した場合には候補区間特定処理を終了する。一方、特定部203は、S610においてフレーム情報が3以上であると判定した場合にはS611に処理を進め、S606と同様に、frameListに追加されたフレーム情報を基に候補区間情報を生成して候補区間テーブル401に新規登録する。そして、特定部203は、S611の処理後、候補区間特定処理を終了する。すなわち、特定部203は、S610とS611において、最後にframeListに追加されたフレーム情報が3以上の場合のみ候補区間テーブル401に新規登録する。従って、処理終了までframeListに追加されたフレーム情報が3以上にならない場合、候補区間は0となる。
図7は、選択部204が、図4に示した候補区間テーブル401の候補区間情報を基にハイライト区間を選択する処理の流れを示すフローチャートである。
先ずS701において、選択部204は、候補区間テーブル401に登録された全ての候補区間情報を、候補区間の長さが長い順にソートする。そして、選択部204は、次のS702において、選択したハイライト区間の総フレーム数を示す変数nを0に初期化し、候補区間の順番を示す変数rを1に初期化した後、S703に処理を進める。
S703に進むと、選択部204は、候補区間テーブル401から、候補区間の長さがr番目に長い候補区間情報を取得し、次のS704において変数nと取得した候補区間情報の長さとを足した値が、所定の閾値である300を超えるかどうかを判定する。そして、選択部204は、S704において、所定の閾値を超えると判定した場合にはハイライト区間選択処理を終了し、一方、所定の閾値を超えないと判定した場合にはS705に処理を進める。なお、S704では所定の閾値として20秒の時間に相当するフレーム数の300の値を用いたが、閾値はハイライト動画の再生時間の上限に合わせて他の値を用いてもよい。さらに、所定の閾値は、入力動画の再生時間を基に動的な閾値として算出されてもよいし、ユーザにより入力される所望の値が用いられてもよい。
S705に進むと、選択部204は、候補区間情報を基にハイライト区間情報を生成し、そのハイライト区間情報を図5のハイライト区間テーブル501に新規登録する。さらに、選択部204は、変数nに候補区間情報の長さを足して変数nの値を更新する。そして、選択部204は、S705の後、S706に処理を進める。
S706に進むと、選択部204は、r番目が最後の候補区間情報かどうかを判定し、最後でないと判定した場合にはS707で変数rに1を足した後、S703に処理を戻す。これにより、S703~S705までの処理は、S706においてr番目が最後の候補区間情報であると判定されるまで繰り返される。そして、S706においてr番目が最後の候補区間情報であると判定すると、選択部204は、ハイライト区間選択処理を終了する。最後の候補区間情報に対する処理が終わった時点で、選択された候補区間情報の長さを足した値が、所定の閾値である300を超えない場合、生成されるハイライト動画は300フレームより短い動画となる。また、候補区間テーブル401に登録されていた候補区間情報が1つの場合、その区間がハイライト区間として選択される。
なお、本実施形態では、S701において候補区間の長さを用いてソートすることで優先的に選択される候補区間を決定した。しかしながら、十分に長い候補区間しかない場合は、何れの候補区間もハイライトに適している可能性があり、候補区間の長さのみで優先すべき候補区間を判断することは難しい。このため、選択部204は、候補区間の長さだけでなく、候補区間に含まれるフレームの評価値や顔検出有無、動画撮影時のブレの有無やブレ量等の、少なくともいずれかの情報を用いて候補区間のスコアを補正し、その補正したスコアの値でソートしてもよい。
また、S705においてハイライト区間を登録するとき、候補区間情報と同じ開始フレームと終了フレームにしたが、候補区間が十分に長い場合には、候補区間の前後で所定の割合のフレーム数分のフレームを除去して登録してもよい。このようにすることで、ハイライトに適さないフレームとハイライトに適したフレームの境目のような不確実なフレームをハイライト区間から取り除くことができる。
以上説明したように、本実施形態においては、評価の高いフレームが連続した候補区間の長さの情報を用いることで、よりハイライトである可能性の高い候補区間を優先的にハイライト区間として選択することができる。これにより、本実施形態によれば、フレームの評価方法の精度が高精度でない場合でも、候補区間から最終的に動画に用いるハイライト区間を適切に選択することができる。
<実施形態2>
前述した実施形態1では、候補区間の長さの情報を用いることで、よりハイライトである可能性の高い候補区間を優先的にハイライト区間として選択している。実施形態2では、候補区間の長さが短く区間内に顔が検出されないような、ハイライトとして適さない可能性のある候補区間をハイライト区間として選択する対象から除去する例について説明する。実施形態2における情報処理装置のハードウェア構成は図1と同様であり、ハイライト動画作成装置200の機能構成は図2と同様であるため、それらの図示は省略する。以下の説明では、実施形態2において前述した実施形態1とは異なる部分のみ述べることとする。
図8は、実施形態2の選択部204が、図7の処理によりハイライト区間を選択する代わりに、候補区間の長さの情報を基に、ハイライトに適さない可能性のある候補区間を、ハイライト区間の選択対象から除去する処理の流れを示すフローチャートである。
先ずS801において、選択部204は、図4の候補区間テーブル401のIDを示す変数iを1に初期化する。次にS802において、選択部204は、候補区間テーブル401で最も候補区間の長さが長い候補区間情報を取得し、その取得した候補区間情報を基にハイライト区間情報を生成してハイライト区間テーブル501に新規登録する。
次にS803において、選択部204は、IDがiの候補区間情報を候補区間テーブル401から取得し、さらにS804において候補区間の長さが所定の閾値である75以上かどうかを判定する。ここでは、閾値を75としたが、ハイライトに適さない傾向の強い候補区間の長さが経験的もしくは統計的に求められていれば、その長さを閾値としてもよい。また、登録されるハイライト区間の数を調整するため、候補区間の数を基に、閾値の大小が調整されてもよい。そして、選択部204は、S804において、候補区間の長さが所定の閾値以上であると判定した場合にはS806に処理を進め、一方、閾値未満であると判定した場合にはS805に処理を進める。
S805に進むと、選択部204は、顔検出の結果が「有」であるかどうかを判定する。そして、選択部204は、顔検出の結果が「有」であると判定した場合にはS806に処理を進め、顔検出の結果が「有」でないと判定した場合にはS807に処理を進める。
S806に進んだ場合、つまりS804とS805の何れかの条件が満たされた場合、選択部204は、ハイライト区間情報を生成してハイライト区間テーブル501に新規登録する。なお、S802では最も長い候補区間が既に登録されているため、S806ではハイライト区間テーブル501の候補IDに、既にIDがiの情報が登録されているかどうかを確認し、未登録の場合のみ新規登録するものとする。そして、S806の後、選択部204は、S807に処理を進める。
S807に進むと、選択部204は、iが候補区間テーブル401の最後のIDかどうかを判定する。また、選択部204は、S804とS805の何れの条件も満たさないためにS807に進んだ場合、候補区間をハイライト区間として登録しない、つまり選択対象から除去するようにした後に、iが候補区間テーブル401の最後のIDかどうかの判定を行う。ここで、選択部204は、S807においてiが候補区間テーブル401の最後のIDでないと判定した場合、S808において変数iに1を足した後にS803に処理を戻す。これにより、S803からS806までの処理は、S807においてiが候補区間テーブル401の最後のIDと判定されるまで繰り返される。そして、選択部204は、S807においてiが候補区間テーブル401の最後のIDであると判定すると、図8のフローチャートに示したハイライト区間選択処理を終了する。
以上説明したように、本実施形態においては、候補区間が短く区間内に顔が検出されないようなハイライトとして適さない可能性のある候補区間を除去することができる。また、本実施形態においては、S802で最も長い候補区間を登録することで、候補区間を除去した結果、ハイライト区間が何も選択されなくなることを防ぐことができる。なお、実施形態2のハイライト区間選択処理の出力を候補区間にして、前述した実施形態1のハイライト区間選択処理を行うよう組み合わせてもよい。これにより、ハイライトとして適さない可能性のある候補区間を除去した後で、候補区間の長いものから優先的に選択することもできる。
<実施形態3>
実施形態1では、候補区間の長いものを優先的にハイライト区間として選択している。これに対し、実施形態3では、候補区間をサブ区間に分割し、候補区間の長いものを優先して、その候補区間に含まれるサブ区間を選択することで、網羅的にハイライト区間を選択可能にする例について説明する。実施形態3における情報処理装置のハードウェア構成は図1と同様であるため、その図示は省略する。以下の説明では、実施形態3において前述した実施形態1とは異なる部分のみ述べることとする。
図9は、実施形態3に係るハイライト動画作成装置200の機能構成図であり、図2に示したハイライト動画作成装置200に、候補区間をサブ区間に分割する分割部901が加えられた構成図である。
図9の構成において、選択部204は、入力された候補区間の情報を分割部901に渡し、分割部901は当該候補区間をサブ区間に分割した後、選択部204に送る。選択部204は、分割部901により分割されたサブ区間の情報を受け取り、元の候補区間の情報とサブ区間の情報とを用いて、ハイライト区間の選択処理を行う。
図10(a)~図10(c)は、分割部901が分割したサブ区間の情報を管理するテーブルの一例を示す図である。図10(a)~図10(c)に示したサブ区間テーブル1001~1003は、ID、サブ区間が属する候補区間のID、サブ区間の開始フレームID、サブ区間の終了フレームID、サブ区間の長さ、サブ区間のスコアの項目を含むサブ区間情報により構成される。これら図10(a)のサブ区間テーブル1001、図10(b)のサブ区間テーブル1002、図10(c)のサブ区間テーブル1003は、全て同じサブ区間を示したものである。図10(a)のサブ区間テーブル1001はスコアが未登録の状態を示し、図10(b)のサブ区間テーブル1002はスコア登録途中の状態を、図10(c)のサブ区間テーブル1003は全てのサブ区間にスコアを登録した後の状態を示している。なお、図10(a)~図10(c)のサブ区間テーブル1001~1003のID、開始フレームID、終了フレームID、長さは、サブ区間における図4と同様のものである。
図11は、図5に示したハイライト区間テーブル501と同様の構成でハイライト区間の選択結果の情報を管理するテーブルの一例を示す図である。図11に示したハイライト区間テーブル1101は、図10(c)に示したサブ区間テーブル1003の情報を基に選択部204が選択したハイライト区間の情報を示している。
図12は、分割部901が、図4に示した候補区間テーブル401の候補区間情報を基に、候補区間をサブ区間に分割する処理の流れを示したフローチャートである。
S1201において、分割部901は、候補区間テーブル401に登録された全ての候補区間情報を、候補区間の長さが長い順にソートする。さらに、分割部901は、S1202において、候補区間の長さの順番を示す変数rを1に初期化する。
次にS1203において、分割部901は、r番目に長い候補区間情報を取得する。そして、S1204において、分割部901は、候補区間情報の開始フレームIDと終了フレームIDとから、例えばその中心60フレームに位置するフレームIDを算出してサブ区間の開始フレームIDと終了フレームIDとする。さらに、分割部901は、サブ区間の長さを算出してサブ区間情報を生成し、図10(a)のサブ区間テーブル1001に新規登録する。
次にS1205において、分割部901は、候補区間の開始フレームIDから終了フレームIDまでの全てのフレームがいずれかのサブ区間に含まれるようなサブ区間分割の処理が完了したかどうかを判定する。そして、分割部901は、S1205において、サブ区間分割が完了したと判定した場合にはS1208に処理を進め、一方、サブ区間分割が完了していないと判定した場合にはS1206に処理を進める。
S1206に進むと、分割部901は、既にサブ区間として登録済みとなっていてIDが最も小さいフレームIDから例えば手前30フレームに位置するフレームIDを算出して、それらをサブ区間の開始フレームIDと終了フレームIDとする。そして、分割部901は、そのサブ区間の長さを算出してサブ区間情報を生成し、図10(a)のサブ区間テーブル1001に新規登録する。さらにS1207において、分割部901は、登録済みとなっていてIDが最も大きいフレームIDから例えば後ろ30フレームに位置するフレームIDを算出して、それらをサブ区間の開始フレームIDと終了フレームIDとする。そして、分割部901は、そのサブ区間の長さを算出してサブ区間情報を生成し、図10(a)のサブ区間テーブル1001に新規登録する。このS1207の後、分割部901は、S1205に処理を戻す。つまり、分割部901は、S1205においてr番目の候補区間におけるサブ区間分割が完了したと判定されるまで、S1206とS1207の処理を繰り返す。
なお、S1204、S1206、S1207において、分割部901は、サブ区間として登録するフレームIDを、候補区間情報の開始フレームIDおよび終了フレームIDを超えない範囲で登録するものとする。またここでは、中心を60フレーム、手前と後ろを30フレームとしてサブ区間に分割したが、これらの値は任意であり、他の値を用いてもよい。また、サブ区間の分割を行う際の中心位置は、顔などの情報を基に変更してもよい。
S1208に進むと、分割部901は、r番目が最後の候補区間情報かどうかを判定する。分割部901は、S1208において最後の候補区間情報でないと判定した場合にはS1209で変数rに1を足した後にS1203に処理を戻す。つまり、分割部901は、S1208においてr番目が最後の候補区間情報であると判定されるまでS1203~S1207の処理を繰り返す。そして、分割部901は、S1208においてr番目が最後の候補区間情報であると判定した場合、図12におけるサブ区間分割処理を終了する。
図13と図14は、実施形態3の選択部204が、前述した図7の処理でハイライト区間を選択する際に、サブ区間にスコアを付与し、そのサブ区間のスコアを基にハイライト区間を選択する処理の流れを示すフローチャートである。
図13は、選択部204におけるハイライト区間選択処理の前処理であって、候補区間テーブル401とサブ区間テーブル1001の情報を基に、サブ区間テーブル1001にスコアを付与する処理を示すフローチャートである。
先ずS1301において、選択部204は、候補区間テーブル401に登録された全ての候補区間情報を、候補区間の長さが長い順にソートする。
次に選択部204は、S1302において、サブ区間に付与するスコアを示す変数scoreをサブ区間テーブル1001に登録されたサブ区間の数で初期化し、さらにS1303において、候補区間の長さの順番を示す変数rを1に初期化する。
次にS1304において、選択部204は、r番目に長い候補区間情報のIDと同じ候補IDを持つサブ区間情報をサブ区間テーブル1001から取得する。このとき、選択部204は、スコアが登録済みでない最も小さいIDのサブ区間情報を取得する。
次にS1305において、選択部204は、取得したサブ区間情報が同一候補IDにおける最初のサブ区間情報かどうかを判定することで、取得したサブ区間情報が候補区間の中央のサブ区間かどうかを判定する。例えば選択部204は、サブ区間テーブルの状態が図10(a)のサブ区間テーブル1001であり、IDが「6」のサブ区間情報を取得した場合、そのIDの「6」は候補IDの「4」における最初のサブ区間情報であるため、中央のサブ区間であると判定する。そして、選択部204は、S1305において、中央のサブ区間であると判定した場合にはS1306に処理を進め、中央のサブ区間でないと判定した場合にはS1307に処理を進める。
S1306に進むと、選択部204は、サブ区間情報のスコアに変数scoreの値を登録し、変数scoreの値を1引いた値に更新した後、S1309に処理を進める。
一方、S1307に進むと、選択部204は、S1304でサブ区間情報を取得できたかどうかを判定する。そして、選択部204は、サブ区間情報を取得できた場合にはS1308に処理を進め、一方、サブ区間情報を取得できない場合にはS1309に処理を進める。
S1308に進んだ場合、選択部204は、サブ区間情報のスコアに変数scoreの値を登録する。さらに、選択部204は、次のIDのサブ区間情報を取得して、変数score-1の値を登録し、変数scoreの値を2引いた値に更新した後、S1309に処理を進める。例えば、サブ区間テーブルがサブ区間テーブル1002の状態であり、IDが「7」のサブ区間情報のスコアを登録する場合、選択部204は、IDが「7」のサブ区間情報のスコアを登録するだけでなく、次のIDの「8」のサブ区間情報のスコアも登録する。
S1309に進むと、選択部204は、r番目のサブ区間が最後のサブ区間かどうかを判定し、最後のサブ区間であると判定した場合にはS1311に処理を進め、一方、最後のサブ区間ではないと判定した場合にはS1301に処理を進める。
S1301に進むと、選択部204は、変数rに1を足した後、S1304に処理を戻す。つまり、選択部204は、S1309においてr番目が最後のサブ区間であると判定されるまで、S1304からS1308の処理を繰り返す。
S1311に進むと、選択部204は、サブ区間テーブル1001の全てのサブ区間情報にスコアを登録したかどうかを判定し、全てのサブ区間情報にスコアが登録されていないと判定した場合にはS1303に処理を戻して変数rが1に初期化される。つまり、選択部204は、S1311において全てのサブ区間情報にスコアを登録したと判定されるまで、S1303からS1309までの処理を繰り返す。一方、選択部204は、S1311において全てのサブ区間情報にスコアが登録されたと判定した場合には、図13のスコア付与処理を終了する。
前述した図10(c)に示したサブ区間テーブル1003は、上述したフローチャートによってサブ区間テーブル1001の全てのサブ区間にスコアを登録した後の状態を示している。
なお、ここではサブ区間のスコアは、候補区間の長さの情報に基づいて算出したが、サブ区間に含まれるフレームの評価値など他の情報をさらに用いて算出してもよい。また、サブ区間のスコアについても、前述した候補区間のスコアと同様、サブ区間に含まれるフレームの評価値や顔検出有無、動画撮影時のブレの有無やブレ量等を基にスコアを補正してもよい。
図14は、図13に示した前処理でスコアを付与したサブ区間テーブル1003の情報を基に、選択部204が、ハイライト区間を選択する処理を示すフローチャートである。
先ずS1401において、選択部204は、サブ区間テーブル1003に登録された全てのサブ区間情報を、サブ区間のスコアが高い順にソートする。
次にS1402において、選択部204は、選択したハイライト区間の総フレーム数を示す変数nを0に初期化し、サブ区間のスコアの高い順番を示す変数rを1に初期化する。
さらにS1403において、選択部204は、r番目にスコアの高いサブ区間情報を取得する。
次にS1404において、選択部204は、変数nと取得したサブ区間情報の長さを足した値が、所定の閾値である300を超えるかどうかを判定する。ここでは閾値として300を用いたが、S704と同様に他の値を用いてもよい。そして、選択部204は、閾値を超えないと判定した場合にはS1405に処理を進め、閾値を超えると判定した場合には図14のハイライト区間選択処理を終了する。
S1405に進むと、選択部204は、サブ区間の候補IDと同一の候補IDを持つハイライト区間が既にハイライト区間テーブル1101に登録済みかどうかを判定する。そして、選択部204は、登録済みでないと判定した場合にはS1406に処理を進め、登録済みであると判定した場合にはS1407に処理を進める。
S1406に進んだ場合、選択部204は、ハイライト区間情報を生成して新規登録し、その後、S1408に処理を進める。
一方、S1407に進んだ場合、選択部204は、既に同一候補IDを持つ登録済みのハイライト区間情報を更新する。この更新処理は、登録済みのハイライト区間情報とS1403で取得したサブ区間情報の開始フレームIDおよび終了フレームIDとをそれぞれ比較し、開始フレームIDは小さい値に更新し、終了フレームIDは大きい値に更新するような処理となされる。このS1407の後、選択部204は、S1408に処理を進める。
S1408に進むと、選択部204は、変数nにサブ区間情報の長さを足してnの値を更新する。
次にS1409において、選択部204は、r番目が最後のサブ区間かどうかを判定し、最後でないと判定した場合にはS1410でrに1を足した後、S1403に処理を戻す。つまり、選択部204は、S1409においてr番目が最後のサブ区間であると判定されるまで、S1403~S1408の処理を繰り返す。
一方、S1409において最後のサブ区間であると判定した場合、選択部204は、図14のハイライト区間選択処理を終了する。
以上説明したように実施形態3においては、候補区間をサブ区間に分割し、候補区間の長いものを優先して候補区間に含まれるサブ区間を選択する。これにより、実施形態3によれば、よりハイライトである可能性の高い候補区間を優先しつつ、網羅的にハイライト区間を選択することができる。
また、実施形態3では、各候補区間の中心のサブ区間に最も高いスコアを付与した後、各候補区間の手前のサブ区間、後ろのサブ区間の順に高いスコアを付与する。これにより、実施形態3によれば、後ろよりも手前のサブ区間が優先して選択され、徐々に候補区間の中心にある良いシーンが再生されるようになる。
<実施形態4>
前述した実施形態1では、評価の高いフレームが連続したことを示す候補区間の長さの情報を用いることで、よりハイライトである可能性の高い候補区間を選択している。しかしながら、フレームの評価方法によっては、評価値の高いフレームが連続せずに途切れることで、短い候補区間ばかりとなり長さに差が出ず、ハイライトである可能性の高い候補区間を見つけることができない虞がある。例えばフレームの評価に顔検出を用いる場合、子供が遊んでいるハイライトに相応しいシーンにおいて、子供が動いたり後ろを向いたりするために、顔が小さく検出されたり顔が検出されなかったりして、評価値の低いフレームが間に挟まる場合などが想定される。
このため、実施形態4では、フレームの評価値を算出するときに、前後のフレームから取得した特徴量を用いて補完することにより、そのような問題の発生を防ぐものである。実施形態4における情報処理装置のハードウェア構成は図1と同様であり、ハイライト動画作成装置200の機能構成は図2と同様であるため、それらの図示は省略する。以下の説明では、実施形態4において前述した実施形態1とは異なる部分のみ述べることとする。なお実施形態4においても、実施形態3と同様にサブ区間に分割して処理してもよい。
図15は、実施形態4の評価部202が評価した動画の各フレームの情報を管理するテーブルの一例を示した図である。図15に示したフレームテーブル1501は、前述した図3のフレームテーブル301に補完顔スコアを追加したフレーム情報により構成される。補完顔スコアは、評価部202が、顔スコアを算出した後に、そのフレームの前後一つのフレーム情報の顔スコアを取得して、最も大きい値を算出したスコアである。ここでは、前後一つのフレーム情報を取得したが、補完する範囲を変えるために前後一つではなく他の値を用いてもよい。評価値は、輝度変化量と補完顔スコアの値を足して0~1の範囲に丸めた値であり、1に近いほどハイライトに適したフレームであることを示す。
以上説明したように実施形態4においては、フレームの評価値を算出するとき、前後のフレームから取得した特徴量を用いて補完する。これより、実施形態4によれば、候補区間が短いものばかりにならず長さに差がでることで、ハイライトである可能性の高い候補区間を見つけることができる。
<その他の実施形態>
以上、実施形態の例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置,webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101:CPU、102:RAM、103 プログラムROM、データROM、201:入力部、202:評価部、203:特定部、204:選択部、205:出力部

Claims (19)

  1. 動画に含まれるフレームを評価する評価手段と、
    前記評価手段による評価を基に、前記動画から候補区間を特定する特定手段と、
    前記候補区間の長さを基に、ハイライト動画に用いるフレームを選択する選択手段と、
    前記候補区間をサブ区間に分割する分割手段と、を有し、
    前記選択手段は、前記長さが長い前記候補区間のサブ区間に含まれるフレームを前記ハイライト動画に用いるフレームとして選択することを特徴とする情報処理装置。
  2. 前記選択手段は、特定された前記候補区間のなかで、長さが最も長い候補区間に含まれるフレームを前記ハイライト動画に用いるフレームとして選択することを特徴とする請求項1に記載の情報処理装置。
  3. 前記選択手段は、前記候補区間の長さと前記評価手段による評価の結果とを用いて前記候補区間のスコアを算出し、前記候補区間のスコアを基に、前記ハイライト動画に用いるフレームを選択することを特徴とする請求項1に記載の情報処理装置。
  4. 前記選択手段は、長さが所定の長さ以下の前記候補区間に含まれるフレームを、前記ハイライト動画に用いるフレームとして選択しないことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記選択手段は、特定された前記候補区間の数に基づいて、前記所定の長さを変更することを特徴とする請求項4に記載の情報処理装置。
  6. 前記選択手段は、さらに、前記候補区間に含まれるフレームで特定の被写体が検出されたかどうかの情報に基づいて、前記ハイライト動画に用いるフレームを選択することを特徴とする請求項4または5に記載の情報処理装置。
  7. 前記特定の被写体は顔であることを特徴とする請求項6に記載の情報処理装置。
  8. 前記選択手段は、前記候補区間のなかで前後の所定の割合のフレーム数分だけフレームを除去した区間から、前記ハイライト動画に用いるフレームを選択することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記選択手段は、前記サブ区間が属する候補区間の長さと前記評価手段による評価の結果とに基づく前記サブ区間のスコアを基に、前記ハイライト動画に用いるフレームを選択することを特徴とする請求項に記載の情報処理装置。
  10. 前記サブ区間のスコアは、前記候補区間の中心に近い前記サブ区間ほど高いスコアとなることを特徴とする請求項に記載の情報処理装置。
  11. 前記特定手段は、前記評価手段による評価が所定の閾値以上のフレームが連続する区間を、前記候補区間として特定することを特徴とする請求項1から1のいずれか1項に記載の情報処理装置。
  12. 前記特定手段は、前記評価手段による評価が前記所定の閾値以上のフレームが一定の数以上連続する区間を前記候補区間として特定することを特徴とする請求項1に記載の情報処理装置。
  13. 前記評価手段は、フレームから抽出される特徴に基づいて、前記動画に含まれるフレームを評価することを特徴とする請求項1から1のいずれか1項に記載の情報処理装置。
  14. 前記評価手段は、前記評価手段による評価の対象となるフレームの前後のフレームの特徴を用いて、前記評価の対象となるフレームを評価することを特徴とする請求項1に記載の情報処理装置。
  15. 前記評価手段による評価、特定の被写体が検出されたかどうか、動画撮影時のブレの有無、動画のブレ量のうちの少なくともいずれか一つを基に、前記スコアを補正する補正手段を更に有することを特徴とする請求項3、、1のいずれか1項に記載の情報処理装置。
  16. 前記選択手段によって選択された複数のフレームを繋ぎ合わせて前記ハイライト動画を生成する生成手段を有することを特徴とする請求項1から1のいずれか1項に記載の情報処理装置。
  17. 前記候補区間の長さを基に選択されたフレームを用いてコンテンツを生成する生成手段を有することを特徴とする請求項1から1のいずれか1項に記載の情報処理装置。
  18. 情報処理装置が実行する情報処理方法であって、
    動画に含まれるフレームを評価する評価工程と
    前記評価を基に、前記動画から候補区間を特定する特定工程と
    前記候補区間の長さを基に、ハイライト動画に用いるフレームを選択する選択工程と
    前記候補区間をサブ区間に分割する分割工程と、を有し、
    前記選択工程では、前記長さが長い前記候補区間のサブ区間に含まれるフレームを前記ハイライト動画に用いるフレームとして選択することを特徴とする情報処理方法。
  19. コンピュータを、請求項1から1のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018112751A 2018-06-13 2018-06-13 情報処理装置、情報処理方法、及びプログラム Active JP7166796B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018112751A JP7166796B2 (ja) 2018-06-13 2018-06-13 情報処理装置、情報処理方法、及びプログラム
US16/428,463 US11023738B2 (en) 2018-06-13 2019-05-31 Information processing apparatus selecting highlight section from video, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112751A JP7166796B2 (ja) 2018-06-13 2018-06-13 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019216364A JP2019216364A (ja) 2019-12-19
JP2019216364A5 JP2019216364A5 (ja) 2021-07-26
JP7166796B2 true JP7166796B2 (ja) 2022-11-08

Family

ID=68839322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112751A Active JP7166796B2 (ja) 2018-06-13 2018-06-13 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11023738B2 (ja)
JP (1) JP7166796B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126811A (ja) 2002-09-30 2004-04-22 Toshiba Corp コンテンツ情報編集装置とその編集プログラム
JP2005277531A (ja) 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
WO2007039994A1 (ja) 2005-09-30 2007-04-12 Pioneer Corporation ダイジェスト作成装置およびそのプログラム
JP2010097246A (ja) 2008-10-14 2010-04-30 Nippon Hoso Kyokai <Nhk> シーン類似判定装置、そのプログラム及びサマリ映像生成システム
JP2010191934A (ja) 2009-01-20 2010-09-02 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011099299A1 (ja) 2010-02-10 2011-08-18 パナソニック株式会社 映像抽出装置、撮影装置、プログラム及び記録媒体
JP2016090774A (ja) 2014-11-04 2016-05-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016116073A (ja) 2014-12-15 2016-06-23 ソニー株式会社 映像処理方法、映像処理装置及びプログラム
JP2018013879A (ja) 2016-07-19 2018-01-25 Seven Dew株式会社 ダイジェスト映像取得装置、ダイジェスト映像取得方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3250467B2 (ja) 1996-10-04 2002-01-28 松下電器産業株式会社 映像要約方法および映像表示方法
JPWO2005086478A1 (ja) 2004-03-04 2008-01-24 セイコーエプソン株式会社 動画像データ処理
CN100559376C (zh) * 2008-06-30 2009-11-11 腾讯科技(深圳)有限公司 生成视频摘要的方法、***及设备
US20190267041A1 (en) * 2015-02-24 2019-08-29 Plaay Llc System and method for generating probabilistic play analyses from sports videos
US10430838B1 (en) * 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126811A (ja) 2002-09-30 2004-04-22 Toshiba Corp コンテンツ情報編集装置とその編集プログラム
JP2005277531A (ja) 2004-03-23 2005-10-06 Seiko Epson Corp 動画像処理装置
WO2007039994A1 (ja) 2005-09-30 2007-04-12 Pioneer Corporation ダイジェスト作成装置およびそのプログラム
JP2010097246A (ja) 2008-10-14 2010-04-30 Nippon Hoso Kyokai <Nhk> シーン類似判定装置、そのプログラム及びサマリ映像生成システム
JP2010191934A (ja) 2009-01-20 2010-09-02 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011099299A1 (ja) 2010-02-10 2011-08-18 パナソニック株式会社 映像抽出装置、撮影装置、プログラム及び記録媒体
JP2016090774A (ja) 2014-11-04 2016-05-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016116073A (ja) 2014-12-15 2016-06-23 ソニー株式会社 映像処理方法、映像処理装置及びプログラム
JP2018013879A (ja) 2016-07-19 2018-01-25 Seven Dew株式会社 ダイジェスト映像取得装置、ダイジェスト映像取得方法、およびプログラム

Also Published As

Publication number Publication date
US11023738B2 (en) 2021-06-01
JP2019216364A (ja) 2019-12-19
US20190384988A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
KR100818289B1 (ko) 비디오 영상 트레킹 방법 및 장치
US20190089923A1 (en) Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof
EP3189469B1 (en) A method for selecting frames from video sequences based on incremental improvement
US11438510B2 (en) System and method for editing video contents automatically technical field
KR20150067160A (ko) 비디오 씬 검출 기법
JP6557592B2 (ja) 映像シーン分割装置及び映像シーン分割プログラム
JP2018045693A (ja) 動画像背景除去方法及び動画像背景除去システム
US20190051045A1 (en) Image processing apparatus, image processing method, and storage medium
KR101812103B1 (ko) 썸네일이미지 설정방법 및 설정프로그램
CN110727810B (zh) 图像处理方法、装置、电子设备及存储介质
US10650242B2 (en) Information processing apparatus, method, and storage medium storing a program that obtain a feature amount from a frame in accordance with a specified priority order
US10924637B2 (en) Playback method, playback device and computer-readable storage medium
CN113297416A (zh) 视频数据存储方法、装置、电子设备和可读存储介质
JP7166796B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6793169B2 (ja) サムネイル出力装置、サムネイル出力方法およびサムネイル出力プログラム
US20200134840A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6254771B2 (ja) 画像処理装置及び画像処理プログラム
JP5111269B2 (ja) 画像処理装置、画像処理方法
JP6648930B2 (ja) 編集装置、編集方法及びプログラム
JP6409366B2 (ja) 画像処理装置およびコンピュータプログラム
JP5582924B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7266490B2 (ja) 画像処理装置、その制御方法及びプログラム
CN114827473A (zh) 视频处理方法和装置
JPWO2022059048A5 (ja)
JP2013098790A (ja) 映像編集装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R151 Written notification of patent or utility model registration

Ref document number: 7166796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151