JP2013025748A - 情報処理装置、動画要約方法、及びプログラム - Google Patents

情報処理装置、動画要約方法、及びプログラム Download PDF

Info

Publication number
JP2013025748A
JP2013025748A JP2011163044A JP2011163044A JP2013025748A JP 2013025748 A JP2013025748 A JP 2013025748A JP 2011163044 A JP2011163044 A JP 2011163044A JP 2011163044 A JP2011163044 A JP 2011163044A JP 2013025748 A JP2013025748 A JP 2013025748A
Authority
JP
Japan
Prior art keywords
relationship
section
appearance
person
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011163044A
Other languages
English (en)
Other versions
JP2013025748A5 (ja
Inventor
Koji Sato
浩司 佐藤
Masatomo Kurata
雅友 倉田
Makoto Murata
誠 村田
Naoki Shibuya
直樹 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011163044A priority Critical patent/JP2013025748A/ja
Priority to US13/527,637 priority patent/US9083933B2/en
Priority to CN 201210250810 priority patent/CN102981733A/zh
Publication of JP2013025748A publication Critical patent/JP2013025748A/ja
Publication of JP2013025748A5 publication Critical patent/JP2013025748A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】登場物の選択内容に適合する要約結果が得られる動画要約手法を実現すること。
【解決手段】動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出部と、前記区間検出部により検出された区間に対応する画像を出力する画像出力部と、を備える、情報処理装置が提供される。
【選択図】図14

Description

本技術は、情報処理装置、動画要約方法、及びプログラムに関する。
テレビジョン映像やビデオ映像など、人々は、様々な動画を視聴する機会に恵まれている。また、広域通信網の整備が進み、多くの家庭では、インターネットを介してストリーミング配信される動画(以下、ストリーミング映像)を視聴することも可能になっている。こうした動画を視聴する際、ユーザは、リモートコントローラ(以下、リモコン)を操作して放送局を選択したり、ビデオ映像の再生を開始させたりする。視聴する動画が録画映像、DVDビデオ映像、Blu−rayビデオ映像、ストリーミング映像などの場合、ユーザは、再生を開始する位置を指定したり、一部の映像シーンをスキップさせたりすることができる。例えば、下記の特許文献1には、簡単な操作でCMをスキップ再生できるようにする技術が開示されている。
特開2010−277661号公報
しかしながら、動画に登場する人物の中から指定した人物に関連する人物が登場する映像シーンを集めたダイジェスト映像を自動再生できるようにしたり、それら映像シーンの概要を俯瞰的に把握できるように表示したりする技術は知られていない。そこで、本技術は、上記のような事情を受けて考案されたものであり、選択した登場人物を基準として登場人物間の関係性を考慮したシーン群の選択方法や、そのシーン群を選択的に再生する仕組みを実現することが可能な、新規かつ改良された情報処理装置、動画要約方法、及びプログラムを提供することを意図するものである。また、本技術は、動画に登場する物品間、或いは、物品と人物との間の関係性をさらに考慮したシーン群の選択方法を実現することも意図している。
本技術のある観点によれば、動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出部と、前記区間検出部により検出された区間に対応する画像を出力する画像出力部と、を備える、情報処理装置が提供される。
また、本技術の別の観点によれば、動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出するステップと、検出された区間に対応する画像を出力するステップと、を含む、動画要約方法が提供される。
また、本技術の別の観点によれば、動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出機能と、前記区間検出機能により検出された区間に対応する画像を出力する画像出力機能と、をコンピュータに実現させるためのプログラムが提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、選択した登場人物を基準として登場人物間の関係性を考慮したシーン群の選択方法や、そのシーン群を選択的に再生する仕組みを実現することが可能になる。また、本技術によれば、動画に登場する物品間、或いは、物品と人物との間の関係性をさらに考慮したシーン群の選択方法を実現することも可能になる。
動画要約手法の概要について説明するための説明図である。 動画要約手法の概要について説明するための説明図である。 動画要約手法の概要について説明するための説明図である。 動画要約手法の概要について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性値の算出方法について説明するための説明図である。 関係性情報について説明するための説明図である。 本実施形態に係る情報処理装置の構成例について説明するための説明図である。 本実施形態に係る情報処理装置の構成例(変形例#1)について説明するための説明図である。 本実施形態に係る情報処理装置の構成例(変形例#2)について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る情報処理装置の動作例について説明するための説明図である。 本実施形態に係る関係性値の編集方法について説明するための説明図である。 本実施形態に係る関係性値の編集方法について説明するための説明図である。 本実施形態に係る関係性値の編集方法について説明するための説明図である。 本実施形態の一変形例に係る動画要約手法について説明するための説明図である。 本実施形態の一変形例に係る動画要約手法について説明するための説明図である。 本実施形態の一変形例に係る動画要約手法について説明するための説明図である。 本実施形態に係る情報処理装置の機能を実現することが可能なハードウェア構成例について説明するための説明図である。 顔トラッキング、顔クラスタリング、及び顔識別の内容を示した参考図である。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
まず、図1〜図4を参照しながら、本実施形態に係る動画要約手法の概要について説明する。次いで、図5〜図13を参照しながら、関係性値の算出方法について説明する。次いで、図14〜図16を参照しながら、本実施形態に係る情報処理装置100の構成例について説明する。次いで、図17〜図27を参照しながら、本実施形態に係る情報処理装置100の動作例について説明する。
次いで、図28〜図30を参照しながら、本実施形態に係る関係性値の編集方法について説明する。次いで、図31〜図33を参照しながら、本実施形態の一変形例に係る動画要約手法について説明する。次いで、図34を参照しながら、本実施形態に係る情報処理装置100の機能を実現することが可能なハードウェア構成例について説明する。なお、図35は、説明の中で適宜参照する。
最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:はじめに
1−1:登場物間の関係性に基づく動画要約手法の概要
1−1−1:ダイジェスト再生について
1−1−2:コミック表示について
1−2:関係性値の算出方法
1−2−1:動画タイムラインメタデータについて
1−2−2:区間メタデータに基づく共演関係の評価方法
1−2−3:共演作品数に基づく関係性値の算出方法
1−2−4:共演作品数に基づく関係性値の算出方法(重み付き)
1−2−5:出演時間に基づく関係性値の算出方法
1−2−6:出演シーン時間に基づく関係性値の算出方法
1−3:関係性情報の拡張
2:実施形態
2−1:情報処理装置100の構成
2−1−1:標準構成
2−1−2:変形例#1(動画からメタデータを自動生成する構成)
2−1−3:変形例#2(所定の関係性情報を利用する構成)
2−2:情報処理装置100の動作
2−2−1:基本動作
2−2−2:要約処理#1(関係性値の総和を最大化する方法)
2−2−3:要約処理#2(シーン切り替え時の関係性値和を最大化1)
2−2−4:要約処理#3(シーン切り替え時の関係性値和を最大化2)
2−2−5:要約処理#4(シーン切り替え時の関係性値差を最小化)
2−2−6:要約処理#5(その他の構成)
2−3:関係性値の編集方法
2−3−1:操作UIの構成
2−3−2:関係性値の編集処理に伴う情報処理装置100の動作
2−4:変形例(テンプレートを利用した動画要約手法)
2−4−1:テンプレートの構成
2−4−2:要約処理の流れ
2−4−3:テンプレートの自動生成方法
3:ハードウェア構成例
4:まとめ
<1:はじめに>
はじめに、本実施形態に係る動画要約手法について詳細に説明するに先立ち、当該動画要約手法の概要及び当該動画要約手法に用いる関係性値の算出方法について説明する。
[1−1:登場物間の関係性に基づく動画要約手法の概要]
まず、図1〜図4を参照しながら、登場物間の関係性に基づく動画要約手法の概要について説明する。図1及び図2は、登場物の関係性を利用したダイジェスト再生の仕組みについて説明するための説明図である。また、図3及び図4は、登場物の関係性を利用した代表シーン画像のコミック表示方法について説明するための説明図である。
(1−1−1:ダイジェスト再生)
近年、一般家庭においても動画を編集する機会が増えている。例えば、子供の運動会を撮影した映像の中から、自分の子供や自分の子供に関係する人物や物品など(以下、登場物)が写っている映像シーンだけを切り出して繋ぎ合わせる編集作業は、多くの場合、撮影者自身の手で行われる。但し、こうした編集作業は、撮影者にとって負荷の高い作業である。また、子供に関係する登場物を撮影者が十分に把握しているとは限らず、本当に適切な編集結果が得られていない可能性もある。そのため、登場物間の関係性を考慮して自動的に適切な映像シーンを抽出する技術が求められている。
また、登場物間の関係性を考慮して自動的に適切な映像シーンが抽出されるのであれば、実際には動画を編集せずに、自動抽出した映像シーンだけを時系列に再生することで、視聴者の意図に沿った動画の視聴形態を実現することが可能になる。例えば、自分の子供を指定し、自分の子供と関係する登場物の登場シーンだけを自動抽出して再生すれば、編集した動画を再生するのと同じ結果が得られる。また、ユーザが撮影した動画だけでなく、市場に流通している映画などの動画を対象に、ユーザが指定した登場物に関係する登場物の登場シーンを選択的に再生することも可能になる。
以下、動画から特定の映像シーンを選択的に再生する再生方法のことをダイジェスト再生と呼ぶことにする。言うまでもないが、動画のダイジェスト再生は、動画の要約に他ならない。さて、本実施形態において、動画のダイジェスト再生は、図1及び図2のような仕組みを用いて実現される。例えば、ある動画に人物A、人物B、人物Cが登場するものとしよう。つまり、人物A、人物B、人物Cは、この動画における登場物である。また、人物Aと人物Bとは良好な関係性を有するものとする。一方、人物Aと人物Cとは険悪な関係性を有するものとする。なお、登場物間の関係性を定量化する方法については後段において詳述する。
まず、動画中における人物A、人物B、人物Cの登場シーンが抽出される。また、ユーザが人物Aを選択し、良好な関係性に基づくダイジェスト再生を望んだ場合、人物Aと良好な関係性を有する人物Bが選択される。次いで、人物Aの登場シーンと、人物Bの登場シーンとが時系列に並べられてダイジェスト動画が生成される。但し、ダイジェスト動画は、実際に動画を編集して得られる動画データであってもよいし、再生区間を示した情報であってもよい。図1の例では、人物Aが登場する区間S11〜S14と、人物Bが登場する区間S21及びS22とが時系列に並べられたダイジェスト動画が得られる。
また、ユーザが異なる登場物を選択すると、図2に示すように、ダイジェスト動画の内容も変更される。図2の例では、動画中に人物A、人物B、人物C、人物Dが登場するものと仮定されている。また、人物Aと人物Bとは良好な関係性を有し、人物Aと人物Cとは険悪な関係性を有する。そして、人物Aと人物Dとは険悪な関係性を有し、人物Bと人物Dとは良好な関係性を有する。さらに、人物Cと人物Dとは良好な関係性を有する。このような関係性が存在する場合、ユーザが人物Aを選択し、良好な関係性に基づくダイジェスト再生を望むと、ダイジェスト動画は、(1)のような構成になる。一方、ユーザが人物Dを選択すると、ダイジェスト動画は、(2)のような構成になる。
上記のように、本実施形態に係る動画要約手法を用いると、同じ動画であっても、選択する登場物を変更することにより、ダイジェスト再生される動画の内容も変更される。また、上記の例では良好な関係性に基づくダイジェスト再生について考えたが、関係性の種類が途中で切り替わるように設定してもよい。例えば、「味方の関係→敵対関係→無関係→敵対関係→味方の関係」といった設定を設けておくことにより、特定のストーリー性をダイジェスト動画に与えることが可能になる。但し、このような関係性に関する設定を設けた場合であっても、ユーザが選択する登場物の変更に追従してダイジェスト動画の内容が変更されることに変わりはない。
(1−1−2:コミック表示)
図1及び図2に示したダイジェスト再生は、要約した動画を時系列で視聴するために利用される方法に関する。一方、ここで説明するコミック表示は、動画の要約結果を俯瞰的に視聴するための利用される方法に関する。但し、映像シーンの抽出方法は、上述したダイジェスト再生における映像シーンの抽出方法と同じである。例えば、図2の例において人物Aが選択された場合に、人物Aが登場する区間S11〜S14と、人物Bが登場する区間S21及びS22とが抽出される。しかし、コミック表示の場合、区間S11〜S14、S21、S22が時系列に再生されるのではなく、図3に示すように、各区間を代表する画像が並べて表示される。なお、代表する画像に代えて、各区間の動画が再生されるように構成されていてもよい。
また、図2の例において人物Dが選択された場合、人物Dが登場する区間S41〜S43と、人物Dの登場シーン以降に人物Bが登場する区間S22と、人物Dの登場シーン以降に人物Cが登場する区間S32〜S34とが抽出される。この場合、図4に示すように、各区間を代表する画像が並べて表示される。なお、1つの枠と1つの区間とが1対1に対応していなくてもよい。例えば、所定時間毎に各枠内に表示された画像が他の区間に対応する画像に切り替わるようにしてもよい。また、ユーザが各枠の画像を選択した場合に、選択された画像に対応する区間の動画が再生されるようにしてもよい。さらに、ユーザにより選択された登場物と関係性の強い登場物の登場シーンに対応する枠が強調表示されるように構成されていてもよい。
以上説明したように、本実施形態に係る動画要約手法を用いると、上記のようなダイジェスト再生やコミック表示が可能になる。なお、要約結果の表現方法はこれらの方法に限定されない点に注意されたい。
[1−2:関係性値の算出方法]
次に、図5〜図12を参照しながら、関係性値の算出方法について説明する。この関係性値は、登場物間の関係性を定量的に表現したものである。この関係性値は、例えば、以下で説明する動画タイムラインメタデータを利用して算出される。
(1−2−1:動画タイムラインメタデータについて)
まず、動画タイムラインメタデータについて説明する。動画タイムラインメタデータは、図5に示すように、領域メタデータ、区間メタデータ、オブジェクトメタデータにより構成される。領域メタデータは、動画フレーム内に登場する人物や物品など(登場物)の位置及び範囲を示すメタデータである。図5の例では、動画フレーム内に登場する人物の顔領域を示す領域メタデータが例示されている。また、区間メタデータは、動画の中で、登場物が登場する区間を示すメタデータである。そして、オブジェクトメタデータは、動画に登場する登場物に関する関連情報を示すメタデータである。
なお、動画タイムラインメタデータは、動画に登場する登場物毎に設定される。また、動画タイムラインメタデータは、動画1つ1つについて設定される。そのため、動画タイムラインメタデータのうち、区間メタデータを利用することにより、ある登場物がどの動画のどの区間に登場するかを把握することが可能になる。また、領域メタデータを利用することにより、ユーザが指定した画面上の領域と、画面上に表示されている登場物との対応関係を把握することが可能になる。例えば、領域メタデータ及びオブジェクトメタデータを利用すれば、ユーザが登場人物の顔領域を指定した場合に、その登場人物に関する関連情報が表示されるといったユーザインターフェースを実現することが可能になる。
なお、動画タイムラインメタデータは、手入力により生成してもよいが、図35に示すような顔検出、顔トラッキング、顔クラスタリング、顔識別などの方法を用いて自動生成することもできる。また、手入力による生成方法と自動生成方法とを補完的に組み合わせることにより、高精度の動画タイムラインメタデータを生成することができる。例えば、特開2005−44330号公報(物体検出・トラッキング)、特開2010−3021号公報(クラスタリング)、特開2007−65766号公報(認識)などに記載の技術を利用することが可能である。
(1−2−2:区間メタデータに基づく共演関係の評価方法)
次に、図6〜図8を参照しながら、区間メタデータに基づく共演関係の評価方法について説明する。なお、ここで言う共演とは、同じ動画又は同じ動画フレームに複数の登場物が登場する状態のことを意味する。また、以下では、説明の都合上、登場物が人物である場合を例に挙げて説明を進める。まず、区間メタデータから得られる主な情報の種類と、人物間の関係性を評価する際の評価基準とについて説明する。図6〜図8は、区間メタデータに基づく共演関係の評価方法について説明するための説明図である。
まず、図6を参照する。先に述べたように、区間メタデータは、動画毎及び人物毎に用意されている。また、各区間メタデータは、人物が登場する動画中の区間を表す。図6には、動画Mについて、人物Aの登場区間を表した区間メタデータと、人物Bの登場区間を表した区間メタデータと、人物Cの登場区間を表した区間メタデータとが例示されている。図6の例では、t〜tの区間、t〜t11の区間、t13〜t16の区間が人物Aの登場区間である。また、t〜tの区間、t〜tの区間、t10〜t12の区間が人物Bの登場区間である。さらに、t〜tの区間、t14〜t15の区間が人物Cの登場区間である。
図6に例示した3つの区間メタデータからは、動画Mにおける各登場人物の出演時間(動画別出演時間)、動画Mにおける共演者、動画Mにおける共演シーンの長さ(以下、共演シーン時間)が分かる。例えば、動画Mにおける人物Aの動画別出演時間Δtは、Δt1A=|t−t|+|t11−t|+|t16−t13|と算出される。人物Bの動画別出演時間Δt1B、人物Cの動画別出演時間Δt1Cについても同様である。また、動画Mにおいて人物A、B、Cの登場区間が存在することから、人物Aと人物Bとは共演者であり、人物Bと人物Cとは共演者であり、人物Cと人物Aとは共演者であることが分かる。
さらに、t〜tの区間及びt10〜t11の区間で人物Aと人物Bとが共に登場しているから、動画Mにおける人物Aと人物Bとの共演シーン時間Δt1ABは、Δt1AB=|t−t|+|t11−t10|と算出される。同様に、t〜tの区間で人物Bと人物Cとが共に登場しているから、動画Mにおける人物Bと人物Cとの共演シーン時間Δt1BCは、Δt1BC=|t−t|と算出される。また、t15〜t14の区間で人物Aと人物Cとが共に登場しているから、動画Mにおける人物Aと人物Cとの共演シーン時間Δt1CAは、Δt1CA=|t15−t14|と算出される。
このように、各動画の区間メタデータを分析することにより、各動画における各登場人物の動画別出演時間、各動画における共演者、各動画における共演シーン時間が得られる。また、複数の動画について得られた動画別出演時間、共演者、共演シーン時間などの情報を組み合わせると、図7に示すように、対象とする動画群(図7の例では動画M〜M)について各人物の総出演時間、各人物の組に関する共演作品数、各人物の組に関する総共演時間、各人物の組に関する総共演シーン時間といった情報が得られる。
例えば、対象とする動画群について同じ人物の動画別出演時間を合計すると、その人物に関する総出演時間が得られる。また、各動画における共演者が分かっているため、ある人物の組が共演者となっている動画の数を計算すれば、その人物の組に関する共演作品数が得られる。さらに、ある人物の組に注目し、その人物の組が共演する動画群について各人物の動画別出演時間を合計することで、その人物の組に関する共演時間が得られる。また、ある人物の組に注目し、その人物の組が共演する動画群について共演シーン時間を合計することで、その人物の組に関する共演シーン時間が得られる。
例えば、人物Dと人物Eとが動画M、Mで共演しているとしよう。この場合、人物Dと人物Eとの組に関する共演時間は、動画M及びMにおける人物Dの動画別出演時間(Δt2D及びΔt5D)の合計値と、動画M及びMにおける人物Eの動画別出演時間(Δt2E及びΔt5E)の合計値との和(Δt2D+Δt5D+Δt2E+Δt5E)となる。また、人物Dと人物との組に関する共演シーン時間は、動画Mにおける共演シーン時間Δt2DEと、動画Mにおける共演シーン時間Δt5DEとの和(Δt2DE+Δt5DE)となる。
共演作品数が多い人物の組、共演時間の長い人物の組、共演シーン時間の長い人物の組は、人物間の関係性が強い組であると考えられる。また、お互いに主役として共演している作品が多いほど、人物間の関係性が強いと考えることもできる。さらに、表示される面積なども考慮して人物間の関係性を評価する方が好ましいと考えられる。表示面積を考慮しないと、例えば、エキストラとして出演している人物と主演俳優との間の関係性が高く、主演俳優と主演女優との間の関係性が低くなるといったことも起こりうる。主役や脇役などの情報は、オブジェクトメタデータから得られる。また、子供、大人、男性、女性、年齢などの情報がオブジェクトデータに含まれている場合には、これらの情報を利用してもよい。また、表示面積などは、領域メタデータから得られる。
上記のように、区間メタデータを利用することで、人物間の関係性を評価するための様々な情報が得られる。また、その情報を利用することにより、人物間の関係性を評価することができる。さらに、オブジェクトメタデータや領域メタデータを併せて利用することにより、人物間の関係性をより適切に評価することが可能になる。例えば、人物間の関係性は、図8に示すように、マトリックスの形式で表現できる。なお、マトリックスの各枠には、その要素に対応する人物の組について関係性の強さを表す関係性値が入る。なお、このマトリックスのことを関係性マトリックスと呼ぶことにする。また、人物以外の登場物についても、同様に関係性マトリックスを求めることができる。以下、関係性値の具体的な算出方法について説明する。
(1−2−3:共演作品数に基づく関係性値の算出方法)
まず、図9を参照しながら、共演作品数に基づく関係性値の算出方法について説明する。図9は、共演作品数に基づく関係性値の算出方法について説明するための説明図である。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
既に述べたように、区間メタデータを利用すると、図6に示すように、人物A、人物B、人物Cの共演関係が得られる。図9の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
人物Aと人物Bとが共演する作品数は3、人物Aと人物Cとが共演する作品数は2、人物Bと人物Cとが共演する作品数は1であるため、人物Aと人物Bとの関係性を表す関係性値は3、人物Aと人物Cとの関係性を表す関係性値は2、人物Bと人物Cとの関係性を表す関係性値は1となる。なお、同じ人物間の関係性値も形式的に算出することができる。例えば、人物Aと人物Aとが共演する作品は、人物Aが出演する作品と同義であり、動画M、M、M〜Mが該当する。つまり、人物Aと人物Aとの共演作品数は5となり、人物Aと人物Aとの関係性を表す関係性値は5となる。人物B、人物Cについても同様である。
同じ人物に関する関係性値も含め、上記の方法で算出された関係性値をまとめると、図9に示すような関係性マトリックスが得られる。但し、この関係性マトリックスの対角成分は、各枠に対応する人物の出演作品数を表す。なお、ここでは出演作品数をそのまま関係性値として記載しているが、所定の係数をかけたり、正規化したりするなど、加工した数値を関係性値として利用することが望ましい。例えば、対角成分が全て1になるように正規化することが望ましい。
以上、共演作品数に基づく関係性の算出方法について説明した。
(1−2−4:共演作品数に基づく関係性値の算出方法(重み付き))
次に、図10を参照しながら、共演作品数に基づく関係性値の算出方法(重み付き)について説明する。図10は、共演作品数に基づく関係性値の算出方法(重み付き)について説明するための説明図である。ここでは、主役/脇役の区別を重みで表現し、その重み値と共演作品数とに基づいて関係性値を算出する方法について述べる。なお、子供、大人、男性、女性、年齢などの区別を重みで表現した場合も、同様の方法にて関係性マトリックスを求めることができる。ここでは、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図10に示すように、人物A、人物B、人物Cの共演関係が得られる。図10の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
また、オブジェクトメタデータを利用すると、動画Mにおいて人物A及び人物Bが主役、人物Cが脇役であることが分かる。同様に、動画Mにおいて人物Aが主役、人物Cが脇役であることが分かる。また、動画Mにおいて人物Bが主役であることが分かる。さらに、動画Mにおいて人物Aが脇役であることが分かる。そして、動画Mにおいて人物A、人物Bが脇役であることが分かる。また、動画Mにおいて人物Aが主役、人物Bが脇役であることが分かる。
ここで、重みについて考える。共演者が共に主役の場合、共演作品1つにつきスコア=4を与えるものとする。また、共演者の一方が主役、かつ、他方が脇役の場合、共演作品1つにつきスコア=2を与えるものとする。さらに、共演者が共に脇役の場合、共演作品1つにつきスコア=1を与えるものとする。
図10の例において、人物Aと人物Bとが共に主役を務める作品は、動画Mである。また、人物Aが主役を務め、かつ、人物Bが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Bが主役を務める作品は、動画Mである。そして、人物Aと人物Bとが共に脇役を務める作品は、動画Mである。これらの結果から、人物Aと人物Bとの組について、人物Aと人物Bとが共に主役を務める作品の数は1である。また、人物Aが主役を務め、かつ、人物Bが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Bが主役を務める作品の数は1である。そして、人物Aと人物Bとが共に脇役を務める作品の数は1である。従って、スコアの合計は、4×1+2×1+1×1=7となる。つまり、人物Aと人物Bとの関係性を表す関係性値は7となる。
同様に、人物Aと人物Cとが共に主役を務める作品は、動画Mである。また、人物Aが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Cが主役を務める作品は、動画Mである。そして、人物Aと人物Cとが共に脇役を務める作品は存在しない。これらの結果から、人物Aと人物Cとの組について、人物Aと人物Cとが共に主役を務める作品の数は1である。また、人物Aが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Aが脇役を務め、かつ、人物Cが主役を務める作品の数は1である。そして、人物Aと人物Cとが共に脇役を務める作品の数は0である。従って、スコアの合計は、4×1+2×1+1×0=6となる。つまり、人物Aと人物Cとの関係性を表す関係性値は6となる。
同様に、人物Bと人物Cとが共に主役を務める作品は存在しない。また、人物Bが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Bが脇役を務め、かつ、人物Cが主役を務める作品は、動画Mである。そして、人物Bと人物Cとが共に脇役を務める作品は存在しない。これらの結果から、人物Bと人物Cとの組について、人物Bと人物Cとが共に主役を務める作品の数は0である。また、人物Bが主役を務め、かつ、人物Cが脇役を務める作品、或いは、人物Bが脇役を務め、かつ、人物Cが主役を務める作品の数は1である。そして、人物Bと人物Cとが共に脇役を務める作品の数は0である。従って、スコアの合計は、4×0+2×1+1×0=2となる。つまり、人物Bと人物Cとの関係性を表す関係性値は2となる。
同じ人物に関する関係性値も同様にして求め、これらの関係性値をまとめると、図10に示すような関係性マトリックスが得られる。なお、ここではスコアの合計値をそのまま関係性値としたが、合計値の平方根を関係性値としてもよい。また、所定の係数をかけたり、正規化したりするなど、加工した数値を関係性値として利用することが望ましい。例えば、対角成分が全て1になるように正規化することが望ましい。また、上記の説明では、役柄の組み合わせに応じてスコア付けする方法を例示したが、例えば、次のように役柄重みRWを定義し、下記の式(1)に基づいて関係性値Relを算出してもよい。役柄重みRW(Mk,A)は、動画Mkにおける人物Aの役柄が主役の場合に2、脇役の場合に1、出演していない場合に0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。
Figure 2013025748
以上、共演作品数に基づく関係性の算出方法(重み付き)について説明した。
(1−2−5:出演時間に基づく関係性値の算出方法)
次に、図11を参照しながら、出演時間に基づく関係性値の算出方法について説明する。図11は、出演時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における各人物の出演時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図11に示すように、人物A、人物B、人物Cの共演関係が得られる。図11の例において、動画Mの出演者は、人物A、人物B、人物Cである。また、動画Mの出演者は、人物A、人物Cである。さらに、動画Mの出演者は、人物Bだけである。そして、動画Mの出演者は、人物Aだけである。また、動画Mの出演者は、人物A、人物Bである。さらに、動画Mの出演者は、人物A、人物Bである。つまり、人物Aと人物Bとが共演する作品は、動画M、動画M、動画Mである。また、人物Aと人物Cとが共演する作品は、動画M、動画Mである。さらに、人物Bと人物Cとが共演する作品は、動画Mだけである。
また、区間メタデータを利用すると、図11に示すように、動画Mにおける人物Aの出演時間は40、人物Bの出演時間は30、人物Cの出演時間は10であることが分かる。同様に、動画Mにおける人物Aの出演時間は30、人物Cの出演時間は40であることが分かる。また、動画Mにおける人物Bの出演時間は20であることが分かる。さらに、動画Mにおける人物Aの出演時間は10であることが分かる。そして、動画Mにおける人物Aの出演時間は5、人物Bの出演時間は10であることが分かる。また、動画Mにおける人物Aの出演時間は40、人物Bの出演時間は5であることが分かる。
出演時間が長い人物は、その動画の中で重要な役を担当していると言える。また、互いに重要な役で出演している人物間の関係性は強いと考えられる。逆に、互いに出演時間が短い人物間の関係性は低いと考えられる。例えば、ちょい役で登場する人物間の関係性は低く評価されるべきであろう。こうした考えから、出演時間PSLを定義し、下記の式(2)に基づいて関係性値Relを算出する方法を提案する。但し、出演時間PSL(M,A)は、動画Mにおける人物Aの出演時間を表し、人物Aが出演していない場合には0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。なお、右辺の平方根を関係性値としてもよい。
Figure 2013025748
図11の例において、人物Aと人物Bとの関係性を示す関係性値は、40×30(動画M)+30×0(動画M)+0×20(動画M)+10×0(動画M)+5×10(動画M)+40×5(動画M)=1450となる。同様に計算すると、人物Aと人物Cとの関係性を示す関係性値は1600、人物Bと人物Cとの関係性を示す関係性値は300となる。これらの数値をまとめると、図11に示すような関係性マトリックスが得られる。なお、ここではスコアをそのまま関係性値として記載しているが、所定の係数をかけたり、正規化したりするなど、加工した数値を関係性値として利用することが望ましい。例えば、対角成分が全て1になるように正規化することが望ましい。
以上、出演時間に基づく関係性マトリックスの計算方法について説明した。
(1−2−6:出演シーン時間に基づく関係性値の算出方法)
次に、図12を参照しながら、出演シーン時間に基づく関係性値の算出方法について説明する。図12は、出演シーン時間に基づく関係性値の算出方法について説明するための説明図である。ここでは、各動画における共演シーン時間を利用して関係性値を算出する方法について述べる。なお、対象とする動画群は、動画M〜Mであるとする。また、動画M〜Mに登場する人物は、人物A、人物B、人物Cであるとする。
区間メタデータを利用すると、図12に示すように、各動画について各人物の組に関する共演シーン時間が得られる。なお、図12の中では、人物Xと人物Yとの組に関する共演シーン時間を[X,Y]と表現している。例えば、動画Mにおける人物Aと人物Bとの組に関する共演シーン時間は[A,B]=20である。同様に、動画Mに関しては、[A,A]=40、[B,B]=30,[C,C]=10、[A,C]=5、[B,C]=5という結果が得られている。なお、[A,A]とは、人物Aと人物Aとが共演する区間の長さを示すものであるが、同じ人物が対象であるから、人物Aの出演時間に一致する。[B,B]、[C,C]についても同様である。
同じ映像シーンに登場する人物間の関係性は強いと考えられる。例えば、会話を交わす関係にある人物は、当然のことながら同じ映像シーンに登場する。また、敵対していたり、或いは、味方の関係にある人物は、動画の中で同じ映像シーンに登場する頻度が高い。ヒーロー役の人物とヒロイン役の人物も同じ映像シーンに登場する頻度が高い。こうした考えから、共演シーン時間CSLを定義し、下記の式(3)に基づいて関係性値Relを算出する方法を提案する。但し、共演シーン時間CSL(M,A,B)は、動画Mにおいて人物Aと人物Bとが共演している区間の長さを表し、いずれかの人物が出演していない場合には0をとる。また、Rel(A,B)は、人物Aと人物Bとの関係性を示す関係性値を表す。なお、右辺の平方根を関係性値としてもよい。
Figure 2013025748
図12の例において、人物Aと人物Bとの関係性を示す関係性値は、20(動画M)+0(動画M)+0(動画M)+0(動画M)+5(動画M)+5(動画M)=30となる。同様に計算すると、人物Aと人物Cとの関係性を示す関係性値は25、人物Bと人物Cとの関係性を示す関係性値は5となる。これらの数値をまとめると、図12に示すような関係性マトリックスが得られる。なお、ここでは共演シーン時間の合計値をそのまま関係性値として記載しているが、所定の係数をかけたり、正規化したりするなど、加工した数値を関係性値として利用することが望ましい。例えば、対角成分が全て1になるように正規化することが望ましい。
以上、共演シーン時間に基づく関係性マトリックスの計算方法について説明した。
以上説明したように、区間メタデータを利用して得られる情報から、様々な観点で人物間の関係性を評価することが可能である。なお、ここで説明した関係性値の算出方法は一例であり、例えば、顔領域の面積により重み付けした出演時間や共演シーン時間などを利用して関係性値を算出することも可能である。また、主役/脇役の区別、或いは、子供、大人、男性、女性、年齢などの区別を考慮して重み付けした出演時間や共演シーン時間などを利用して関係性値を算出することも可能である。
(その他の方法1:共演シーン時間+役柄重み)
一例として、共演シーン時間CSL及び役柄重みRWを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びRWの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(4)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す役柄重みと、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
Figure 2013025748
(その他の方法2:共演シーン時間+出演時間)
別の例として、共演シーン時間CSL及び出演時間PSLを組み合わせて関係性値Relを算出する方法を紹介する。なお、CSL及びPSLの定義は既に説明したものと同じである。この例において、関係性値Rel(A,B)は、下記の式(5)により算出される。なお、右辺の平方根は省略してもよい。この方法によると、各動画における各人物の重要度を示す出演時間と、各動画における人物間の関係性の強さを示す共演シーン時間とを共に考慮した関係性値が算出される。
Figure 2013025748
[1−3:関係性情報の拡張]
さて、これまで説明してきた関係性値は、関係性の強弱を所定の条件下で定量化した数値であった。確かに、この数値を利用することにより、登場物間の関係性を客観的に判断することが可能になる。但し、動画を要約する際に関係性の種類を考慮したいケースが生じることも想定されるため、ここで関係性値の定義を拡張しておきたい。
例えば、親友と家族とが同等の関係性値で表現される可能性が考えられるであろう。これらを区別する方法としては、例えば、図13に示すように、関係性値に属性を設定しておき、その属性を利用して関係性の種類を判別する方法が考えられる。また、人物Aが人物Bに感じる親密度と、人物Bが人物Aに感じる親密度とは異なる可能性が考えられる。そこで、図13に示すように、関係性マトリックスの非対称性を許容することとする。図13の例では、人物Aにとっての人物Cは敵であり、人物Cにとっての人物Aは友人である。このように関係性マトリックスの構成を拡張することで、より柔軟に要約の条件を設定することが可能になる。
以上、本実施形態に係る動画要約手法の概要及び関連技術について説明した。
<2:実施形態>
本技術の一実施形態について説明する。本実施形態は、動画要約手法に関する。
[2−1:情報処理装置100の構成]
まず、図14〜図16を参照しながら、本実施形態に係る情報処理装置100の構成例について説明する。図14は、情報処理装置100の標準的な構成について説明するための説明図である。図15は、変形例(変形例#1)に係る情報処理装置100の構成について説明するための説明図である。図16は、他の変形例(変形例#2)に係る情報処理装置100の構成について説明するための説明図である。
(2−1−1:標準構成)
図14に示すように、情報処理装置100は、主に、メタデータ取得部101と、関係性情報生成部102と、入力部103と、シーン抽出部104と、出力部105と、UI表示部106と、動画取得部107とにより構成される。
動画の要約処理を開始すると、メタデータ取得部101は、動画タイムラインメタデータを取得する。例えば、メタデータ取得部101は、情報処理装置100の筐体内に設けられた記憶装置(非図示)、ネットワークに接続された記憶装置(非図示)、或いは、動画タイムラインメタデータを提供するサービスなどから動画タイムラインメタデータを取得する。そして、メタデータ取得部101により取得された動画タイムラインメタデータは、関係性情報生成部102に入力される。
動画タイムラインメタデータが入力されると、関係性情報生成部102は、入力された動画タイムラインメタデータを利用して関係性情報(関係性値や属性などを含む情報)を生成する。そして、関係性情報生成部102により生成された関係性情報は、シーン抽出部104及びUI表示部106に入力される。なお、入力部103を介してユーザにより関係性情報の変更操作が行われた場合、関係性情報生成部102は、関係性情報に変更操作の内容を反映する。また、変更後の関係性情報は、シーン抽出部104及びUI表示部106に入力される。
関係性情報が入力されると、シーン抽出部104は、入力された関係性情報、及び入力部103を介してユーザにより選択された登場物の情報に基づいてシーンを抽出する。なお、シーン抽出部104による抽出処理の内容については後段において詳述する。
シーン抽出部104により抽出されたシーンの情報は、出力部105に入力される。抽出されたシーンの情報が入力されると、出力部105は、入力されたシーンの情報に基づいて要約結果を出力する。例えば、出力部105は、動画取得部107により取得された動画のうち、シーン抽出部104により抽出されたシーンを再生(ダイジェスト再生)したり、そのシーンを代表する画像を並べて表示(コミック表示)したりする。また、出力部105は、シーン抽出部104により抽出されたシーンに対応する区間の情報を外部の機器に向けて出力するように構成されていてもよい。なお、動画取得部107は、情報処理装置100の筐体内に設けられた記憶装置(非図示)、ネットワークに接続された記憶装置(非図示)、或いは、動画を提供するサービスなどから動画を取得する。
また、出力部105は、UI表示部106により生成されるユーザインターフェースの画像を表示する。このユーザインターフェースは、ユーザに対して関係性情報を提示するために利用されるものである。また、このユーザインターフェースは、ユーザが関係性情報を変更する際に利用されるものである。このユーザインターフェースを構成する部品の生成及び表示制御は、UI表示部106により実行される。なお、このユーザインターフェースの構成については後段において詳述する。
以上、情報処理装置100の標準的な構成について説明した。
(2−1−2:変形例#1(動画からメタデータを自動生成する構成))
次に、図15を参照しながら、変形例#1に係る情報処理装置100の構成について説明する。変形例#1の構成は、動画タイムラインメタデータを動画から自動抽出する点で図14に示した標準的な構成と相違する。
図15に示すように、情報処理装置100は、主に、動画解析部111と、関係性情報生成部102と、入力部103と、シーン抽出部104と、出力部105と、UI表示部106と、動画取得部107とにより構成される。
動画の要約処理を開始すると、動画解析部111は、動画取得部107により取得された動画を解析し、動画タイムラインメタデータを生成する。なお、動画取得部107は、情報処理装置100の筐体内に設けられた記憶装置(非図示)、ネットワークに接続された記憶装置(非図示)、或いは、動画を提供するサービスなどから動画を取得する。動画解析部111により生成された動画タイムラインメタデータは、関係性情報生成部102に入力される。
動画タイムラインメタデータが入力されると、関係性情報生成部102は、入力された動画タイムラインメタデータを利用して関係性情報を生成する。そして、関係性情報生成部102により生成された関係性情報は、シーン抽出部104及びUI表示部106に入力される。なお、入力部103を介してユーザにより関係性情報の変更操作が行われた場合、関係性情報生成部102は、関係性情報に変更操作の内容を反映する。また、変更後の関係性情報は、シーン抽出部104及びUI表示部106に入力される。
関係性情報が入力されると、シーン抽出部104は、入力された関係性情報、及び入力部103を介してユーザにより選択された登場物の情報に基づいてシーンを抽出する。なお、シーン抽出部104による抽出処理の内容については後段において詳述する。
シーン抽出部104により抽出されたシーンの情報は、出力部105に入力される。抽出されたシーンの情報が入力されると、出力部105は、入力されたシーンの情報に基づいて要約結果を出力する。例えば、出力部105は、動画取得部107により取得された動画のうち、シーン抽出部104により抽出されたシーンを再生(ダイジェスト再生)したり、そのシーンを代表する画像を並べて表示(コミック表示)したりする。また、出力部105は、シーン抽出部104により抽出されたシーンに対応する区間の情報を外部の機器に向けて出力するように構成されていてもよい。
また、出力部105は、UI表示部106により生成されるユーザインターフェースの画像を表示する。このユーザインターフェースは、ユーザに対して関係性情報を提示するために利用されるものである。また、このユーザインターフェースは、ユーザが関係性情報を変更する際に利用されるものである。このユーザインターフェースを構成する部品の生成及び表示制御は、UI表示部106により実行される。なお、このユーザインターフェースの構成については後段において詳述する。
以上、変形例#1に係る情報処理装置100の構成について説明した。
(2−1−3:変形例#2(所定の関係性情報を利用する構成))
次に、図16を参照しながら、変形例#2に係る情報処理装置100の構成について説明する。変形例#2の構成は、関係性情報を外部から取得する点で図14に示した標準的な構成と相違する。
図16に示すように、情報処理装置100は、主に、関係性情報取得部121と、入力部103と、シーン抽出部104と、出力部105と、UI表示部106と、動画取得部107とにより構成される。
動画の要約処理を開始すると、関係性情報取得部121は、関係性情報を取得する。なお、関係性情報取得部121は、情報処理装置100の筐体内に設けられた記憶装置(非図示)、ネットワークに接続された記憶装置(非図示)、或いは、関係性情報を提供するサービスなどから関係性情報を取得する。そして、関係性情報取得部121により取得された関係性情報は、シーン抽出部104及びUI表示部106に入力される。なお、入力部103を介してユーザにより関係性情報の変更操作が行われた場合、関係性情報取得部121は、関係性情報に変更操作の内容を反映する。また、変更後の関係性情報は、シーン抽出部104及びUI表示部106に入力される。
関係性情報が入力されると、シーン抽出部104は、入力された関係性情報、及び入力部103を介してユーザにより選択された登場物の情報に基づいてシーンを抽出する。なお、シーン抽出部104による抽出処理の内容については後段において詳述する。
シーン抽出部104により抽出されたシーンの情報は、出力部105に入力される。抽出されたシーンの情報が入力されると、出力部105は、入力されたシーンの情報に基づいて要約結果を出力する。例えば、出力部105は、動画取得部107により取得された動画のうち、シーン抽出部104により抽出されたシーンを再生(ダイジェスト再生)したり、そのシーンを代表する画像を並べて表示(コミック表示)したりする。また、出力部105は、シーン抽出部104により抽出されたシーンに対応する区間の情報を外部の機器に向けて出力するように構成されていてもよい。
また、出力部105は、UI表示部106により生成されるユーザインターフェースの画像を表示する。このユーザインターフェースは、ユーザに対して関係性情報を提示するために利用されるものである。また、このユーザインターフェースは、ユーザが関係性情報を変更する際に利用されるものである。このユーザインターフェースを構成する部品の生成及び表示制御は、UI表示部106により実行される。なお、このユーザインターフェースの構成については後段において詳述する。
以上、変形例#2に係る情報処理装置100の構成について説明した。
[2−2:情報処理装置100の動作]
次に、図17〜図27を参照しながら、本実施形態に係る情報処理装置100の動作について説明する。なお、以下では、説明の都合上、情報処理装置100の標準的な構成を想定して説明を進める。
(2−2−1:基本動作)
まず、図17を参照しながら、情報処理装置100の基本的な動作について説明する。
図17に示すように、動画の要約処理を開始すると、情報処理装置100は、メタデータ取得部101の機能により、動画タイムラインメタデータを取得する(S101)。次いで、情報処理装置100は、関係性情報生成部102の機能により、動画タイムラインメタデータを用いて関係性情報を生成する(S102)。次いで、情報処理装置100は、ユーザにより登場物が選択されたか否かを判定する(S103)。登場物が選択された場合、情報処理装置100は、処理をステップS104に進める。一方、登場物が選択されていない場合、情報処理装置100は、処理をステップS103に戻す。
処理をステップS104に進めた場合、情報処理装置100は、シーン抽出部104の機能により、関係性情報に基づく動画の要約処理を実行する(S104)。なお、ステップS104にて実行される要約処理の詳細については後述する。次いで、情報処理装置100は、出力部105の機能により、要約処理の結果を出力する(S105)。要約処理の結果を出力すると、情報処理装置100は、動画の要約処理に関する一連の処理を終了する。
以上、情報処理装置100の基本的な動作について説明した。
(2−2−2:要約処理#1(関係性値の総和を最大化する方法))
次に、図18及び図19を参照しながら、ステップS104にて実行される要約処理の一例について、より詳細に説明する。ここでは、関係性値の総和を最大化するようにシーンを選択する方法(以下、要約処理#1)について説明する。図18は、要約処理#1の概要について説明するための説明図である。また、図19は、要約処理#1に係る情報処理装置100の動作について説明するための説明図である。
まず、図18を参照する。ユーザにより登場物Aが選択された場合、図18に示すように、情報処理装置100は、動画に登場する各登場物と登場物Aとの間の関係性値Rを算出する。そして、情報処理装置100は、関係性値Rが大きい順に所定数の登場物を選択する。図18の例では、関係性値Rが大きい順に、登場物C、登場物D、登場物B、登場物Gが選択されている。このようにして登場物を選択することにより、選択した登場物と登場物Aとの間における関係性値Rの総和が最大化される。登場物を選択すると、情報処理装置100は、選択した各登場物が登場する動画中の区間を抽出する。そして、情報処理装置100は、抽出した区間の動画を時系列に沿って再生したり、各区間を代表する画像を並べて表示したりする。
次に、図19を参照する。図18の例では単純に関係性値Rが大きい順に所定数の登場物を選択したが、関係性値Rの総和が最大化されるように所定数の区間を抽出したいケースも考えられる。また、各区間に登場する全ての登場物に関する関係性値Rを考慮したいケースも考えられる。このようなケースに適応するには、例えば、図19に示すような処理の流れに沿って動画の要約処理を実行すればよい。
図19に示すように、まず、情報処理装置100は、ユーザにより選択された登場物が登場する区間(第1の区間)を検出する(S111)。次いで、情報処理装置100は、n=2〜Nに関する処理ループを開始する。まず、情報処理装置100は、第n−1の区間以降の区間に登場する登場物を選択する(S112)。例えば、情報処理装置100は、ユーザにより選択された登場物との間における関係性値Rが所定の閾値を越える登場物を選択する。但し、ステップS112で登場物が選択できない場合、情報処理装置100は、処理をステップS114に進める。登場物を選択した情報処理装置100は、選択した登場物が登場する区間を検出し、検出した区間を第nの区間に設定する(S113)。n=2〜NについてステップS112及びS113の処理を実行した後、情報処理装置100は、処理をステップS114に進める。
処理をステップS114に進めた情報処理装置100は、ユーザにより選択された登場物と第2〜第nの区間に登場する各登場物との間における関係性値Rを算出し、算出した関係性値Rの総和を計算する(S114)。次いで、情報処理装置100は、ステップS114にて算出した関係性値Rの総和が最大か否かを判定する(S115)。関係性値Rの総和が最大になった場合、情報処理装置100は、処理をステップS116に進める。一方、関係性値Rの総和が最大になっていない場合、情報処理装置100は、処理をステップS111の後段に戻す。処理をステップS116に進めた場合、情報処理装置100は、抽出したシーンの情報として第1〜第Nの区間を出力し(S116)、要約処理#1に係る一連の処理を終了する。
以上、ステップS104にて実行される要約処理の一例について説明した。
(2−2−3:要約処理#2(シーン切り替え時の関係性値和を最大化1))
次に、図20及び図21を参照しながら、ステップS104にて実行される要約処理の他の一例について、より詳細に説明する。ここでは、シーン切り替え時の関係性値和が最大化されるように登場物を選択する方法(以下、要約処理#2)について説明する。図20は、要約処理#2の概要について説明するための説明図である。また、図21は、要約処理#2に係る情報処理装置100の動作について説明するための説明図である。
まず、図20を参照する。図20に示すように、例えば、登場物Aが登場する区間S、登場物Fが登場する区間S、登場物Dが登場する区間S、登場物Bが登場する区間S、登場物Gが登場する区間Sを順次選択した場合について考えてみよう。この場合、シーンの切り替え前後に登場する登場物の組は、(A,F)、(F,D)、(D,B)、(B,G)となる。そこで、情報処理装置100は、登場物Aと登場物Fとの間における関係性値R、登場物Fと登場物Fとの間における関係性値R、登場物Dと登場物Bとの間における関係性値R、登場物Bと登場物Gとの間における関係性値Rを算出し、それらの総和(図20の例では3.15)を計算する。
図20には区間S、区間S、区間S、区間S、区間Sを順次選択するケースを示したが、同様にして、情報処理装置100は、選択する区間の組み合わせを変更しながら関係性値Rの総和を算出する。そして、情報処理装置100は、関係性値Rの総和が最大となる区間の組み合わせを検出する。区間の組み合わせを検出した情報処理装置100は、検出した区間の動画を時系列に沿って再生したり、各区間を代表する画像を並べて表示したりする。要約処理#2の手法を適用すると、ユーザにより選択された登場物と間接的に強い関係性を有する登場物の登場シーンをダイジェスト再生やコミック表示に含めることが可能になる。例えば、仲が良い友人の繋がりを考慮したダイジェスト再生などを実現することが可能になる。
ここで、図21を参照しながら、要約処理#2に係る情報処理装置100の動作について、より詳細に説明する。図21に示すように、まず、情報処理装置100は、ユーザにより選択された登場物が登場する区間(第1の区間)を検出する(S121)。次いで、情報処理装置100は、n=2〜Nに関する処理ループを開始する。まず、情報処理装置100は、第n−1の区間以降の区間に登場する登場物を選択する(S122)。例えば、情報処理装置100は、ユーザにより選択された登場物との間における関係性値Rが所定の閾値を越える登場物を選択する。但し、ステップS122で登場物が選択できない場合、情報処理装置100は、処理をステップS124に進める。
登場物を選択した情報処理装置100は、選択した登場物が登場する区間を検出し、検出した区間を第nの区間に設定する(S123)。n=2〜NについてステップS122及びS123の処理を実行した後、情報処理装置100は、処理をステップS124に進める。処理をステップS124に進めた情報処理装置100は、n=2〜Nについて第n−1の区間に登場する登場物と第nの区間に登場する登場物との間における関係性値Rを算出し、算出した関係性値Rの総和を計算する(S124)。
次いで、情報処理装置100は、ステップS124にて算出した関係性値Rの総和が最大か否かを判定する(S125)。関係性値Rの総和が最大になった場合、情報処理装置100は、処理をステップS126に進める。一方、関係性値Rの総和が最大になっていない場合、情報処理装置100は、処理をステップS121の後段に戻す。処理をステップS126に進めた場合、情報処理装置100は、抽出したシーンの情報として第1〜第Nの区間を出力し(S126)、要約処理#2に係る一連の処理を終了する。
以上、ステップS104にて実行される要約処理の他の一例について説明した。
(2−2−4:要約処理#3(シーン切り替え時の関係性値和を最大化2))
次に、図22及び図23を参照しながら、ステップS104にて実行される要約処理の他の一例について、より詳細に説明する。ここでは、シーン切り替え時の関係性値和が最大化されるように登場物を選択する方法(以下、要約処理#3)について説明する。図22は、要約処理#3の概要について説明するための説明図である。また、図23は、要約処理#3に係る情報処理装置100の動作について説明するための説明図である。
上記の要約処理#2の場合、情報処理装置100は、登場物及びその登場物の登場シーンを逐次選択していき、シーンの切り替わりタイミングにおける登場物間の関係性値を求める。このとき、情報処理装置100は、選択された登場物間の関係性値を求めている。そのため、上記の要約処理#2においては、各シーンに登場する他の登場物に関する関係性値が考慮されていない。一方、ここで説明する要約処理#3は、各シーンに登場する全ての登場物について関係性を考慮する。
例えば、図22に示すように、ユーザにより登場物Aが選択された場合、情報処理装置100は、登場物Aが登場する区間Sを抽出する。次いで、情報処理装置100は、区間Sに登場する全ての登場物を検出する。図22の例では、区間Sに登場物Aと登場物Gとが登場している。次いで、情報処理装置100は、抽出した区間S以降の区間Sを選択する。そして、情報処理装置100は、区間Sに登場する全ての登場物を検出する。図22の例では、区間Sに登場物Fが登場している。そこで、情報処理装置100は、登場物Aと登場物Fとの間における関係性値R、及び、登場物Gと登場物Fとの間における関係性値Rを算出し、それら関係性値Rの総和を計算する。
情報処理装置100は、区間Sの位置を移動させながら同様の方法で関係性値Rの総和を計算し、関係性値Rの総和が最大となる区間Sを探索する。ここでは、登場物Fが登場する区間Sが、関係性値Rの総和が最大となる区間Sとして確定されたものとする。区間Sの位置を確定させると、情報処理装置100は、区間S以降の区間Sを選択する。そして、情報処理装置100は、区間Sに登場する全ての登場物を検出する。図22の例では、区間Sに登場物Dと登場物Cとが登場している。そこで、情報処理装置100は、登場物Fと登場物Dとの間における関係性値R、及び、登場物Fと登場物Cとの間における関係性値Rを算出し、それら関係性値Rの総和を計算する。
区間Sを確定された場合と同様に、情報処理装置100は、関係性値Rの総和が最大となる区間Sを探索する。区間Sを確定させると、情報処理装置100は、順次、区間S及び区間Sについても同様の方法で位置を確定させる。区間の組み合わせを確定させた情報処理装置100は、確定した区間の動画を時系列に沿って再生したり、各区間を代表する画像を並べて表示したりする。要約処理#3の手法を適用すると、共演者との関係性も考慮に入れて、ユーザにより選択された登場物と間接的に強い関係性を有する登場物の登場シーンをダイジェスト再生やコミック表示に含めることが可能になる。
ここで、図23を参照しながら、要約処理#3に係る情報処理装置100の動作について、より詳細に説明する。図23に示すように、まず、情報処理装置100は、ユーザにより選択された登場物が登場する区間(第1の区間)を検出する(S131)。次いで、情報処理装置100は、n=2〜Nに関する処理ループを開始する。まず、情報処理装置100は、第n−1の区間以降の区間を選択し、選択した区間に登場する全ての登場物と、第n−1の区間に登場する全ての登場物との間における関係性値の総和を算出する(S132)。次いで、情報処理装置100は、関係性値の総和が最大になる区間を検出し、検出した区間を第nの区間に設定する(S133)。
n=2〜NについてステップS132及びS133の処理を実行した後、情報処理装置100は、処理をステップS134に進める。処理をステップS134に進めた情報処理装置100は、抽出したシーンの情報として第1〜第Nの区間を出力し(S134)、要約処理#3に係る一連の処理を終了する。
以上、ステップS104にて実行される要約処理の他の一例について説明した。
(2−2−5:要約処理#4(シーン切り替え時の関係性値差を最小化))
次に、図24及び図25を参照しながら、ステップS104にて実行される要約処理の他の一例について、より詳細に説明する。ここでは、シーン切り替え時における関係性値和の差が最小化されるように登場物を選択する方法(以下、要約処理#4)について説明する。図24は、要約処理#4の概要について説明するための説明図である。また、図25は、要約処理#4に係る情報処理装置100の動作について説明するための説明図である。
まず、図24を参照する。ユーザにより登場物Aが選択された場合、情報処理装置100は、登場物Aが登場する区間Sを選択する。そして、情報処理装置100は、選択した区間Sに登場する全ての登場物を検出し、検出した各登場物と登場物Aとの間における関係性値を算出する。図24の例では、登場物Aと登場物Aとの間における関係性値、及び登場物Aと登場物Gとの間における関係性値が算出される。関係性値を算出した情報処理装置100は、算出した関係性値の総和を計算する。次いで、情報処理装置100は、区間S以降の区間Sを選択し、区間Sに登場する全ての登場物に関して、各登場物と登場物Aとの間における関係性値を算出する。そして、情報処理装置100は、区間Sに登場する登場物に関する関係性値の総和を計算する。
さらに、情報処理装置100は、区間Sに関して算出された関係性値の総和と区間Sに関して算出された関係性値の総和との差を算出する。この差が最小でない場合、情報処理装置100は、区間Sの位置を変更して区間Sに関する関係性値の総和を算出し、区間Sに関して算出された関係性値の総和と区間Sに関して算出された関係性値の総和との差を算出する。差が最小になった場合、情報処理装置100は、区間Sの位置を確定させ、同様の方法で区間Sに次ぐ区間Sの位置を探索する。その後も、情報処理装置100は、同様の処理を逐次実行して区間S及び区間Sの位置を確定させる。このようにして区間の組み合わせを確定させた情報処理装置100は、確定した区間の動画を時系列に沿って再生したり、各区間を代表する画像を並べて表示したりする。
要約処理#4の手法を適用すると、ユーザにより選択された登場物と強い関係性を有する登場物の登場シーンを用いてダイジェスト再生やコミック表示を実現することができる。また、シーンの切り替え前後で関係性値の差が小さくなることから、自然なシーンの切り替わりが実現される。
ここで、図25を参照しながら、要約処理#4に係る情報処理装置100の動作について、より詳細に説明する。図25に示すように、まず、情報処理装置100は、ユーザにより選択された登場物が登場する区間(第1の区間)を検出する(S141)。次いで、情報処理装置100は、n=2〜Nに関する処理ループを開始する。まず、情報処理装置100は、第n−1の区間以降の区間を選択し、選択した区間に登場する全ての登場物と、ユーザにより選択された登場物との間における関係性値の総和を算出する(S142)。次いで、情報処理装置100は、選択した区間のうち、関係性値の総和が第n−1の区間に関する関係性値の総和に最も近い区間を検出し、検出した区間を第nの区間に設定する(S143)。
n=2〜NについてステップS142及びS143の処理を実行した後、情報処理装置100は、処理をステップS144に進める。処理をステップS144に進めた情報処理装置100は、抽出したシーンの情報として第1〜第Nの区間を出力し(S144)、要約処理#4に係る一連の処理を終了する。
以上、ステップS104にて実行される要約処理の他の一例について説明した。
(2−2−6:要約処理#5(その他の構成))
これまで説明してきた要約処理は、ユーザにより選択された登場物との間で直接的又は間接的に強い関係性を有する登場物の登場シーンを抽出するものであった。しかし、関係性値の総和が最小になるように区間を選択するなどの条件変更を行うことも可能である。また、要約処理#2及び#3のようにシーン切り替え時の関係性に基づいて区間を逐次選択する手法の場合、ユーザにより選択された登場物との関係性が次第に薄れていってしまう可能性がある。そこで、ランダムなタイミングでユーザにより選択された登場物との直接的な関係性が強い登場物が登場する区間を挿入するなどの工夫を追加してもよい。また、上記の説明では比較的単純なアルゴリズムを例示したが、最適な区間の組み合わせを検出する方法として、例えば、局所探索、焼きなまし法、遺伝的アルゴリズムなどを利用する方法も考えられる。このように、上記の要約処理は必要に応じて変形可能である。
以上、本実施形態に係る情報処理装置100の動作について説明した。なお、図26及び図27に示すように、いずれの方法を用いても、ダイジェスト動画における関係性値の時系列変化は、ユーザにより選択される登場物に応じて変わる。また、ダイジェスト動画の構成も、ユーザにより選択される登場物に応じて変化する。もちろん、要約結果をコミック表示にした場合も、ユーザにより選択される登場物に応じて表示内容が変化する。
[2−3:関係性値の編集方法]
次に、図28〜図30を参照しながら、本実施形態に係る関係性値の編集方法について説明する。図28は、関係性値の編集操作に用いるユーザインターフェースの構成例を示した説明図である。図29は、関係性値の編集方法について説明するための説明図である。図30は、関係性値の編集に伴う情報処理装置100の動作について説明するための説明図である。
(2−3−1:操作UIの構成)
まず、図28及び図29を参照しながら、関係性値の編集操作に用いるユーザインターフェースの構成例について説明する。
図28に示すように、情報処理装置100は、UI表示部106の機能により、編集領域、及び各登場物を表すオブジェクトを表示画面に表示する。この編集領域は、コミック表示やダイジェスト再生用のウィンドウと同じ表示画面上に表示されてもよいし、或いは、単独で表示画面上に表示されてもよい。編集領域の内部には、動画に登場する登場物のオブジェクトが表示される。また、編集領域の内部には、図28に示すような同心円状のガイドが表示されていてもよい。図28の例では、動画に登場する登場人物A〜Dのオブジェクト及び同心円状のガイドが表示されている。
図28の例において、ユーザにより選択された登場物は、登場人物Aである。そのため、登場人物Aのオブジェクトは、編集領域の中央に表示される。また、登場人物B〜Dのオブジェクトは、各登場物間の関係性値に基づいて配置される。例えば、登場人物Aのオブジェクトと登場人物Bのオブジェクトとの間の距離は、登場人物Aのオブジェクトと登場人物Cのオブジェクトとの間の距離よりも短い。この配置は、登場人物Aと登場人物Bとの間における関係性値の方が、登場人物Aと登場人物Cとの間における関係性値よりも大きいことを示している。また、登場人物B〜Dのオブジェクトが表示される位置は、登場人物Bと登場人物Cとの間における関係性値、登場人物Cと登場人物Dとの間における関係性値、登場人物Bと登場人物Dとの間における関係性値も考慮して決定される。
上記のように、動画に登場する各登場物のオブジェクトを関係性値に基づいて配置することにより、一見して登場物間の関係性を把握することが可能になる。また、同心円状のガイドを併せて表示することにより、ユーザにより選択された登場物と他の登場物との関係性を正確に把握することが可能になる。なお、ユーザにより選択された登場物との間における関係性値が所定の閾値を下回る登場物のオブジェクトを編集領域に表示しないようにしてもよい。このような表示方法を適用すると、見やすい表示となり、編集対象として注目すべき登場物を素早く見つけることが可能になる。
ここで関係性値の編集操作について説明する。関係性値を編集する場合、ユーザは、図29に示すように、編集対象の登場物を表すオブジェクトの位置を変えることで、その登場物と他の登場物との間の関係性値を変更することができる。例えば、図29に示すように、登場人物Bのオブジェクトを左下方向へ、登場人物Cのオブジェクトを中心方向へと移動させると、登場人物Aと登場人物Bとの間における関係性値が減少し、登場人物Aと登場人物Cとの間における関係性値が増加する。また、図29の例では、登場人物Bと登場人物Dとの間における関係性値が減少し、登場人物Cと登場人物Dとの間における関係性値が増大する。
(2−3−2:関係性値の編集処理に伴う情報処理装置100の動作)
図29に示すような編集操作を行った場合、情報処理装置100は、図30に示すように、オブジェクトの位置関係に基づいて関係性マトリックスを更新する。例えば、図29に例示した編集操作を行った場合、情報処理装置100は、登場人物Aと登場人物Bとの間における関係性値を距離に応じた値に減少させ(0.8→0.1)、登場人物Aと登場人物Cとの間における関係性値を距離に応じた値に増加させる(0.2→0.7)。さらに、情報処理装置100は、登場人物Bと登場人物Cとの間における関係性値を距離に応じた値に増加させる(0.1→0.3)。そして、情報処理装置100は、更新後の関係性マトリクスに基づいてダイジェスト動画の構成やコミック表示の構成を変化させる。
以上、関係性値の編集操作に用いるユーザインターフェースの構成例、及び関係性値の編集に伴う情報処理装置100の動作について説明した。
[2−4:変形例(テンプレートを利用した動画要約手法)]
これまで、関係性値を利用した動画要約手法について説明してきた。ここでは、登場物間の関係性に関する属性情報が得られる場合、或いは、動画の各区間におけるカメラワークやエフェクトなどの情報が得られる場合に、これらの情報を用いてストーリー性のある要約結果が得られるようにする手法について説明する。この手法においては、図31に示すようなテンプレートが利用される。
(2−4−1:テンプレートの構成)
まず、図31を参照しながら、テンプレートの構成について説明する。図31に示すように、テンプレートには、関係性の種類を示す属性情報が含まれる。また、テンプレートには、シーンの個数などの情報が含まれていてもよい。例えば、友人(2シーン)→他人(1シーン)→本人(5シーン)→敵(1シーン)→恋人(3シーン)などといった情報がテンプレートに含まれていてもよい。また、カメラワークやエフェクトなどの情報がメタデータとして得られている場合には、このメタデータも動画の要約処理に利用される。
例えば、図31の例において、登場人物Aが選択された場合、情報処理装置100は、登場人物Aと友人関係にある登場人物が登場するシーンのうち、メタデータがパンを示すシーンを選択する。次いで、情報処理装置100は、登場人物Aと他人関係にある登場人物が登場するシーンのうち、メタデータがチルトを示すシーンを選択する。次いで、情報処理装置100は、登場人物Aが登場するシーンのうち、メタデータがズームを示すシーンを選択する。次いで、情報処理装置100は、登場人物Aと敵対関係にある登場人物が登場するシーンのうち、メタデータがズームアウトを示すシーンを選択する。次いで、情報処理装置100は、登場人物Aと恋人関係にある登場人物が登場するシーンのうち、メタデータがフェードアウトを示すシーンを選択する。
一方、図31の例において、登場人物Bが選択された場合、情報処理装置100は、登場人物Bと友人関係にある登場人物が登場するシーンのうち、メタデータがパンを示すシーンを選択する。次いで、情報処理装置100は、登場人物Bと他人関係にある登場人物が登場するシーンのうち、メタデータがチルトを示すシーンを選択する。次いで、情報処理装置100は、登場人物Bが登場するシーンのうち、メタデータがズームを示すシーンを選択する。次いで、情報処理装置100は、登場人物Bと敵対関係にある登場人物が登場するシーンのうち、メタデータがズームアウトを示すシーンを選択する。次いで、情報処理装置100は、登場人物Bと恋人関係にある登場人物が登場するシーンのうち、メタデータがフェードアウトを示すシーンを選択する。
このように、テンプレートを利用することにより、ストーリー性のあるダイジェスト動画を生成することが可能になる。また、関係性値を利用した動画要約手法と同様に、選択する登場物に応じてダイジェスト動画の構成が動的に変更される。
(2−4−2:要約処理の流れ)
ここで、図32を参照しながら、テンプレートを利用した動画要約手法に係る情報処理装置100の動作について説明する。図32は、テンプレートを利用した動画要約手法に係る情報処理装置100の動作について説明するための説明図である。
図32に示すように、まず、情報処理装置100は、テンプレートを取得する(S151)。例えば、情報処理装置100は、筐体内に設けられた記憶装置(非図示)、ネットワークに接続された記憶装置(非図示)、或いは、テンプレートを提供するサービスなどからテンプレートを取得する。次いで、情報処理装置100は、n=1〜Nについて、テンプレートのn番目に記載の属性に適合する区間を検出し、第nの区間に設定する(S152)。n=1〜NについてステップS152の処理を実行した情報処理装置100は、処理をステップS153に進める。処理をステップS153に進めた情報処理装置100は、抽出したシーンの情報として第1〜第Nの区間を出力し(S153)、要約処理に係る一連の処理を終了する。
以上、テンプレートを利用した動画要約手法に係る情報処理装置100の動作について説明した。
(2−4−3:テンプレートの自動生成方法)
上記の説明においてはテンプレートを外部から取得するものとしたが、機械学習などを利用してテンプレートを自動生成する方法も考えられる。そこで、図33を参照しながら、テンプレートの自動生成方法について簡単に説明する。
図33に示すように、まず、情報処理装置100は、予め用意した複数の作品(動画や静止画群など)を解析し、各作品に含まれる典型的な関係性の時系列変化を抽出する(S161)。次いで、情報処理装置100は、ステップS161で抽出した関係性の時系列変化を学習データとして利用し、機械学習により特徴的な関係性の時系列変化を抽出してテンプレートを生成する(S162)。次いで、情報処理装置100は、ステップS162で生成したテンプレートを出力し(S163)、テンプレートの自動生成に係る一連の処理を終了する。例えば、情報処理装置100は、筐体内に設けられた記憶装置(非図示)又はネットワークに接続された記憶装置(非図示)にテンプレートを格納したり、テンプレートを提供するサービスなどにテンプレートを提供したりする。
以上、テンプレートの自動生成方法について説明した。
<3:ハードウェア構成例>
上記の情報処理装置100が有する各構成要素の機能は、例えば、図34に示すハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図34に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図34に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<4:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、ゲーム機、情報端末、情報家電、カーナビゲーションシステムなど、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は、以下のように表現することができる。例えば、下記(1)に記載の情報処理装置は、関係性情報と区間メタデータとに基づき、ユーザが選択した登場物と関係性のある登場物が登場する区間を動画中から検出し、その区間に対応する画像を出力する機能を有している。つまり、この情報処理装置は、ユーザが選択した登場物に関係する登場物が登場するシーンを繋ぎ合わせてダイジェスト映像を出力したり、抽出したシーンに対応する画像を並べてダイジェストシーンの俯瞰表示を実現したりすることができる。もちろん、ユーザが選択する登場物が変われば、これらのダイジェスト映像や俯瞰表示の構成も、その登場物に適した構成に自動変更される。
上記のように、本実施形態に係る動画要約手法を用いると、人物や物品などの登場物を選択するだけで、その登場物に関するダイジェスト映像や俯瞰表示の内容を自動的に生成することが可能になる。例えば、運動会の模様を撮影した動画を用意し、自分の子供を選択すると、自分の子供に関するダイジェスト映像が自動的に生成される。このダイジェスト映像には、自分の子供はもちろんのこと、友人や先生など、自分の子供に関係する人物が登場するため、そのダイジェスト映像から人間関係を中心とした学校生活の雰囲気を把握することも可能になる。また、結婚式などのイベントで撮影した動画を用意し、新郎・新婦を選択すると、新郎・新婦を中心とし、友人や親しい親類などが登場する編集されたダイジェスト映像が自動生成される。
このように、本実施形態に係る動画要約手法を実現可能な構成を有する下記の情報処理装置を用いれば、専門家の手を借りずとも、人間関係を考慮した優れたダイジェスト映像を容易に生成することが可能になる。もちろん、ダイジェスト映像に代えて、各シーンに対応する画像を並べて表示する俯瞰表示なども実現することができる。また、本実施形態に係る動画要約手法は、人物の関係性だけでなく、人物と物品との関係性、或いは、物品と物品との関係性についても同様に扱うことができる。例えば、映画を収録した動画を用意し、登場するサングラスを選択すると、そのサングラスと関係性のある俳優の登場シーンをまとめたダイジェスト映像を生成することなども可能になる。このようなダイジェスト映像は、例えば、サングラスのコマーシャル映像として利用することもできよう。このように、本実施形態に係る動画要約手法は、応用範囲が広く様々な場面で利用できる。
(1)
動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出部と、
前記区間検出部により検出された区間に対応する画像を出力する画像出力部と、
を備える、
情報処理装置。
(2)
前記関係性情報は、前記関係性の強さを示す関係性値を含み、
前記区間検出部は、前記ユーザにより選択された登場物との間における関係性値の総和が最大となるように所定数の登場物を選択し、選択した登場物が登場する所定数の区間を検出する、
上記(1)に記載の情報処理装置。
(3)
前記関係性情報は、前記関係性の強さを示す関係性値を含み、
前記区間検出部は、
前記ユーザにより選択された第1の登場物が登場する第1の区間を検出する処理と、
n=2〜N(N≧2)に関し、第n−1の区間の次に再生される第nの区間に登場する第nの登場物を選択する処理と、
前記第n−1の登場物と前記第nの登場物との間における関係性値をn=2〜Nに関して積算し、前記関係性値の積算値を算出する処理と、
前記関係性値の積算値が最大となる第2〜第Nの登場物を選択する処理と、
選択した前記第nの登場物(n=2〜N)が登場する第nの区間を検出する処理と、
を実行し、前記第1〜第Nの区間を検出結果として出力する、
上記(1)に記載の情報処理装置。
(4)
前記関係性情報は、前記関係性の強さを示す関係性値を含み、
前記区間検出部は、
前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
n=2〜N(N≧2)に関し、第n−1の区間以降の各区間について、各区間内に登場する全ての登場物と、前記第n−1の区間に登場する全ての登場物との間における関係性値の総和が最大になる区間を検出して第nの区間に設定する処理と、
を実行し、前記第1〜第Nの区間を検出結果として出力する、
上記(1)に記載の情報処理装置。
(5)
前記関係性情報は、前記関係性の強さを示す関係性値を含み、
前記区間検出部は、
前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
n=2〜N(N≧2)に関し、第n−1の区間以降の各区間について、各区間内に登場する全ての登場物と、前記ユーザにより選択された登場物との間における関係性値の総和を算出し、算出した関係性値の総和が前記第n−1の区間に関する関係性値の総和に最も近くなる区間を検出して第nの区間に設定する処理と、
を実行し、前記第1〜第Nの区間を検出結果として出力する、
上記(1)に記載の情報処理装置。
(6)
前記関係性情報は、前記関係性の強さを示す関係性値を含み、
前記区間検出部は、前記ユーザにより選択された登場物との間における関係性値の総和が最小となるように所定数の登場物を選択し、選択した登場物が登場する所定数の区間を検出する、
上記(1)に記載の情報処理装置。
(7)
前記区間検出部は、前記関係性情報に含まれる少なくとも1つの関係性値が変更された場合に、変更後の前記関係性情報に基づいて前記区間を再検出し、
前記画像出力部は、前記区間検出部による再検出の結果に応じて出力内容を更新する、
上記(2)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記ユーザにより選択された登場物に対応する第1のオブジェクトを操作領域の中心に表示し、当該登場物との間における関係性値の大きさに応じた距離だけ前記第1のオブジェクトから離れた位置に、一又は複数の他の登場物にそれぞれ対応する一又は複数の第2のオブジェクトを表示するオブジェクト表示部と、
前記操作領域において前記第2のオブジェクトの位置が変更された場合に、変更後の当該第2のオブジェクトの位置に応じた関係性値を算出し、算出した関係性値により前記関係性情報を更新する関係性情報更新部と、
をさらに備える、
上記(7)に記載の情報処理装置。
(9)
同じ作品に登場する頻度が高いほど、或いは、共に登場する区間の長さが長いほど、前記関係性値が大きくなるように、前記区間メタデータを利用して各登場物の組に関する関係性値を算出して前記関係性情報を生成する関係性情報生成部をさらに備える、
上記(2)〜(8)に記載の情報処理装置。
(10)
前記関係性情報は、前記関係性の種類を示した第1〜第N−1の種類情報を含み、
前記区間検出部は、
前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
n=1〜N−1に関し、前記ユーザにより選択された登場物との間において第nの種類情報が示す種類の関係性を有する第nの登場物を検出し、第nの区間以降の区間の中から当該第nの登場物が登場する区間を検出して第n+1の区間に設定する処理と、
を実行し、前記第1〜第Nの区間を検出結果として出力する、
上記(1)に記載の情報処理装置。
(11)
予め用意された複数の動画における特徴的な関係性の時系列変化を検出し、検出した特徴的な関係性の時系列変化に適合するように前記第1〜第N−1の種類情報を設定する種類情報設定部をさらに備える、
上記(10)に記載の情報処理装置。
(12)
前記第1〜第N−1の種類情報には、それぞれカメラワーク又はエフェクトの種類を示す補助情報が対応付けられており、
前記区間検出部は、
前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
n=1〜N−1に関し、前記ユーザにより選択された登場物との間において第nの種類情報が示す種類の関係性を有する第nの登場物を検出し、第nの区間以降の区間の中から当該第nの登場物が登場する区間であり、かつ、前記補助情報に適合する区間を検出して第n+1の区間に設定する処理と、
を実行し、前記第1〜第Nの区間を検出結果として出力する、
上記(10)又は(11)に記載の情報処理装置。
(13)
動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出するステップと、
検出された区間に対応する画像を出力するステップと、
を含む、
動画要約方法。
(14)
動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出機能と、
前記区間検出機能により検出された区間に対応する画像を出力する画像出力機能と、
をコンピュータに実現させるためのプログラム。
(備考)
上記のシーン抽出部104は、区間検出部の一例である。上記の出力部105は、画像出力部の一例である。上記のUI表示部106は、オブジェクト表示部の一例である。上記の関係性情報生成部102は、関係性情報更新部の一例である。上記の動画解析部111は、種類情報設定部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
100 情報処理装置
101 メタデータ取得部
102 関係性情報生成部
103 入力部
104 シーン抽出部
105 出力部
106 UI表示部
107 動画取得部
111 動画解析部
121 関係性情報取得部

Claims (14)

  1. 動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出部と、
    前記区間検出部により検出された区間に対応する画像を出力する画像出力部と、
    を備える、
    情報処理装置。
  2. 前記関係性情報は、前記関係性の強さを示す関係性値を含み、
    前記区間検出部は、前記ユーザにより選択された登場物との間における関係性値の総和が最大となるように所定数の登場物を選択し、選択した登場物が登場する所定数の区間を検出する、
    請求項1に記載の情報処理装置。
  3. 前記関係性情報は、前記関係性の強さを示す関係性値を含み、
    前記区間検出部は、
    前記ユーザにより選択された第1の登場物が登場する第1の区間を検出する処理と、
    n=2〜N(N≧2)に関し、第n−1の区間の次に再生される第nの区間に登場する第nの登場物を選択する処理と、
    前記第n−1の登場物と前記第nの登場物との間における関係性値をn=2〜Nに関して積算し、前記関係性値の積算値を算出する処理と、
    前記関係性値の積算値が最大となる第2〜第Nの登場物を選択する処理と、
    選択した前記第nの登場物(n=2〜N)が登場する第nの区間を検出する処理と、
    を実行し、前記第1〜第Nの区間を検出結果として出力する、
    請求項1に記載の情報処理装置。
  4. 前記関係性情報は、前記関係性の強さを示す関係性値を含み、
    前記区間検出部は、
    前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
    n=2〜N(N≧2)に関し、第n−1の区間以降の各区間について、各区間内に登場する全ての登場物と、前記第n−1の区間に登場する全ての登場物との間における関係性値の総和が最大になる区間を検出して第nの区間に設定する処理と、
    を実行し、前記第1〜第Nの区間を検出結果として出力する、
    請求項1に記載の情報処理装置。
  5. 前記関係性情報は、前記関係性の強さを示す関係性値を含み、
    前記区間検出部は、
    前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
    n=2〜N(N≧2)に関し、第n−1の区間以降の各区間について、各区間内に登場する全ての登場物と、前記ユーザにより選択された登場物との間における関係性値の総和を算出し、算出した関係性値の総和が前記第n−1の区間に関する関係性値の総和に最も近くなる区間を検出して第nの区間に設定する処理と、
    を実行し、前記第1〜第Nの区間を検出結果として出力する、
    請求項1に記載の情報処理装置。
  6. 前記関係性情報は、前記関係性の強さを示す関係性値を含み、
    前記区間検出部は、前記ユーザにより選択された登場物との間における関係性値の総和が最小となるように所定数の登場物を選択し、選択した登場物が登場する所定数の区間を検出する、
    請求項1に記載の情報処理装置。
  7. 前記区間検出部は、前記関係性情報に含まれる少なくとも1つの関係性値が変更された場合に、変更後の前記関係性情報に基づいて前記区間を再検出し、
    前記画像出力部は、前記区間検出部による再検出の結果に応じて出力内容を更新する、
    請求項2に記載の情報処理装置。
  8. 前記ユーザにより選択された登場物に対応する第1のオブジェクトを操作領域の中心に表示し、当該登場物との間における関係性値の大きさに応じた距離だけ前記第1のオブジェクトから離れた位置に、一又は複数の他の登場物にそれぞれ対応する一又は複数の第2のオブジェクトを表示するオブジェクト表示部と、
    前記操作領域において前記第2のオブジェクトの位置が変更された場合に、変更後の当該第2のオブジェクトの位置に応じた関係性値を算出し、算出した関係性値により前記関係性情報を更新する関係性情報更新部と、
    をさらに備える、
    請求項7に記載の情報処理装置。
  9. 同じ作品に登場する頻度が高いほど、或いは、共に登場する区間の長さが長いほど、前記関係性値が大きくなるように、前記区間メタデータを利用して各登場物の組に関する関係性値を算出して前記関係性情報を生成する関係性情報生成部をさらに備える、
    請求項2に記載の情報処理装置。
  10. 前記関係性情報は、前記関係性の種類を示した第1〜第N−1の種類情報を含み、
    前記区間検出部は、
    前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
    n=1〜N−1に関し、前記ユーザにより選択された登場物との間において第nの種類情報が示す種類の関係性を有する第nの登場物を検出し、第nの区間以降の区間の中から当該第nの登場物が登場する区間を検出して第n+1の区間に設定する処理と、
    を実行し、前記第1〜第Nの区間を検出結果として出力する、
    請求項1に記載の情報処理装置。
  11. 予め用意された複数の動画における特徴的な関係性の時系列変化を検出し、検出した特徴的な関係性の時系列変化に適合するように前記第1〜第N−1の種類情報を設定する種類情報設定部をさらに備える、
    請求項10に記載の情報処理装置。
  12. 前記第1〜第N−1の種類情報には、それぞれカメラワーク又はエフェクトの種類を示す補助情報が対応付けられており、
    前記区間検出部は、
    前記ユーザにより選択された登場物が登場する第1の区間を検出する処理と、
    n=1〜N−1に関し、前記ユーザにより選択された登場物との間において第nの種類情報が示す種類の関係性を有する第nの登場物を検出し、第nの区間以降の区間の中から当該第nの登場物が登場する区間であり、かつ、前記補助情報に適合する区間を検出して第n+1の区間に設定する処理と、
    を実行し、前記第1〜第Nの区間を検出結果として出力する、
    請求項10に記載の情報処理装置。
  13. 動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出するステップと、
    検出された区間に対応する画像を出力するステップと、
    を含む、
    動画要約方法。
  14. 動画に登場する各登場物間の関係性を示す関係性情報と、前記動画の中で各登場物が登場する区間を示す区間メタデータとを利用し、ユーザにより選択された登場物との間に所定の関係性を有する登場物が登場する区間を検出する区間検出機能と、
    前記区間検出機能により検出された区間に対応する画像を出力する画像出力機能と、
    をコンピュータに実現させるためのプログラム。
JP2011163044A 2011-07-26 2011-07-26 情報処理装置、動画要約方法、及びプログラム Withdrawn JP2013025748A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011163044A JP2013025748A (ja) 2011-07-26 2011-07-26 情報処理装置、動画要約方法、及びプログラム
US13/527,637 US9083933B2 (en) 2011-07-26 2012-06-20 Information processing apparatus, moving picture abstract method, and computer readable medium
CN 201210250810 CN102981733A (zh) 2011-07-26 2012-07-19 信息处理装置、运动画面摘要方法以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011163044A JP2013025748A (ja) 2011-07-26 2011-07-26 情報処理装置、動画要約方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013025748A true JP2013025748A (ja) 2013-02-04
JP2013025748A5 JP2013025748A5 (ja) 2014-09-04

Family

ID=47597293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011163044A Withdrawn JP2013025748A (ja) 2011-07-26 2011-07-26 情報処理装置、動画要約方法、及びプログラム

Country Status (3)

Country Link
US (1) US9083933B2 (ja)
JP (1) JP2013025748A (ja)
CN (1) CN102981733A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229103A (ja) * 2013-05-23 2014-12-08 グローリー株式会社 映像解析装置及び映像解析方法
JP2018157293A (ja) * 2017-03-16 2018-10-04 カシオ計算機株式会社 動画像処理装置、動画像処理方法及びプログラム
US10970583B2 (en) 2018-04-17 2021-04-06 Fuji Xerox Co., Ltd. Information processing apparatus, and non-transitory computer readable medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5817400B2 (ja) * 2011-09-30 2015-11-18 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9342580B2 (en) 2013-03-15 2016-05-17 FEM, Inc. Character based media analytics
US8572097B1 (en) * 2013-03-15 2013-10-29 FEM, Inc. Media content discovery and character organization techniques
CN104346602A (zh) * 2013-08-07 2015-02-11 上海贯城信息科技有限公司 一种基于特征向量的人脸识别方法及装置
CN103546709B (zh) * 2013-10-31 2016-10-05 宇龙计算机通信科技(深圳)有限公司 一种视频拍摄的片头生成方法、***及智能电子设备
KR102271741B1 (ko) 2015-01-14 2021-07-02 삼성전자주식회사 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
CN106375875A (zh) * 2016-09-29 2017-02-01 乐视控股(北京)有限公司 视频流的播放方法及装置
US20190294886A1 (en) * 2018-03-23 2019-09-26 Hcl Technologies Limited System and method for segregating multimedia frames associated with a character
JP2021009608A (ja) * 2019-07-02 2021-01-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10958271B1 (en) 2020-07-07 2021-03-23 Micron Technology, Inc. Output buffer having supply filters

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020047892A1 (en) * 2000-05-18 2002-04-25 Gonsalves Charles J. Video messaging and video answering apparatus
JP3825615B2 (ja) * 2000-08-11 2006-09-27 株式会社東芝 動画像符号化装置および動画像符号化方法およびプログラムを記録した媒体
US20020083473A1 (en) * 2000-12-21 2002-06-27 Philips Electronics North America Corporation System and method for accessing a multimedia summary of a video program
US7818658B2 (en) * 2003-12-09 2010-10-19 Yi-Chih Chen Multimedia presentation system
KR100590537B1 (ko) * 2004-02-18 2006-06-15 삼성전자주식회사 복수 영상의 요약 방법 및 장치
JP5315694B2 (ja) * 2006-01-05 2013-10-16 日本電気株式会社 映像生成装置、映像生成方法および映像生成プログラム
JP2008294584A (ja) * 2007-05-22 2008-12-04 Panasonic Corp ダイジェスト再生装置及び方法
JP4360425B2 (ja) * 2007-06-15 2009-11-11 ソニー株式会社 画像処理装置、その処理方法およびプログラム
US8443284B2 (en) * 2007-07-19 2013-05-14 Apple Inc. Script-integrated storyboards
US20090141019A1 (en) * 2007-12-03 2009-06-04 Nokia Corporation 4d real-world browsing with capability to recognize and access objects in real-time
US8276093B2 (en) * 2008-04-24 2012-09-25 Nintendo Co., Ltd. Computer-readable storage medium having object display order changing program stored therein and apparatus
JP4623199B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2010277661A (ja) 2009-05-29 2010-12-09 Toshiba Corp 番組再生装置及び番組再生方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229103A (ja) * 2013-05-23 2014-12-08 グローリー株式会社 映像解析装置及び映像解析方法
JP2018157293A (ja) * 2017-03-16 2018-10-04 カシオ計算機株式会社 動画像処理装置、動画像処理方法及びプログラム
US10970583B2 (en) 2018-04-17 2021-04-06 Fuji Xerox Co., Ltd. Information processing apparatus, and non-transitory computer readable medium

Also Published As

Publication number Publication date
CN102981733A (zh) 2013-03-20
US20130028571A1 (en) 2013-01-31
US9083933B2 (en) 2015-07-14

Similar Documents

Publication Publication Date Title
JP2013025748A (ja) 情報処理装置、動画要約方法、及びプログラム
US20210124723A1 (en) Event-related media management system
JP5857450B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5790509B2 (ja) 画像再生装置、画像再生プログラム、及び画像再生方法
KR101382954B1 (ko) 정보 처리 장치와 방법 및 프로그램이 기록된 기록 매체
JP5474062B2 (ja) コンテンツ再生装置、コンテンツ再生方法、プログラム、及び集積回路
US8928697B2 (en) Display apparatus, object display method, and program for displaying objects corresponding to characters
US20030063130A1 (en) Reproducing apparatus providing a colored slider bar
US20080159708A1 (en) Video Contents Display Apparatus, Video Contents Display Method, and Program Therefor
JP4289326B2 (ja) 情報処理装置および方法、撮影装置、並びにプログラム
US10904618B2 (en) Customization of content for different audiences
KR20070106537A (ko) 콘텐츠 재생장치 및 콘텐츠 재생방법
JP2012248070A (ja) 情報処理装置、メタデータ設定方法、及びプログラム
KR20060131981A (ko) 사용자에 대해 특정 감정적 영향을 갖는 콘텐츠 항목을생성하는 방법
JP2010187374A (ja) 要約映像生成装置および要約映像生成方法
JP4925938B2 (ja) ダイジェスト映像情報作成方法、ダイジェスト映像情報作成プログラム、および、映像装置
JP2010258615A (ja) 再生装置及びプログラム
JP2006139408A (ja) 特徴ベクトル生成装置、検索装置、特徴ベクトル生成方法、検索方法及びプログラム
US7844163B2 (en) Information editing device, information editing method, and computer product
JP4366439B1 (ja) 映像コンテンツの編集方法とこれを用いた編集装置ならびに遠隔編集装置
JP2008271587A (ja) 画像再生装置及び方法、並びにプログラム
JP2009032039A (ja) 検索装置および検索方法
JP7335175B2 (ja) カラオケ装置
WO2014162757A1 (ja) 情報処理装置、タグ付け方法及びプログラム
JP6472216B2 (ja) カラオケ連携システム、デジタルサイネージ、およびその広告選択方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141210

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20150406