JP5857450B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP5857450B2
JP5857450B2 JP2011120395A JP2011120395A JP5857450B2 JP 5857450 B2 JP5857450 B2 JP 5857450B2 JP 2011120395 A JP2011120395 A JP 2011120395A JP 2011120395 A JP2011120395 A JP 2011120395A JP 5857450 B2 JP5857450 B2 JP 5857450B2
Authority
JP
Japan
Prior art keywords
metadata
section
information
moving image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011120395A
Other languages
English (en)
Other versions
JP2012249156A5 (ja
JP2012249156A (ja
Inventor
村田 誠
誠 村田
倉田 雅友
雅友 倉田
佐藤 浩司
浩司 佐藤
直樹 澁谷
直樹 澁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011120395A priority Critical patent/JP5857450B2/ja
Priority to EP12166139.1A priority patent/EP2530675A3/en
Priority to US13/478,360 priority patent/US20120308202A1/en
Priority to CN2012101629191A priority patent/CN102857810A/zh
Publication of JP2012249156A publication Critical patent/JP2012249156A/ja
Publication of JP2012249156A5 publication Critical patent/JP2012249156A5/ja
Application granted granted Critical
Publication of JP5857450B2 publication Critical patent/JP5857450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window

Landscapes

  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Description

本技術は、情報処理装置、情報処理方法、及びプログラムに関する。
ビデオ映像やテレビジョン映像などを視聴している際、映像に登場する人物や物品、或いは、場所など(以下、対象物)に関する情報を詳しく知りたいと思うことがあるだろう。現状、多くのユーザは、パーソナルコンピュータ(以下、PC)、携帯電話、携帯情報端末など(以下、情報機器)を利用して情報の検索を行っている。しかし、映像に登場する対象物を特定することが可能なキーワードを知らないと、ユーザが、その対象物の情報を得ることは難しい。また、映像を視聴している最中に情報機器を立ち上げたり、情報機器に検索キーワードを入力したりする操作を行うことは面倒である。
例えば、映像に登場する対象物を画面上で選択できるようにし、ユーザにより選択された対象物の情報が画面上に表示されるようなユーザインターフェースが実現できれば、ユーザの利便性が大きく向上するものと考えられる。対象物の選択操作は、タッチパネルやリモコンなどの入力デバイスを利用すれば実現可能である。しかし、選択された画面上の位置に存在する対象物を特定するには、各動画フレームにおける各対象物の位置などを示したメタデータが必要になる。なお、映像に登場する対象物の位置を自動検出する方法は、例えば、下記の特許文献1に開示されている。
特開2005−44330号公報
上記の文献に記載された技術を用いると、各動画フレームに登場する対象物の位置を自動検出することができる。そのため、自動検出された対象物の位置をメタデータとして利用することで、ユーザが画面上で選択した位置に存在する対象物を特定することが可能になる。但し、現状ではすべての対象物を自動で検出するのに十分な精度には達していない。そのため、人手によるメタデータのラベリング作業は欠かせない。しかし、映像を構成する動画フレームの数は非常に多く、人手によるメタデータのラベリング作業は非常に負担の大きい作業である。そこで、本件発明者は、人手によるメタデータのラベリング作業を容易にする仕組みを開発した。しかし、これまでは精度の良いメタデータが得られなかったため、精度の良いメタデータを利用してコンテンツの再生制御を行うアプリケーションの実現が困難であった。
そこで、本技術は、上記のような事情を受けて考案されたものであり、精度の良いメタデータを利用してコンテンツの再生制御を行うアプリケーションを提供することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することを意図している。
本技術のある観点によれば、動画に登場する各対象物の登場区間を示した区間メタデータを取得するメタ取得部と、前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示部と、ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させる再生制御部と、を備える、情報処理装置が提供される。
また、本技術の別の観点によれば、動画に登場する各対象物の登場区間を示した区間メタデータを取得するステップと、前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示するステップと、ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させるステップと、を含む、情報処理方法が提供される。
また、本技術の別の観点によれば、動画に登場する各対象物の登場区間を示した区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示機能をコンピュータに実現させるためのプログラムであり、ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームが再生される、プログラムが提供される。
また、本技術の別の観点によれば、動画に登場する各対象物の登場区間を示した区間メタデータを取得するメタ取得部と、前記区間メタデータを利用し、再生されている動画フレームに含まれる全ての対象物の画像又は関連情報を表示する情報表示部と、前記対象物の画像又は関連情報がユーザにより選択された場合に、前記区間メタデータを利用して、選択された画像又は関連情報に対応する対象物の登場区間を特定し、当該登場区間に含まれる動画フレームを再生させる再生制御部と、を備える、情報処理装置が提供される。
また、本技術の別の観点によれば、動画に登場する各対象物の登場区間を示した区間メタデータと、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータと、を取得するメタ取得部と、前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、存在が認識された対象物の登場区間を特定し、当該登場区間に含まれる動画フレームを再生させる再生制御部と、を備える、情報処理装置が提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、精度の良いメタデータを利用してコンテンツの再生制御を行うアプリケーションの提供が可能になる。
関連情報の表示方法について説明するための説明図である。 関連情報の表示方法について説明するための説明図である。 関連情報の表示方法について説明するための説明図である。 登場区間の表示方法について説明するための説明図である。 ハイパーリンク型ビデオブラウジングの概念について説明するための説明図である。 動画タイムラインメタデータの概要について説明するための説明図である。 動画タイムラインメタデータを提供するための仕組みについて説明するための説明図である。 動画タイムラインメタデータを提供するための仕組みについて説明するための説明図である。 動画タイムラインメタデータの提供から利用までの処理の大まかな流れについて説明するための説明図である。 メタデータ提供者端末の構成例について説明するための説明図である。 動画タイムラインメタデータの提供に係る処理のうち、前処理の流れについて説明するための説明図である。 前処理の内容について説明するための説明図である。 前処理の内容について説明するための説明図である。 前処理の内容について説明するための説明図である。 前処理の内容について説明するための説明図である。 前処理の内容について説明するための説明図である。 前処理の内容について説明するための説明図である。 動画タイムラインメタデータの提供に係る処理のうち、メタデータのラベリング処理の流れについて説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 ラベリングに係る処理の内容について説明するための説明図である。 動画タイムラインメタデータの提供に係る処理のうち、後処理の大まかな流れについて説明するための説明図である。 メタデータ管理システムの構成例について説明するための説明図である。 動画タイムラインメタデータの提供に係る処理のうち、後処理の流れについて説明するための説明図である。 後処理の内容について説明するための説明図である。 後処理の内容について説明するための説明図である。 後処理の内容について説明するための説明図である。 メタデータ管理システムが提供する他の機能について説明するための説明図である。 メタデータ管理システムが提供する他の機能について説明するための説明図である。 メタデータ管理システムが提供する他の機能について説明するための説明図である。 メタデータ利用者端末の構成例について説明するための説明図である。 動画タイムラインメタデータの構成について説明するための説明図である。 動画タイムラインメタデータを利用した登場区間の表示方法、及び登場区間の再生方法について説明するための説明図である。 動画タイムラインメタデータを利用した登場区間の表示方法、及び登場区間の再生方法について説明するための説明図である。 動画タイムラインメタデータを利用した登場区間の表示方法、及び登場区間の再生方法について説明するための説明図である。 動画タイムラインメタデータを利用した登場区間の表示方法、及び登場区間の再生方法について説明するための説明図である。 関連情報の表示方法について説明するための説明図である。 関連情報の表示方法について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 動画タイムラインメタデータのデータ構造について説明するための説明図である。 メタデータ提供者端末、メタデータ管理システム、メタデータ利用者端末の機能を実現することが可能な情報処理装置のハードウェア構成例を示した説明図である。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
まず、図1〜図4を参照しながら、本実施形態に係る技術により実現されるユーザインターフェースの具体例について説明する。次いで、図6及び図7を参照しながら、本実施形態に係る動画タイムラインメタデータについて説明する。次いで、図8及び図9を参照しながら、本実施形態に係る動画タイムラインメタデータの提供、管理及び利用に関する処理を実行するシステムの構成及び当該処理の流れについて説明する。
次いで、図10〜図35を参照しながら、本実施形態に係るメタデータ提供者端末10の構成及び動作について説明する。この中で、動画タイムラインメタデータのラベリング処理を容易化する仕組みについて詳細に説明する。次いで、図36〜図44を参照しながら、本実施形態に係るメタデータ管理システム20の構成及び動作について説明する。この中で、複数のユーザにより設定された動画タイムラインメタデータを統合する処理の内容及び動画タイムラインメタデータの設定作業を奨励するための仕組みについて詳細に説明する。
次いで、図45〜図52を参照しながら、本実施形態に係るメタデータ利用者端末30の構成及び動作について説明する。この中で、動画タイムラインメタデータを利用したユーザインターフェースの構成について詳細に説明する。次いで、図53〜図59を参照しながら、本実施形態に係る動画タイムラインメタデータのデータ構造について説明する。次いで、図60を参照しながら、本実施形態に係るメタデータ提供者端末10、メタデータ管理システム20、及びメタデータ利用者端末30の機能を実現することが可能な情報処理装置のハードウェア構成例について説明する。
最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:はじめに
2:実施例
2−1:システムの全体構成及び動作
2−2:メタデータ提供者端末10の構成
2−3:メタデータ提供者端末10の動作
2−3−1:前処理について
2−3−2:ラベリング処理について
2−4:メタデータ管理システム20の構成
2−5:メタデータ管理システム20の動作
2−5−1:統合処理について
2−5−2:その他の機能
2−6:メタデータ利用者端末30の構成及び動作
2−7:動画タイムラインメタデータのデータ構造
3:ハードウェア構成
4:まとめ
<1:はじめに>
はじめに、本実施形態に係る動画タイムラインメタデータを利用することで実現されるユーザインターフェース及びアプリケーションについて紹介する。また、本実施形態に係る動画タイムラインメタデータについて説明する。
ビデオ映像やテレビジョン映像などの動画を視聴しているとき、その動画に登場する人物や物品などに興味を惹かれることがあるだろう。人物や物品だけでなく、動画に登場する場所や、その動画の制作者、或いは、その動画のストーリー展開などに興味を惹かれ、それらに関連する詳しい情報を得たいと思うこともあるだろう。例えば、あるユーザは、ドラマを視聴しているとき、そのドラマに登場する人物が出演している他の動画を知りたいと思うかもしれない。また、他のユーザは、映画を視聴しているとき、映画に登場する俳優が着用しているスーツに興味を惹かれるかもしれない。
これまで、多くのユーザは、上記のような情報を得ようとするとき、別途用意した情報機器を操作してWebから情報を取得したり、画面をデータ放送の表示モードに切り替えて情報を取得したりしていた。しかし、動画の視聴を中断して情報機器を立ち上げたり、検索エンジンに適切な検索キーワードを入力したりする操作を行うことは面倒である。また、データ放送では所望の情報が得られないことも多い。そして、いずれの方法も、視聴中のシーンに即した関連情報をリアルタイムに取得するのには適さない。こうした事情に鑑み、本件発明者は、視聴中のシーンに登場する人物や物品などに関する情報をリアルタイムに閲覧できるようにしたいと考えた。
例えば、図1に示すように、動画の1シーンに登場する人物の関連情報をリアルタイムに表示できるようにすることが望まれる。また、図2に示すように、動画の1シーンに登場する人物の関連情報、その人物が身に付けている物品の関連情報、或いは、そのシーンの撮影された場所に関する関連情報がリアルタイムに表示できるようにすることが望まれる。また、動画の再生時に関連情報が自動表示されるようにするだけでなく、図3に示すように、ユーザが登場人物を選択した場合に、選択された登場人物に関する関連情報が表示されるようなユーザインターフェースの実現も望まれる。こうした関連情報の表示を実現させるには、各動画フレームに出現する人物や物品など(以下、対象物)の情報(以下、動画タイムラインメタデータ)を用意しておく必要がある。
例えば、ある対象物が動画フレームに登場するか否かを示す情報(以下、区間メタデータ)及びその対象物の関連情報(以下、オブジェクトメタデータ)を各動画フレームについて用意しておけば、各動画フレームの再生時に、その対象物の関連情報をリアルタイムに表示することができるようになる。また、その対象物が出現する各動画フレーム内の位置や範囲を示す情報(以下、領域メタデータ)を用意しておけば、図1に示すように、関連情報を対象物の位置や範囲に対応付けて表示することができるようになる。さらに、領域メタデータを利用すれば、画面内に表示された対象物の位置や範囲と、ユーザが指定した位置とをマッチングすることが可能になり、図3に示すように、ユーザによる位置の指定に応じて関連情報を表示するユーザインターフェースを実現できる。
また、区間メタデータを利用すると、ある対象物が登場する区間を特定することが可能になるため、図4に示すように、ある対象物が登場する区間をユーザに提示したり、ある対象物が登場する区間だけを再生したりすることが可能になる。図4の例では、人物が登場するシーンと、そのシーンに登場する人物とを対応付けた情報(登場区間の時間情報)をユーザに提示する例が示されている。
また、複数の動画に関する区間メタデータを利用すると、図5に示すようなハイパーリンク型のビデオブラウジングが可能になる。ここで言うハイパーリンク型のビデオブラウジングとは、動画に登場する対象物をキー情報にして動画を切り替えながら視聴する操作手法のことを意味する。例えば、図5の例では、動画#1の1シーンに登場する人物を選択すると、その人物が登場する動画#2の再生が開始され、動画#2の1シーンに登場する物品を選択すると、その物品が登場する動画#4の再生が開始される。このように、ユーザは、動画を視聴しながら、気になる対象物を選択することで、その対象物が登場する動画を自由に切り替えて視聴することが可能になる。
ここで、図6を参照しながら、動画タイムラインメタデータの構成について説明を補足する。動画タイムラインメタデータは、領域メタデータ、区間メタデータ、オブジェクトメタデータにより構成される。領域メタデータは、各動画フレームに登場する対象物の位置及びその範囲(以下、領域)を示すメタデータである。一例として、図6には、人物の顔領域が円形のハッチングにより表現されている。この場合、顔領域の位置は、円の中心座標で表現される。また、顔領域の範囲は、円の半径で表現される。なお、領域の形状は、矩形でもよい。領域の形状が矩形の場合、その領域の位置は、例えば、矩形の左上隅(もちろん、左下隅、右上隅、右下隅でもよい。)の座標で表現される。また、その領域の範囲は、矩形の高さ及び幅で表現される。
一方、区間メタデータは、対象物が登場する区間を示すメタデータである。例えば、人物Aが10枚目の動画フレームから80枚目の動画フレームに登場する場合、人物Aに関する区間メタデータは、10〜80枚目の動画フレームに対応する区間を示す。区間メタデータは、動画毎、及び各動画に登場する対象物毎に用意される。区間メタデータを参照すると、ある動画に特定の対象物が登場するか否かが分かる。また、区間メタデータを利用すると、各動画において特定の対象物が登場する区間の長さが分かる。さらに、区間メタデータを利用すると、同じ動画に登場する対象物の組を特定することができるため、例えば、共演関係を検出したり、共演時間を計算したりすることができる。
なお、動画タイムラインメタデータの提供は、図7に示すように、動画提供者とは異なるメタデータ提供者により行われるものと考えられる。また、動画タイムラインメタデータは、動画解析技術を利用して生成されるか、手入力により生成されるものと考えられる。例えば、顔識別技術や顔トラッキング技術などを利用すると、各動画フレームに登場する人物を自動検出することができる。その検出結果を利用することにより、動画タイムラインメタデータを生成することができる。しかしながら、これらの自動検出技術を用いた場合、誤検出や誤識別、或いは、検出漏れなどのエラーが発生してしまう。
そのため、エラーが生じた部分について動画タイムラインメタデータの修正や追加を手作業で行うか、或いは、初めから手作業で動画タイムラインメタデータを生成する必要がある。もちろん、手作業で動画タイムラインメタデータを生成する方が高い精度を得られる。しかしながら、動画を構成する動画フレームの数は膨大である。そのため、手作業で動画フレーム1枚1枚に動画タイムラインメタデータをラベリングしていくのは困難である。そこで、本件発明者は、手作業による動画タイムラインメタデータのラベリング作業を簡単にし、ユーザの作業負担を大幅に軽減することが可能なユーザインターフェースを開発した。また、本件発明者は、複数のユーザが協働して動画タイムラインメタデータを生成することが可能な仕組みを考案した。
これらの技術を適用することにより、精度の高い動画タイムラインメタデータを提供することが可能となる。また、動画タイムラインメタデータを利用した様々なアプリケーションが実現される。例えば、図1〜図3に示すような関連情報のリアルタイム表示が可能となる。また、図4に示すような登場区間の表示や、特定の登場人物が登場するシーンだけを選択的に再生することが可能になる。さらに、図5に示すようなハイパーリンク型のビデオブラウジングが可能になる。
以下では、本実施形態に係る動画タイムラインメタデータのラベリング方法、動画タイムラインメタデータのラベリングに用いるユーザインターフェースの構成、及び動画タイムラインメタデータを利用したアプリケーションについて詳細に説明する。
<2:実施例>
以下、本実施形態に係る技術の一実施例について説明する。
[2−1:システムの全体構成及び動作]
まず、図8及び図9を参照しながら、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明する。図8及び図9は、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明するための説明図である。
(構成)
図8に示すように、本実施例に係るシステムは、主に、メタデータ提供者端末10と、メタデータ管理システム20と、メタデータ利用者端末30とにより構成される。
メタデータ提供者端末10は、動画タイムラインメタデータのラベリング作業に用いるユーザインターフェースの提供及び動画タイムラインメタデータのラベリングに関する処理を実行する。また、メタデータ提供者端末10は、ラベリングされた動画タイムラインメタデータをメタデータ管理システム20に提供する。なお、メタデータ提供者端末10からメタデータ利用者端末30に動画タイムラインメタデータが直接提供されるようにシステムを構成することも可能である。また、図8にはメタデータ提供者端末10が1つしか記載されていないが、システム内に複数のメタデータ提供者端末10が設けられていてもよい。以下では、複数のメタデータ提供者が存在し、システム内に複数のメタデータ提供者端末10が存在するものとして説明を進める。
メタデータ管理システム20は、メタデータ提供者端末10により提供された動画タイムラインメタデータを蓄積する。また、同じ動画に関する複数の動画タイムラインメタデータが提供された場合、メタデータ管理システム20は、これら複数の動画タイムラインメタデータを統合する。さらに、メタデータ管理システム20は、ソーシャルネットワークサービス(以下、SNS)を利用して複数のユーザ間で動画タイムラインメタデータを共有できるようにする機能を有していてもよい。また、メタデータ管理システム20は、メタデータ提供者に対して報酬を与える機能を有していてもよい。さらに、メタデータ管理システム20は、動画タイムラインメタデータのラベリング作業を補助するための情報をメタデータ提供者端末10に送信する機能を有していてもよい。
メタデータ利用者端末30は、メタデータ管理システム20から動画タイムラインメタデータを取得し、取得した動画タイムラインメタデータを利用して各種の機能を提供する。例えば、メタデータ利用者端末30は、動画タイムラインメタデータを利用して、関連情報の表示機能、シーン検索・再生機能(登場区間の表示機能、登場区間の選択的な再生機能など)、ハイパーリンク型ビデオブラウジング機能などを提供する。つまり、メタデータ利用者端末30は、動画タイムラインメタデータを利用したアプリケーションの実行環境を提供する。
(動作)
本実施例に係るシステムは、図9に示した一連の処理を実行する。まず、メタデータ提供者端末10又はメタデータ管理システム20は、前処理を実行する(S10)。ステップS10の前処理は、主に、物体認識技術や物体検出・物体トラッキング技術などの動画解析技術を利用して動画に登場する対象物を自動検出する処理である。物体検出・物体トラッキング技術としては、例えば、特開2005−44330号公報に記載の技術を利用することができる。また、物体認識技術としては、例えば、特開2007−65766号公報に記載の技術を利用することができる。
後述するように、前処理を予め実行しておくことで、新規にラベリングすべき対象物の数及び動画フレームの数を低減することが可能になり、ラベリング作業の負担を軽減することができる。但し、前処理は省略可能である。前処理を省略した場合、全ての動画フレームに対して手作業で動画タイムラインメタデータをラベリングすることになる。また、前処理は、メタデータ提供者端末10が実行してもよいし、メタデータ管理システム20が実行してもよい。以下では、前処理をメタデータ提供者端末10が実行するものとして説明を進める。
前処理を実行した後、メタデータ提供者端末10は、動画タイムラインメタデータのラベリングに関する処理を実行する(S20)。例えば、メタデータ提供者端末10は、ラベリング対象の動画を再生し、ユーザによる入力を受け付ける。このとき、メタデータ提供者端末10は、ユーザによるラベリング作業を補助するためのユーザインターフェースを提供する。そして、メタデータ提供者端末10は、ユーザによる入力に応じて動画タイムラインメタデータを生成し、その動画タイムラインメタデータをメタデータ管理システム20に提供する。
次いで、メタデータ管理システム20は、メタデータ提供者端末10により提供された動画タイムラインメタデータに後処理を施す(S30)。この後処理は、主に、同じ動画を対象に設定された複数の動画タイムラインメタデータを統合する処理である。次いで、メタデータ利用者端末30は、メタデータ管理システム20から動画タイムラインメタデータを取得し、取得した動画タイムラインメタデータを利用して、関連情報の表示など、様々な機能をユーザに提供する(S40)。
本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明した。以下では、図9に示した処理の流れに沿って、メタデータ提供者端末10、メタデータ管理システム20及びメタデータ利用者端末30の詳細な機能構成、及び各ステップにおける処理の内容について詳細に説明する。
[2−2:メタデータ提供者端末10の構成]
まず、図10を参照しながら、メタデータ提供者端末10の機能構成について説明する。図10は、メタデータ提供者端末10の機能構成について説明するための説明図である。
図10に示すように、メタデータ提供者端末10は、主に、記憶部101と、デコーダ102と、領域抽出部103と、領域加工部104と、物体認識部105と、メタデータ提供部106と、再生制御部107と、表示部108と、入力部109と、移動距離算出部110と、類似スコア算出部111と、により構成される。
なお、領域抽出部103、領域加工部104、及び物体認識部105は、動画解析ブロックを構成する。図9に示したステップS10の前処理を省略する場合、動画解析ブロックを省略してもよい。また、動画解析ブロックをメタデータ管理システム20又は他の動画解析用デバイスに設け、メタデータ提供者端末10の動画解析ブロックを省略してもよい。但し、以下では、メタデータ提供者端末10に動画解析ブロックが設けられているものとして説明を進める。
記憶部101には、動画が格納されている。記憶部101に格納されている動画は、デコーダ102によりデコードされ、領域抽出部103、再生制御部107、及び類似スコア算出部111に入力される。領域抽出部103は、物体検出・物体トラッキング技術などを利用し、入力された動画の各動画フレームに出現する対象物の位置及び範囲(以下、対象領域)を抽出する。領域抽出部103により抽出された対象領域の情報は、領域加工部104に入力される。
領域加工部104は、入力された対象領域の情報に基づいて対象領域を加工する。例えば、領域加工部104は、出現時間の短い対象領域やサイズの小さい対象領域を削除したり、同じ動画フレームに出現する同種の対象領域を結合したりする。領域加工部104により加工された対象領域の情報は、物体認識部105に入力される。物体認識部105は、入力された各対象領域に含まれる対象物の特徴量に基づいて対象物をクラスタリングし、各クラスタを代表する対象物の特徴量を決定する。そして、物体認識部105は、対象物の特徴量と対象物の識別情報とを対応付けたデータベースを参照し、各クラスタを代表する対象物の特徴量に基づいて各クラスタに対象物の識別情報を対応付ける。
この段階で、各動画フレームに出現する各対象領域の情報と、各対象領域に対応する対象物の識別情報とが得られる。つまり、識別情報により分類される対象物の種類毎に、対象物が出現する区間(区間メタデータ)と、各動画フレームにおける対象物の位置及び範囲(領域メタデータ)とが得られる。但し、動画解析ブロックで得られた区間メタデータ及び領域メタデータは、物体検出・物体トラッキング及び物体認識の際に生じる誤検出、検出漏れ、或いは、誤認識などの影響を含んでいる。そのため、手入力により動画解析ブロックで得られた区間メタデータ及び領域メタデータを修正する必要がある。
動画解析ブロックで得られた区間メタデータ及び領域メタデータは、メタデータ提供部106、再生制御部107、及び移動距離算出部110に入力される。
メタデータ提供部106は、入力部109を介してユーザにより入力された対象領域の情報に基づき、動画解析ブロックで得られた区間メタデータ及び領域メタデータを修正する。但し、動画解析ブロックが省略された場合、メタデータ提供部106は、入力部109を介してユーザにより入力された対象領域の情報に基づいて区間メタデータ及び領域メタデータを生成する。そして、メタデータ提供部106は、領域メタデータ及び区間メタデータをメタデータ管理システム20に提供する。なお、ユーザによりオブジェクトメタデータが入力された場合、メタデータ提供部106は、入力されたオブジェクトメタデータをメタデータ管理システム20に提供する。
再生制御部107は、動画を再生して表示部108に表示させる。但し、再生制御部107は、ユーザの入力操作を補助するため、動画の再生速度を調整したり、一部の動画フレームの再生をスキップしたりする。また、再生制御部107は、ユーザにより指定された対象領域の情報を表示したり、対象領域にオブジェクトメタデータを付与するためのメニューを表示したりする。なお、再生制御部107の詳細な機能については後述する。
表示部108は、LCD(Liquid Crystal Display)やELD(Electro−Luminescence Display)などの表示デバイスである。また、入力部109は、タッチパネル、タッチパッド、マウス、リモートコントローラ、ゲーム用コントローラ、視線入力装置、ジェスチャー入力装置、音声入力装置などの入力デバイスである。なお、ジェスチャー入力装置は、カメラやセンサなどを利用してユーザの動きを検出し、その検出結果からユーザの動きを識別するデバイスである。以下では、入力デバイスとしてタッチパネルを利用するケースを想定して説明を進める。
移動距離算出部110は、隣接する動画フレーム間における対象領域の移動距離を算出する。例えば、移動距離算出部110は、動画解析ブロックで得られた領域メタデータを利用し、同じ対象物の対象領域が隣接する動画フレーム間で移動した距離を算出する。この距離は、スキップすべき動画フレームの判定に利用される。また、移動距離算出部110は、入力部109を介してユーザが入力した対象領域の移動距離を算出する。この移動距離は、再生速度の調整に利用される。移動距離算出部110により算出された距離の情報は、再生制御部107及びメタデータ提供部106に入力される。
類似スコア算出部111は、隣接する動画フレームについて動画フレーム間の類似スコアを算出する。例えば、類似スコア算出部111は、特開2007−206920号公報に記載の方法を利用して動画フレーム間の類似スコアを算出する。この類似スコアは、スキップすべき動画フレームの判定に利用される。類似スコア算出部111により算出された類似スコアは、再生制御部107及びメタデータ提供部106に入力される。
以上、メタデータ提供者端末10の主な機能構成について説明した。
[2−3:メタデータ提供者端末10の動作]
次に、図11〜図35を参照しながら、メタデータ提供者端末10の動作について説明する。また、メタデータ提供者端末10の詳細な機能構成について説明を補足する。図11〜図35は、メタデータ提供者端末10の動作について説明するための説明図である。
(2−3−1:前処理について)
まず、図11を参照しながら、前処理(図9のステップS10)に関するメタデータ提供者端末10の動作について説明する。図11は、前処理に関するメタデータ提供者端末10の動作について説明するための説明図である。
図11に示すように、メタデータ提供者端末10は、デコーダ102の機能により、記憶部101から読み出した動画をデコードする(S101)。次いで、メタデータ提供者端末10は、領域抽出部103の機能により、対象領域の検出及びトラッキングを実行する(S102)。なお、対象領域の検出及びトラッキングは、例えば、特開2005−44330号公報に記載の技術などを利用することで実現可能である。
対象物が人物の顔である場合、領域抽出部103は、図12に示すような方法で対象領域(この場合は顔領域)を検出する。まず、領域抽出部103は、1枚の動画フレームについて顔検出器(図12の例では矩形のウィンドウ)を移動させながら画像全体を走査して顔領域を検出する。次いで、領域抽出部103は、次の動画フレームについて顔検出器を移動させながら顔領域の検出を試みる。このとき、領域抽出部103は、前の動画フレームで検出された顔領域の周辺を走査して顔領域を検出する。次いで、領域抽出部103は、次の動画フレームについて顔検出器を移動させながら、前の動画フレームで検出された顔領域の周辺を走査して顔領域を検出する。
図12の例は顔領域の検出及びトラッキングに関する処理の内容を示していたが、図13に示すように人物全体、車、文字などについても同様にして領域の検出及びトラッキングが可能である。図13の例は、人物領域、車領域、文字領域の検出及びトラッキングに関する処理の内容を示している。なお、対象領域の形状は、図12に示すように、矩形であってもよいし、円形やその他の形状であってもよい。対象領域の形状が矩形の場合、対象領域の位置及び範囲は、例えば、左上隅の座標(x,y)、高さh、及び幅wで表現される。一方、対象領域の形状が円形の場合、対象領域の位置及び範囲は、例えば、中心の座標(x,y)、及び半径rで表現される。
再び図11を参照する。上記のようにして対象領域を検出したメタデータ提供者端末10は、領域加工部104の機能により、各対象領域のRPS(Region Priority Score)を算出する(S103)。このRPSは、下記の式(1)により定義される。但し、Typeは、対象領域に含まれる対象物の種類(例えば、顔、人物、文字、物体など)に応じたスコアを表す。また、Sqrは、対象領域が1枚の動画フレーム全体に占める面積に応じたスコアを表す。さらに、ΔTは、対象領域が出現する時間の長さを表す。また、α、β、γは、正規化係数を表す。
Figure 0005857450
例えば、図14に示すように、5枚の動画フレームを対象に対象領域を検出した結果、人物領域、車領域、動物領域が検出されたものとしよう。なお、図14の例では、1〜5枚目の動画フレームに人物領域が存在し、2〜3枚目の動画フレームに車領域が存在し、1〜3枚目の動画フレームに動物領域が存在している。また、人物領域にはType=5.0のスコアが割り当てられ、車領域にはType=1.0のスコアが割り当てられ、動物領域にはType=3.0のスコアが割り当てられているものとする。
また、対象領域の検出結果から、人物領域の面積に応じたスコアSqrが2.0、車領域の面積に応じたスコアSqrが8.0、動物領域の面積に応じたスコアSqrが3.0であったとする。さらに、人物領域の出現時間はΔT=5.0、車領域の出現時間はΔT=2.0、動物領域の出現時間ΔT=3.0であったとする。この場合、人物領域のRPSは、α=β=γ=1とすると、RPS(人物)=5.0+2.0+5.0=12.0となる。同様に、車領域のRPSは、RPS(車)=1.0+8.0+2.0=11.0となる。そして、動物領域のRPSは、RPS(動物)=3.0+1.0+3.0=7.0となる。
再び図11を参照する。上記のようにして対象物の種類毎に対象領域のRPSを算出したメタデータ提供者端末10は、領域加工部104の機能により、各RPSが所定の閾値以上であるか否かを判定する(S104)。そして、メタデータ提供者端末10は、領域加工部104の機能により、RPSが所定の閾値未満となった対象領域を削除する。つまり、メタデータ提供者端末10は、領域抽出部103による対象領域の検出結果から、RPSが所定の閾値未満となった対象領域を除外する。例えば、所定の閾値が8.0の場合、図14のケースでは、対象領域の検出結果から動物領域が除外される。
なお、RPSの算出は、動画全体を対象に行われてもよいが、図15に示すように、所定数の動画フレームで構成されるRPS算出ウィンドウを移動させながら、RPS算出ウィンドウに含まれる動画フレーム群を対象に行われてもよい。RPS算出ウィンドウを単位としてRPSを算出した場合、メタデータ提供者端末10は、各RPS算出ウィンドウに含まれる動画フレーム内で検出された対象領域から、各RPS算出ウィンドウについて算出されたRPSが所定の閾値未満の対象領域を除外する。
再び図11を参照する。上記のようにしてRPSが所定の閾値未満となった対象領域を除外した後、メタデータ提供者端末10は、領域加工部104の機能により、残った対象領域の幅及び高さ(対象領域が円形の場合は半径)を算出する(S105)。次いで、メタデータ提供者端末10は、領域加工部104の機能により、幅又は高さが所定の閾値未満である対象領域を削除する(S106)。つまり、メタデータ提供者端末10は、領域加工部104の機能により、RPSが所定の閾値以上であった対象領域の中から、幅又は高さが所定の閾値未満である対象領域を除外する。
次いで、メタデータ提供者端末10は、領域加工部104の機能により、同じ動画フレーム内で近隣に位置する同種の対象領域を結合する(S107)。図16に示すように、領域加工部104は、サイズの小さい複数の対象領域が近隣に位置している場合に、それら複数の対象領域を結合してサイズの大きな対象領域を生成する。なお、図11の例では、ステップS106において対象領域の幅及び高さの閾値判定を行っているが、ステップS105及びS106の処理をステップS107の後で実行するように変形してもよい。このように変形すると、1つ1つの対象領域が小さくとも、結合により大きなサイズとなる対象領域を除外せずに残すことが可能になる。
対象領域を結合したメタデータ提供者端末10は、物体認識部105の機能により、対象領域をクラスタリングする(S108)。例えば、図17に示すように、顔検出・顔トラッキングの結果(Result of the Face Tracking)として、動画(Video Content)から5つの顔トラッキング区間(検出結果1〜5)が検出されているものとする。この場合、物体認識部105は、各検出結果に含まれる顔の特徴量に基づいて、同一人物に関する複数の顔トラッキング区間を統合する。図17の例において、検出結果1と検出結果3との間で顔の特徴量が近いものとする。この場合、物体認識部105は、検出結果3に対応する顔領域を検出結果1に対応する顔領域と同じクラスタに帰属させ、対応する2つの顔トラッキング区間を統合する。
また、図17の例において、検出結果1と検出結果5との間で顔の特徴量が近いものとする。この場合、物体認識部105は、検出結果5に対応する顔領域を検出結果1に対応する顔領域と同じクラスタに帰属させ、対応する2つの顔トラッキング区間を統合する。一方、検出結果1、2、4の間で互いに顔の特徴量が離れているものとする。この場合、検出結果1、2、4の間で顔トラッキング区間の統合は行われない。結果として、検出結果1、3、5に対応する顔領域が属するクラスタ1と、検出結果2に対応する顔領域が属するクラスタ2と、検出結果4に対応する顔領域が属するクラスタ4とが得られる。
再び図11を参照する。なお、顔以外についても同様にクラスタリングが行われる。クラスタリングを行った後、メタデータ提供者端末10は、物体認識部105の機能により、各クラスタに識別情報を対応付ける(S109)。例えば、図17に示すように、物体認識部105は、顔の特徴量と、人物を特定するための識別情報(人物ID)とを対応付ける顔データベースを参照し、各クラスタを代表する顔の特徴量に基づいて各クラスタに対応する人物IDを特定する。そして、物体認識部105は、特定した人物IDとクラスタとを対応付ける。なお、顔データベースは、メタデータ提供者端末10が保持していてもよいし、メタデータ管理システム20又は外部の機器が保持していてもよい。
なお、ステップS108におけるクラスタリングは、例えば、特開2010−3021号公報に記載の技術などを利用することで実現可能である。また、ステップS109における特徴量に基づく対象物の識別は、例えば、特開2007−65766号公報に記載の技術などを利用することで実現可能である。
以上、前処理に係るメタデータ提供者端末10の動作について説明した。以上説明した処理により、ある対象物が出現する区間の情報、その対象物が各動画フレームにおいて出現する領域、その対象物を特定するための識別情報が得られる。つまり、領域メタデータ及び区間メタデータが得られる。但し、この領域メタデータ及び区間メタデータは、物体検出・物体トラッキング技術及び物体識別技術に基づいて自動検出されたものであり、誤検出、検出漏れ、誤識別などの影響を含んでいると考えられる。そのため、手入力によるメタデータのラベリングは不可欠である。
(2−3−2:ラベリング処理について)
以下では、図18を参照しながら、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作(図9のステップS20)について説明する。図18は、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作について説明するための説明図である。
図18に示すように、メタデータ提供者端末10は、ラベリングの対象となる動画フレーム(以下、対象フレーム)を用意する(S201)。次いで、メタデータ提供者端末10は、対象フレームに対する解析結果(動画解析ブロックにより生成された領域メタデータなど)が存在するか否かを判定する(S202)。解析結果が存在する場合、メタデータ提供者端末10は、処理をステップS203に進める。一方、解析結果が存在しない場合、メタデータ提供者端末10は、処理をステップS205に進める。
処理をステップS203に進めた場合、メタデータ提供者端末10は、移動距離算出部110の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間における対象領域の移動距離を算出する(S203)。なお、対象フレームに複数の対象領域が含まれる場合、移動距離算出部110は、複数の対象領域について算出された移動距離の代表値(例えば、平均値や中央値など)を算出する。次いで、メタデータ提供者端末10は、再生制御部107の機能により、移動距離が所定の閾値以上であるか否かを判定する(S204)。
移動距離が所定の閾値以上である場合、メタデータ提供者端末10は、処理をステップS207に進める。一方、移動距離が所定の閾値未満である場合、メタデータ提供者端末10は、現在の対象フレームの次に位置する動画フレームを新たな対象フレームに設定し、処理をステップS203に進める。つまり、メタデータ提供者端末10は、図20に示すように、対象領域の移動距離が短く、対象領域の位置がほとんど変化しない場合、その対象フレームに対するユーザの入力機会をスキップする。なお、対象フレームに対するユーザの入力機会をスキップした場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、対象フレームの前に位置する動画フレームに設定されているメタデータを対象フレームに設定する。
再び図18を参照する。ステップS202において処理をステップS205に進めた場合、メタデータ提供者端末10は、類似スコア算出部111の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間の類似スコアを算出する(S205)。類似スコアとは、動画フレーム間の類似度を表すスコアである。類似スコアの算出は、例えば、特開2007−206920号公報に記載の技術を利用することで実現可能である。次いで、メタデータ提供者端末10は、再生制御部107の機能により、類似スコアが所定の閾値以上であるか否かを判定する(S205)。
類似スコアが所定の閾値以上である場合、メタデータ提供者端末10は、処理をステップS207に進める。一方、類似スコアが所定の閾値未満である場合、メタデータ提供者端末10は、現在の対象フレームの次に位置する動画フレームを新たな対象フレームに設定し、処理をステップS205に進める。つまり、メタデータ提供者端末10は、図19に示すように、対象フレームと、対象フレームに隣接する動画フレームとの間で画像にほとんど変化がない場合、その対象フレームに対するユーザの入力機会をスキップする。なお、対象フレームに対するユーザの入力機会をスキップした場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、対象フレームの前に位置する動画フレームに設定されているメタデータを対象フレームに設定する。
再び図18を参照する。処理をステップS207に進めた場合、メタデータ提供者端末10は、再生制御部107の機能により表示部108に対象フレームを表示し、入力部109の機能によりユーザによる入力を受け付ける(S207)。例えば、入力部109がタッチパネルの場合、ユーザは、図21に示すように、表示部108に表示された対象フレームを参照しながら対象領域を選択する。このとき、再生制御部107は、ユーザが選択した領域(選択領域)に所定の形状を有するオブジェクト(図21ではハッチングで表現)を表示する。なお、再生制御部107は、押圧力や近接距離に応じてオブジェクトのサイズを調整したり(図24)、ピンチイン/ピンチアウト操作(図25)やジェスチャー操作(図26)に応じてオブジェクトのサイズを調整したりしてもよい。
次いで、メタデータ提供者端末10は、移動距離算出部110の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間でユーザにより選択された対象領域間の距離を算出する(S208)。ラベリング作業の際、再生制御部107は、通常の再生速度よりも遅い速度で動画を再生する。しかし、対象物の動きが速いシーンや、対象領域の選択が難しいシーンなどでは、ユーザの操作がシーンの切り替わりに追従できず、対象領域の選択に誤りが生じてしまう可能性がある。そこで、メタデータ提供者端末10は、図23に示すように、ユーザにより選択された対象領域の移動距離を算出し、その移動距離によりユーザ操作の遅れを検出する。
移動距離を算出したメタデータ提供者端末10は、再生制御部107の機能により、移動距離が所定の閾値以上となる区間が所定の長さ以上続いているか否かを判定する(S209)。つまり、メタデータ提供者端末10は、移動距離が所定の閾値以上となる区間が所定の長さ以上続いている場合に、ユーザ操作の遅れが生じているものとみなす。ユーザ操作の遅れを検出した場合、メタデータ提供者端末10は、処理をステップS210に進める。一方、ユーザ操作の遅れが検出されなかった場合、メタデータ提供者端末10は、処理をステップS211に進める。
処理をステップS210に進めた場合、メタデータ提供者端末10は、再生制御部107の機能により、動画の再生速度を遅くし(S210)、処理をステップS201に進める。この場合、メタデータ提供者端末10は、対象フレームについてユーザが選択した対象領域の情報をメタデータとして使用しないようにする。一方、処理をステップS211に進めた場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、ユーザにより選択された対象領域の情報を保持する(S211)。次いで、メタデータ提供者端末10は、全ての動画フレームについて処理が終了したか否かを判定する(S212)。全ての動画フレームについて処理が終了した場合、メタデータ提供者端末10は、一連の処理を終了する。一方、処理が終了していない動画フレームが残っている場合、メタデータ提供者端末10は、処理をステップS201に進める。
以上、ラベリング作業に関するメタデータ提供者端末10の動作について説明した。
(ユーザインターフェースについて)
ここで、ラベリング作業に用いるユーザインターフェースについて説明を補足する。
メタデータのラベリング作業は、主に対象領域の選択作業である。つまり、ユーザは、図21に示すように、画面に表示された画像の中から対象物を検出し、その対象物を含む領域を選択することでメタデータのラベリングを行う。入力デバイスとしてタッチパネルを利用している場合、ユーザは、対象物が表示された位置をタッチするだけで対象領域の選択を行うことができる。また、動画は連続的に再生されるため、ユーザは、画面に表示された映像に出現する対象物を指で追うだけで対象領域の選択を行うことができる。
例えば、図22に示すように、2〜6枚目の動画フレームに人物Aの顔が出現する場合、ユーザは、2番目の動画フレームの中で人物Aの顔が出現した位置をタッチし、6番目の動画フレームの再生が終了するまで人物Aの顔を指で追えばよい。この作業により、2〜6枚目の各動画フレームにおいて人物Aの顔が出現する領域を示す領域メタデータが生成される。さらに、2〜6枚目の動画フレームに対応する区間に人物Aの顔が出現することを示す区間メタデータが生成される。このように、ユーザは、再生中の動画を参照しつつ、画面に出現した対象物を追うように選択することで簡単に領域メタデータ及び区間メタデータを生成することができる。
また、図24に示すように、押圧力の強さやタッチパネルと指との間の距離に応じて領域のサイズが変更されるようにしてもよい。さらに、図25に示すように、ピンチアウト操作により選択された領域のサイズが変更されるようにしてもよい。また、図26に示すように、ジェスチャーにより選択された領域のサイズが変更されるようにしてもよい。例えば、右回りに円を描くようなジェスチャーを行った場合に選択された領域のサイズが大きくなり、左回りに円を描くようなジェスチャーを行った場合に選択された領域のサイズが小さくなるようにしてもよい。
また、図27に示すように、スクロールバーなどを利用してユーザが動画の再生シーンを自由に選択できるようにしてもよい。さらに、図27に示すように、動画解析ブロックにより自動生成された領域メタデータに基づいて各シーンの画像に対象領域(この例では顔領域)が枠で表示されるようにしてもよい。動画解析ブロックによる解析結果をユーザが修正する場合、修正が必要な箇所を素早く見つけて修正作業(例えば、図30を参照)を行えるようにすることが望まれる。図27に示すように、スクロールバーを利用して再生シーンを自由に選択できるようにし、各再生シーンに解析結果に基づく枠が表示されるようにすると、ユーザは、対象領域を修正すべき再生シーンを素早く見つけることができるようになる。
図27にはスクロールバーを利用して再生シーンを遷移させるユーザインターフェースを例示したが、図28に示すように、フリック操作を利用して再生シーンを遷移させるユーザインターフェースも便利である。このユーザインターフェースでは、例えば、画面の左方向に指をスライドさせると次のページへと再生シーンが遷移し、画面に右方向に指をスライドさせると前のページへと再生シーンが遷移する。なお、1回のフリック操作により動画フレーム1枚分だけ再生シーンが遷移するようにしてもよいが、1回のフリック操作で、動画フレーム間の類似スコアが所定の閾値以上となる動画フレームまで再生シーンが遷移するようにしてもよい。
また、図29に示すように、対象領域を示す枠の中に対象領域の情報が表示されるようにしてもよい。図29は顔領域の情報を表示した例であるが、この場合、顔領域のサイズ、顔ID(又は人物ID)、プロパティ情報(顔の方向、顔のオクルージョン、人物の名前など)などが枠内に表示される。プロパティ情報の設定は、例えば、図31及び図32に示すようなメニュー項目の選択操作や文字の入力操作により行われる。なお、顔の方向としては、例えば、「正面」、「横向き」、「後ろ向き」などがある。また、オクルージョンのレベルとしては、例えば、「完全に見えている」、「やや隠れている」、「目・鼻・口のいずれかが見える」、「完全に隠れている」などがある。
また、図33に示すように、同じ対象物に関して過去に設定された対象領域の画像を並べて表示するようにしてもよい。例えば、ある再生シーンにおいて顔領域を2本指で選択した場合に、その顔領域に含まれる顔と同じ顔に関して過去に設定された顔領域の画像が並べて表示されるようにする。過去に設定された顔領域の画像が並べて表示されることにより、過去に設定した顔領域と現在の再生シーンに登場する人物の顔とが確かに一致しているかを確認することが可能になる。その結果、ユーザの誤入力を抑制できるようになる。また、ユーザは、誤入力を素早く発見することが可能になる。
なお、並べて表示された顔領域の画像を選択することで、その顔領域が設定されている再生シーンに遷移できるようにしてもよい。このようにすると、誤入力が発見された際に、該当する再生シーンに素早く遷移することが可能になり、より効率的に顔領域の修正を行うことが可能になる。また、並べて表示された顔領域の画像を2本指(或いは、メニュー選択やダブルタップなど)で選択することで、プロパティ情報を修正するためのメニュー項目が表示されるようにしてもよい。このようにすると、再生シーンを遷移させることなしにプロパティ情報の修正を行うことが可能になり、より効率的にプロパティ情報の修正が可能になる。
ところで、動画解析ブロックによる自動処理によると、同じ対象物であるにもかかわらず、異なる対象物として認識されていることがある。例えば、動画中の離れた区間で同じ人物が出現した場合、それぞれの区間で検出された人物が別々の人物と認識されてしまうことがある。この場合、両区間に登場する人物の情報を結合させる必要がある。このような結合操作は、図34に示すようなユーザインターフェースを利用して行われる。図34に示すように、ある再生シーンに登場する人物の顔領域を指で選択(例えば、メニュー選択や3本指選択など)すると、結合候補が表示される。さらに、結合候補の中から1人の人物を選択すると、現在の再生フレームに登場する顔領域に関する情報と、選択された人物に関する情報とが結合される。
ところで、ラベリング作業の際、ユーザに対して何らフィードバックが与えられないと、メタデータが付与されたことを実感しにくい。また、図35に示すように、ユーザに対して特徴的なフィードバックを与えることで、例えば、既に付与されているメタデータの情報を直感的に伝達することが可能になる。図35の例では、対象物が人物の場合、車の場合、動物の場合で異なる振動パターンが異なる構成が示されている。例えば、メタデータが既に付与されている顔領域にタッチすると、人物に対応する振動パターンで振動が発生し、ユーザは、人物のメタデータが付与されていることを認識することができる。
このようなフィードバックの発生は、ラベリング作業に対するユーザのモチベーションを高めることにも寄与する。例えば、ユーザは、メタデータが付与されていない領域から振動フィードバックが得られないため、メタデータを付与しようと考えるだろう。また、再生シーンにおける人物の感情に応じた振動パターンで振動フィードバックが返ってくるようにすると、ラベリング作業にゲーム性が生まれ、ユーザは、振動フィードバックの発生を期待して積極的にメタデータを付与するようになるであろう。例えば、人物が怒りの感情を持つ場合には振幅を大きく、人物が冷静な状態のときには振幅を小さく、人物がリラックスした状態のときには滑らかに振動させるなどの振動パターンが考えられる。
以上、ラベリング作業に用いるユーザインターフェースについて説明を補足した。
[2−4:メタデータ管理システム20の構成]
次に、図36及び図37を参照しながら、メタデータ管理システム20の構成について説明する。図36及び図37、メタデータ管理システム20の構成について説明するための説明図である。
(概要)
まず、図36を参照しながら、メタデータ管理システム20が有する機能の概要について説明する。図36に示すように、メタデータ管理システム20は、複数のメタデータ提供者端末10により提供された動画タイムラインメタデータを統合する機能を有する。統合された動画タイムラインメタデータは、メタデータ利用者端末30に提供される。また、メタデータ管理システム20は、動画から対象物を検出する検出器や対象物の識別を行う識別器の生成に用いる学習用データベースを構築する機能を有する。このように、メタデータ管理システム20は、主に、動画タイムラインメタデータの統合及び学習用データベースの構築を行う。なお、メタデータ管理システム20は、図10に示した動画解析ブロックの機能を有していてもよい。
(機能構成)
次に、図37を参照する。図37に示すように、メタデータ管理システム20は、主に、メタデータ取得部201と、スキル・傾向分析部202と、領域メタデータ統合部203と、区間メタデータ統合部204と、オブジェクトメタデータ統合部205と、メタデータ提供部206と、記憶部207と、学習部208とにより構成される。
まず、メタデータ取得部201は、メタデータ提供者端末10から動画タイムラインメタデータを取得する。メタデータ取得部201により取得された動画タイムラインメタデータは、スキル・傾向分析部202に入力される。スキル・傾向分析部202は、入力された動画タイムラインメタデータに基づいて、その動画タイムラインメタデータを付与したユーザのラベリングスキルやラベリング操作の傾向を分析する。スキル・傾向分析部202による分析結果は、領域メタデータ統合部203、区間メタデータ統合部204、及びオブジェクトメタデータ統合部205に入力される。
領域メタデータ統合部203は、複数の領域メタデータを統合する。例えば、対象領域が矩形の場合、領域メタデータ統合部203は、同じ動画フレームに設定された同じ対象物に関する複数の対象領域について、各頂点座標の平均値を算出し、その平均値を頂点とする矩形の領域を統合後の対象領域に設定する。また、対象領域が円形の場合、領域メタデータ統合部203は、同じ動画フレームに設定された同じ対象物に関する複数の対象領域について、中心座標及び半径の平均値を算出し、中心座標の平均値を新たな中心座標とし、半径の平均値を新たな半径とする円形の領域を統合後の対象領域に設定する。統合後の領域メタデータは、メタデータ提供部206に入力される。
区間メタデータ統合部204は、複数の区間メタデータを統合する。例えば、区間メタデータ統合部204は、同じ動画及び同じ対象物に関する複数の区間メタデータを参照し、所定数以上の区間メタデータで対象物の出現区間とされた区間を対象物の出現区間に設定し、それ以外の区間を対象物の非出現区間に設定して統合後の区間メタデータを生成する。なお、区間メタデータ統合部204は、ユーザのスキルを考慮したスコアを用いて統合後の区間メタデータを生成してもよい。統合後の区間メタデータは、メタデータ提供部206に入力される。
オブジェクトメタデータ統合部205は、複数のオブジェクトメタデータを統合する。オブジェクトメタデータには、例えば、対象物の名前、属性、説明などを表すテキストが含まれる。しかし、これらのテキストには表記ゆらぎが含まれている。そのため、オブジェクトメタデータ統合部205は、各オブジェクトメタデータに含まれる表記ゆらぎを吸収すべくテキストを修正する。つまり、オブジェクトメタデータ統合部205は、類似テキストを判定し、所定の表記に修正する。例えば、オブジェクトメタデータ統合部205は、同じ人物名を表す「キャメロン・ディアス」「キャメロンディアス」「キャメロン」「キャメロン・ミシェル・ディアス」という表記を全て「キャメロン・ディアス」に置き換える。統合後のオブジェクトメタデータは、メタデータ提供部206に入力される。
なお、オブジェクトメタデータの表記ゆらぎは、ユーザがオブジェクトメタデータを入力する段階で、ある程度抑制されることが望ましい。例えば、ユーザがテキストを入力せずに済むようにテキストの候補をユーザに選択させるようなユーザインターフェースにしたり、テキストの補完機能を活用したりする方法が考えられる。また、メタデータ提供者端末10においてオブジェクトメタデータ統合部205と同様に表記ゆらぎを吸収するようにしてもよい。
メタデータ提供部206は、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータをメタデータ利用者端末30に提供する。また、メタデータ提供部206は、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータを記憶部207に蓄積する。記憶部207に蓄積された領域メタデータ、区間メタデータ、オブジェクトメタデータは、対象物の検出器及び識別器を学習により生成する際に教師データとして利用される。教師データが集まると、学習部208は、集まった教師データを利用して学習により対象物の検出器及び識別器を生成する。このとき、学習部208は、例えば、特開2009−104275号公報に記載の技術などを利用する。学習部208により生成された検出器及び識別器は、動画解析ブロックにて利用される。
以上、メタデータ管理システム20の構成について説明した。
[2−5:メタデータ管理システム20の動作]
次に、図38〜図44を参照しながら、メタデータ管理システム20の動作について説明する。また、メタデータ管理システム20の詳細な機能構成について説明を補足する。図38〜図44は、メタデータ管理システム20の動作について説明するための説明図である。
(2−5−1:統合処理について)
まず、図38を参照しながら、後処理(図9のステップS30)に関するメタデータ管理システム20の動作について説明する。図38は、後処理に関するメタデータ管理システム20の動作について説明するための説明図である。
図38に示すように、メタデータ管理システム20は、メタデータ取得部201の機能により、メタデータ提供者端末10から動画タイムラインメタデータを取得する(S301)。次いで、メタデータ管理システム20は、高信頼メタデータがあるか否かを判定する(S302)。高信頼メタデータとは、高精度の動画解析エンジンを利用して検出された動画タイムラインメタデータや、スキルの高いユーザから取得した動画タイムラインメタデータなどである。高信頼メタデータがある場合、メタデータ管理システム20は、処理をステップS303に進める。一方、高信頼メタデータがない場合、メタデータ管理システム20は、処理をステップS305に進める。
処理をステップS303に進めた場合、メタデータ管理システム20は、スキル・傾向分析部202の機能により、下記の式(2)に基づいてユーザ毎及び動画タイムラインメタデータの種類毎にLSS(Labeling Skill Score)を算出する(S303)。但し、下記の式(2)に含まれるAccuracyは、取得した動画タイムラインメタデータの精度を示すパラメータである。例えば、Accuracyとしては、再現率(Recall)、適合率(Precision)、F値(F−Measure)、誤差率などの値が利用可能である。また、Varianceは、高信頼メタデータと、取得した動画タイムラインメタデータとの差分の分散値である。さらに、α、βは、正規化係数である。
Figure 0005857450
上記の式(2)からも推察されるように、LSSは、取得した動画タイムラインメタデータの精度が高いほど大きな値となる。一方、LSSは、取得した動画タイムラインメタデータと高信頼性メタデータとの差分の分散が小さいほど大きな値となる。なお、高信頼メタデータと、取得した動画タイムラインメタデータとの差分の分散であるVarianceから、ユーザの傾向を分析することができる。例えば、Varianceが小さい場合、領域を大きめに設定する傾向や、インターバルを長めにとる傾向、或いは、領域の選択操作が遅れる傾向など、ユーザに固有に傾向が存在すると考えられる。
さて、LSSを計算したメタデータ管理システム20は、スキル・傾向分析部202の機能により、高信頼メタデータと、取得した動画タイムラインメタデータとの差分から、ユーザの傾向を算出する(S304)。次いで、メタデータ管理システム20は、取得した動画タイムラインメタデータの種類に応じて処理を切り替える(S305)。取得した動画タイムラインメタデータが領域メタデータの場合、メタデータ管理システム20は、処理をステップS306に進める。また、取得した動画タイムラインメタデータが区間メタデータの場合、メタデータ管理システム20は、処理をステップS307に進める。そして、取得した動画タイムラインメタデータがオブジェクトメタデータの場合、メタデータ管理システム20は、処理をステップS308に進める。
処理をステップS306に進めた場合、メタデータ管理システム20は、領域メタデータ統合部203の機能により、領域メタデータを統合する(S306)。例えば、図40に示すように、同じ動画フレームの同じ対象物に対してユーザA、ユーザB、ユーザCがラベリングした領域メタデータが得られているものとしよう。この場合、領域メタデータ統合部203は、ユーザAがラベリングした対象領域の各頂点座標、ユーザBがラベリングした対象領域の各頂点座標、ユーザCがラベリングした対象領域の各頂点座標を平均し、その平均値を各頂点座標とする領域を算出する。そして、領域メタデータ統合部203は、算出した領域を統合後の領域メタデータに設定する。
また、領域メタデータ統合部203は、図40に示すように、対象領域各座標ヒートマップで表現し、このヒートマップを信頼性分布として利用してもよい。さらに、領域メタデータ統合部203は、LSSの高いユーザによりラベリングされた領域メタデータを重視するようにLSSに応じた重みを付けて領域メタデータを統合してもよい。また、領域メタデータ統合部203は、各ユーザの傾向を考慮して領域メタデータの統合処理を実行してもよい。例えば、領域メタデータ統合部203は、領域を小さめに設定する傾向がユーザAにある場合、ユーザAが設定した領域を少し大きめに修正した上で、他のユーザが設定した領域と統合するようにしてもよい。
再び図38を参照する。処理をステップS307に進めた場合、メタデータ管理システム20は、区間メタデータ統合部204の機能により、図41に示すように、区間メタデータを統合する(S307)。まず、区間メタデータ統合部204は、下記の式(3)に基づいてTMS(Timeline Meta Score)を算出する。但し、下記の式(3)に含まれるLは、ラベリングしたユーザの集合を表す。また、LSSは、ユーザnのLSSを表す。そして、IsLabeledn,tは、ユーザnが時刻tの動画フレームにラベリングしたか否かを表す。また、Mは、ラベリングしたユーザの総数を表す。
Figure 0005857450
TMSを算出した区間メタデータ統合部204は、TMSが所定の閾値Th以上となる区間を対象物の出現区間に設定し、統合後の区間メタデータを生成する。なお、区間メタデータ統合部204は、各ユーザの傾向を区間メタデータの統合処理に反映させてもよい。例えば、ユーザAは領域を選択するタイミングが遅れる傾向にあるとする。この場合、区間メタデータ統合部204は、タイミングが遅れる分の時間だけ対象物の出現開始及び出現終了タイミングを早めるようにユーザAの区間メタデータを修正した上でTMSを算出し、そのTMSに基づいて統合後の区間メタデータを生成する。
ステップS305において処理をステップS308に進めた場合、メタデータ管理システム20は、オブジェクトメタデータ統合部205の機能により、オブジェクトメタデータの統合処理を実行する(S308)。まず、オブジェクトメタデータ統合部205は、図39に示すように、同じ対象物にラベリングされたプロパティ情報などを統合する。次いで、オブジェクトメタデータ統合部205は、オブジェクトメタデータに含まれる対象物の名前、属性、説明などを表すテキストの表記ゆらぎを修正する。
ステップS306、S307、S308の処理を終了すると、メタデータ管理システム20は、メタデータ提供部206の機能により、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータをメタデータ利用者端末30に提供する(S309)。次いで、メタデータ管理システム20は、統合後の動画タイムラインメタデータを新たな検出器や識別器の生成(新規機能開発・精度向上)に利用するか否かを判定する(S310)。統合後の動画タイムラインメタデータを新規機能開発・精度向上に利用する場合、メタデータ管理システム20は、処理をステップS311に進める。一方、統合後の動画タイムラインメタデータを新規機能開発・精度向上に利用しない場合、メタデータ管理システム20は、一連の処理を終了する。
処理をステップS311に進めた場合、メタデータ管理システム20は、統合後の動画タイムラインメタデータを記憶部207(学習用データベース)に格納する(S311)。次いで、メタデータ管理システム20は、学習部208の機能により、学習用データベースに十分な量の動画タイムラインメタデータが蓄積されたか否かを判定する(S312)。学習用データベースに十分な量の動画タイムラインメタデータが蓄積された場合、メタデータ管理システム20は、処理をステップS313に進める。一方、学習用データベースに十分な量の動画タイムラインメタデータが蓄積されていない場合、メタデータ管理システム20は、一連の処理を終了する。
処理をステップS313に進めた場合、メタデータ管理システム20は、学習部208の機能により、記憶部207に蓄積された動画タイムラインメタデータを教師データとして利用し、学習により新たな検出器及び識別器を生成する(S313)。新たな検出器及び識別器を生成したメタデータ管理システム20は、一連の処理を終了する。
以上、後処理に関するメタデータ管理システム20の動作について説明した。
(2−5−2:その他の機能)
さて、メタデータ管理システム20は、動画タイムラインメタデータを統合する機能や新たな検出器及び識別器を学習により生成する機能の他、ラベリングを補助又は奨励するための機能を備えていてもよい。例えば、メタデータ管理システム20は、図42に示すように、ラベリングを行ったユーザにポイントやクーポンなどの報酬を提供する機能を有していてもよい。また、メタデータ管理システム20は、図43に示すように、ソーシャルネットワークサービス(以下、SNS)を通じて動画タイムラインメタデータを複数のユーザで共有できる環境を提供する機能を有していてもよい。さらに、メタデータ管理システム20は、図44に示すように、オブジェクトメタデータの入力を補助するための情報を提供する機能を有していてもよい。
これらの機能は、ラベリング作業に対するユーザのモチベーションを直接的又は間接的に高めるための機能である。多くのユーザにとって、動画タイムラインメタデータのラベリング作業は単調で退屈な作業であると考えられる。また、一部のユーザにとってはラベリング作業が苦痛を伴う作業であるかもしれない。そのため、動画タイムラインメタデータのラベリング作業に対する動機付けを行うことは有意義であると考えられる。
例えば、図42に示すように、ラベリングを行ったユーザにポイントやクーポンが与えられる仕組みを設ければ、ラベリング作業に対するモチベーションが高まるものと考えられる。また、ポイントやクーポンの提供に代えて、ラベリングした動画(映画や放送番組など)を無料で視聴できるようにしてもよい。また、「動画から○○を探せ」のようなお題をユーザに与え、ラベリング作業にゲーム性を持たせるなどの工夫も考えられる。また、長時間のラベリング作業を行ったユーザに高い報酬を与えたり、注目度の高い人物にラベリングしたユーザに対して高い報酬を与えたりする仕組みも有効であろう。
また、図43に示すように、動画タイムラインメタデータをSNSで共有すると、動画タイムラインメタデータをアップロードしたユーザが他のユーザに感謝されたりする。そして、他のユーザに感謝されることが積極的にラベリング作業を行う動機付けになると考えられる。また、図44に示すように、動画中で選択した顔領域の特徴量に基づいてマッチング候補が提供されるようにすることで、ラベリング作業が簡略化される。また、人物を当てるゲームのような要素も含むため、ユーザのラベリング作業に対するモチベーションの向上に寄与すると考えられる。
以上、メタデータ管理システム20のオプション機能について説明した。なお、上記のオプション機能は、他のサービス提供システムにより提供されるようにしてもよい。
[2−6:メタデータ利用者端末30の構成及び動作]
次に、図45を参照しながら、メタデータ利用者端末30の構成について説明する。この中で、メタデータ利用者端末30の動作についても説明する。図45は、メタデータ利用者端末30の構成について説明するための説明図である。
図45に示すように、メタデータ利用者端末30は、主に、メタデータ取得部301と、登場区間提示部302と、登場区間再生部303と、記憶部304と、表示部305と、関連情報提示部306と、入力部307とにより構成される。
メタデータ取得部301は、メタデータ管理システム20から動画タイムラインメタデータ(図46を参照)を取得する。メタデータ取得部301により取得された動画タイムラインメタデータのうち、区間メタデータは、登場区間提示部302に入力される。一方、領域メタデータは、関連情報提示部306に入力される。登場区間提示部302は、区間メタデータを利用して各対象物が出現する区間を示す情報を表示部305に表示する。例えば、登場区間提示部302は、図47に示すように、全区間の中で各登場人物の登場区間を色分けして表示する。
また、登場区間提示部302は、図4及び図48に示すように、登場人物が出現する区間の時間情報と、その区間に出現する登場人物の情報とを対応付けて表示してもよい。さらに、登場区間提示部302は、図49に示すように、現在再生されている区間に登場する登場人物を表示してもよい。そして、登場区間提示部302は、現在再生されている区間に登場する登場人物のうち、ユーザにより選択された登場人物が登場する区間をタイムライン上に表示してもよい。また、登場区間提示部302は、図50に示すように、現在再生されている区間に登場する登場人物のうち、ユーザにより選択された登場人物が登場する区間の代表シーンを並べて表示してもよい。
再び図45を参照する。区間メタデータは、登場区間提示部302を介して登場区間再生部303にも入力される。登場区間再生部303は、記憶部304に格納された動画を再生して表示部305に表示する。また、ある対象物が出現する区間、又はある対象物が選択された場合、登場区間再生部303は、区間メタデータに基づいて、選択された区間又は選択された対象物が出現する区間を再生する。例えば、図47に示すように、ユーザにより「Cameron」の登場区間が選択された場合、登場区間再生部303は、選択された登場区間の映像を再生する。
また、図48に示すように、登場区間のリストから1つの登場区間が選択された場合、登場区間再生部303は、選択された登場区間の映像を再生する。また、図49に示すように、現在再生している区間に登場する登場人物が選択された場合、登場区間再生部303は、選択された登場人物が登場する区間の映像を再生する。また、図50に示すように、画面上で選択された登場人物の登場シーンが1つ選択された場合、登場区間再生部303は、選択された登場シーンの映像を再生する。このように、登場区間再生部303は、区間メタデータを利用し、ユーザにより選択された区間や対象物に対応する映像を選択的に再生する。
一方、関連情報提示部306は、領域メタデータを利用し、現在表示されている画像に含まれる各対象物の関連情報を表示部305に表示する。例えば、図1に示すように、現在表示されている画像に人物A及び人物Bが含まれる場合、関連情報提示部306は、人物A及び人物Bの関連情報を画面上に表示する。また、図2に示すように、現在表示されている画像に物品及び場所が含まれる場合、関連情報提示部306は、物品及び場所の関連情報を画面上に表示する。また、関連情報提示部306は、図3に示すように、現在表示されている画像に出現する対象物が選択された場合に、選択された対象物の関連情報を表示するように構成されていてもよい。
なお、関連情報としては、例えば、人物のプロフィールや写真の他、SNSサービスへのリンクや物品の販売サイトへのリンク、人物や物品の写真、人物が登場する他の動画作品などが含まれていてもよい。また、関連情報は、メタデータ管理システム20やメタデータ利用者端末30が保持していてもよいし、関連情報を提供するサービス提供システムに対して人物IDなどの識別情報を送信し、そのサービス提供システムから関連情報を取得するようにしてもよい。
また、図51及び図52に示すように、AR(Augmented Reality)技術を利用して関連情報を表示することも可能である。ARを利用する場合、ユーザは、図51に示すように、カメラ付き端末装置で動画の表示画面を撮影し、その表示画面をカメラ付き端末装置のディスプレイに表示させる。動画の表示画面が撮影範囲に入ると、カメラ付き端末装置は、表示画面に登場する対象物の関連情報を取得し、取得した関連情報をディスプレイに表示する。また、図52に示すように、カメラ付き端末装置を把持する角度を変え、撮影範囲から表示画面を外した場合に、カメラ付き端末装置のディスプレイに関連情報だけが表示されるようにしてもよい。なお、カメラ付き端末装置に加速度センサなどのセンサ類が搭載されていれば角度の変化を検出できるため、その検出結果に応じて関連情報の表示方法を切り替えることができる。
以上、メタデータ利用者端末30の構成及び動作について説明した。
[2−7:動画タイムラインメタデータのデータ構造]
次に、図53〜図59を参照しながら、動画タイムラインメタデータのデータ構造について説明する。図53〜図59、動画タイムラインメタデータのデータ構造について説明するための説明図である。なお、動画タイムラインメタデータの構成例(対象物が顔の場合)は、図46に示した通りである。図46の例では、領域メタデータは顔枠の位置及び範囲を含み、区間メタデータは顔の出現区間を含み、オブジェクトメタデータは人物ID、顔プロパティ及び顔のサムネイル画像を含む。
ここでは、上記のような構成を持つ動画タイムラインメタデータの管理を容易にすることが可能な格納フォーマットについて説明する。この格納フォーマットにおいて、動画タイムラインメタデータは、図53に示すようなボックス連結構造で格納される。ボックスは、動画タイムラインメタデータの種類毎に分類されている。例えば、「Face Box」は、顔領域に関する動画タイムラインメタデータを表す。また、「Car Box」は、車領域に関する動画タイムラインメタデータを表す。このようなボックス連結構造にすると、新たなタイプのボックスを追加するのが容易になる。また、動画タイムラインメタデータの最後尾に容易にデータを追記できるようになる。
図54に示すように、各ボックスは、ヘッダと、データ領域とにより構成される。また、ヘッダの種類には、ボックス共通のヘッダ(Box Header)と、データ依存のヘッダ(Data Header)とがある。ボックス共通のヘッダには、ボックスのサイズ、ボックスのタイプ、ボックスのIDなどが格納される。一方、データ依存のヘッダには、データ要素数や時間情報などが格納される。また、データ領域は、1又は複数のデータ要素(Data Element)により構成される。
上記のように、動画タイムラインメタデータは、タイプ毎にボックスを設けて格納される。しかし、図55に示すように、1つのボックスを複数のボックスに分割(Fragmentation)することも可能である。図55の例では、「Face Box」などのボックスが2つに分割されている。ボックスを分割することで、1つのボックスに格納されるデータ量が少なくなる。そのため、書き出し時にメモリに一旦格納されるデータ量が削減でき、書き出し時のメモリ負荷を低減することが可能になる。
また、図56に示すように、分割されたボックスを連結することもできる。分割されたボックスの連結は、Box Class IDに基づいて行う。このBox Class IDは、ボックスを識別するために予め規定されるIDである。例えば、動画解析エンジンAの解析結果を格納するFace BoxのBox Class IDが1、動画解析エンジンBの解析結果を格納するFace BoxのBox Class IDが10などと規定される。分割されたボックスを連結する場合、同じBox Class IDのボックスを検出して1つのボックスに連結する。
また、図57に示すように、データ要素の間には親子関係が規定される。親ノードと子ノードとの関係は、親ノードから子ノードへと伸びる矢印で表現される。また、1つの親ノードから複数の子ノードへと矢印を延ばすことができる。顔領域について考えると、人物IDや名前に対応するデータ要素「Person」が最上位の親ノードとなる。また、データ要素「Person」の下位には、人物が登場する区間の開始点や長さに対応するデータ要素「Interval」が位置する。
また、データ要素「Interval」の下位には、ベクター(顔枠の位置及び範囲、顔特徴量)に対応するデータ要素「Vector」が位置する。また、データ要素「Interval」の下位には、顔情報(顔位置、サイズ、パーツ位置、特徴量)に対応するデータ要素「Face」が位置する。また、データ要素「Interval」の下位には、画像(画像情報、画像データ)に対応するデータ要素「Image」が位置する。このような親子関係を規定しておくことにより、例えば、人物Aの出演する区間をすべてリスト形式で表示することが可能になる。
図57に示すような親子関係を実現するには、各データ要素が識別可能であることが必要になる。そのため、各データ要素にはElement IDが付与される。このElement IDは、1つの動画タイムラインメタデータの中で、Box Class IDが同じ全てのボックス内でユニークなIDである。例えば、図58に示すように、Box Class ID=1の2つのFace Box間でElement IDはユニークとなる。一方、Box Class ID=1のFace Boxと、Box Class ID=10のFace Boxとの間では、Element IDが重なっていてもよい。
上記の規定により、Box Class IDとElement IDとを組み合わせることで、親Boxのユニーク性が担保される。なお、親BoxのBox Class IDは、子BoxのBox Headerに格納される。また、親Boxのデータ要素が持つElement IDは、子Boxが持つデータ要素に格納される。図59を参照しながら、親BoxであるPerson Boxと、子BoxであるInterval Boxとの間の関係について考えてみたい。Person BoxのBox Class IDは、Interval BoxのBox Headerに格納される。また、Person Boxのデータ要素Person ElementのElement ID=1、2は、Interval Boxのデータ要素Interval Elementに格納される。つまり、親は複数の子を持てるが、子は複数の親を持つことができない。
以上、動画タイムラインメタデータのデータ構造について説明した。
<3:ハードウェア構成>
上記のメタデータ提供者端末10、メタデータ管理システム20、及びメタデータ利用者端末30が有する各構成要素の機能は、例えば、図60に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図60に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図60に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<4:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は以下のように表現することができる。
(1)
動画に登場する各対象物の登場区間を示した区間メタデータを取得するメタ取得部と、
前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示部と、
ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させる再生制御部と、
を備える、
情報処理装置。
(2)
前記区間情報表示部は、前記区間情報と共に、当該区間情報に対応する対象物の画像を表示し、
前記再生制御部は、ある対象物に関する区間情報と共に表示された対象物の画像がユーザにより選択された場合に、当該区間情報として表示された全ての区間の動画フレームを再生させる、
上記(1)に記載の情報処理装置。
(3)
前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物の画像を並べて表示する画像表示部をさらに備え、
前記再生制御部は、ある対象物の画像がユーザにより選択された場合に、選択された画像に対応する対象物が登場する区間の動画フレームを再生させる、
上記(1)又は(2)に記載の情報処理装置。
(4)
前記メタ取得部は、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータを取得し、
前記情報処理装置は、
前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、
前記領域認識部により対象物の存在が認識された場合に、当該対象物に関連する関連情報を表示する関連情報表示部と、
をさらに備える、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記メタ取得部は、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータを取得し、
前記情報処理装置は、前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部をさらに備え、
前記再生制御部は、前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、当該対象物が登場する区間の動画フレームを再生する、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記メタ取得部は、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータを取得し、
前記情報処理装置は、前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物に関連する関連情報を表示する関連情報表示部をさらに備え、
前記関連情報表示部は、前記領域メタデータを利用し、前記動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域から吹き出しを表示し、当該吹き出しの中に当該各対象物に関連する関連情報を表示する、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(7)
前記区間情報表示部は、対象物が登場する区間と、各区間に登場する全ての対象物とを対応付けたリストを表示する、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(8)
前記区間情報表示部は、前記動画の全区間をバーで表示し、当該バーにおいてユーザにより選択された対象物が登場する区間を強調表示する、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(9)
前記区間情報表示部は、ユーザにより選択された対象物が登場する各区間について、当該各区間を代表する画像を並べて表示し、
前記再生制御部は、前記各区間を代表する画像の1つがユーザにより選択された場合に、当該画像に対応する区間の動画フレームを再生させる、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(10)
前記情報処理装置は、前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物の情報を端末装置に送信する情報送信部をさらに備え、
前記端末装置は、撮像デバイス及び表示デバイスを搭載しており、前記撮像デバイスにより前記再生されている動画フレームを撮像し、前記表示デバイスにより当該動画フレームを表示し、前記情報処理装置から受信した各対象物の情報に基づいて当該各対象物の関連情報を当該動画フレームに重ねて表示する、
上記(1)〜(3)のいずれか1項に記載の情報処理装置。
(11)
前記端末装置は、
前記撮像デバイスの撮像範囲に前記動画フレームの表示領域が含まれる場合には前記表示デバイスに前記動画フレームと前記関連情報とを表示し、
前記撮像デバイスの撮像範囲に前記動画フレームの表示領域が含まれない場合には前記表示デバイスに前記関連情報だけを表示する、
上記(10)に記載の情報処理装置。
(12)
動画に登場する各対象物の登場区間を示した区間メタデータを取得するステップと、
前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示するステップと、
ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させるステップと、
を含む、
情報処理方法。
(13)
動画に登場する各対象物の登場区間を示した区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示機能をコンピュータに実現させるためのプログラムであり、
ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームが再生される、
プログラム。
(14)
動画に登場する各対象物の登場区間を示した区間メタデータを取得するメタ取得部と、
前記区間メタデータを利用し、再生されている動画フレームに含まれる全ての対象物の画像又は関連情報を表示する情報表示部と、
前記対象物の画像又は関連情報がユーザにより選択された場合に、前記区間メタデータを利用して、選択された画像又は関連情報に対応する対象物の登場区間を特定し、当該登場区間に含まれる動画フレームを再生させる再生制御部と、
を備える、
情報処理装置。
(15)
動画に登場する各対象物の登場区間を示した区間メタデータと、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータと、を取得するメタ取得部と、
前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、
前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、存在が認識された対象物の登場区間を特定し、当該登場区間に含まれる動画フレームを再生させる再生制御部と、
を備える、
情報処理装置。
(備考)
上記のメタデータ取得部301は、メタ取得部の一例である。上記の登場区間提示部302は、区間情報表示部の一例である。上記の登場区間再生部303は、再生制御部、画像表示部の一例である。上記の関連情報提示部306は、領域認識部、関連情報表示部の一例である。上記の関連情報提示部306は、情報送信部、情報表示部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
10 メタデータ提供者端末
101 記憶部
102 デコーダ
103 領域抽出部
104 領域加工部
105 物体認識部
106 メタデータ提供部
107 再生制御部
108 表示部
109 入力部
110 移動距離算出部
111 類似スコア算出部
20 メタデータ管理システム
201 メタデータ取得部
202 スキル・傾向分析部
203 領域メタデータ統合部
204 区間メタデータ統合部
205 オブジェクトメタデータ統合部
206 メタデータ提供部
207 記憶部
208 学習部
30 メタデータ利用者端末
301 メタデータ取得部
302 登場区間提示部
303 登場区間再生部
304 記憶部
305 表示部
306 関連情報提示部
307 入力部

Claims (14)

  1. 動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータと、当該動画に登場する前記各対象物の登場区間を示した区間メタデータと、を取得するメタ取得部と、
    前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示部と、
    ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させる再生制御部と、
    前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、
    を備え、
    前記区間情報表示部は、前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、存在が認識された当該対象物の登場区間を特定し、特定した当該登場区間に対応する情報を表示する、
    情報処理装置。
  2. 前記区間情報表示部は、前記区間情報と共に、当該区間情報に対応する対象物の画像を表示し、
    前記再生制御部は、ある対象物に関する区間情報と共に表示された対象物の画像がユーザにより選択された場合に、当該区間情報として表示された全ての区間の動画フレームを再生させる、
    請求項1に記載の情報処理装置。
  3. 前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物の画像を並べて表示する画像表示部をさらに備え、
    前記再生制御部は、ある対象物の画像がユーザにより選択された場合に、選択された画像に対応する対象物が登場する区間の動画フレームを再生させる、
    請求項1又は2に記載の情報処理装置。
  4. 前記メタ取得部は、動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータを取得し、
    前記情報処理装置は、
    前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、
    前記領域認識部により対象物の存在が認識された場合に、当該対象物に関連する関連情報を表示する関連情報表示部と、
    をさらに備える、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記再生制御部は、前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、当該対象物が登場する区間の動画フレームを再生する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  6. 前記情報処理装置は、前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物に関連する関連情報を表示する関連情報表示部をさらに備え、
    前記関連情報表示部は、前記領域メタデータを利用し、前記動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域から吹き出しを表示し、当該吹き出しの中に当該各対象物に関連する関連情報を表示する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  7. 前記区間情報表示部は、対象物が登場する区間と、各区間に登場する全ての対象物とを対応付けたリストを表示する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  8. 前記区間情報表示部は、前記動画の全区間をバーで表示し、当該バーにおいてユーザにより選択された対象物が登場する区間を強調表示する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  9. 前記区間情報表示部は、前記領域認識部により認識された前記対象物が登場する各区間に対応する情報として、当該各区間を代表する画像を表示し、
    前記再生制御部は、前記各区間を代表する画像の1つがユーザにより選択された場合に、当該画像に対応する区間の動画フレームを再生させる、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  10. 前記情報処理装置は、前記区間メタデータを利用して、再生されている動画フレームに含まれる全ての対象物を認識し、認識した各対象物の情報を端末装置に送信する情報送信部をさらに備え、
    前記端末装置は、撮像デバイス及び表示デバイスを搭載しており、前記撮像デバイスにより前記再生されている動画フレームを撮像し、前記表示デバイスにより当該動画フレームを表示し、前記情報処理装置から受信した各対象物の情報に基づいて当該各対象物の関連情報を当該動画フレームに重ねて表示する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  11. 前記端末装置は、
    前記撮像デバイスの撮像範囲に前記動画フレームの表示領域が含まれる場合には前記表示デバイスに前記動画フレームと前記関連情報とを表示し、
    前記撮像デバイスの撮像範囲に前記動画フレームの表示領域が含まれない場合には前記表示デバイスに前記関連情報だけを表示する、
    請求項10に記載の情報処理装置。
  12. 動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータと、動画に登場する各対象物の登場区間を示した区間メタデータと、を取得するステップと、
    前記区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示するステップと、
    ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームを再生させるステップと、
    前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識するステップと、
    当該対象物の存在が認識された場合に、前記区間メタデータを利用して、存在が認識された当該対象物の登場区間を特定し、特定された当該登場区間に対応する情報を表示する、ステップと、
    を含む、
    情報処理方法。
  13. 動画に登場する各対象物の登場区間を示した区間メタデータを利用し、前記動画を構成する全区間の中で各対象物が登場する区間を視覚的に表現した区間情報を表示する区間情報表示機能をコンピュータに実現させるためのプログラムであり、
    ある対象物に関する区間情報として表示された区間の中から1つの区間がユーザにより選択された場合に、選択された区間の動画フレームが再生され、
    動画を構成する各動画フレームに含まれる前記各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータを利用し、再生されている動画フレーム内でユーザが指定した位置に存在する対象物が認識され、
    当該対象物の存在が認識された場合に、前記区間メタデータを利用して、当該対象物が登場する各区間に対応する情報が表示される、
    プログラム。
  14. 動画を構成する各動画フレームに含まれる各対象物の位置又は当該各対象物を含む領域の情報を動画フレーム毎に記述した領域メタデータと、動画に登場する前記各対象物の登場区間を示した区間メタデータと、を取得するメタ取得部と、
    前記区間メタデータを利用し、再生されている動画フレームに含まれる全ての対象物の画像又は関連情報を表示する情報表示部と、
    前記対象物の画像又は関連情報がユーザにより選択された場合に、前記区間メタデータを利用して、選択された画像又は関連情報に対応する対象物の登場区間を特定し、当該登場区間に含まれる動画フレームを再生させる再生制御部と、
    前記領域メタデータを利用して、再生されている動画フレーム内でユーザが指定した位置に存在する対象物を認識する領域認識部と、
    を備え、
    前記情報表示部は、前記領域認識部により対象物の存在が認識された場合に、前記区間メタデータを利用して、当該対象物が登場する各区間に対応する情報を表示する、
    情報処理装置。
JP2011120395A 2011-05-30 2011-05-30 情報処理装置、情報処理方法、及びプログラム Active JP5857450B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011120395A JP5857450B2 (ja) 2011-05-30 2011-05-30 情報処理装置、情報処理方法、及びプログラム
EP12166139.1A EP2530675A3 (en) 2011-05-30 2012-04-30 Information processing apparatus, information processing method, and program
US13/478,360 US20120308202A1 (en) 2011-05-30 2012-05-23 Information processing apparatus, information processing method, and program
CN2012101629191A CN102857810A (zh) 2011-05-30 2012-05-23 信息处理设备、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011120395A JP5857450B2 (ja) 2011-05-30 2011-05-30 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2012249156A JP2012249156A (ja) 2012-12-13
JP2012249156A5 JP2012249156A5 (ja) 2014-07-10
JP5857450B2 true JP5857450B2 (ja) 2016-02-10

Family

ID=46419870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011120395A Active JP5857450B2 (ja) 2011-05-30 2011-05-30 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20120308202A1 (ja)
EP (1) EP2530675A3 (ja)
JP (1) JP5857450B2 (ja)
CN (1) CN102857810A (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8689255B1 (en) 2011-09-07 2014-04-01 Imdb.Com, Inc. Synchronizing video content with extrinsic data
US8869198B2 (en) * 2011-09-28 2014-10-21 Vilynx, Inc. Producing video bits for space time video summary
WO2013099282A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 コンテンツ再生装置、及び、コンテンツ再生方法
US9800951B1 (en) 2012-06-21 2017-10-24 Amazon Technologies, Inc. Unobtrusively enhancing video content with extrinsic data
US8955021B1 (en) * 2012-08-31 2015-02-10 Amazon Technologies, Inc. Providing extrinsic data for video content
US9113128B1 (en) 2012-08-31 2015-08-18 Amazon Technologies, Inc. Timeline interface for video content
US8763041B2 (en) * 2012-08-31 2014-06-24 Amazon Technologies, Inc. Enhancing video content with extrinsic data
KR20140042409A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 오브젝트 부가 정보를 입력하는 장치 및 오브젝트 부가 정보를 입력하는 방법
US9389745B1 (en) 2012-12-10 2016-07-12 Amazon Technologies, Inc. Providing content via multiple display devices
JP6103948B2 (ja) * 2013-01-17 2017-03-29 キヤノン株式会社 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
US9892761B2 (en) * 2013-02-22 2018-02-13 Fuji Xerox Co., Ltd. Systems and methods for creating and using navigable spatial overviews for video
US10424009B1 (en) 2013-02-27 2019-09-24 Amazon Technologies, Inc. Shopping experience using multiple computing devices
US9374411B1 (en) 2013-03-21 2016-06-21 Amazon Technologies, Inc. Content recommendations using deep data
US9449216B1 (en) * 2013-04-10 2016-09-20 Amazon Technologies, Inc. Detection of cast members in video content
EP2797332A1 (en) * 2013-04-23 2014-10-29 Thomson Licensing Method and device for querying a knowledge base associated with a multimedia content
US11019300B1 (en) 2013-06-26 2021-05-25 Amazon Technologies, Inc. Providing soundtrack information during playback of video content
CN103703789B (zh) * 2013-06-28 2018-02-02 华为技术有限公司 一种数据展示的方法、终端及***
EP3025525B1 (en) 2013-07-25 2018-12-12 Convida Wireless, LLC End-to-end m2m service layer sessions
US20150046816A1 (en) * 2013-08-06 2015-02-12 International Business Machines Corporation Display of video content based on a context of user interface
US10194189B1 (en) 2013-09-23 2019-01-29 Amazon Technologies, Inc. Playback of content using multiple devices
US9899062B2 (en) 2013-12-09 2018-02-20 Godo Kaisha Ip Bridge 1 Interface apparatus for designating link destination, interface apparatus for viewer, and computer program
US10349093B2 (en) * 2014-03-10 2019-07-09 Cisco Technology, Inc. System and method for deriving timeline metadata for video content
US9838740B1 (en) 2014-03-18 2017-12-05 Amazon Technologies, Inc. Enhancing video content with personalized extrinsic data
JP5852171B2 (ja) * 2014-05-09 2016-02-03 株式会社Jストリーム コンテンツ付加情報提供システム
EP2985706A1 (en) * 2014-08-14 2016-02-17 Samsung Electronics Co., Ltd. Method and apparatus for providing image contents
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10034038B2 (en) * 2014-09-10 2018-07-24 Cisco Technology, Inc. Video channel selection
KR101975511B1 (ko) * 2014-10-22 2019-05-07 후아웨이 테크놀러지 컴퍼니 리미티드 인터액티브 비디오 생성
US10417271B2 (en) 2014-11-25 2019-09-17 International Business Machines Corporation Media content search based on a relationship type and a relationship strength
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
CN104811798B (zh) * 2015-04-17 2018-05-25 广东欧珀移动通信有限公司 一种调整视频播放速度的方法及装置
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
US9704020B2 (en) 2015-06-16 2017-07-11 Microsoft Technology Licensing, Llc Automatic recognition of entities in media-captured events
US10271109B1 (en) 2015-09-16 2019-04-23 Amazon Technologies, LLC Verbal queries relative to video content
CN106559678A (zh) * 2015-09-28 2017-04-05 北京视连通科技有限公司 一种对数字视频进行结构化处理的方法
JP2017091455A (ja) * 2015-11-17 2017-05-25 株式会社東芝 画像処理装置、画像処理方法及び画像処理プログラム
JP6353470B2 (ja) * 2016-02-04 2018-07-04 株式会社Jストリーム コンテンツ付加情報提供システム
WO2017196670A1 (en) 2016-05-13 2017-11-16 Vid Scale, Inc. Bit depth remapping based on viewing parameters
CN107396165B (zh) 2016-05-16 2019-11-22 杭州海康威视数字技术股份有限公司 一种视频播放方法及装置
US11503314B2 (en) 2016-07-08 2022-11-15 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
JP6458782B2 (ja) * 2016-07-28 2019-01-30 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
CN115632686A (zh) 2016-11-03 2023-01-20 康维达无线有限责任公司 Nr中的帧结构
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US11765406B2 (en) 2017-02-17 2023-09-19 Interdigital Madison Patent Holdings, Sas Systems and methods for selective object-of-interest zooming in streaming video
EP3593536A1 (en) 2017-03-07 2020-01-15 PCMS Holdings, Inc. Tailored video streaming for multi-device presentations
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US20180316962A1 (en) * 2017-04-27 2018-11-01 Sling Media Pvt Ltd Methods and Systems for Effective Scrub Bar Navigation
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
KR101938667B1 (ko) * 2017-05-29 2019-01-16 엘지전자 주식회사 휴대 전자장치 및 그 제어 방법
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
US10432987B2 (en) 2017-09-15 2019-10-01 Cisco Technology, Inc. Virtualized and automated real time video production system
JP7104292B2 (ja) * 2017-11-29 2022-07-21 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP6948959B2 (ja) * 2018-02-09 2021-10-13 株式会社日立ソリューションズ・クリエイト 画像処理システム及び画像処理方法
US10979761B2 (en) * 2018-03-14 2021-04-13 Huawei Technologies Co., Ltd. Intelligent video interaction method
JP7237927B2 (ja) * 2018-03-15 2023-03-13 ソニーグループ株式会社 情報処理装置、情報処理装置およびプログラム
US11405698B2 (en) * 2018-03-26 2022-08-02 Saturn Licensing Llc Information processing apparatus, information processing method, and program for presenting reproduced video including service object and adding additional image indicating the service object
WO2020068251A1 (en) 2018-09-27 2020-04-02 Convida Wireless, Llc Sub-band operations in unlicensed spectrums of new radio
CN109858380A (zh) * 2019-01-04 2019-06-07 广州大学 可扩展手势识别方法、装置、***、手势识别终端和介质
JP7234718B2 (ja) * 2019-03-18 2023-03-08 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
IT201900004823A1 (it) * 2019-04-01 2020-10-01 Mario Amura Sistema e metodo per la concatenazione istantanea di contenuti video tramite performance.
JPWO2020246237A1 (ja) * 2019-06-05 2021-09-13 パロニム株式会社 情報処理システム
CN110263216B (zh) * 2019-06-13 2022-01-28 腾讯科技(深圳)有限公司 一种视频分类的方法、视频分类模型训练的方法及装置
CN110392310B (zh) * 2019-07-29 2022-06-03 北京奇艺世纪科技有限公司 一种视频识别信息的显示方法及相关设备
CN110569392B (zh) * 2019-08-28 2023-01-10 深圳市天视通技术有限公司 一种多视频处理***和方法
JP2021048506A (ja) * 2019-09-19 2021-03-25 Kddi株式会社 映像シーン情報管理装置
US11099811B2 (en) 2019-09-24 2021-08-24 Rovi Guides, Inc. Systems and methods for displaying subjects of an audio portion of content and displaying autocomplete suggestions for a search related to a subject of the audio portion
JP6831027B1 (ja) * 2020-02-28 2021-02-17 株式会社ドワンゴ 配信システム、動画生成装置、および動画生成方法
CN112395022B (zh) * 2020-11-04 2023-08-08 北京字节跳动网络技术有限公司 信息显示方法、装置、电子设备及计算机可读存储介质
CN112637482B (zh) * 2020-12-08 2022-05-17 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN113676776B (zh) * 2021-09-22 2023-12-26 维沃移动通信有限公司 视频播放方法、装置及电子设备
WO2024070190A1 (ja) * 2022-09-27 2024-04-04 パナソニックIpマネジメント株式会社 送受信システム、受信装置、送信装置、送受信方法、受信装置の制御方法、送信装置の制御方法、およびプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282713B1 (en) * 1998-12-21 2001-08-28 Sony Corporation Method and apparatus for providing on-demand electronic advertising
KR100350787B1 (ko) * 1999-09-22 2002-08-28 엘지전자 주식회사 멀티미디어 객체의 사용자 프로파일 생성방법과 사용자 프로파일을 이용한 멀티미디어 검색 및 브라우징 방법
US7343617B1 (en) * 2000-02-29 2008-03-11 Goldpocket Interactive, Inc. Method and apparatus for interaction with hyperlinks in a television broadcast
JP2003036224A (ja) * 2001-07-23 2003-02-07 Mitsubishi Electric Corp コンテンツ配信システム、中継装置、および端末装置
CN1777945B (zh) * 2003-04-23 2012-10-31 Lg电子株式会社 对记录在交互记录介质上的主内容以及其附加内容进行同步再现的方法和设备
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2007018198A (ja) * 2005-07-06 2007-01-25 Sony Corp リンク情報付きインデックス情報生成装置、タグ情報付き画像データ生成装置、リンク情報付きインデックス情報生成方法、タグ情報付き画像データ生成方法及びプログラム
JP4595750B2 (ja) 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2007206920A (ja) 2006-02-01 2007-08-16 Sony Corp 画像処理装置および方法、検索装置および方法、プログラム、並びに記録媒体
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2008078713A (ja) * 2006-09-19 2008-04-03 Sony Corp 記録装置および方法、プログラム、並びに再生装置および方法
WO2008041629A1 (fr) * 2006-09-29 2008-04-10 Sony Corporation Dispositif et procédé de reproduction, dispositif et procédé de génération d'informations, support de stockage de données, structure de données, support de stockage de programme, et programme
KR101387831B1 (ko) * 2007-02-08 2014-04-23 엘지전자 주식회사 데이터 방송 수신기에서의 유저 인터페이스 방법
JP4831623B2 (ja) * 2007-03-29 2011-12-07 Kddi株式会社 動画像の顔インデックス作成装置およびその顔画像追跡方法
JP2008283486A (ja) * 2007-05-10 2008-11-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP4392622B2 (ja) 2007-10-22 2010-01-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP4561877B2 (ja) * 2008-06-02 2010-10-13 ソニー株式会社 画像再生装置及び方法、並びにプログラム
JP4577410B2 (ja) 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5066037B2 (ja) * 2008-09-02 2012-11-07 株式会社日立製作所 情報処理装置
US8666223B2 (en) * 2008-09-25 2014-03-04 Kabushiki Kaisha Toshiba Electronic apparatus and image data management method
JP5244012B2 (ja) * 2009-03-31 2013-07-24 株式会社エヌ・ティ・ティ・ドコモ 端末装置、拡張現実感システム及び端末画面表示方法
JP2011035837A (ja) * 2009-08-05 2011-02-17 Toshiba Corp 電子機器および画像データの表示方法
KR101657565B1 (ko) * 2010-04-21 2016-09-19 엘지전자 주식회사 증강 원격제어장치 및 그 동작 방법
JP2011120395A (ja) 2009-12-04 2011-06-16 Toyota Motor Corp 蓄電装置の充電装置および充電方法
JP5522789B2 (ja) * 2010-06-09 2014-06-18 日本放送協会 リンク機能付動画再生装置およびリンク機能付動画再生プログラム

Also Published As

Publication number Publication date
CN102857810A (zh) 2013-01-02
EP2530675A2 (en) 2012-12-05
US20120308202A1 (en) 2012-12-06
EP2530675A3 (en) 2013-04-17
JP2012249156A (ja) 2012-12-13

Similar Documents

Publication Publication Date Title
JP5857450B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2012248070A (ja) 情報処理装置、メタデータ設定方法、及びプログラム
KR101839319B1 (ko) 컨텐츠 검색 방법 및 그를 이용한 디스플레이 장치
US9118886B2 (en) Annotating general objects in video
JP6179889B2 (ja) コメント情報生成装置およびコメント表示装置
US8416332B2 (en) Information processing apparatus, information processing method, and program
US10380773B2 (en) Information processing apparatus, information processing method, and computer readable medium
CN103797812A (zh) 带评论运动图像生成装置及带评论运动图像生成方法
US10684754B2 (en) Method of providing visual sound image and electronic device implementing the same
US20160283106A1 (en) Computing device
US9563277B2 (en) Apparatus, system, and method for controlling virtual object
CN110035329B (zh) 图像处理方法、装置及存储介质
ES2914124T3 (es) Focalización multimedia
KR20160031226A (ko) 동영상 내 객체 관련 정보 검색 방법 및 동영상 재생 장치
CN103124968A (zh) 用于后仰式娱乐的内容转换
US9152707B2 (en) System and method for creating and providing media objects in a navigable environment
KR20160016574A (ko) 영상 제공 방법 및 이를 위한 장치
JP5619214B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP5147737B2 (ja) 撮像装置
CN116597360A (zh) 一种视频处理方法、***、设备及介质、程序产品
WO2014162757A1 (ja) 情報処理装置、タグ付け方法及びプログラム
JP2015099568A (ja) 行動記録装置、行動記録方法及びプログラム
JP5822855B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2013219447A (ja) コンテンツ表示装置、コンテンツ受信装置、プログラム及びコンテンツ再生装置
Yang et al. StoryMap: An Efficient Sketch-Based Interface for Video Navigation.

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R151 Written notification of patent or utility model registration

Ref document number: 5857450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250