JP2008005010A - 動画編集方法 - Google Patents

動画編集方法 Download PDF

Info

Publication number
JP2008005010A
JP2008005010A JP2006169914A JP2006169914A JP2008005010A JP 2008005010 A JP2008005010 A JP 2008005010A JP 2006169914 A JP2006169914 A JP 2006169914A JP 2006169914 A JP2006169914 A JP 2006169914A JP 2008005010 A JP2008005010 A JP 2008005010A
Authority
JP
Japan
Prior art keywords
metadata
moving image
feature amount
editing method
event time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006169914A
Other languages
English (en)
Inventor
Keiichi Tsuda
圭一 津田
Junichi Nakabashi
順一 中橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006169914A priority Critical patent/JP2008005010A/ja
Publication of JP2008005010A publication Critical patent/JP2008005010A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

【課題】蓄積済みの動画データに対し、イベントタイムタグを正確に、かつ容易に付与する方法を提供する。
【解決手段】タグ付加手段102を備え、手元のイベントタイムタグ未付加動画100に対して、別途時刻情報とイベントタイムタグが示されたメタデータ101を獲得し、動画データに、前記メタデータに沿ったタグを付加する。この際、メタデータに付加されている特徴量と、未タグ付け動画の特徴量が最も適合するずれ時間を計算し、その時間ずれをもって、メタデータに付与されているイベントタイムタグ情報を未タグ付け動画に付加してもよい。これにより、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、イベントタイムタグを正確に、かつ容易に付与することが可能になり、イベントタイムタグが付与されたタグ付き動画が得られる。
【選択図】図1

Description

本発明は、録画済の動画の編集に関し、より詳細には、録画済の動画にイベントタイムタグを付加する方法および、付加したイベントタイムタグを参照して動画を編集する動画編集方法に関する。
TV放送の多チャンネル化、録画機の大容量化、録画予約の容易化等を背景として、視聴者が録画する量は増大の一途をたどっており、その結果、蓄積されたまま視聴せずに放置されている動画の量も増加する傾向にある。そこで、その動画のうち、必要部分のみを視聴したり、不要部分を削除したりする機能、ひいてはそれを支援するため、動画のシーンの変わり目にイベントタイムタグを付加する機能が要望されている。
この要望を実現する手段として、録画時にEPG情報を参照して、不要部分を録画しないという方法が提案されている(特許文献1)。
特許文献1で示す方法の概略を図13に示した。映像、番組データを入力する入力手段11と、前記入力手段11から送られてきた映像を記録する録画手段12と、録画スケジュールを作成する録画スケジュール作成手段13と、前記録画手段12を制御する録画制御手段14と、視聴者が見たい番組の条件を管理する登録手段15と、録画された映像情報を蓄積する蓄積媒体16とからなる。
入力手段11に対し、映像データと番組データが入力される。ここで、番組データとは、いわゆるEPG(電子番組ガイド)のことで、番組データが電子的に配布されたものである。加えてこの場合、通常のEPGデータには、番組内のシーンの時刻が含まれていない場合もあるのに対し、番組内のシーン時刻が含まれているケースを想定している。
視聴者は、登録手段15に対し、俳優の名前や映画監督の名前等、自分の見たい番組の条件を指定する。条件の設定により、録画スケジュール作成手段13が、条件にマッチするシーンのみを選択的に録画するよう録画スケジュールを作成し、録画制御手段14がそのスケジュールに沿って録画することにより、視聴者が指定した条件にマッチしたシーンのみが抽出された動画が記録されるという効果がある。
一方、蓄積された動画データに対し、音量など、動画データの特徴量シーケンスを参照してタイムタグ付加を行う方法が提案されている(特許文献2)。
特許文献2で示す方法のフローの一例を図14に示した。この方法は、映像情報を記録する録画保存手段と、録画保存手段に保存されているコンテンツの音声レベルを検出し、当該音声レベルに従ってタグ情報を作成する編集手段からなる。
前記編集手段は、録画保存手段に保存されている映像データに対して、録画領域における全域に対して音声レベルをサーチし、その音声レベルが周りより高い部分を抽出し、その抽出した部分、たとえばスポーツ番組において歓声による音声レベルが高い注目シーンについてタグ情報を作成したり、そのタグ情報に従って映像ファイルを自動編集したりすることができるという効果がある。
特開2001−134998号公報 特開2002−330390号公報
前記特許文献1で示す方法は、放送と同時にEPGを取得する方法であり、そのEPGが誤っていない限り、精度良く番組の切り出しを行うことができるが、同方法は、録画時にEPGデータが既知である必要があり、また、EPG情報を参照して録画するする機能に非対応の録画機で録画した場合、EPGデータと録画データの整合性が失われるため、その後同機能に対応の機器にダビング等を行っても、編集が不可能となる。すなわち、録画時にEPGデータが既知であること、また最初の録画時に録画機が上記機能に対応している必要があり、それを満たさない動画に対しては適用することができないという課題が存在する。
例えば、既に既存のVTR等の録画装置で蓄積済みの動画や、放送時にEPGが配信されている時点で録画した動画であっても、同機能非対応の録画機で録画した動画がそれに該当する。
また、前記特許文献2で示す方法は、任意の動画データに適用可能であるが、リファレンスとなるデータがないため、シーンを誤抽出する可能性が高い。また、ここからが何らかのシーンであるという、タイム情報の付与のみが可能であって、それぞれのシーンの内容を示すことができない。すなわち、テキスト情報を付加することはできない、ひいては、キーワード等を指定しての自動編集が不可能であるという課題があった。
つまり、前記特許文献1ないし2の方法では、例えば、既にVTRで記録済みの動画や、今後、メタデータやEPG情報が整備されたケースであっても、前記メタデータやEPG情報を破棄する機械で録画した動画を、イベントタイムタグ対応の、コンピュータや録画機にダビングした時等は、全くイベントタイムタグの付加や自動編集ができないか(特許文献1)、不十分な精度で、内容に関する情報を全く含まないタグ付加、自動編集(特許文献2)が可能であるというレベルにとどまるという課題が存在する。
したがって、本発明の目的は、蓄積済みの動画データに対し、イベントタイムタグを正確に、かつ容易に付与し、また、付与したイベントタイムタグを参照して、自動的または容易に動画の編集を行うことができる動画編集方法を提供することである。
上記課題を解決するために、本発明の請求項1記載の動画編集方法は、動画に組み込まれたイベントの時刻を示すイベントタイムタグが付与されていない動画データに対し、イベント時刻が記録され、動画情報を含まないメタデータを取得し、動画データに、メタデータに基づいてイベントタイムタグを付与することを特徴とする。
請求項2記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した条件に一致しない不要部分を削除する。
請求項3記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した特定部分を検索する。
請求項4記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データに、キャプション、静止画または動画を付加する。
請求項5記載の動画編集方法は、請求項1記載の動画編集方法において、メタデータに、時刻に対応した動画の特徴量シーケンス情報が付加され、イベントタイムタグが付与されていない未タグ付け動画の時刻に対応した動画の特徴量シーケンス情報とメタデータに付加された特徴量シーケンス情報と照合することにより、相互の特徴量が最も一致する時刻を基にして、動画データにイベントタイムタグを付与する。
請求項6記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、音声の特徴量を用いる。
請求項7記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、画像の特徴量を用いる。
請求項8記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、複数の特徴量を組合せたベクトルを用いる。
請求項9記載の動画編集方法は、請求項5,6,7または8記載の動画編集方法において、特徴量の照合方法として、相互相関関数を用いる。
請求項10記載の動画編集方法は、請求項5,6,7または8記載の動画編集方法において、特徴量の照合方法として、動的計画法を用いる。
請求項11記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、複数のメタデータの中から、各メタデータに付加された情報のうち、使用者が指定した条件に一致する情報を有するメタデータを選択することを特徴とする。
請求項12記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、タグ付けを意図している動画が決定しているとき、複数のメタデータの中から、各メタデータに付加された特徴量シーケンス情報と、タグ付けを意図している動画の特徴量シーケンス情報が一致する程度が高いメタデータを選択することを特徴とする。
請求項13記載の動画編集方法は、請求項1,2,3,4,5,6,7,8,9,10,11または12記載の動画編集方法において、タグ付けに使用するメタデータを、メタデータを蓄積する中央サーバから取得する。
請求項14記載の動画編集方法は、請求項13記載の動画編集方法において、中央サーバは、使用者の与えた絞り込み条件から、蓄積されたメタデータを絞り込む機能を有する。
請求項15記載の動画編集方法は、請求項13または14記載の動画編集方法において、中央サーバは、未タグ付け動画の時刻に対応した特徴量シーケンス情報と、サーバに蓄積されている複数のメタデータの時刻に対応した特徴量シーケンス情報とを照合し、一致する程度が高いメタデータを選択する。
請求項16記載の動画編集方法は、請求項13記載の動画編集方法において、中央サーバはメタデータを蓄積するメタデータデータベースを管理し、使用者が所有するメタデータを中央サーバにアップロードし、メタデータデータベースを更新することができる。
請求項17記載の動画編集方法は、請求項1,2,3,4,5,6,7,8,9,10,11,12,13,14,15または16記載の動画編集方法において、メタデータを作成する際、イベント情報を含んだ放送からイベント時刻を抽出してメタデータを作成する。
請求項18記載の動画編集方法は、請求項17記載の動画編集方法において、イベント時刻に対応した特徴量シーケンス情報を抽出して、特徴量シーケンス情報を含んだメタデータを作成する。
本発明の動画編集方法によれば、イベントタイムタグが付与されていない動画データに対し、イベント時刻が記録され、動画情報を含まないメタデータを取得し、動画データに、メタデータに基づいてイベントタイムタグを付与するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、イベントタイムタグを正確に、かつ容易に付与することが可能になり、イベントタイムタグが付与されたタグ付き動画が得られる。
また、本発明において、請求項2記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した条件に一致しない不要部分を削除するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、使用者の嗜好に沿った動画編集を容易に行うことができる。
また、本発明において、請求項3記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した特定部分を検索するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、容易にシーン検索を行うができ、使用者の希望する部分のみが再生可能となる。
また、本発明において、請求項4記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データに、キャプション、静止画または動画を付加するので、キャプション等の付加された編集済み動画が簡単に得られる。
また、本発明において、請求項5記載の動画編集方法では、メタデータに、時刻に対応した動画の特徴量シーケンス情報が付加され、イベントタイムタグが付与されていない未タグ付け動画の時刻に対応した動画の特徴量シーケンス情報とメタデータに付加された特徴量シーケンス情報と照合することにより、相互の特徴量が最も一致する時刻を基にして、動画データにイベントタイムタグを付与するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、動画の前後に過不足があった場合でも、容易に正しくイベントタイムタグを付与することができる。さらに付与したイベントタイムタグを参照して動画の編集等を行うことが可能となる。
また、本発明において、動画の特徴量シーケンス情報として、音声の特徴量、画像の特徴量、または複数の特徴量を組合せたベクトルを用いることが好ましい。例えば、音量データ、画像明度や色相、スペクトル、それらの時間変化等、スカラー値、組合せたベクトル値を用いることが可能である。
また、本発明において、特徴量の照合方法として、相互相関関数、または動的計画法を用いることが好ましい。相互相関関数等を求めることにより、最も一致するずれ時間を計算することで、ずれ時間を適切なタグ付け開始時刻として与えることができる。
また、本発明において、請求項11記載の動画編集方法では、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、複数のメタデータの中から、各メタデータに付加された情報のうち、使用者が指定した条件に一致する情報を有するメタデータを選択するので、メタデータ群の中から、タグ付けに用いる希望のメタデータを容易に選別することが可能となる。
また、本発明において、請求項12記載の動画編集方法では、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、タグ付けを意図している動画が決定しているとき、複数のメタデータの中から、各メタデータに付加された特徴量シーケンス情報と、タグ付けを意図している動画の特徴量シーケンス情報が一致する程度が高いメタデータを選択するので、タグ付けしたい動画が既知の場合、特に使用者がキーワード等の指定をしなくても、メタデータ群の中から、タグ付けに用いるメタデータを自動的に選別することが可能となる。
また、本発明において、請求項13記載の動画編集方法では、タグ付けに使用するメタデータを、メタデータを蓄積する中央サーバから取得するので、メタデータ群を使用者間で共有することが可能となる。
また、本発明において、中央サーバは、使用者の与えた絞り込み条件から、蓄積されたメタデータを絞り込む機能を有することが好ましい。これにより、使用者間でデータベースを共有しつつ、多数のメタデータ群から、必要なメタデータを容易に選択することができる。
また、本発明において、請求項15記載の動画編集方法では、中央サーバは、未タグ付け動画の時刻に対応した特徴量シーケンス情報と、サーバに蓄積されている複数のメタデータの時刻に対応した特徴量シーケンス情報とを照合し、特徴量シーケンス情報が一致する程度が高いメタデータを選択するので、特に使用者がキーワード等の指定をしなくても、動画に付加すべきタグを含んだメタデータを容易に抽出でき、なおかつ、動画そのものではなく、特徴量シーケンスの転送のみでメタデータを選択可能であるため、通信回線への負担が少ないという効果がある。
また、本発明において、請求項16記載の動画編集方法では、中央サーバはメタデータを蓄積するメタデータデータベースを管理し、使用者が所有するメタデータを中央サーバにアップロードし、メタデータデータベースを更新することができるので、メタデータデータベースを、使用者の手によって充実させることが可能となり、メタデータの作成コストが低減でき、また、メタデータデータベースに使用者の嗜好が反映される。
また、本発明において、請求項17記載の動画編集方法では、メタデータを作成する際、イベント情報を含んだ放送からイベント時刻を抽出してメタデータを作成するので、メタデータを自動的に作成することが可能となり、メタデータの作成コストが低減できる。
また、本発明において、イベント時刻に対応した特徴量シーケンス情報を抽出して、特徴量シーケンス情報を含んだメタデータを作成することが好ましい。これにより、請求項5に記載の効果が得られる。
以下、本発明の実施の形態について、添付図面に基づいて説明する。なお、以下に示す実施の形態は、本発明の説明のための例示に過ぎず、他のさまざまな方法によって実施可能である。
本発明の第1の実施形態を図1に基づいて説明する。図1は、動画情報そのものを含まないメタデータを利用して、動画データにイベントタイムタグを付加することを特徴とする発明の実施の形態である。
図1に示すように、タグが付加されていない動画(動画データ)100、メタデータ101、およびタグ付加手段102が存在する。タグ付加手段102は、手元のイベントタイムタグ未付加動画100に対して、別途時刻情報とイベントタイムタグが示されたメタデータ101を獲得し、動画データ100に、メタデータ101に沿ったタグを付加する。
メタデータ101は、ある番組に対して、何らかのイベントが発生する時刻と、そのイベントの種類を示す情報の対を、1つもしくは複数含むが、その番組そのものの動画を含まないデータである。従来、この種のメタデータは、動画と一体となった形でしか存在せず、著作権等の見地から、柔軟な利用が難しかったのに対し、本発明におけるメタデータ101は、動画そのものの情報を含まないため、柔軟な利用が可能であるという利点がある。
ここでは、メタデータ101は、歌番組”Music-TV”に関して、どの時刻にどのアーティストが登場したか、歌ったか、CMが入ったかというデータだとする。なお、ここでは対象を「番組」としたが、実際には番組に限定されず、映画、コンサート、演説等、さまざまなマルチメディアコンテンツを対象とすることが可能である。
また、メタデータ101に含まれているような、イベントの時刻とそのイベントの種類を示す情報の対が、動画に組み込まれた場合、それをイベントタイムタグ104と呼称する。また、イベントタイムタグ104が組み込まれた動画を、タグ付き動画103と呼称する。
タグ付加手段102は、動画100に対して、メタデータ101に含まれる一つのイベント時刻とイベント内容の対、もしくは複数のイベント時刻とイベント内容の対を、あるオフセット時間を付加した上で付与し、タグ付き動画103を出力するものである。ただし、ここでは、前記オフセット時間を時刻tとする。開始点tは、手動または自動で与えられる。
この結果、イベントタイムタグ104が付加されたタグ付き動画103が得られるという効果がある。
本発明の第2の実施形態を図2〜図4に基づいて説明する。図2〜図4は、動画データに付加されたイベントタイムタグを利用して動画の検索もしくは編集を行うことを特徴とする発明の実施の形態の説明図である。そのうち、図2は、動画データに付加されたイベントタイムタグを利用して、動画の不要部分の削除を行うことを特徴とする発明の実施の形態である。
図2に示すように、図1に示した発明と同様、タグが付加されていない動画200、メタデータ201、およびタグ付加手段202が存在する。図1に示した方法と同じ方法で、タグ付き動画203が得られる。本実施形態では、さらに、イベントタイムタグを付加した動画203に対して、タグ情報を参照して、動画203の、条件にマッチする部分以外の不要部分の削除を行う動画編集手段204が存在する。ここでは、動画編集手段204により、アーティスト名「△☆」というキーワードにヒットする部分以外を削除し、編集済み動画205として出力するものとする。これにより、使用者の嗜好に沿った動画編集が容易になるという効果がある。
図3は、動画データに付加されたイベントタイムタグを利用して、動画の検索を行うことを特徴とする発明の実施の形態である。
図3に示すように、図1に示した発明と同様、タグが付加されていない動画300、メタデータ301、およびタグ付加手段302が存在する。それに加え、イベントタイムタグを付加した動画303に対して、タグ情報を参照して、動画303の、条件にマッチする部分の検索を行うシーン検索手段304が存在する。図1に示した方法と同じ方法で、タグ付き動画303が得られる。本実施形態では、さらに、シーン検索手段304が、タグの内容を検索して、実際の再生時に使用者の所望のシーンの頭出しを行う。ここでは、シーン検索手段304は、アーティスト名「△☆」というキーワードにヒットする部分のみを抜き出して頭出しするものとする。これにより、動画自体の完全性を損なわないまま、自動的に、使用者の希望する部分のみが再生可能であるという効果がある。
図4は、動画データに付加されたイベントタイムタグを利用して、動画に何らかの付加を行うことを特徴とする発明の実施の形態である。
図4に示すように、図1に示した発明と同様、タグが付加されていない動画400、メタデータ401、およびタグ付加手段402が存在する。それに加え、イベントタイムタグを付加した動画400に対して、タグ情報を参照して、動画400に、キャプション等を付加する動画編集手段404が存在する。図1に示した方法と同じ方法で、タグ付き動画403が得られる。本実施形態では、さらに、動画編集手段404が、タグの内容に沿って、動画403にキャプション405の付加を行う。なおキャプションとしては、ここではシーンの内容を示す文としたが、他にも歌詞、字幕、野球中継における球種や、さらには静止画、動画等も考えられる。
これにより、キャプション等の付加された編集済み動画406が簡単に得られるという効果がある。
本発明の第3の実施形態を図5に基づいて説明する。図5は、動画データの特徴量シーケンスをリファレンスデータと照合することにより、動画に余分や不足があっても、正しくイベントタイムタグを付加することを特徴とする方法の発明の実施の形態の説明図である。
図5に示すように、タグが付加されていない動画500、特徴量シーケンスを算出する特徴量算出手段501、メタデータ502、特徴量照合手段505が存在する。メタデータに、時刻に対応した、その番組固有の特性を示すと考えられる、音量や画像明度等の特徴量シーケンス情報が付加されており、タグ未付加動画の同特徴量シーケンスと、前記メタデータ付与の特徴量シーケンスと照合することにより、イベントタイムタグの時刻が、タグ未付加動画のどの時刻に最もマッチするかを検出し、動画の過不足にかかわらず、正しくタグ付けする。ここでは、動画500は、ある歌番組”Music-TV”を録画したものとする。また、動画500は、使用者が、同動画を録画した機械の時計が不正確であることから、番組の前後に数分の余裕を持たせて録画しておいたものとする。また、メタデータ502は、図1〜図4で示すメタデータ101,201,301,401と相違し、何らかのイベントが発生する時刻とそのイベントの種類を示すテキストの対のほかに番組”Music-TV”のリファレンスに対して、あらかじめ計算された特徴量シーケンスデータ503を含む。
特徴量算出手段501は、動画500の特徴量シーケンスデータ504を算出する。なお、ここで特徴量シーケンスとは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能である。
特徴量照合手段505は、動画500から導出された特徴量シーケンス504と、メタデータに含まれる特徴量シーケンス503が最も一致するずれ時間を算出する。ここでは、相互相関関数506を求めることにより、最も一致するずれ時間を計算するものとする。ここで、相互相関関数のピークとなる時刻がtだとすると、動画500の先頭に時刻t分の余分が付加されていることが判明する。このずれ時間tを、図1のシステムのタグ付け開始時刻tとして与えることにより、動画500の先頭の余分がどれほどであっても、自動的に適切な時刻にタグデータを付加することができるという効果がある。
なお、特徴量シーケンス照合に用いる方法として、動的計画法を用いてもよい。
本発明の第4の実施形態を図6に基づいて説明する。図6は、メタデータ群の中から、ユーザの指定した検索キーに従って、使用するメタデータを選択することを特徴とする方法の発明の実施の形態の説明図である。
図6に示すように、使用者600、メタデータデータベース601およびメタデータ選別手段602が存在する。メタデータデータベース601は、図1〜図5で示した実施形態において利用するメタデータを多数蓄積している。本実施の形態は、複数のメタデータの中から、使用者が動画タグ付けに使用するメタデータを選出する方法であり、メタデータ選別手段602が、メタデータに付加された情報のうち、使用者の指定した条件に該当するものを抽出することにより、希望のメタデータを選択する。
すなわち、使用者は、メタデータ選別手段602に、所望の検索条件603を入力する。条件としては、番組名、タグに含まれるキーワード、番組の長さ、放送日時、放送局等、さまざまな条件を指定することができる。ここでは、番組名”Music-TV”を指定したものとする。
メタデータ選別手段602は、メタデータデータベース601にアクセスし、検索条件603に該当するメタデータ群604を選択する。これにより、多数のメタデータ群から、必要なメタデータを容易に選択することができるという効果がある。
本発明の第5の実施の形態を図7および図8に基づいて説明する。図7および図8は、メタデータ群の中から、動画の持つ特徴量シーケンスとのマッチングを行うことにより、使用するメタデータを選択することを特徴とする方法の発明の実施の形態の説明図である。
図7および図8に示すように、使用者700が動画701を所有しており、さらにメタデータデータベース702、特徴量算出手段703、および特徴量照合手段704が存在する。特徴量算出手段703は図5で説明したものと同様である。本実施の形態は、タグ付けをする動画が既知の場合に、複数のメタデータの中から、使用者が動画タグ付けに使用するメタデータを選出する方法であり、メタデータ群中の、それぞれのメタデータに付加された特徴量シーケンスと、タグ付けをする動画の同特徴量シーケンスをそれぞれ照合し、もっとも適合度が高い特徴量シーケンスを付与されたメタデータを選出する。
すなわち、特徴量算出手段703は、動画701の特徴量を、図5で示した方法と同様に算出し、特徴量シーケンス705を算出する。ここで、特徴量とは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能であることも図5で示した方法と同様である。
特徴量照合手段704は、動画701の特徴量シーケンス705と、メタデータデータベース702に蓄積されているメタデータ群のそれぞれの特徴量シーケンスとの比較を行い、適合度の高いメタデータ1つまたは複数を抽出し、マッチしたメタデータ706(もしくは、マッチしたメタデータ群)を選出する。
前記、適合度の高いメタデータの抽出方法の一例を図8に示す。まず、特徴量照合手段704は、前記特徴量シーケンスデータ800と、蓄積されている各メタデータの持つ特徴量シーケンスデータ801〜803との、相互相関関数804〜806を計算する。次に、相互相関関数804〜806のうちもっとも大きなピーク値を持つものを検索する。メタデータ1の”Music-TV”の特徴量シーケンスデータ801は、前後に余分がある以外は、送信されてきた特徴量シーケンスデータ800とほぼ一致しており、あるずれ時間tにおいて非常に大きな相互相関値ピークを示すはずである。メタデータ選別手段704は、入力特徴量データ800に相当する動画701に付加されるべきメタデータは、もっとも大きな相互相関値ピークを示す、メタデータ1であると判断する。
なお、ここでは照合の手段として相互相関関数を用いたが、動的計画法を用いても同様の方法が可能である。
また、図7では特徴量照合手段704が出力するのは、マッチしたメタデータ706のみとしているが、これに加えて動画のずれ量tも同時に出力することができる。
この方法により、特に使用者がキーワード等の指定をしなくても、動画701に付加すべきタグを含んだメタデータを容易に抽出できるという効果がある。
本発明の第6の実施形態を図9に基づいて説明する。図9は、中央サーバからメタデータを取得することを特徴とする方法の発明の実施の形態の説明図である。
図9に示すように、使用者900とサーバ901が存在し、サーバ901はメタデータデータベース902およびメタデータ選別手段903を含む。メタデータデータベース902は、図1〜図5で示した形態において利用するメタデータを多数蓄積している。本実施の形態は、タグ付けに用いるメタデータの取得方法であり、タグ付けに用いるメタデータを、メタデータを蓄積する中央サーバ901から取得する。また、中央サーバ901が、使用者の与えたキーワードや放送日時情報等の絞り込み条件に従って、蓄積されたメタデータの中から絞り込み条件に適合するメタデータを選出する。
すなわち、使用者900は、サーバ901に、所望の検索条件904を入力する。条件としては、図6で例示したものがそのまま適用可能である。ここでは、番組名”Music-TV”を指定したものとする。
メタデータ選別手段903は、メタデータデータベース902にアクセスし、検索条件904に該当するメタデータ群905を選択し、使用者900に送信する。これにより、ユーザ間でデータベースを共有しつつ、多数のメタデータ群から、必要なメタデータを容易に選択することができるという効果がある。
本発明の第7の実施形態を図10に基づいて説明する。図10は、中央サーバが、蓄積されたメタデータの中から、使用者側から送信されてきた特徴量シーケンスと最も適合したメタデータを選別することを特徴とする方法の発明の実施形態の説明図である。
図10に示すように、使用者1000が動画1001を所有しており、特徴量算出手段1002を備える。また、サーバ1003が存在し、メタデータデータベース1004、特徴量照合手段1005を備える。タグ付けをする動画が既知の場合に、使用者1000側で、タグ付けする動画の特徴量シーケンスを算出し、それを受信した中央サーバ1003が、タグ付けをする動画の特徴量シーケンスと、蓄積されたメタデータ群中の各メタデータに付与された特徴量シーケンスの照合を行い、適合度の高いメタデータを選出する。
すなわち、特徴量算出手段1002は、動画1001の特徴量を、図5で示した方法と同様に算出し、特徴量シーケンス1006を算出する。ここで、特徴量とは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能であることも、図5で示した方法と同様である。
特徴量シーケンス1006は、通信路を介してサーバ1003に送られ、サーバの特徴量照合手段1005により、メタデータデータベース1004に蓄積されているメタデータ群の特徴量シーケンスそれぞれと比較され、適合度の高いメタデータ1つまたは複数を抽出し、マッチしたメタデータ1007(もしくは、マッチしたメタデータ群)が選出され、再び通信路を介して使用者1000側に送られる。
なお、特徴量照合手段1005の行うマッチングは、図7〜図8で示したマッチングと同様である。
また、図10では特徴量照合手段1005が出力するのは、マッチしたメタデータ1007のみとしているが、これに加えて動画のずれ量tも同時に出力することができる。
この方法により、ユーザ間でデータベースを共有しつつ、特に使用者がキーワード等の指定をしなくても、動画1001に付加すべきタグを含んだメタデータを容易に抽出でき、なおかつ、動画そのものではなく、特徴量シーケンスの転送のみでこの機能を実現可能であるため、通信回線への負担が少ないという効果がある。
本発明の第8の実施形態を図11に基づいて説明する。図11は、メタデータを蓄積した中央サーバに、使用者がメタデータをアップロードすることを特徴とする方法の発明の実施の形態の説明図である。
図11に示すように、使用者1100が、自ら手動でタグ付けをしたタグつき動画1101および、タグデータ抽出手段1102を所持している。また、サーバ1103が存在し、サーバ1103は、メタデータデータベース1104を含む。本実施の形態は、中央サーバ1103の備えるメタデータデータベース1104の管理方法であり、使用者が、自らの所有するメタデータを、回線を介して送信し、メタデータデータベース1104を更新することができる。
すなわち、使用者1100は、タグつき動画1101をタグデータ抽出手段1102に入力し、メタデータを作成する。これを使用者作成メタデータ1105とする。なお、図ではメタデータはイベントタイムのみのデータとしているが、タグデータ抽出手段1102が、図5で説明したような特徴量算出手段を備えており、使用者作成メタデータ1105が、特徴量シーケンスデータを含む形態も存在する。
使用者1100は、作成したメタデータ1105を、通信回線を介してサーバ1103に送信する。サーバは、使用者作成メタデータを、メタデータデータベース1104に追加する。
この方法により、メタデータデータベースに蓄積されるメタデータが増加し、メタデータを作成するコストの削減ができる効果、また、メタデータデータベースに使用者の嗜好が反映される効果がある。
本発明の第9の実施の形態を図12に基づいて説明する。図12は、タグ付きの放送データから、メタデータを抽出する方法の発明の実施の形態の説明図である。
図12に示すように、イベントタイムタグつき放送1200が配信される環境および、メタデータ抽出手段1201が存在する。本実施の形態は、メタデータの自動作成方法であり、イベントをポイントする情報を含んだ放送から、イベントの時刻を抽出してメタデータを作成する。
すなわち、タグデータ抽出手段1201は、タグつき放送1200から、タイムタグデータや番組名を抽出し、メタデータを作成する。これを自動作成メタデータ1202とする。なお、同図ではメタデータはイベントタイムのみのデータとしているが、他の形態として、タグデータ抽出手段1201が、図5で説明したような特徴量算出手段を備えており、自動作成メタデータ1202が、特徴量シーケンスデータを含む形態も存在する。
この方法により、メタデータが自動的に作成されるため、メタデータを作成するコストの削減ができる効果がある。
なお、上記各実施形態は適宜組み合わせて実施できる。
本発明にかかる動画編集方法は、録画済の動画データに対して、全自動でイベントタイムタグを付加すること、および付加して編集することが可能となる。本発明は、DVDレコーダやパーソナルコンピュータ上のソフトウェアとして利用可能性がある。
本発明の第1の実施形態の、動画データにイベントタイムタグを付加することを特徴とする方法の説明図である。 本発明の第2の実施形態において、動画データに付加されたイベントタイムタグを利用して動画の切り出しを行うことを特徴とする方法の説明図である。 本発明の第2の実施形態の、動画データに付加されたイベントタイムタグを利用して動画の検索を行うことを特徴とする方法の説明図である。 本発明の第2の実施形態の、動画データに付加されたイベントタイムタグを利用して動画の編集を行うことを特徴とする方法の説明図である。 本発明の第3の実施形態の、動画データの特徴量シーケンスをリファレンスデータと照合することにより、動画に余分や不足があっても、正しくイベントタイムタグを付加することを特徴とする方法の説明図である。 本発明の第4の実施形態の、メタデータ群の中から、ユーザの指定した検索キーに従って、使用するメタデータを選択することを特徴とする方法の説明図である。 本発明の第5の実施形態の、メタデータ群の中から、動画の持つ特徴量シーケンスのマッチングを行うことにより、使用するメタデータを選択することを特徴とする方法の説明図である。 図7で説明する、本発明の第5の実施形態のうち、適合する程度の高いメタデータを抽出する部分の図である。 本発明の第6の実施形態の、中央サーバからメタデータを取得することを特徴とする方法の説明図である。 本発明の第7の実施形態の、中央サーバが、蓄積されたメタデータの中から、使用者側から送信されてきた特徴量シーケンスと最も適合したメタデータを選別することを特徴とする方法の説明図である。 本発明の第8の実施形態の、メタデータを蓄積した中央サーバに、使用者がメタデータをアップロードすることを特徴とする方法の説明図である。 本発明の第9の実施形態の、タグ付きの放送データから、メタデータを抽出する方法の説明図である。 従来例の概略図である。 別の従来例の概略図である。
符号の説明
100 動画データ
101 動画に付加される、メタデータ
102 タグ付加手段
103 出力された、タグ付き動画
104 付与されたイベントタイムタグ
200 動画データ
201 動画に付加される、メタデータ
202 タグ付加手段
203 出力された、タグ付き動画
204 動画編集手段
205 出力された、編集済み動画
300 動画データ
301 動画に付加される、メタデータ
302 タグ付加手段
303 出力された、タグ付き動画
304 シーン検索手段
400 動画データ
401 動画に付加される、メタデータ
402 タグ付加手段
403 出力された、タグ付き動画
404 動画編集手段
405 動画に付加される、キャプション
406 出力された、編集済み動画
500 動画データ
501 特徴量算出手段
502 メタデータ
503 メタデータに付加されている、特徴量シーケンス
504 動画データから算出された、特徴量シーケンス
505 特徴量照合手段
506 相互相関関数
600 使用者
601 メタデータデータベース
602 メタデータ選別手段
603 検索条件、番組名 Music-TV
604 選別されたメタデータ群
700 使用者
701 動画データ
702 メタデータデータベース
703 特徴量算出手段
704 特徴量照合手段
705 動画データから算出された、特徴量シーケンス
706 選別されたメタデータ
800 入力特徴量シーケンスデータ
801 メタデータ1
802 メタデータ2
803 メタデータn
804 入力特徴量シーケンスデータとメタデータ1の、相互相関関数
805 入力特徴量シーケンスデータとメタデータ2の、相互相関関数
806 入力特徴量シーケンスデータとメタデータnの、相互相関関数
900 使用者
901 サーバ
902 メタデータデータベース
903 メタデータ選別手段
904 検索条件、番組名Music-TV
905 選別されたメタデータ
1000 使用者
1001 動画データ
1002 特徴量算出手段
1003 サーバ
1004 メタデータデータベース
1005 特徴量照合手段
1006 動画データから算出された、特徴量シーケンス
1007 選別されたメタデータ
1100 使用者
1101 タグ付き動画
1102 タグデータ抽出手段
1103 サーバ
1104 メタデータデータベース
1105 使用者が作成したメタデータ
1200 タグ付き放送データ
1201 タグデータ抽出手段
1202 出力された、自動作成メタデータ

Claims (18)

  1. 動画に組み込まれたイベントの時刻を示すイベントタイムタグが付与されていない動画データに対し、イベント時刻が記録され、動画情報を含まないメタデータを取得し、前記動画データに、前記メタデータに基づいてイベントタイムタグを付与することを特徴とする動画編集方法。
  2. 前記イベントタイムタグ情報に基づいて、前記イベントタイムタグを付与した動画データの、使用者が指定した条件に一致しない不要部分を削除する請求項1記載の動画編集方法。
  3. 前記イベントタイムタグ情報に基づいて、前記イベントタイムタグを付与した動画データの、使用者が指定した特定部分を検索する請求項1記載の動画編集方法。
  4. 前記イベントタイムタグ情報に基づいて、前記イベントタイムタグを付与した動画データに、キャプション、静止画または動画を付加する請求項1記載の動画編集方法。
  5. 前記メタデータに、時刻に対応した動画の特徴量シーケンス情報が付加され、前記イベントタイムタグが付与されていない未タグ付け動画の時刻に対応した動画の特徴量シーケンス情報と前記メタデータに付加された特徴量シーケンス情報と照合することにより、相互の特徴量が最も一致する時刻を基にして、動画データにイベントタイムタグを付与する請求項1記載の動画編集方法。
  6. 前記動画の特徴量シーケンス情報として、音声の特徴量を用いる請求項5記載の動画編集方法。
  7. 前記動画の特徴量シーケンス情報として、画像の特徴量を用いる請求項5記載の動画編集方法。
  8. 前記動画の特徴量シーケンス情報として、複数の特徴量を組合せたベクトルを用いる請求項5記載の動画編集方法。
  9. 前記特徴量の照合方法として、相互相関関数を用いる請求項5,6,7または8記載の動画編集方法。
  10. 前記特徴量の照合方法として、動的計画法を用いる請求項5,6,7または8記載の動画編集方法。
  11. 請求項1記載の動画編集方法において前記イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、複数のメタデータの中から、各メタデータに付加された情報のうち、使用者が指定した条件に一致する情報を有するメタデータを選択することを特徴とする動画編集方法。
  12. 請求項1記載の動画編集方法において前記イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、タグ付けを意図している動画が決定しているとき、複数のメタデータの中から、各メタデータに付加された特徴量シーケンス情報と、前記タグ付けを意図している動画の特徴量シーケンス情報が一致する程度が高いメタデータを選択することを特徴とする動画編集方法。
  13. 前記タグ付けに使用するメタデータを、メタデータを蓄積する中央サーバから取得する請求項1,2,3,4,5,6,7,8,9,10,11または12記載の動画編集方法。
  14. 前記中央サーバは、使用者の与えた絞り込み条件から、蓄積されたメタデータを絞り込む機能を有する請求項13記載の動画編集方法。
  15. 前記中央サーバは、未タグ付け動画の時刻に対応した特徴量シーケンス情報と、サーバに蓄積されている複数のメタデータの時刻に対応した特徴量シーケンス情報とを照合し、一致する程度が高いメタデータを選択する請求項13または14記載の動画編集方法。
  16. 前記中央サーバはメタデータを蓄積するメタデータデータベースを管理し、使用者が所有するメタデータを前記中央サーバにアップロードし、前記メタデータデータベースを更新することができる請求項13記載の動画編集方法。
  17. 前記メタデータを作成する際、イベント情報を含んだ放送からイベント時刻を抽出してメタデータを作成する請求項1,2,3,4,5,6,7,8,9,10,11,12,13,14,15または16記載の動画編集方法。
  18. 前記イベント時刻に対応した特徴量シーケンス情報を抽出して、前記特徴量シーケンス情報を含んだメタデータを作成する請求項17記載の動画編集方法。
JP2006169914A 2006-06-20 2006-06-20 動画編集方法 Pending JP2008005010A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006169914A JP2008005010A (ja) 2006-06-20 2006-06-20 動画編集方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006169914A JP2008005010A (ja) 2006-06-20 2006-06-20 動画編集方法

Publications (1)

Publication Number Publication Date
JP2008005010A true JP2008005010A (ja) 2008-01-10

Family

ID=39009077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006169914A Pending JP2008005010A (ja) 2006-06-20 2006-06-20 動画編集方法

Country Status (1)

Country Link
JP (1) JP2008005010A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100790108B1 (ko) * 2006-11-17 2008-01-02 삼성전자주식회사 휴대단말기의 레이저 거리 측정 장치
KR100790777B1 (ko) * 2005-11-23 2008-01-02 송만호 인덕터 및 그의 제조 방법
KR100810104B1 (ko) * 2007-03-28 2008-03-06 주식회사 영텍 포지셔너의 유량공급 및 배출구 구조
KR100811996B1 (ko) * 2007-03-21 2008-03-10 삼성에스디아이 주식회사 유기 전계 발광소자 및 이를 이용한 유기 전계발광표시장치
KR100813854B1 (ko) * 2007-04-23 2008-03-17 삼성에스디아이 주식회사 유기 발광 소자 및 그 제조방법
KR100817992B1 (ko) * 2006-05-10 2008-03-31 가시오게산키 가부시키가이샤 표시장치 및 그 제조방법
KR100842509B1 (ko) * 2006-12-26 2008-07-01 동부일렉트로닉스 주식회사 웨이퍼 표면검사를 위한 레이저 스캐닝장치
KR100844680B1 (ko) * 2007-09-18 2008-07-07 현대자동차주식회사 자동차용 프론트 사이드 멤버와 사이드 프레임의 연결보강장치
KR100845693B1 (ko) * 2007-11-12 2008-07-11 길종진 전자파 차단 3선식 온도검출 및 조절회로
KR100847052B1 (ko) * 2006-06-23 2008-07-17 명병수 에프에프티 주파수 분석기와 음향 센서 위치를 제어하기위한 제어 시스템간의 인터페이스 회로
KR100847297B1 (ko) * 2005-12-15 2008-07-18 유한회사 로드플랜 보도블록의 설치구조
KR100857737B1 (ko) * 2007-05-20 2008-09-10 경상대학교산학협력단 초임계 유체 추출장치를 이용한 양파청국장 잼 및 그의제조방법
KR100861647B1 (ko) * 2006-04-06 2008-10-02 주식회사 하이닉스반도체 낸드 플래시 메모리 소자의 채널 부스팅 전압 측정 방법
JP2010055174A (ja) * 2008-08-26 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> コンテクスト抽出サーバ、コンテクスト抽出方法、およびプログラム
JP2010068426A (ja) * 2008-09-12 2010-03-25 Fujitsu Ltd 再生装置及びコンテンツ再生プログラム
EP2713371A2 (en) 2012-09-27 2014-04-02 JVC KENWOOD Corporation Imaging device, image processing device, imaging method, image processing method, and computer program product
WO2020137274A1 (ja) 2018-12-27 2020-07-02 Run.Edge株式会社 動画タグ付け装置および動画タグ付け方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100790777B1 (ko) * 2005-11-23 2008-01-02 송만호 인덕터 및 그의 제조 방법
KR100847297B1 (ko) * 2005-12-15 2008-07-18 유한회사 로드플랜 보도블록의 설치구조
KR100861647B1 (ko) * 2006-04-06 2008-10-02 주식회사 하이닉스반도체 낸드 플래시 메모리 소자의 채널 부스팅 전압 측정 방법
KR100817992B1 (ko) * 2006-05-10 2008-03-31 가시오게산키 가부시키가이샤 표시장치 및 그 제조방법
KR100847052B1 (ko) * 2006-06-23 2008-07-17 명병수 에프에프티 주파수 분석기와 음향 센서 위치를 제어하기위한 제어 시스템간의 인터페이스 회로
KR100790108B1 (ko) * 2006-11-17 2008-01-02 삼성전자주식회사 휴대단말기의 레이저 거리 측정 장치
KR100842509B1 (ko) * 2006-12-26 2008-07-01 동부일렉트로닉스 주식회사 웨이퍼 표면검사를 위한 레이저 스캐닝장치
KR100811996B1 (ko) * 2007-03-21 2008-03-10 삼성에스디아이 주식회사 유기 전계 발광소자 및 이를 이용한 유기 전계발광표시장치
KR100810104B1 (ko) * 2007-03-28 2008-03-06 주식회사 영텍 포지셔너의 유량공급 및 배출구 구조
KR100813854B1 (ko) * 2007-04-23 2008-03-17 삼성에스디아이 주식회사 유기 발광 소자 및 그 제조방법
KR100857737B1 (ko) * 2007-05-20 2008-09-10 경상대학교산학협력단 초임계 유체 추출장치를 이용한 양파청국장 잼 및 그의제조방법
KR100844680B1 (ko) * 2007-09-18 2008-07-07 현대자동차주식회사 자동차용 프론트 사이드 멤버와 사이드 프레임의 연결보강장치
KR100845693B1 (ko) * 2007-11-12 2008-07-11 길종진 전자파 차단 3선식 온도검출 및 조절회로
JP2010055174A (ja) * 2008-08-26 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> コンテクスト抽出サーバ、コンテクスト抽出方法、およびプログラム
JP2010068426A (ja) * 2008-09-12 2010-03-25 Fujitsu Ltd 再生装置及びコンテンツ再生プログラム
EP2713371A2 (en) 2012-09-27 2014-04-02 JVC KENWOOD Corporation Imaging device, image processing device, imaging method, image processing method, and computer program product
US9294709B2 (en) 2012-09-27 2016-03-22 JVC Kenwood Corporation Imaging device, image processing device, imaging method, image processing method, and computer program product
WO2020137274A1 (ja) 2018-12-27 2020-07-02 Run.Edge株式会社 動画タグ付け装置および動画タグ付け方法

Similar Documents

Publication Publication Date Title
JP2008005010A (ja) 動画編集方法
US10482168B2 (en) Method and apparatus for annotating video content with metadata generated using speech recognition technology
JP4224095B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理システム
US10313714B2 (en) Audiovisual content presentation dependent on metadata
US9684644B2 (en) Annotating video intervals
JP4550725B2 (ja) 映像視聴支援システム
JP2006155384A (ja) 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
US8036261B2 (en) Feature-vector generation apparatus, search apparatus, feature-vector generation method, search method and program
US20080065693A1 (en) Presenting and linking segments of tagged media files in a media services network
US8019163B2 (en) Information processing apparatus and method
JP2004193871A (ja) メディアデータ視聴装置及びメタデータ共有システム
JP5868978B2 (ja) コミュニティベースのメタデータを提供するための方法および装置
US20140304597A1 (en) Content-object synchronization and authoring of dynamic metadata
KR100967658B1 (ko) 다중 카메라 뷰의 동적 선택에 기반한 개인화 방송 시스템과 방법 및 이를 수록한 저장매체
JP2001028722A (ja) 動画像管理装置及び動画像管理システム
CN101568968B (zh) 用于创建已包括摘要和报道的视听文献的新摘要的方法以及可实现所述方法的接收器
JP4331706B2 (ja) 編集装置及び編集方法
JP4376218B2 (ja) コンテンツ蓄積装置、コンテンツ蓄積方法及びプログラム記録媒体
US8971686B2 (en) Method and apparatus for managing digital contents and method and apparatus for executing digital contents according to playback positions
JP5053287B2 (ja) ディスプレイ、キー画像の抽出及び関連するレセプタを用いて、記録されたドキュメントを識別する方法
US20160127807A1 (en) Dynamically determined audiovisual content guidebook
JP2008099012A (ja) コンテンツ再生システム及びコンテンツ蓄積システム
KR100479608B1 (ko) 지능형 비디오 브라우징 시스템
US20190182517A1 (en) Providing Enrichment Data That is a Video Segment
JP4469884B2 (ja) メタデータ共有システム