JP2001155036A - ナビゲーション装置及びナビゲート方法 - Google Patents

ナビゲーション装置及びナビゲート方法

Info

Publication number
JP2001155036A
JP2001155036A JP2000274129A JP2000274129A JP2001155036A JP 2001155036 A JP2001155036 A JP 2001155036A JP 2000274129 A JP2000274129 A JP 2000274129A JP 2000274129 A JP2000274129 A JP 2000274129A JP 2001155036 A JP2001155036 A JP 2001155036A
Authority
JP
Japan
Prior art keywords
source
semantic
metadata
desired feature
source content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000274129A
Other languages
English (en)
Other versions
JP4572024B2 (ja
Inventor
John Mark Mcgrath
マーク マクグラツ、ジョーン
Martin Rex Dorricott
レークス ドリコット、マーチン
Andrew Collins
コリンズ、アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Europe BV United Kingdom Branch
Original Assignee
Sony United Kingdom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony United Kingdom Ltd filed Critical Sony United Kingdom Ltd
Publication of JP2001155036A publication Critical patent/JP2001155036A/ja
Application granted granted Critical
Publication of JP4572024B2 publication Critical patent/JP4572024B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

(57)【要約】 【課題】 ソースコンテンツをナビゲートしてソースコ
ンテンツ、ソースコンテンツの部分に対応する意味ソー
スメタデータにおいて所望の特徴を識別する。 【解決手段】 ナビゲーション装置は、所望の特徴の要
求を受け取る入力インターフェースと、要求から、意味
メタデータに関する所望の特徴を指定する検索要求を生
成し、所望の特徴を示す意味ソースメタデータを識別す
るように検索要求を処理する処理装置とを備える。出力
インターフェースは、識別された意味ソースメタデータ
に対応するソースコンテンツの部分の表示を所望の特徴
として出力する。これによって、ソースコンテンツにお
いて特定の特徴を見いだす正確で効果的な技術が提供さ
れる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ソースコンテンツ
(source content)をナビゲートする(navigate)ナビ
ゲート装置及び方法、編集装置並びにコンピュータプロ
グラムに関する。ソースコンテンツは、例えばビデオ及
び/又はオーディオ素材(video/audio material)であ
る。
【0002】
【従来の技術】ソースコンテンツは、例えば編集や保管
(archive)のためにレビュー(review)されるが、こ
のレビューは、従来より負担が大きい作業である。通
常、ソースコンテンツは、例えばビデオレコーダやディ
スクプレーヤのようなソースコンテンツを再生する機器
に読み込まれ、ユーザは、通常、コンピュータベースの
編集装置又は保管装置を介して、これらの機器と対話
(interact)してレビューする。
【0003】
【発明が解決しようとする課題】ユーザは、編集又は保
管する対象の素材を理解(familiarise)するために
は、ソースコンテンツを編集する前、あるいは保管のた
めにソースコンテンツを準備する前に、通常、ソースコ
ンテンツのレビュー、例えばどのような素材であり、そ
の素材がソースコンテンツのどの位置あるかを知るため
のレビューに、かなりの時間を費やさなければならな
い。このソースコンテンツを最初に理解するために費や
される時間によって、編集処理又は保管処理の効率は、
明らかに低下する。ユーザは、素材を最初に理解するた
めの工程(step)、及びこれに続く実際の編集等の工程
において、ソースコンテンツの特定の部分間を移動しよ
うするが、ソースコンテンツ内における特定の特徴を正
確且つ効果的に見つけるためには、明らかに、かなりの
時間を費やすことになる。
【0004】本発明は、上述の実情に鑑みて提案される
ものであり、本発明の目的は、ソースコンテンツの特定
の特徴を見つけ出す時間を短縮し、ソースコンテンツ内
における移動を容易にするナビゲーション装置及び方
法、編集装置並びにコンピュータプログラムを提供する
ことである。
【0005】
【課題を解決するための手段】本発明は、ソースコンテ
ンツをナビゲートしてソースコンテンツ、ソースコンテ
ンツの部分(portion)に対応する意味ソースメタデー
タ(semantic source metadata)における所望の特徴(de
sired feature)を識別するナビゲーション装置におい
て、所望の特徴の要求(request)を受け取る入力イン
ターフェースと、要求から、意味メタデータ(semantic
metadata)に関する所望の特徴を指定する検索要求(s
earch request)を生成し、検索要求を処理して所望の
特徴を示す意味ソースメタデータ(semantic source me
tadata)を識別するようにする処理手段と、所望の特徴
として識別された意味ソースメタデータに対応するソー
スコンテンツの部分の表示を出力する出力インターフェ
ースとを備える。
【0006】本発明は、ナビゲーション装置を操作して
ソースコンテンツをナビゲートし、ソースコンテンツ、
ソースコンテンツの部分に対応する意味ソースメタデー
タにおける所望の特徴を特定するナビゲート方法を提供
し、このナビゲート方法は、(a)所望の特徴の要求を
受け取るステップと、(b)要求から、意味メタデータ
に関する所望の特徴を指定する検索要求を生成するステ
ップと、(c)検索要求を処理して所望の特徴を示す意
味ソースメタデータを特定するステップと、(d)所望
の特徴として識別された意味ソースメタデータに対応す
るソースコンテンツの部分の表示を出力するステップと
を有する。
【0007】本発明は、ナビゲーション装置を操作し、
ソースコンテンツをナビゲートしてソースコンテンツ、
ソースコンテンツの部分に対応する意味ソースメタデー
タにおける所望の特徴を識別するコンピュータプログラ
ムで、このコンピュータプログラムは、(a)所望の特
徴の要求から、意味メタデータに関する所望の特徴を指
定する検索要求を生成するステップと、(b)検索要求
を処理して所望の特徴を示す意味ソースメタデータを識
別するステップと、(c)所望の特徴として出力される
意味ソースメタデータに対応するソースコンテンツの部
分の表示を取り出すステップとをナビゲーション装置に
実行させる。
【0008】
【発明の実施の形態】以下、本発明に係るナビゲーショ
ン装置及びナビゲート方法、編集装置並びにコンピュー
タプログラムについて、図面を参照しながら詳細に説明
する。
【0009】図1は、本発明を適用した編集装置の具体
的な構成を示すブロック図である。この図1に示すよう
に、編集装置10は、ソースコンテンツ(source conte
nt)が供給され、ソースコンテントに編集操作を施し
て、編集されたコンテンツシーケンス(以下、単に編集
コンテンツシーケンスという。)を作成する処理装置
(processing unit)12を備える。処理装置12は、
例えばマイクロプロセッサからなる。また、編集装置1
2は、処理装置12で実行されるソフトウェアと処理装
置12で用いられるデータを記憶するメモリ14を備え
る。メモリ14は、例えばリードオンリーメモリ(read
only memory:ROM)、ランダムアクセスメモリ(ra
ndom access memory:RAM)等からなる。
【0010】編集装置10は、表示ドライバ16を備
え、表示ドライバ16は、イネーブル表示信号(enable
display signal)を、この編集装置10に接続された
表示装置20に出力する。また、編集装置10は、入出
力インターフェース18を備え、入出力インターフェー
ス18は、入力装置(input mechanism)22、例えば
キーボード、マウス、ジョグシャトルダイアル(jog-sh
uttle dial)、ペンとタブレットからなる描画ツール
(drawing tool)等を編集装置10に接続するためのも
のである。編集装置10のユーザは、表示装置20と入
力装置22を介した対話により、編集装置10において
編集処理を実行させることができる。
【0011】この具体例では、編集装置10によって編
集されるソースコンテンツは、デジタルカメラ30で得
られるオーディオ/ビデオ(audio/video: 以下、A/
Vという。)素材である。アナログカメラでは、A/V
素材は、アナログデータとして得られる。この場合、編
集装置10はデジタルデータを処理するようになってい
るので、アナログA/V素材は、デジタルデータに変換
された後、編集装置10に入力される。
【0012】デジタルカメラ30によってA/V素材が
生成されると、A/V素材は、適切な媒体32、例えば
デジタルテープ又はデジタルディスクに格納される。最
近のデジタル技術では、A/V素材が最初に生成される
ときに、メタデータ(metadata)がA/V素材に関連付
けられ、この具体例では、このようなメタデータは、適
切な媒体34、例えばデジタルテープ又はデジタルディ
スクに格納される。なお、メタデータを、関連するA/
V素材と同じ物理的記憶媒体(physical memory medi
a)に格納しても、他の物理的記憶媒体に格納してもよ
い。
【0013】また、A/V素材を編集装置10に送る前
に必要に応じて、例えばメタデータを手動で加えること
によって、更なるメタデータ(metadata)を加えるよう
にしてもよい。
【0014】ここで、メタデータについて簡単に説明す
る。近年、メタデータ、すなわちコンテンツを記述する
メタデータに関心が集まっている。実際、例えばSMP
TE−EBU(Society of Motion Picture and Televi
sion Engineers European Broadcast Union)、MPE
G−7(Motion Pictures Expert Group)のように、多
くの規格が提供されている。ここで、Motion Pictures
Expert Groupは、ISO/IEC standards body SG29\WG11
を意味する。
【0015】ソースコンテンツに対応するメタデータに
は、表1に幾つかの例を示すように、多くの種類があ
る。
【0016】
【表1】
【0017】例えば良好なショットを示すグッドショッ
トマーカ(good shot marker)、どこで記録を開始/終
了したかを示す記録マーク、GPS(global positioni
ng system)による位置、日時、固有素材識別子(uniqu
e material identifier:UMID)、カメラ設定、焦
点、ズーム等の所定量のメタデータは、自動的にソース
に加えられる。
【0018】A/V素材が編集されるとき、A/V素材
は、対応するメタデータ(以下、ソースメタデータと呼
ぶ。)とともに入力A/V記憶装置24、例えばデジタ
ルテーププレーヤ、ディジタルディスクプレーヤ、又は
サーバに格納される。
【0019】なお、メタデータは、コンテンツが生成さ
れた後に、手動で追加することもできる。追加されるメ
タデータとしては、例えばカメラマン、ジャーナリスト
ノート、注記、位置/割当コメントなどがある。また、
導入(introduction)、完了(finish)、コメント、ボ
イスオーバ(voice over)などのショット識別がある。
また、コンテンツからのメタデータの自動抽出の技術は
大きく進歩している。認識ツール、例えば顔及び特徴認
識ツール、音声認識ツールなどを用い、コンテンツにお
ける特徴を識別し、コンテンツに適切なメタデータを加
えることもできる。
【0020】上述したメタデータの例の幾つかは、「意
味メタデータ(semantic metadata)」と呼ばれるメタ
データのように、ソースコンテンツに含まれる実際のコ
ンテンツの文脈情報/記述情報(contextual/descripti
ve information)を与えるものである。意味メタデータ
には、例えばショット識別情報、グッドショットマー
カ、インタビューの質問の開始を識別する「インタビュ
ー質問(interview question)」識別子、顔のショッ
ト、音声などを識別するのに用いられるメタデータがあ
る。
【0021】本発明では、ソースコンテンツに対応する
メタデータ、すなわち意味ソースメタデータの最近の発
展を利用して、ソースコンテンツを正確で効果的にナビ
ゲートし、ユーザが関心を持つ特徴を見つけるようにし
ている。
【0022】具体的には、編集装置10には、ソースコ
ンテンツにおける所望の特徴の要求が供給される。所望
の特徴の要求は、絶対項(absolute term)であり、例
えば要求は音声の開始、導入としてマークされたソース
コンテンツの部分などである。なお、所望の特徴の要求
を相対項(relative term)、例えば次の顔、次のトラ
ンジションなどの要求とすることもできる。
【0023】処理装置12は、要求から、意味メタデー
タに関する所望の特徴を指定する検索要求を生成する。
したがって、検索要求は、典型的には要求された所望の
特徴を見つけるために用いられる意味メタデータの1以
上の項目を識別する。例えば、要求が「インタビュー質
問2」のような特定のインタビュー質問に対するもので
あるときは、適切な意味メタデータは、ソースコンテン
ツにおいて特定のインタビュー質問の開始を識別するの
に用いられるインタビュー質問フラグである。同様に、
要求が次の顔であるときは、適切な意味メタデータは、
ソースコンテンツの部分が顔を含むとして識別するメタ
データである。
【0024】処理装置12は、検索要求が一旦生成され
ると、検索要求を処理して、ソースコンテンツにおける
特徴を示す意味ソースメタデータを識別する。これは、
典型的には意味ソースメタデータにおける検索を含み、
検索要求による特定に適合する意味ソースメタデータを
特定する。編集装置12は、検索要求が一旦処理される
と、検索要求の処理の間に識別された意味ソースメタデ
ータに対応するソースコンテンツの部分の表示を所望の
特徴として出力する。
【0025】意味ソースメタデータは、ソースコンテン
ツとともに、又はソースコンテンツと別に、様々な異な
った記憶媒体に格納される。具体的には、意味ソースメ
タデータはランダムアクセス可能な記憶媒体に格納さ
れ、処理装置12は、ランダムアクセス可能な記憶媒体
に記録された意味ソースメタデータに検索要求を適用す
る。意味ソースメタデータをランダムにアクセス可能な
記憶媒体に格納することにより、意味ソースメタデータ
をノンリニアで検索することが可能になり、検索処理の
速度を高めることができる。
【0026】ソースコンテンツは、ビデオ素材、少なく
ともソースコンテンツにおけるビデオ特徴(video feat
ure)を識別する幾つかの意味ソースメタデータを有す
る。この具体例では、ビデオ特徴のアイコン表示(icon
ic representation)は、対応する意味ソースメタデー
タとともに格納され、出力インターフェースによる表示
出力は、検索要求の処理の間に識別された意味ソースメ
タデータに対応するアイコン表示を有する。この方法に
よって、所望の特徴の要求に応じて識別されたソースコ
ンテンツの部分の表示は、ソースコンテンツをスキャン
してソースコンテンツのその部分を取り出す必要なし
に、ユーザに出力することができる。これによって、ナ
ビゲート処理の速度は著しく向上する。特に、ソースコ
ンテンツが例えばデジタルテープのようなリニアフォー
マットで格納されているときに、効果的である。
【0027】また、ソースコンテンツは、オーディオ素
材、ソースコンテンツにおいてオーディオ特徴を識別す
る少なくとも幾つかの意味ソースメタデータを有してい
る。ビデオ素材と同様に、オーディオ特徴(audio feat
ure)のアイコン表示は対応する意味ソースメタデータ
とともに格納され、検索要求の処理に応じた出力インタ
ーフェースによる表示出力は、識別された意味ソースメ
タデータに対応するアイコン表示を有する。例えば、オ
ーディオのアイコン表示は、波形の画像である。この画
像は、専門家にはオーディオ素材のコンテンツについて
いくらかの情報を与える。
【0028】上述したように、意味ソースメタデータ
は、ソースコンテンツとともに格納される。なお、本具
体例では、意味ソースメタデータは、ソースコンテンツ
とは別に格納され、ソースコンテンツとは時刻コード
(time code)を介して対応している。
【0029】他の具体例では、意味ソースメタデータ
は、ソースコンテンツとともに記憶媒体に記録され、処
理装置によって所望の特徴を示す意味ソースメタデータ
が特定されるように検索要求が処理されると、出力イン
ターフェースはソースコンテンツの対応する部分を所望
の特徴として出力するようになされている。この具体例
では、検索要求を意味ソースメタデータに適用すると
き、ナビゲーション装置は意味ソースメタデータ及び対
応するソースコンテンツの両方をスキャンし、これに応
じて検索要求の結果を示すソースコンテンツの対応する
部分を出力することができる。
【0030】この具体例では、ナビゲートされるソース
コンテンツは、効果的なナビゲーションを容易にする適
切な意味ソースメタデータを既に含んでいる。なお、ナ
ビゲーション装置を適切な認識ツールに接続し、関連す
る意味ソースメタデータの「作動中(on the fly)」で
の生成を可能にすることもできる。したがって、1つの
具体例では、処理装置は、検索要求に応じて所定の認識
ツールにアクセスして認識ツールにソースコンテンツを
レビューさせ、検索要求を処理するのに必要な意味ソー
スメタデータを生成するようになされている。したがっ
て、例えば受け取った要求が次の顔であれば、顔認識ツ
ールが起動してソースコンテンツを現在の位置からスキ
ャンし、ソースコンテンツにおいて次の顔が現れる位置
の意味ソースメタデータを生成する。ここで、検索の結
果は、意味ソースメタデータが生成されると同時に識別
されることは明らかである。
【0031】第1の具体例では、入力インターフェース
は描画ツールに接続され、所望の特徴はユーザによって
描画ツールを介して入力される。所望の特徴は、描画ツ
ールを介して入力される適切なジェスチャを定義するこ
とで識別されるものとされる。他の具体例では、入力イ
ンターフェースは、ジョグシャトル装置に接続され、所
望の特徴の要求はユーザによってジョグシャトル装置を
介して入力される。例えば、ジョグシャトル装置の個々
のボタンは、顔、トランジション、音声などを識別する
ために用いられ、ジョグシャトル要素は「次」又は
「前」のような相対情報を特定するのに用いられる。
【0032】この具体例では、ユーザは、入力装置22
を介して適切なコマンドを入力することによって、ソー
スA/V素材をナビゲートすることができる。したがっ
て、ユーザは、特定の所望の特徴(feature)を要求す
ることを指定(specify)するコマンドを入力すること
ができる。要求コマンドとしては、例えばA/V素材に
おける音声の開始の要求、導入部分(introduction)と
してマークされたソースA/V素材の部分の要求、次の
顔(next face)の要求、次のトランジション(transit
ion)の要求などがある。これらのコマンドの入力には
多くの方法がある。例えば、ユーザは、適切な所望の特
徴を指定するコマンドを選択するために、表示装置20
に表示された多数のメニューをキーボード及び/又はマ
ウスを用いてナビゲートすることができる。なお、入力
装置22は、例えば描画ツールであってもよく、この場
合、編集装置10は、特定の所望の特徴のコマンドとし
て、描画ツールを介して入力された所定のジェスチャを
認識する認識ルーチンを有する。また、入力装置22
は、例えばジョグシャトル装置(jog-shuttle device)
であってもよい。ジョグシャトル装置の個々のボタン
は、顔、トランジション、音声のような所望の特徴を示
すようにプログラムされている。そして、この場合、ジ
ョグシャトルの各ボタンは、「次(next)」又は「前
(previous)」のような相対的な情報(information)
を指定するのに用いられる。
【0033】入力装置22を介して入力された所望の特
徴の要求は、入出力インターフェース18を介して処理
装置12に供給される。そして、処理装置12は、この
要求から、意味メタデータ(semantic metadata)に関
する所望の特徴を指定する検索要求(search request)
を生成する。この具体例においては、処理装置12は、
データベースのように、メモリ14又は外部記憶媒体に
格納されたデータを参照し、所定数の所望の特徴のそれ
ぞれに対して、所望の特徴を見つける(locate)のに用
いられる意味メタデータの1つ以上の項目(item)を識
別する。したがって、この具体例では、ユーザは、所定
数の所望の特徴、例えば次の顔、次のトランジションな
どの何れに基づいてもナビゲートすることができ、処理
装置12は、記憶装置から、所望の特徴の検索(retrie
ve)に用いられる適切な意味メタデータを検索する。
【0034】検索要求が一旦生成されると、所望の特徴
を示す意味ソースメタデータを識別するために、検索要
求は、ソースA/V素材に対応する意味ソースメタデー
タに適用される。元の要求が相対項、例えば次の顔、次
のトランジションなどのときは、検索は、明らかにソー
スA/V素材内の現在位置から開始する必要がある。入
力A/V記憶装置24及び/又は処理装置12は、ソー
スA/V素材内の現在位置の記録(record)を有し、こ
の情報に従って、検索を開始する位置に対応した意味ソ
ースメタデータを決定することができる。
【0035】上述したように、意味ソースデータは、ソ
ースA/V素材とともに記録されているので、検索は、
ソースA/V素材を格納している記憶媒体に対して直接
行われる。なお、意味ソースメタデータは、ソースA/
V素材とは物理的に別の記憶媒体に格納することもで
き、この場合、検索は、同時に入力A/V記憶装置24
でソースA/V素材を参照する(traverse)ことなく、
意味ソースメタデータ上で行われる。
【0036】図2は、編集装置10におけるソースコン
テンツのナビゲーション処理を示すフローチャートであ
る。すなわち、ステップS11において、編集装置10
の処理装置12は、上述した所望の特徴の要求が供給さ
れる。ステップS12において、処理装置12は、意味
メタデータに関する所望の特徴を指定する検索要求を生
成する。ステップS13において、処理装置12は、パ
ラメータTを0に設定する。ステップS14において、
処理装置12は、検索要求を適用した後、ステップS1
5に進む。なお、この具体例では、パラメータTを0に
設定するステップS13は、ステップS12とステップ
S14の間、すなわち検索要求の生成の後であって、検
索要求の適用の前に実行されるが、その実行時点は、ス
テップS15に進む前ならば、何れの時点であってもよ
い。
【0037】ステップS15において、処理装置12
は、検索要求を適用した結果、所望の特徴が検出された
かを判定する。検索要求を適用することによって、意味
ソースメタデータが検索要求で指定される意味メタデー
タに適合(match)することが見いだされると、この判
定が該当(YES)することになる。したがって、例え
ば次の顔の要求について、現在位置から開始し、この位
置から前方に意味ソースメタデータをスキャンし、意味
ソースメタデータが検索要求によって指定される意味メ
タデータに適合することが検出されると、すなわち例え
ば次の顔の識別子(identifier)が検出されると、意味
ソースメタデータは、検索要求の結果として返され、所
望の特徴が存在する(locate)ことが示される。
【0038】意味ソースメタデータがソースメタデータ
と別に格納されているか、ソースメタデータと一緒に格
納されているかに関わらず、意味ソースメタデータの特
定の項目とソースA/V素材の特定の部分間には直接的
な相関がある。意味ソースメタデータがソースA/V素
材と一緒に格納されているときは、この対応は、ソース
素材内において意味ソースメタデータを検出することに
よって、示される。意味ソースメタデータがソース素材
と別に格納されているときは、ソース素材の関連する部
分を識別するための適切な情報が、意味ソースメタデー
タとともに格納されている。適切な情報としては、例え
ば時刻コード(time code)があり、時刻コードは、意
味ソースメタデータに関連しており、ソースA/V素材
内における特定の位置を示している。
【0039】ステップS15において、所望の特徴が検
出されると、処理はステップS16に進み、ステップS
16において、処理装置12は、所望の特徴のアイコン
表示が利用できるかを判定する。該当するときは、処理
装置12は、意味ソースメタデータを、ソースA/V素
材とは別に、例えばランダムアクセス可能な記憶媒体に
格納する。この具体例では、上述したように所望の特徴
のアイコン表示を意味ソースメタデータと一緒に格納す
ることによって、検索要求を適用して検出された意味ソ
ースメタデータに関するソースA/V素材の部分を識別
するために、ソースA/V素材を順次処理する(sequen
ce)必要性をなくしている。ビデオの特徴に対するアイ
コン表示は、例えばビデオ素材の部分を示す画像であ
り、オーディオの特徴に対するアイコン表示は、例えば
オーディオコンテンツを示す波形画像である。
【0040】アイコン表示が利用可能であるときは、ス
テップS18において、処理装置12は、ユーザの要求
に応じて、アイコン表示を読み出し、表示装置20に出
力する。そして、処理はステップS11に戻り、処理装
置12は、ユーザがさらに要求するまで待機する。ユー
ザが、表示されたアイコン表示に基づいて、ソース素材
を直接レビューしようと決定すると、処理装置12は、
入力A/V記憶装置24に命令を出し、入力A/V記憶
装置24は、所望の特徴を含むソース素材の部分を頭出
し(que up)し、この部分がユーザに出力される。
【0041】ステップS16においてアイコン表示が利
用できないときは、処理はステップS17に進み、ステ
ップS17において、処理装置12は、ソースA/V素
材をスキャンして、検索の結果識別された意味ソースメ
タデータに対応するソースコンテンツの部分が検出し、
ソースコンテンツのこの部分を、所望の特徴として表示
装置75に出力する。そして、処理は再びステップS1
1に戻り、処理装置12は、ユーザからの更なる要求を
待つ。
【0042】ステップS15において所望の特徴が検出
されないとき、すなわち検索要求の適用によってどの意
味ソースメタデータも検索基準(search criteria)に
適合しないと判定されたときは、処理はステップS19
に進み、ステップS19において、パラメータTが0に
等しいかが判定される。パラメータTが0に等しいとき
は、すなわち処理が一回目であるときは、処理はステッ
プS20に進み、ステップS20において、この具体例
では、所定の認識ツール(recognition tool)を起動す
ることを望むかの表示がなされ、ユーザが催促される。
【0043】この具体例では、編集装置10は、多くの
認識処理装置26に接続することができる。認識処理装
置26は、例えば1以上のプラグイン認識ツール(plug
-inrecognition tool)からなる。これらの認識ツール
は、この具体例では、検索要求が適用された際に、意味
ソースメタデータを「高速(on the fly)」で生成する
ために補助するものである。例えば顔を検出する認識ツ
ールは、ソースA/V素材をスキャンしてビデオに含ま
れる顔を探すのに用いられる。また、例えば、検索要求
が次の顔を求めるものであるときは、この認識ツール
は、起動され、ソースA/V素材において現在位置から
ビデオに含まれる次の顔の部分を検索して、ソースA/
V素材内の次の顔を含む部分の位置を示す目印(indica
tion)を、意味ソースメタデータとして返す。この具体
例では、検索結果は、意味ソースメタデータが生成され
ると同時に確認される。
【0044】したがって、ステップS20において、ユ
ーザが適切な認識ツールを起動することを望むことを示
すと、処理はステップS21に進み、ステップS21に
おいて、認識ツールは、ソースA/V素材を検索して、
所望の特徴が認識される位置に達したときに意味ソース
メタデータを生成するために、用いられる。認識ツール
の出力は、実際には、検索要求の結果を示している。し
たがって、認識ツールは、ソースA/V素材内における
検索基準に適合した部分の位置の表示を、意味ソースメ
タデータとして出力するか、又は所望の特徴は認識され
ないことを出力する。処理はステップS22に進み、ス
テップS22において、パラメータTは1加算(インク
リメント)され、処理はステップS15に戻り、所望の
特徴が検出されるかが判定される。
【0045】認識ツールを用いた結果、所望の特徴が検
出されたときは、上述したように、処理はステップS1
6を介してステップS18に進む。所望の特徴がまだ検
出されないときは、処理は再びステップS19に進み、
ステップS19において、パラメータTはもう0でない
と判定され、したがって処理はステップS23に分岐す
る。ステップS23において、所望の特徴は検出されな
かったという表示がなされ、ユーザに通知される。この
表示は、様々な形で行うことができ、例えばテキストに
よるメッセージが表示装置20に表示される。
【0046】なお、図2のフローチャートに示す検索要
求処理は、一具体例にすぎず、検索要求処理は変更する
ことができる。例えば、編集装置10は、所望の特徴が
検出されないイベント(event)に対しては、自動的に
認識ツールを起動するようにしてもよく、また、編集装
置10は、例えば、所望の特徴が検出されないと判定す
る前に、ステップS19,S20,S21,S22から
なるループを1回以上繰り返し実行するようにしてもよ
い。
【0047】図3は、編集装置10を用いたソースA/
V素材のナビゲーションを説明するための図である。シ
ーケンス50は、録画されたインタビューに関連するソ
ースA/V素材の多数のフレームを示している。オーデ
ィオ表示51は、オーディオ信号がA/V素材において
存在することを示すためのものである。
【0048】編集装置10のユーザは、ある時点で、表
示装置60にA/V素材の部分52を表示しているもの
とする。ユーザは、ペン71とタブレット72からなる
描画ツールのような入力装置を用いて、所望の特徴、例
えばA/Vシーケンス50内における次の顔の要求を入
力する。図3に示すように、この要求はペン71によっ
てタブレット72上に描かれる適切なジェスチャ(gest
ure)73によって入力される。長方形のブロック74
は、通常のノンリニア編集装置(non-linear editing s
ystem)上で用いられるタイムライン表示(timeline di
splay)であり、この具体例とは直接関係しない。
【0049】他の具体例では、入力インターフェース
は、ジョグシャトル装置に接続され、所望の特徴の要求
はユーザによってジョグシャトル装置を介して入力され
る。例えば、ジョグシャトル装置の個々のボタンは、
顔、トランジション、音声などを識別するために用いら
れ、ジョグシャトル要素は「次」又は「前」のような相
対情報を特定するのに用いられる。
【0050】このソースA/V素材が、次の顔を識別す
る適切な意味ソースメタデータに関連づけされていると
きは、検索要求が生成されてソースA/V素材の意味ソ
ースメタデータに適用され、識別された部分53に対応
する意味ソースメタデータになる。この具体例では、次
の顔を識別する意味ソースメタデータは、必ずしも次の
異なった人物をA/Vシーケンス50において識別する
必要はないが、異なった顔のショット(shot)、すなわ
ち同じ人物の異なったショット、又は異なった人物のシ
ョットをそれぞれ識別する。この具体例では、次の顔
は、同じ人物の次のショット61としているが、次のシ
ョット61は、同じ人物のより接近した顔のショットで
ある。
【0051】したがって、ユーザは、検索要求を適用し
た結果、A/Vシーケンス50内における所望の特徴を
表す画像61を、表示装置60上で見ることができる。
ユーザが、次の顔を検出するコマンドを繰り返すと、検
索要求が生成されてソースA/V素材に適用され、図3
に示すように、識別された部分54に対応する意味ソー
スメタデータになる。したがって、部分54の画像62
が表示装置60上に表示される。
【0052】本発明を特定の具体例について説明してき
たが、本発明は、これらには限定されるものでなく、本
発明の趣旨を逸脱することなく、多くの変更や追加をす
ることができる。
【0053】すなわち、上述の具体例では、ソースコン
テンツをナビゲートするナビゲーション装置は、編集装
置に組み込まれているが、ナビゲーション装置を他の環
境、例えば保管装置に組み込んで使用することもでき
る。
【0054】
【発明の効果】上述のように、本発明によると、ソース
コンテンツの特定の特徴を見つける時間が短縮され、ソ
ースコンテンツにおけるナビゲーションが容易になる。
これによって、ソースコンテンツの編集の際のユーザの
負担が軽減される。
【図面の簡単な説明】
【図1】図1は、本発明を適用した編集装置の具体的な
構成を示すブロック図である。
【図2】図2は、本発明を適用した編集装置の動作を示
すフローチャートである。
【図3】図3は、本発明を適用した編集装置を用いたソ
ースA/V素材におけるナビゲーションを説明する図で
ある。
【符号の説明】
10 編集装置、12 処理装置、14 メモリ、16
表示ドライバ、18入出力インターフェース、20
表示装置、22 入力装置、24 入力A/V記憶装
置、26 認識処理装置、28 出力A/V記憶装置、
30 デジタルビデオカメラ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ドリコット、マーチン レークス イギリス国 ケーティー13 0エックスダ ブリュー サリー、ウエィブリッジ、ブル ックランズ、ザ ハイツ(番地なし) (72)発明者 コリンズ、アンドリュー イギリス国 ケーティー13 0エックスダ ブリュー サリー、ウエィブリッジ、ブル ックランズ、ザ ハイツ(番地なし)

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 ソースコンテンツをナビゲートして、該
    ソースコンテンツの部分に対応する意味ソースメタデー
    タにおける所望の特徴を識別するナビゲート装置におい
    て、 上記所望の特徴の要求が供給される入力インターフェー
    スと、 上記要求から、意味メタデータに関する所望の特徴を指
    定する検索要求を生成し、該検索要求を処理して、上記
    所望の特徴を示す意味ソースデータを識別する処理手段
    と、 上記処理手段で識別された意味ソースメタデータに対応
    するソースコンテンツの部分の表示を、上記所望の特徴
    として出力する出力インターフェースとを備えるナビゲ
    ーション装置。
  2. 【請求項2】 上記意味ソースメタデータは、ランダム
    にアクセス可能な記憶媒体に格納され、上記処理手段
    は、上記検索要求を上記記憶媒体に格納された上記意味
    ソースメタデータに適用することを特徴とする請求項1
    記載のナビゲーション装置。
  3. 【請求項3】 上記ソースコンテンツは、ビデオ素材、
    上記ソースコンテンツにおけるビデオ特徴を識別する上
    記意味ソースメタデータの少なくとも幾つかを含むこと
    を特徴とする請求項1記載のナビゲーション装置。
  4. 【請求項4】 上記ビデオ特徴のアイコン表示は、対応
    する上記意味ソースメタデータとともに格納され、上記
    出力インターフェースによる上記表示出力は、識別され
    た上記意味ソースメタデータに対応するアイコン表示を
    含むことを特徴とする請求項3記載のナビゲーション装
    置。
  5. 【請求項5】 上記ソースコンテンツは、オーディオ素
    材、上記ソースコンテンツにおけるオーディオ特徴を識
    別する上記意味ソースメタデータの少なくとも幾つかを
    有することを特徴とする請求項1記載のナビゲーション
    装置。
  6. 【請求項6】 上記オーディオ特徴のアイコン表示は、
    対応する上記意味ソースメタデータとともに格納され、
    上記出力インターフェースによる表示出力は、識別され
    た上記意味ソースメタデータに対応する上記アイコン表
    示を含むことを特徴とする請求項5記載のナビゲーショ
    ン装置。
  7. 【請求項7】 上記意味ソースメタデータは、上記ソー
    スコンテンツとは別に格納され、上記ソースコンテンツ
    には時刻コードを介して対応していることを特徴とする
    請求項1記載のナビゲーション装置。
  8. 【請求項8】 上記意味ソースメタデータは、上記ソー
    スコンテンツとともに記憶媒体に格納され、上記処理手
    段は、上記検索要求を処理して上記所望の特徴を示す意
    味ソースメタデータを指定し、上記出力インターフェー
    スは、上記ソースコンテンツに対応する上記部分を上記
    所望の特徴として出力するようになされていることを特
    徴とする請求項1記載のナビゲーション装置。
  9. 【請求項9】 上記処理手段は、上記検索要求に応じ
    て、所定の認識ツールにアクセスして上記認識ツールに
    上記ソースコンテンツをレビューさせ、上記検索要求を
    処理するように求められた意味ソースメタデータを生成
    することを特徴とする請求項1記載のナビゲーション装
    置。
  10. 【請求項10】 上記入力インターフェースは、描画ツ
    ールに接続可能であり、上記所望の特徴の上記要求はユ
    ーザによって上記描画ツールを介して入力されることを
    特徴とする請求項1記載のナビゲーション装置。
  11. 【請求項11】 上記入力インターフェースは、ジョグ
    シャトル装置に接続可能であり、上記所望の特徴の上記
    要求はユーザによって上記ジョグシャトル装置を介して
    入力されることを特徴とする請求項1記載のナビゲーシ
    ョン装置。
  12. 【請求項12】 ソースコンテンツを編集する編集装置
    において、ソースコンテンツをナビゲートしてソースコ
    ンテンツ、該ソースコンテンツの部分に対応する意味ソ
    ースメタデータにおける所望の特徴を識別するナビゲー
    ション装置を備え、 上記ナビゲーション装置は、 上記所望の特徴の要求が供給される入力インターフェー
    スと、 上記要求から、意味メタデータに関する所望の特徴を指
    定する検索要求を生成し、該検索要求を処理して、上記
    所望の特徴を示す意味ソースデータを識別する処理手段
    と、 識別された上記意味ソースメタデータに対応する上記ソ
    ースコンテンツの上記部分の表示を上記所望の特徴とし
    て出力する出力インターフェースとを備える編集装置。
  13. 【請求項13】 ソースコンテンツをナビゲートして該
    ソースコンテンツ、該ソースコンテンツの部分に対応す
    る意味ソースメタデータにおける所望の特徴を識別する
    装置を操作するナビゲート方法において、 (a)上記所望の特徴の要求を受け取るステップと、 (b)上記要求から、意味メタデータに関する所望の特
    徴を指定する検索要求を生成するステップと、 (c)該検索要求を処理して上記所望の特徴を示す意味
    ソースメタデータを識別するステップと、 (d)上記識別された意味ソースメタデータに対応する
    上記ソースコンテンツの上記部分の表示を上記所望の特
    徴として出力するステップとを有するナビゲート方法。
  14. 【請求項14】 ソースコンテンツをナビゲートして該
    ソースコンテンツ、該ソースコンテンツの部分に対応す
    る意味ソースメタデータにおける所望の特徴を識別する
    ようにナビゲーション装置を操作するコンピュータプロ
    グラムにおいて、上記コンピュータプログラムは上記ナ
    ビゲーション装置に、 (a)上記所望の特徴の要求から、意味メタデータに関
    する所望の特徴を指定する検索要求を生成するステップ
    と、 (b)該検索要求を処理して上記所望の特徴を示す意味
    ソースメタデータを識別するステップと、 (c)上記所望の特徴として出力される上記識別された
    意味ソースメタデータに対応する上記ソースコンテンツ
    の上記部分の表示を取り出すステップを実行させること
    を特徴とするコンピュータプログラム。
JP2000274129A 1999-09-08 2000-09-08 ナビゲーションシステム及びナビゲート方法 Expired - Fee Related JP4572024B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9921235.9 1999-09-08
GB9921235A GB2354105A (en) 1999-09-08 1999-09-08 System and method for navigating source content

Publications (2)

Publication Number Publication Date
JP2001155036A true JP2001155036A (ja) 2001-06-08
JP4572024B2 JP4572024B2 (ja) 2010-10-27

Family

ID=10860579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000274129A Expired - Fee Related JP4572024B2 (ja) 1999-09-08 2000-09-08 ナビゲーションシステム及びナビゲート方法

Country Status (4)

Country Link
US (1) US6799180B1 (ja)
EP (1) EP1083568A3 (ja)
JP (1) JP4572024B2 (ja)
GB (1) GB2354105A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529990A (ja) * 2000-04-05 2003-10-07 ソニー・ユナイテッド・キングダム・リミテッド オーディオ及び/又はビデオマテリアルの識別及び処理方法
KR100782810B1 (ko) 2005-01-07 2007-12-06 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체를 재생하는 방법 및 장치
JP2009105719A (ja) * 2007-10-24 2009-05-14 Hitachi Ltd 映像コンテンツ視聴端末
JP2010267292A (ja) * 2004-06-22 2010-11-25 Digimarc Corp デジタル資産管理、ターゲットを定めたサーチ、及びデジタル透かしを使用するデスクトップサーチ
KR101029073B1 (ko) * 2005-11-14 2011-04-18 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체 및 재생 장치
KR101029078B1 (ko) * 2008-07-30 2011-04-18 삼성전자주식회사 정보저장매체로부터 데이터를 재생하는 방법
US8437606B2 (en) 2005-01-07 2013-05-07 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
US8953908B2 (en) 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1102271B8 (en) 1999-11-05 2016-12-07 Sony Europe Limited Method of generating audio and/or video signals and apparatus therefore
GB9926321D0 (en) * 1999-11-05 2000-01-12 Sony Uk Ltd Recording and accessing metadata
GB2359918A (en) 2000-03-01 2001-09-05 Sony Uk Ltd Audio and/or video generation apparatus having a metadata generator
JP4803544B2 (ja) 2000-04-05 2011-10-26 ソニー ヨーロッパ リミテッド オーディオ/ビデオ再生装置及び方法
EP1208566A2 (en) * 2000-04-05 2002-05-29 Sony Uk Ltd INFORMATION IDENTIFICATION, RECORDING AND REPRODUCTION
US20030033602A1 (en) * 2001-08-08 2003-02-13 Simon Gibbs Method and apparatus for automatic tagging and caching of highlights
US7091989B2 (en) 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
JP4099973B2 (ja) * 2001-10-30 2008-06-11 松下電器産業株式会社 映像データ送信方法及び映像データ受信方法、並びに映像監視システム
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
MXPA04012865A (es) * 2002-06-24 2005-03-31 Matsushita Electric Ind Co Ltd Dispositivo de preparacion de metadatos, metodo de preparacion para el mismo y dispositivo de recuperacion.
JP3637910B2 (ja) * 2003-04-04 2005-04-13 ソニー株式会社 データ処理方法およびそのシステム
GB2409540A (en) * 2003-12-23 2005-06-29 Ibm Searching multimedia tracks to generate a multimedia stream
KR100831531B1 (ko) * 2004-01-14 2008-05-22 미쓰비시덴키 가부시키가이샤 기록 장치, 기록 방법, 기록 매체, 요약 재생 장치, 요약 재생 방법, 멀티미디어 요약 시스템 및 멀티미디어 요약 방법
US20050154987A1 (en) * 2004-01-14 2005-07-14 Isao Otsuka System and method for recording and reproducing multimedia
KR100714683B1 (ko) * 2004-12-24 2007-05-04 삼성전자주식회사 디지털 컨텐츠를 글로벌로 공유하고 거래하는 방법 및시스템
JP4622611B2 (ja) * 2005-03-24 2011-02-02 ソニー株式会社 信号処理装置
US8788588B2 (en) * 2006-05-03 2014-07-22 Samsung Electronics Co., Ltd. Method of providing service for user search, and apparatus, server, and system for the same
US7996380B2 (en) * 2006-08-04 2011-08-09 Apple Inc. Method and apparatus for processing metadata
US20130094590A1 (en) * 2011-10-12 2013-04-18 Vixs Systems, Inc. Video decoding device for extracting embedded metadata and methods for use therewith
JP5753999B2 (ja) 2013-09-12 2015-07-22 メタフロンティア合同会社 端末装置、データ処理プログラム、及びデータ管理システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10507554A (ja) * 1994-10-14 1998-07-21 カーネギー メロン ユニバーシティ 探索できるディジタルビデオライブラリを作成する方法および装置ならびにそのようなライブラリを利用するシステムおよび方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2639387B2 (ja) * 1986-09-02 1997-08-13 和芙 橋本 音声認識機能付録音再生装置
KR930005733B1 (ko) * 1990-12-31 1993-06-24 삼성전자 주식회사 문자로 표시되는 인덱스 서어치 시스템
GB2294355B (en) * 1992-04-10 1996-12-04 Avid Technology Inc Digital storage and display of video information
US5493677A (en) * 1994-06-08 1996-02-20 Systems Research & Applications Corporation Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface
US5574845A (en) * 1994-11-29 1996-11-12 Siemens Corporate Research, Inc. Method and apparatus video data management
GB2305525B (en) * 1995-09-21 1997-08-20 Ricoh Kk Document data administrating system and method of administrating document data
US5903892A (en) * 1996-05-24 1999-05-11 Magnifi, Inc. Indexing of media content on a network
US6374260B1 (en) * 1996-05-24 2002-04-16 Magnifi, Inc. Method and apparatus for uploading, indexing, analyzing, and searching media content
US5930783A (en) * 1997-02-21 1999-07-27 Nec Usa, Inc. Semantic and cognition based image retrieval
KR100230302B1 (ko) * 1997-07-02 1999-11-15 윤종용 스냅샷 촬영데이터의 자동탐색/연속전송이 가능한 디지털비디오카메라 및 그에 따른 영상데이터의 기록방법과 탐색/전송방법
US6377995B2 (en) * 1998-02-19 2002-04-23 At&T Corp. Indexing multimedia communications
US6366296B1 (en) * 1998-09-11 2002-04-02 Xerox Corporation Media browser using multimodal analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10507554A (ja) * 1994-10-14 1998-07-21 カーネギー メロン ユニバーシティ 探索できるディジタルビデオライブラリを作成する方法および装置ならびにそのようなライブラリを利用するシステムおよび方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529990A (ja) * 2000-04-05 2003-10-07 ソニー・ユナイテッド・キングダム・リミテッド オーディオ及び/又はビデオマテリアルの識別及び処理方法
JP4711379B2 (ja) * 2000-04-05 2011-06-29 ソニー ヨーロッパ リミテッド オーディオ及び/又はビデオマテリアルの識別及び処理方法
JP2010267292A (ja) * 2004-06-22 2010-11-25 Digimarc Corp デジタル資産管理、ターゲットを定めたサーチ、及びデジタル透かしを使用するデスクトップサーチ
US8953908B2 (en) 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
KR100782810B1 (ko) 2005-01-07 2007-12-06 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체를 재생하는 방법 및 장치
US8437606B2 (en) 2005-01-07 2013-05-07 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
US8625960B2 (en) 2005-01-07 2014-01-07 Samsung Electronics Co., Ltd. Apparatus and method for reproducing storage medium that stores metadata for providing enhanced search function
US8630531B2 (en) 2005-01-07 2014-01-14 Samsung Electronics Co., Ltd. Apparatus and method for reproducing storage medium that stores metadata for providing enhanced search function
US8842977B2 (en) 2005-01-07 2014-09-23 Samsung Electronics Co., Ltd. Storage medium storing metadata for providing enhanced search function
KR101029073B1 (ko) * 2005-11-14 2011-04-18 삼성전자주식회사 확장 검색 기능을 제공하기 위한 메타데이터가 기록된 저장매체 및 재생 장치
JP2009105719A (ja) * 2007-10-24 2009-05-14 Hitachi Ltd 映像コンテンツ視聴端末
US8413192B2 (en) 2007-10-24 2013-04-02 Hitachi, Ltd. Video content viewing apparatus
KR101029078B1 (ko) * 2008-07-30 2011-04-18 삼성전자주식회사 정보저장매체로부터 데이터를 재생하는 방법

Also Published As

Publication number Publication date
GB9921235D0 (en) 1999-11-10
GB2354105A (en) 2001-03-14
EP1083568A2 (en) 2001-03-14
EP1083568A3 (en) 2002-03-13
JP4572024B2 (ja) 2010-10-27
US6799180B1 (en) 2004-09-28

Similar Documents

Publication Publication Date Title
JP4572024B2 (ja) ナビゲーションシステム及びナビゲート方法
JP4514928B2 (ja) 編集装置及び方法
JP4794740B2 (ja) オーディオ/ビデオ信号生成装置、及びオーディオ/ビデオ信号生成方法
JP2994177B2 (ja) ビデオ・セグメント間の境界部の位置を特定するためのシステム及び方法
US5982979A (en) Video retrieving method and apparatus
US6336093B2 (en) Apparatus and method using speech recognition and scripts to capture author and playback synchronized audio and video
JPH1021261A (ja) マルチメディアデータベース検索方法及びシステム
US6799086B2 (en) Robot, robot control system, and program for the same
JP3934780B2 (ja) 放送番組管理装置、放送番組管理方法、及び放送番組管理処理プログラムを記録した記録媒体
JP3467887B2 (ja) データ管理装置およびデータ管理方法
JP3456176B2 (ja) 録画再生処理装置及び録画再生処理システム
JP2004297305A (ja) データベース構築装置、データベース構築プログラム、画像検索装置、画像検索プログラム、及び画像記録再生装置
JP2002344849A (ja) 動画像処理装置、動画像処理方法、記録媒体、及び制御プログラム
JP2005141284A (ja) 記録、再生方法及び装置
JP2007078985A (ja) データ検索装置及びその制御方法
JPH06119401A (ja) サウンドデータ関連情報表示システム
KR20140077287A (ko) 녹음 파일 제어 단말 장치 및 방법
JP3318775B2 (ja) プログラム開発支援方法およびその装置
JPH07334523A (ja) 情報処理装置
JP2002324071A (ja) コンテンツ検索システム、コンテンツ検索方法
JPH11296543A (ja) 検索方法、検索装置、及び記録媒体
JP2000099378A (ja) ファイル管理システムとファイル管理方法およびそのプログラムを記録した記録媒体
GB2349764A (en) 2-D Moving image database
JPH10322647A (ja) 動画エディットシステム
JP2007067699A (ja) 情報検索装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070411

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080411

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4572024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350