JP5022370B2 - コンテンツ撮影装置 - Google Patents

コンテンツ撮影装置 Download PDF

Info

Publication number
JP5022370B2
JP5022370B2 JP2008534361A JP2008534361A JP5022370B2 JP 5022370 B2 JP5022370 B2 JP 5022370B2 JP 2008534361 A JP2008534361 A JP 2008534361A JP 2008534361 A JP2008534361 A JP 2008534361A JP 5022370 B2 JP5022370 B2 JP 5022370B2
Authority
JP
Japan
Prior art keywords
content
shooting
metadata
scene
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008534361A
Other languages
English (en)
Other versions
JPWO2008032739A1 (ja
Inventor
芳宏 森岡
賢司 松浦
正明 小林
明弘 竹内
隆司 座間
尚 井上
岳史 浜崎
道史 稲井
雅一 三村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008534361A priority Critical patent/JP5022370B2/ja
Publication of JPWO2008032739A1 publication Critical patent/JPWO2008032739A1/ja
Application granted granted Critical
Publication of JP5022370B2 publication Critical patent/JP5022370B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、コンテンツ撮影装置に関し、さらに詳しくは、ムービー撮影時のカメラワークや収録音声など多数のメタデータから、ダイジェスト再生などに適した適正な数のシーン表現メタデータを生成できるコンテンツ撮影装置に関する。
従来、映画やテレビドラマ等の撮影は、絵コンテ等を元に作成したシナリオ(台本)に基づいて行われている。シナリオにはタイトル(名前)が付けられており、複数のシーンにより構成されている。またシーンは複数のカットで構成されている。監督はシナリオに従って演出を行ない、俳優、女優、およびエキストラなどの出演者はシナリオの記述に従って演技する。生本番の舞台やコンサート等においては、シナリオに示されたシーンの順番通りに演じられる。一方、映画やドラマ等においては、シナリオに示されたシーンの順番通りに撮影が行われることは稀である。
つまり、それぞれのカット映像は、前後のカット映像とは違った状況や状態で撮影されることが多くなる。その結果、カット映像が前後でつながりのない不自然でおかしな映像になってしまうことがある。時にはこういうつながりの無さを見逃すという編集ミスが作品(映画)を台無しにしてしまうこともある。そこで、編集ミスを防ぐため、シーン撮影の記録をとり、撮影シーン情報を正しく管理する必要がある。
シーン撮影後の編集は、非常に多くの手間と時間を要する作業である。具体的には、シーン映像が記録されているマスター媒体に蓄積されたオリジナルコンテンツ(映像、音声、データ)が、先ずスクリプターやアシスタントディレクタ等が手書きで記録した撮影シーン情報に基づいて、コンテンツ制作者の意図に応じて選択される。マスター媒体としては、フィルム、テープ、光ディスク、あるいはフラッシュメモリを用いたカードなどが用いられる。
次に、選択されたオリジナルコンテンツは、合成などの編集加工が施される。そして、編集加工されたコンテンツがつなぎ変えられて映画やドラマが完成される。このように、撮影後の編集は、非常に多くの手間と時間を要する作業である。そのために、編集作業効率の改善が要望されている。
編集作業効率改善の要望に応えるべく、特許文献1には、メタデータ入力方法および編集システムが提案されている。具体的には、コンテンツに関連したメタデータの作成あるいはタグ付けを行う場合に、制作されたコンテンツのシナリオ等から事前に抽出したキーワードが音声で入力される。そして、シナリオに基づいて辞書分野の設定およびキーワードの優先順位付けが行われて、音声認識手段によってメタデータが作成される。同方法によれば、キー入力では困難な数秒間隔でメタデータを付与する場合でも、音声認識を用いることによって、メタデータが効率よく付与できる。また、メタデータをキーワードで検索することによって、シーン検索もできる。
また、シナリオ情報を解析する装置としては、特許文献2に記載されたものが知られている。同装置はシナリオ情報格納部、参照情報格納部、算出部、および出力部を備えている。情報格納部はシーン毎に区分されたシナリオ情報を格納する。参照情報格納部はシナリオ情報に含まれるデータに関する参照情報を格納する。算出部はシナリオ情報からデータを抽出し、抽出されたデータおよび参照情報に基づいて出力情報を算出し、出力部に出力する。
このように構成されたシナリオ情報解析装置は、シナリオに含まれるデータおよびそのデータに関係付けられた参照情報に基づいて、適切な撮影スケジュール等の出力情報を自動的に算出し出力すると共に、シナリオ情報を解析できる。結果、撮影スジュールの立案時間の短縮化に加えて、出力された撮影スケジュールに従って撮影を行なうことにより、撮影を早く完了できるので、撮影費用を低減できる。
特許第3781715号公報 特開2004−362610号公報
上述した特許文献1および特許文献2に代表される従来の方法、装置、およびシステムにおいては、ムービー撮影時のクリップ記録の開始から終了までの間に、パンやズームなどのカメラワークパターン、収録音、およびユーザ操作等により、特徴のある場面でメタデータが生成される。生成されたメタデータはリスト化される。そしてクリップ記録の終了後にリスト中のメタデータを用いて関連したクリップで構成されるダイジェストが作成できる。
本来、カメラワークパターン、収録音声、およびユーザ操作等の多数のトリガにより生成されたメタデータは単独では大きな意味を成さない。また生成されるメタデータの数も膨大になるため、撮影によって生じたメタデータの数は適正に修正されるべきである。しかしながら、上述の技術を含めて従来より、メタデータの数を動的かつ柔軟に設定する概念はない。すなわち、個々のメタデータが適正に生成されている場合でも、メタデータ数が多い場合、その多数のメタデータが放置されたままである。
そのために、ユーザがコンテンツ撮影装置を用いて被写体を撮影した時に生成されたメタデータの数は膨大なものになる。そして、メタデータに基づいてダイジェスト再生を行う場合に、どのメタデータを選べばよいのか分からないという問題がある。
よって、本発明は撮影された画像に対して生成された多数のメタデータから、ダイジェスト再生などに適した適正な数のシーン表現メタデータを生成できるコンテンツ撮影装置を提供することを目的とする。
上記目的を達成するため本発明のコンテンツ撮影装置は、映像、音声またはデータの何れかを含むコンテンツデータを、シーンを表す第1のシーン情報を参照して生成される第1のメタデータと組み合わせて情報記憶媒体に記録し、前記第1のシーン情報(SI)を参照して別途生成する第2のシーン情報を参照してコンテンツデータの特定部分へのアクセスを可能とするコンテンツ撮影装置であって、
被写体を撮影して前記コンテンツデータを生成する撮影手段と、
前記撮影手段の動きを検出するカメラワーク検出手段と、
前記検出された動きを所定値と比較して、前記第1のメタデータを生成する第1のメタデータ生成手段と、
所定の特定窓期間において発生する1つ以上の前記第1のメタデータを所定の関数によりフィルタリングしてシーン種別、優先度、開始時刻、終了時刻、および代表時刻の何れかのパラメータを含む第2のメタデータを生成するシーン情報生成手段とを具備する。
前記所定の関数は、所定幅の窓期間中に発生するメタデータの優先度の合計値を演算することが好ましい。
前記所定の関数は、所定幅の窓期間中に発生する前記第1のメタデータの中で最大の優先度(SP)を有するものを選別することが好ましい。
前記所定の関数は、所定期間以上の間隔毎にパラメータを1つずつ設定することが好ましい。
前記所定の関数は、所定期間内でパラメータが選択されなかった場合に、前記所定期間毎に1つ以上のパラメータを強制的に付加することが好ましい。
前記コンテンツ撮影装置は、前記第2のメタデータに含まれるシーン種別、優先度、開始時刻、終了時刻、および代表時刻のパラメータの少なくとも1つを参照して、複数のシーンを組み合わせてプレイリストを生成するプレイリスト生成手段をさらに具備することが好ましい。
前記コンテンツ撮影装置は、前記優先度を参照して、前記第2のメタデータに含まれるパラメータを指定された個数以内に選別するパラメータ選別手段をさらに具備することが好ましい。
前記コンテンツ撮影装置は、前記第2のメタデータで構成される特徴あるシーン区間を指定順序で再生する場合に、当該シーン区間の再生時にその特徴の説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備えることが好ましい。
前記コンテンツ撮影装置は、外部から与えられるダイジェスト再生時間を越えない様に前記パラメータに関連付けられたコンテンツの構成部分を選択するコンテンツ選択手段をさらに具備することが好ましい。
前記コンテンツ撮影装置は、
ダイジェスト化する特徴あるシーンの優先度、種別、ダイジェスト時間長、およびコンテンツのダイジェストへの縮小率の少なくとも一つに対する指定を受け付けるダイジェスト生成方式指定手段と、
前記コンテンツデータの再生時参照ファイルの補助データである第2優先度リストを参照し、前記指定されたダイジェスト生成方式に従って当該再生時参照ファイルを生成する手段と、
前記再生時参照ファイルを再生オブジェクトリストに登録する登録手段とをさらに備えることが好ましい。
前記シーン情報生成手段は、
特徴を持つ音を検出して、その発生時刻と前記特徴を持つ音の識別情報とを含む特徴音メタデータを生成する特徴音メタデータ生成手段と、
前記特徴音メタデータ生成手段の出力を保持するメタデータ選択メモリとを具備することが好ましい。
前記パラメータは、カメラ部におけるレンズ部のズーム状態、絞り値、焦点距離、およびシャッタ速度、レンズ部の水平または垂直の傾き角、レンズ部の水平方向または垂直方向に回転する角速度、または、レンズ部の前後左右または垂直方向の移動加速度の少なくとも何れかを表すレンズ部の動作データ、またはユーザの入力コマンドデータ、または、前記動作データにあらかじめ決めた演算処理をカメラ制御手段で行って得たデータの何れかであることが好ましい。
前記シーン情報生成手段は、
前記コンテンツデータ(Sav)の記録動作中または記録終了後に、ユーザによる入力コマンドにより当該コンテンツデータ(Sav)の採用の可否および保留かの何れかの意味を持つ収録結果タグを生成する収録結果タグ生成手段と、
前記収録結果タグ生成手段の出力を保持するメタデータ選択メモリとを具備することが好ましい。
前記コンテンツ撮影装置は、
コンテンツの撮影開始の前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を収録情報タグとして前記撮影装置内のメモリに入力するデータ入力手段と、
前記撮影されたコンテンツの記録動作中に、特徴を有する音を検出して、その発生時刻と当該特徴を持つ音の識別情報とを含む特徴音発生タグを生成する特徴音発生タグ生成手段と、
前記特徴音発生タグを前記コンテンツのメタデータとして前記情報記憶媒体に記録する手段とをさらに具備することが好ましい。
前記特徴を有する音とは、カチンコを鳴らした音、ピストル発射音、および太鼓を鳴らした音の何れかであることが好ましい。
前記コンテンツ撮影装置は、前記情報記憶媒体に記録されたコンテンツの内で収録結果タグが採用のコンテンツを、前記シーン番号、前記カット番号、および前記テーク番号の何れかの番号の小さい方より並べ替える手段をさらに具備することが好ましい。
前記コンテンツ撮影装置は、
コンテンツの名前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を新しい名前として登録する手段と、
該コンテンツの元の名前を該コンテンツのメタデータとして登録する手段とをさらに具備することが好ましい。
前記コンテンツ撮影装置は、コンテンツの撮影毎に、前記パラメータに対する優先度が異なる所定数の動作モードを具備し、当該所定数の選択モードのうち少なくとも1つを選択する毎に当該パラメータに対する優先度を表すテーブルを選択する手段をさらに具備することが好ましい。
本発明にかかるコンテンツ撮影装置は、撮影された画像に対して生成された多数のメタデータからダイジェスト再生などに適した適正な数のシーン表現メタデータを生成できる。
図1を参照して、本発明の第1の実施の形態に係るコンテンツ撮影装置について説明する。図1においては、コンテンツ撮影装置Acc1は、カメラ101aにおいて記録媒体(またはバッファメモリ)上に映像データと音声データとメタデータとを生成し、生成されたメタデータに基づいて無効シーン削除やダイジェスト生成などの編集機能を備えるシステムモデルの一例として表されている。コンテンツ撮影装置Acc1は、好ましくは、カメラ101aおよびテレビ109を含む。テレビ109はカメラ101aに接続されて、映像表示および/あるいは音声再生が可能な手段であれば何でもよい。
カメラ101aは、レンズ部102、およびマイク103を含む。カメラ101aは、ユーザによるリモコン104の操作に応答して、撮影対象105の撮影を行う。撮影対象105は、たとえば、風景や人やペットなどの動物、車、および建造物などの被写体である。なお、カメラ101aはリモコン104に相当する機能を有する操作装置を備えていてもよい。撮影された画像に基づいて、カメラ撮影データ106が生成される。カメラ撮影データ106は、撮影画像の映像/音声データであるAVストリームデータファイルとメタデータを含む。
なお、カメラ101aからテレビ109への信号送信は接続ケーブル107を介して行われ、テレビ109からカメラ101aへの信号送信は接続ケーブル108を介して行われる。ユーザは、カメラ101aから離れた場所でリモコン104を操作して、信号ケーブル107を経由して、ダイジェストを構成する重要シーンの代表画面のサムネイル表示や、無効部を削除したコンテンツの再生や、ダイジェスト(または、要約コンテンツ)の再生をテレビ109で行うことができる。
図1において、テレビ109における表示例としてサムネイルTM#1、サムネイルTM#2、およびサムネイルTM#3が示されている。これらのサムネイルTMのそれぞれに対応する有効シーンSeおよび無効シーンSvの分類概念(シーン分類概念SCC)が図示されている。分類概念SCCにおいて、横軸は時刻Tであり、有効部(有効シーンSe1、Se2、およびSe3)と無効部(無効シーンSv1、Sv2、およびSv3)が時間軸上に表示されている。有効シーンSe1および無効シーンSv1がサムネイルTM#1に対応し、有効シーンSe2および無効シーンSv2がサムネイルTM#2に対応し、そして有効シーンSe3および無効シーンSv3がサムネイルTM#3に対応している。つまり、時刻Tsにカメラ101aによる撮影が開始され、時刻Teに撮影が終了している。
図1において、有効シーンSe1、Se2、およびSe3と、無効シーンSv1、Sv2、およびSv3の開始時刻と終了時刻のフレーム画像をそれぞれ、GOP構造において時間的に最も近い位置にあるIピクチャーに置き換えるとクリップ処理を簡単にできる。
たとえば、有効シーンSe1、Se2、およびSe3と、無効シーンSv1、Sv2、およびSv3の開始時刻と終了時刻をそれぞれ、
(Se1の開始時刻、Se1の終了時刻)=(Se1s、Se1e)
(Se2の開始時刻、Se2の終了時刻)=(Se2s、Se2e)
(Se3の開始時刻、Se3の終了時刻)=(Se3s、Se3e)
(Sv1の開始時刻、Sv1の終了時刻)=(Sv1s、Sv1e)
(Sv2の開始時刻、Sv2の終了時刻)=(Sv2s、Sv2e)
(Sv3の開始時刻、Sv3の終了時刻)=(Sv3s、Sv3e)
とすると、図1のシーンの並び方では、
(Se1の終了時刻)=(Se1e)=(Sv1の開始時刻)=(Sv1s)
(Sv1の終了時刻)=(Sv1e)=(Se2の開始時刻)=(Se2s)
(Se2の終了時刻)=(Se2e)=(Sv2の開始時刻)=(Sv2s)
(Sv2の終了時刻)=(Sv2e)=(Se3の開始時刻)=(Se3s)
(Se3の終了時刻)=(Se3e)=(Sv3の開始時刻)=(Sv3s)
となる。
有効部(有効シーンSe)は、たとえば、
・パンやズーム後のフィックスシーン、および
・歓声や拍手などの音声で特徴付けられるシーン等からなる。
一方、無効部(無効シーンSv)は、たとえば、
・カメラの揺れによる画像の振れ(一般に、「グラグラ」)が大きいシーン、
・ピンボケのシーン、パン/ティルト/ズームが早すぎるシーン、
・逆光になって画面が黒くなっているシーン、
・ハウリングがあるシーン、
・地面を撮影しているシーン、および
・カメラのキャップが閉まっているシーン等からなる。
上述の無効部(無効シーンSv)の画像は、一般常識的な感性や感情を持った人であれば、ほぼ万国共通に再生不要と認識されるものである。これは、受け入れがたいものに対する価値観は、一般に人の生理的な知覚や認知メカニズムに基づくところが多く、ほぼ万国共通であるためと考えられる。そのために、ダイジェスト再生時などに、無効部(無効シーンSv)は省略されることが望ましい。
なお、無効シーンSvの数はコンテンツ長に応じて、予め決めておくこともできる。たとえば、無効シーンSvは、1分当たり5個以内で、かつ、最大100個と決めることができる。また、無効シーンSvの種別指定や、コンテンツ毎に縮小率を指定できる。また、3脚などを用いて安定した映像を撮影している場合は、無効シーンの検出機能を手動でOFFにして撮影することもできる。
以下に、重要シーン検出例について説明する。撮影クリップのはじめ(CLIP−IN)、または、クリップのおわり(CLIP−OUT)における、1〜3秒のフィックス部分を重要部分(シーン)として抽出するアルゴリズムを作成できる。また、音検出のメタデータ(メインマイクやサブマイクからの音声、カチンコ音、ピストル発射音、歓声、などの入力を検出したメタデータ部分)を重要部分(シーン)として抽出するアルゴリズムを作成できる。
また、カメラ101aに内蔵されているジャイロセンサからの出力に基づいて、カメラ101aのパンやティルト後のフィックス(静止)シーンを検出できる。フィックスシーン(カメラマンが興味を持って固定映像を撮影している部分、Interest部分)を抽出できる。また、カメラ101aのズーム値の時間変化をモニタして、ズームアップ、ズームダウンした部分(シーン)を検出できる。
より詳細には、ズームアップやズームダウンの前後における1〜3秒のフィックス部分を重要部分(シーン)として抽出するアルゴリズムを作成できる。また、ジャイロセンサの出力に基づいて、カメラ101aのパンやティルト時の撮影シーンを検出できる。また、撮像素子から得られる撮影映像を複数のブロックに分割し、各ブロックの色相や色度が、あらかじめ決めた色相や色度の範囲内にあるか否かを表す情報が検出できる。たとえば、検出ブロックの大きさと形状、および肌色度から人の顔を検出できる。さらに、パン、ティルトやズームの後のフィックス映像の検出ブロックの形状および肌色度から人の顔をより精度よく検出できる。
注意すべき点は、上述の状態は一般的な感性・感情を持った人でも、撮影の素人と撮影のカメラワークに慣れた人では重要シーンとして認識するレベルが人によって少し異なる場合がありえることである。すなわち、撮影に慣れた人は映像撮影技法に準拠したカメラワークを意識して撮影するが、素人はそのような知識がないのでカメラワークを考えないで被写体を撮影することが往々にしてある。ただ、素人でも撮影しているうちに、アドバイスを受けたり、自分で気づいたりしながら、次第に一般に良いとされるカメラワークを習熟していくことが通例である。
また、高優先度シーンの選別は、まず低優先度シーンを除外したコンテンツより高優先度シーンを選別することにより、より安定したシーンの選別が可能となる。たとえば、ズームアップ後のフィックス部で高優先度シーンとしては有効であっても、ピンボケになっている場合があり、そのような低優先度シーンを優先的に除外できる。
同様に、ズームアップ後のフィックス部で高優先度シーンとしては有効であっても、逆光になって画面が真っ黒になっている場合がある。そのような低優先度シーンを優先的に除外できる。また、運動会のカケッコにおけるピストルの発射音が検出できていて高優先度シーンとしては有効であっても、ズームアップが早すぎたり、パンが早すぎたりして見るに耐えないシーンなどは、低優先度シーンとして優先的に除外できる。
上述のように、まず第1段階として、低優先度シーンを除外した安定的に撮影されているシーンにより構成されるプレイリストを生成する。次に、第2段階として、安定したシーンより高優先度シーンを選別する。たとえば、第1段階で作成したプレイリストに高優先度シーンを追加して無効部が除かれたコンテンツから重要シーンを選別する。以上の段階を経ることにより、揺れピンボケなどのない、視覚的にもより安定した、重要シーンの選別が可能となる。
無効シーンのメタデータは、無効というマイナスの意味を持つことから、符号にマイナスを付けて処理してもよい。なお、高優先度のシーン(重要シーン)と低優先度のシーン(無効シーン)の中間の値をもつシーンは普通のシーン(一般的なシーン)として取り扱える。
図1に示した例では、テレビ109の一覧表示において3つある有効部(有効シーンSe1、Se2、およびSe3)は、それぞれの代表クリップ(サムネイルTM#1、#2、および#3)として画面上に表示されている。これらの代表クリップは、それぞれの有効部の先頭フレームであってもよいし、有効部分の途中にある代表フレームであってもよい。また、それぞれの有効部と無効部には、それぞれ優先度が付与されていて、特定の優先度のシーンだけを選択してダイジェストを生成することもできる。
次に、図2を参照してカメラ101aの内部構成と動作について説明する。カメラ101aの内部には、ズーム制御部201、フォーカス制御部202、露出制御部203、撮像素子204、シャッタ速度制御部205、カメラマイコン206a、絶対傾きセンサ207、角速度センサ208、前後/左右/垂直の加速度センサ209、ユーザ入力系210a、撮像信号処理部211、音声処理系212、H.264方式エンコーダ213、記録メディア214、および出力インタフェース215が備えられている。
カメラマイコン206aは、タイムコード発生部206k、カメラワーク検出部206s、判定閾値設定部206t、撮像手段の動作モード処理部206u、コンテンツ分類部206w、およびシーン情報生成部206i(Index生成手段)をソフトウエアのアルゴリズムとして内蔵している。シーン情報生成部206iは、撮像装置のパン、ティルト、ズーム、フォーカス、および音声入力レベルなどのデータに関して、それぞれに特定の演算を行うことによって無効シーンや重要シーンの検出を行う。
なお、紙面の都合上、タイムコード発生部は「TCG」と表示され、カメラワーク検出部は「CWD」と表示され、判定閾値設定部は「ATS」と表示され、撮像手段の動作モ処理部は「OPD」と表示され、コンテンツ分類部は「CC」と表示され、そしてシーン情報生成部は「SIG」と表示されている。
ズーム制御部201はレンズ部102のズーム動作を制御する。フォーカス制御部202は、レンズ部102のフォーカス動作を制御する。露出制御部203はレンズ部102の露出調整動作を制御する。シャッタ速度制御部205は撮像素子204のシャッタ速度調整動作を制御する。絶対傾きセンサ207はカメラ101aの水平/垂直方向の絶対傾きを検出する。角速度センサ208は、カメラ101aの水平/垂直方向の角速度を検出する。加速度センサ209はカメラ101aの前後/左右/垂直の加速度を検出する。
ユーザ入力系210aは、ボタンなどでユーザ操作を受け付けて指示信号を生成する。また、撮像信号処理部211は、MPEG2方式やH.264/AVCなどのエンコード手段を内蔵している。なお、H.264/AVC方式については、たとえば、「H.264/AVC教科書」、大久保榮監修、株式会社インプレス発行、などの書籍に詳述されている。また、MPEG−TS信号はIEC 61883−4で規定されている。
MPEG−TSのPATやPMTなど、TS(トランスポートストリーム)に関する参考文献としては、たとえば、CQ出版社、TECH I Vo.4、「画像&音声圧縮技術のすべて(インターネット/ディジタルテレビ、モバイル通信時代の必須技術)」、監修、藤原洋、第6章、「画像や音声を多重化するMPEGシステム」があり、同書にて解説されている。また、PSIやSIの階層構造、処理手順の例、選局処理の例として、「デジタル放送受信機における選局技術」、三宅他、三洋電機技報、VOL.36、JUNE、2004、第74号、31ページから44ページでも解説されている。
角速度センサ208は、一般にジャイロセンサにより構成されており、3つの回転軸に対して、ロール(roll)、ピッチ(pitch)、およびヨー(yaw)の回転加速度を検出する。回転加速度の検出感度の較正は重要である。最近では、たとえば、電源投入後、数秒間で自動較正(Auto Calibration)されるジャイロセンサも商品化されている。
ジャイロセンサを搭載したカメラにおける検出感度の較正は、センサデバイスの体間でのばらつき、温度によるばらつき、および電源電圧変動のばらつきを考慮して行われる。予め決めた条件下で予め決めた大きさの振動を与え、その時のセンサ出力の期待値との誤差を許容値以下に追い込むことにより較正を行う。このような較正は工場などで行うことができる。
自動較正の方法として、揺れがある場合の出力振幅を較正用の標準振動に対するセンサ出力が一定になるようにアンプゲインが調整される。較正用の標準振動を与える例としては、振動レベルを保証した振動体が利用できる。振動体としては、携帯電話のサイレントモードの呼び出しなどで使用されている振動デバイスなどでも振動レベルが規定できれば利用できる。このように振動レベルが既知の振動源であれば較正手段として使えるのはいうまでもない。なお、複数の振動レベル(たとえば、大、中、小の3レベル)で較正すれば、より高精度な較正ができる。
撮像素子204の動作パラメータとしては、3原色点の色度空間情報と、白色の座標と、3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)、および3原色または輝度信号のガンマ情報との少なくとも1つに関する撮像素子動作データがある。本実施の形態においては、一例として、3原色点の色度空間情報、3原色のうちR(赤)とB(青)のゲイン情報、およびG(緑)のガンマカーブ情報をメタデータとして取り扱うものとする。
なお、3原色点の色度空間情報が分かれば、色空間における色再現が可能な範囲が分かる。また、3原色のうちR(赤)とB(青)のゲイン情報が分かれば色温度が分かる。さらに、G(緑)のガンマカーブ情報が分かれば、階調表現特性が分かる。色温度検出用の専用センサを具備して、そのセンサから色温度情報を受け取るように構成してもよい。
レンズのズーム情報、レンズのフォーカス情報、レンズの露出情報、撮像素子のシャッタ速度情報、水平/垂直方向の絶対傾き情報、水平/垂直方向の角速度情報、前後/左右/垂直の加速度情報、ユーザの入力したボタン情報やシーン番号、カット番号、テーク番号、その収録テークの採用、不採用、保留などに関する情報、3原色点の色度空間情報、3原色のうちR(赤)とB(青)のゲイン情報、およびG(緑)のガンマカーブ情報は、カメラマイコン206aにおいてメタデータDm(カメラメタと呼ぶ)として取り扱われる。
撮像素子204で撮影された情報である画像データは、撮像信号処理部211による画素単位あるいは複数の画素により構成されるブロック単位で画素欠陥補正やガンマ補正などの処理を経て、H.264/AVC方式のエンコーダなどで圧縮された後に、前述のカメラメタと共に記録メディア214に蓄積される。また、H.264方式エンコーダ213で生成されたAV信号Savと、カメラマイコン206aで生成されたカメラメタDmは、出力インタフェース215よりそれぞれ出力される。
次に、カメラ101aによるムービー撮影時に作成されるカメラメタDmについて説明する。H.264ストリームのSEIにマッピングされるリアルタイムメタデータの例としては、たとえば、
・ムービーなどのカメラで撮影したAVコンテンツに関連付けたメタデータ、
・撮像データなど一般的なデータをメタデータ化したメタデータ、
・デジタル放送のSI(Service Information)より得るメタデータ、
・EPG提供事業者より得たEPG情報などのメタデータ、および
・Internetから得たEPGなどのメタデータ
などがある。
カメラで撮影したAVコンテンツに関連付けたメタデータとして、たとえば、
・重要シーンでユーザが押したボタンを表す情報(ナンバーなど識別情報を付加できる)
・撮影データ、
・タイムコード(映像フレーム、音声フレーム)、
・撮影フレームレート、記録フレームレートなどの映像や音声のフォーマット情報、
・映像ブロックの輝度情報および色情報、および
・音声入力レベル(指定chの一定期間における入力レベルの最大値)
などがある。
なお、撮データには、撮像素子の動作モード、逆光補正、絞り・露出情報、フォーカス、シャッタ速度情報、色温度、ホワイトバランス、ズーム、仰角、地面撮影、グラグラした揺れ、グラグラ、パン/ティルト/ズーム(PTZと略す)の状態、ハウリングの状態、カメラのキャップ閉まり状態、およびカメラの姿勢状態(水平/垂直方向の絶対傾き情報、水平/垂直方向の角速度情報、および前後/左右/垂直の加速度情報など)が含まれる。
また、ノン(非)リアルタイムメタデータとしては、たとえば、
・メニュー情報、
・タイトルリスト(代表イベント、ユーザが登録したイベント)、
・シーン番号、カット番号、テーク番号、その収録テークの採用/不採用/保留などに関する情報、
・画像認識データ(顔、人、ペットなどの検出、認識)、
・音声認識データ、
・撮像素子の3原色点の色度空間情報、白色の座標、3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)などの撮像システムの動作データ、
・外部との通信で入力されたファイル(シナリオなどのテキストをXML、バイナリデータの形式のファイルとして外部インタフェースより入力)、
・3原色または輝度信号のガンマ情報、
・静止画、および
・サムネイル
などがある。
上述のメタデータのうちで必要なものが選択されて使用される。メタデータの記述形式としては、UPnPやUPnP−AVで導入されているプロパティ(property)やアトリビュート(attribute)がある。これらは、http://upnp.orgで公開されており、テキストやXML(Extensible Markup Language)の利用を意識した設計を行うと効率的な運用ができる。
なお、ムービーなどの撮影者、コンテンツ制作者、またはコンテンツの著作権者が各メタデータに価値を付け、コンテンツを利用するユーザの利用内容や頻度により利用料金を徴収するために、各メタデータに価値を与えるメタデータを関連づけることができる。各メタデータに価値を与えるメタデータは対象とするメタデータのアトリビュートで与えてもよいし、独立したプロパティとして与えてもよい。
以下に、録画機器と録画条件に関する情報について一例を説明する。これらの情報には、ムービーの機器メーカー識別ID、機種識別ID、ムービーなどの撮影者名、およびコンテンツ制作者名が含まれる。さらに、コンテンツの著作権者が作成して、そして登録するメタデータの価値が高く使用許諾が必要とコンテンツ著作権者が考える場合に、該メタデータの利用には認証による使用許諾のプロセスを実行する構成を本発明に組み込んで構成をすることによって効率的な運用ができる。
この場合、撮影者は撮影した動画コンテンツを暗号化したファイルに作成し、Internet上のサーバーにそのファイルをアップロードして公開してもよい。また、暗号化したファイルをアップロード・告知して、気にいった人に購入してもらう構成もとれる。ハプニング映像などニュース価値があるコンテンツが録画できた場合には、複数の放送局間でオークションにかけることもできる。メタデータの活用により、増大するコンテンツの分類および検索が効率的に行える。
図3、および図4を参照して、シーン情報生成部206iについて説明する。図3に示すように、シーン情報生成部206iには、カメラが動作時に使用または生成されるパラメータD、判定の閾値Thを表す閾値情報Ti、およびカメラの動作モード情報Opが入力される。そして、シーン情報生成部206iは入力されたパラメータおよび情報に基づいて、シーン情報生成アルゴリズムに従いインデックス情報Ri(シーン情報)を生成して出力する。つまり、インデックス情報Riは、シーン情報(SI)がマッピングされた情報である。
シーン情報生成アルゴリズムは、撮影された画像に対して生成された多数のメタデータをマージして、ダイジェスト再生などに適した適正な数のシーン表現メタデータを生成するものである。撮影時に存在するメタデータとしては、従来よりカメラワークに関するデータ、収録音声、およびユーザ操作など多数のメタデータがある。しかしながら、これら従来のメタデータは単独で大きな意味を成さないし、生成されるメタデータの数も膨大になるため、撮影によって生じたメタデータ適正に処理されて少数で意味のあるメタデータに変換されるべきである。そのため、本実施の形態においては撮影中に生成された多数のメタデータをマージして、ダイジェスト再生などに適した適正な数のシーン表現メタデータを生成する。
図4に、シーン情報生成部206iの構成例として、インデックスマージ機能を持ったシーン情報生成部206iの構成を示す。シーン情報生成部206iは、インデックス計算部301iおよびインデックスマージ部401を含む。インデックス計算部301iには、カメラが動作時に使用または生成されるカメラの動作パラメータD、判定の閾値情報Ti、およびカメラの動作モード情報Opが入力される。インデックス計算部301iは、入力されたパラメータおよび情報に基づいて、シーン情報生成アルゴリズムに従いインデックス情報Riを生成してインデックスマージ部401に出力する。
インデックスマージ部401には、インデックスのマージ用にフィルタ(窓関数)の指定情報Wdが入力される。インデックスマージ部401は、インデックス情報Riと指定情報Wdに基づいて、インデックスマージ用にフィルタを指定するインデックスマージ情報Rimを生成して出力する。なお、インデックス情報Riおよびインデックスマージ情報Rimは、インデックスデータDiとして、出力インタフェース215から出力される
図5を参照して、撮影クリップにおいて生成した複数の第1のメタデータと、第1のメタデータより、ダイジェスト生成用の第2のメタデータを設定する方法について説明する。図5の上段には、コンテンツ撮影装置Acc1で撮影されて生成された複数の第1のメタデータが示されている。そして、下段には第1のメタデータから生成される第2のメタデータが示されている。
第2のメタデータを、少数の特徴のあるシーンを表すシーン表現メタデータと呼ぶ。図5において、横軸は時間軸であり、各時刻は映像のフレーム番号で表されている。縦軸は生成したメタデータの優先度を表し、最大値を100としている。メタデータの種別(Typ)としては、たとえば、以下のA〜Eがある。
種別Aには、クリップのはじめ(CLIP−IN)およびクリップのおわり(CLIP−OUT)が含まれる。クリップのはじめとクリップのおわりにおける1〜3秒のフィックス部分を重要部分として抽出するアルゴリズムを作成できる。
種別Bには、音検出のメタデータ(メインマイクやサブマイクからの音声、カチンコ音、ピストル発射音、歓声、などの入力を検出したメタデータ)が含まれる。メインマイクやサブマイクからの音声、カチンコ音、ピストル発射音、および歓声などを検出したメタデータ部分を重要部分として抽出するアルゴリズムを作成できる。
種別Cには、フィックス部分(カメラマンが興味を持って固定映像を撮影している部分、Interest部分)が含まれる。
種別Dには、ズームアップした部分およびズームダウンした部分が含まれる。ズームアップやズームダウンの前後における1〜3秒のフィックス部分を重要部分として抽出するアルゴリズムを作成できる。
種別Eには、パンした部分およびティルトした部分が含まれる。ズームと同様、パンやティルトした部分の前後における1〜3秒のフィックス部分を重要部分として抽出するアルゴリズムを作成できる。
上述の種別(Typ)はそれぞれ、単にA、B、C、D、およびEと表示されている。所定の一定期間の窓Wをクリップのはじめから最後まで動かして第2のメタデータが選択される。そして、選択されたメタデータを用いてダイジェスト再生を行うことができる。本例では、窓Wの中で最大の優先度を持つメタデータがダイジェスト生成のために用いる第2のメタデータとして選択されている。具体的には、約470フレームに存在する、種別Cのフィックス状態を表すInterestメタデータが選択される。
また、図5の下段に示す例においては、一定期間の窓Wの中で優先度を持ったメタデータの合計値(優先度(SP)の重み付き合計値)が、予め設定している値(たとえば、250)を超えた場合にのみ、第2のメタデータの選択を行うように設定するモードを追加することもできる。また、最小インデックス発生間隔Tminを設定して、所定時間以上特徴シーンが検出できない場合等に、強制的に一定間隔でインデックスを生成させることができる。最小インデックス発生間隔Tminは、ブラウジングなどにより映像の内容確認を数秒毎に行う等の用途に有用である。たとえば、最小インデックス発生間隔Tmin=5秒に設定すれば、少なくとも5秒毎に、何が起こって(記録されて)いるか表示されて、ユーザはそれを知ることができる。
図5の上段に示されたメタデータは、図5の下段に示すNo.1〜No.6までの6つのメタデータにマージされる。なお、メタデータNo.1は種別Aで優先度は約50であり、メタデータNo.2は種別Bで優先度は約80であり、メタデータNo.3は種別Cで優先度は約102であり、メタデータNo.4は種別Cで優先度は約98であり、メタデータNo.5は種別Bで優先度は約75であり、メタデータNo.6は種別Bで優先度は約75である。よって、本例においては、メタデータNo.3およびメタデータNo.4が重要シーンとして認定される。なお、メタデータの数が2個の場合には、メタデータNo.3はズームアップ後のフィックス区間での撮影画像であり、メタデータNo.4はズームダウン後のフィックス区間での撮影画像である。
図6を参照して、撮影コンテンツより上述のズームアップ後のフィクス区間(No.3)およびズームダウン後のフィックス区間(No.4)を抽出して、1つのダイジェストを構成する方法について説明する。同図において、上から順番にグラフG1、G2、G3、およびG4が示されている。グラフG1において、縦軸は撮像されたズームレベルLzを表し、横軸は時刻tを表して、実線Lztは時刻tに対するズームレベルLzの変化を示している。
なお、グラフG1において、時刻tは左から右へ進行し、ズームレベルLzが大きいほどズームアップの程度が大きいことを示している。つまり、実線Lztが下から上方向に変化すればズームアップされており、上から下方向に変化すればズームダウンされている。グラフG1においては、図5に示したメタデータNo.3(ズームアップ後のフィックスを代表点として選び、メタデータNo.3としている)、およびNo.4(ズームダウン後のフィックスを代表点として選び、メタデータNo.4としている)に対応する部分が明示されている。
グラフG2において、縦軸は手ぶれレベルLvを表し、横軸は時刻tを表し、実線Lvtは、時刻tに対する手ぶれレベルLvの変化を示している。なお、グラフG2において、手ぶれレベルLvが大きいほど、カメラの変位量が大きい。実線Lvtが上下に大きく変動するほど、手ぶれは酷いことを示している。つまり、撮影の初期、半ば、および終盤、つまり撮影動作の開始/終了そしてズーム方向が逆転する場合に手ぶれは大きくなる。ズームアップ後のフィックス時やズームダウン後のフィックス時の手振量は小さい。
グラフG3は、撮影された映像(メタデータ)のシーケンスを表している。グラフ3において、それぞれ3枚のメタデータ(1)および(2)が、グラフG1における重要シーン(メタデータNo.3およびNo.4)の区間に含まれる。
グラフG4に、グラフG3に示された映像シーケンスから抜き出された、シーン表現メタデータ(1)および(2)によるダイジェスト映像シーケンスが示されている。この様にして、撮影映像シーケンス(G3)から重要シーン(No.3およびNo.4)が抜き出されてダイジェストが構成できる。
このように、グラフG1の画像は、その優先度に応じて、グラフG4のダイジェスト映像シーケンスに抜き出される。具体的には、上述のズームアップ後のフィックス区間(No.3)では、時刻tsに抜き出しが開始され、時刻teに抜き出しが終了する。なお、時刻trにおける画像は、当該フィックス期間(No.3)における代表するものである。これらの時刻を、それぞれ開始時刻ts、終了時刻te、および代表時刻trと呼ぶ。つまり、ダイジェストに抜き出された画像は、シーンの種別(typ)はズームアップ、優先度(SP)は72、開始時刻はts、終了時刻はte、代表時刻はtrと表現される。
ところで、手振れ映像の分析結果に基づき、横方向、あるいは縦方向の並進パラメータに関しては、約0.5Hzから2Hzの周波数成分、特に、水平方向の0.35Hzから1Hzのパンが映像酔いを引き起こすといわれている。回転については、1秒当たり30度から70度の動きでより大きな映像酔いを引き起こすといわれている。
1方向の回転運動については、ロール、ピッチ、ヨーの順番に酔いが生じやすい。具体的には、ロールは大振幅で1秒間に60度以下の回転、ピッチは1秒間に60度程度の回転、そしてヨーは1秒間に90度以上の回転で映像酔いが生じやすいといわれている。よって、これらの回転を検出して、その状態を表すメタデータが生成できる。そして、無効シーンが指定できる。
動画像でブランクなしに運動方向の変化が急激に生じる場合、映像酔いが起こりやすい。一方、ブランクを挿入してやれば運動方向が変わる場合にも映像酔いは起こりにくい。よって、ひどい像振れ(手振れ)を検出した場合は、一方向の映像だけを検出して表示するようにプレイリストを生成すれば、映像酔いを軽減できる。
また、映像酔いを誘発しそうな像ぶれ(手振れ)などのカメラワークを検出すれば、そのカメラワークの度合いに応じて、撮影者にカメラの揺れが多いことなどを音や光の点滅でアラームとして知らせることができる。
また、動画では視野角が大きいと映像酔いが生じやすい。そこで、ジャイロセンサのロール、ピッチ、およびヨーの回転加速度を表す信号を用いてカメラの手振れを検出し、パン、ティルト、ズーム、ロ−ルなどのカメラの運動パターンの急激な変化により生じる映像のグローバルモーションを算出する。そして、グローバルモーションの時間周波数成分や想定するディスプレイ上の視野角での運動の速度を算出する。次に、電子的に手振れ除去を行ない、映像表示の縦と横の画素数を少なくすることにより、視野角は小さくなるが映像酔いを軽減できる。
なお、視聴する画面サイズ(たとえば、32インチ)と視距離(たとえば、2m)とを仮定し、横および縦の平行移動の速度の閾値Thv(たとえば、1フレームあたり10ピクセル以内の移動速度)と周波数の閾値Thf(たとえば、0.5Hz)を設定して、画像の検出される振れ量がこれら2つの閾値ThvおよびThfを超える場合、映像酔いが発生する危険な状態と設定できる。なお、これらの閾値ThvおよびThfは、撮影モードや撮影イベント別に変更できる。
よって、手振れやパン、ティルトの検出においては、代表的な視野角(または、画面の大きさと視距離)に対する映像酔い検出の閾値を複数決め、これらの閾値に対して手振れやパン、ティルトの検出を行なうことができる。これにより、視聴時に視野角(または、画面の大きさと視距離)を指定すれば、その視野角に対して映像酔いを誘発しない設定ができる。
次に、図7を参照して、H.264/AVCのファイル構成例について説明する。左側の四角枠内にディレクトリ構成Sdを示し、右側の四角枠内にファイル構成Sfを示す。これらの構成は、SDカードやDVD−R、DVD−RAM、およびBD−REなどの情報記録メディア上に構築される。
ディレクトリ構成Sdでは、root下には、参照ファイル(ref.file)と、「PlayList」、「CLIP」、および、「STREAM」ディレクトリが存在する。「PlayList」ディレクトリ下には、プレイリスト(ファイル)である「*.pls」ファイルが存在する。また、「CLIP」(クリップ)ディレクトリには、クリップファイルであるである「*.clp」ファイルが存在する。「STREAM」ディレクトリ下にはATS(192バイト)により構成されるストリームファイルである「*.ats」ファイルが存在する。
ファイル構成Sfでは、参照ファイル(ref.file)は、コンテンツのタイトル情報(Title#n)を管理し、複数のチャプタ情報(Chapter#1、C#2、C#3、C#4、・・・)を管理する。プレイリスト(PlayList#1)は、複数の再生パート情報(PlayItem#1、P#2、P#3、・・・)を管理する。また、クリップファイル(Clip#1、Clip#2、Clip#3、・・・)は、EPマップ(EP_Map)を持つ。EPマップはPTSとストリームファイルを構成するATSパケットのATS連番の相互対照マップテーブルであり、タイムコードとデータ位置の相互変換を行うものであり、プレイリスト再生やストリームファイル編集において不可欠のものである。
上述のように、タイトルはプレイリストファイル、プレイリストファイルはクリップファイル、そして、クリップファイルはATSパケットによるストリームファイルと、それぞれ関連付けられる。
上述のリアルタイムメタデータやノンリアルタイムメタデータは、SEIにマッピングされた後に、ATSのストリームファイルに変換される。また、リアルタイムあるいはノンリアルタイムのメタデータに基づく演算により生成されたメタデータをクリップのシーン情報(SI)として、プレイリストのパート情報や補助エリアAAに付加情報としてマッピングする。すなわち、優先度をもったリストを撮影コンテンツの再生時に参照するプレイリストファイルの補助データとしてマッピングする。
これにより、プレイリストファイルのデータを見るだけで、クリップのシーン情報メタデータ(インデックス情報)を参照できるという大きな特徴を持つ。なお、MPEGの場合には、リアルタイムメタデータやノンリアルタイムメタデータはprivate packetやPMTに挿入できる。
DVD−R方式やBD−RE/ROM方式、あるいはAVCHD方式においては、揺れのあるシーン、すなわち、映像酔いを誘発するシーンをスキップして再生できる。つまり、上述の揺れの多いシーンをメタデータとしてタイムコードと関連つけしてプレイリストのマーカーとして登録する。そして、上述の方式のメディアのプレーヤーにおいて、プレイリストのマーカー情報あるいはマーカーの付加情報を参照して、揺れのあるシーンをスキップして再生する。
タイムコードTCと関連つけしたメタデータをプレイリストの情報として記述することにより、コンテンツの再生機器でプレイリストに記述された情報を参照して無効シーンや重要シーンなど撮影コンテンツ中のイベントの開始点または代表点に即座にアクセス(スキップ)できる。また、再生時に参照するプレイリストファイルの補助データであるメタデータのリストを参照することにより、指定したイベント区間(イベントの開始点から終了点までを参照して生成したイベント区間)を順番に再生できる。
図6において、グラフG4として示される重要シーンにより構成されるダイジェストを生成する場合には、シーンの優先度の指定、またはシーン種別(Typ)の指定、またはダイジェスト時間長の指定、またはダイジェストへの縮小率指定を入力するダイジェスト方式指定手段や、プレイリストの補助データであるシーンのリストを参照して、新たなプレイリストファイルを生成することもできる。
図1に示したサムネイル表示例に関しては、重要シーンにより構成されるダイジェストのプレイリストは、
(Se1の開始時刻、Se1の終了時刻)=(Se1s、Se1e)
(Se2の開始時刻、Se2の終了時刻)=(Se2s、Se2e)
(Se3の開始時刻、Se3の終了時刻)=(Se3s、Se3e)
の3つの有効シーンを含む。
さらに、プレイリストを参照することにより、以下に述べるようなモードを含む多様な再生が可能となる。例えば、
・重要シーンとして指定される区間は通常再生を行い、それ以外のシーンは高速速度で再生する。
・無効シーンとして指定される区間は高速再生を行い、それ以外のシーンは通常速度で再生する。
・無効シーンとして指定される区間は検出した代表シーンや予め撮影して登録した静止画を3秒ずつ表示する再生を行い、それ以外のシーンは通常速度で再生する。
さらに、図1に示したサムネイル表示例に関しては、有効シーンSe1、Se2、およびSe3では通常再生を行い、無効シーンSv1、Sv2、およびSv3では5倍速の高速再生を行なう場合のプレイリストは、
(Se1の開始時刻、Se1の終了時刻)=(Se1s、Se1e)、通常再生;
(Sv1の開始時刻、Sv1の終了時刻)=(Sv1s、Sv1e)、5倍速再生;
(Se2の開始時刻、Se2の終了時刻)=(Se2s、Se2e)、通常再生;
(Sv2の開始時刻、Sv2の終了時刻)=(Sv2s、Sv2e)、5倍速再生;
(Se3の開始時刻、Se3の終了時刻)=(Se3s、Se3e)、通常再生;および
(Sv3の開始時刻、Sv3の終了時刻)=(Sv3s、Sv3e)、5倍速再生
と表現できる。
特に、子供の音楽会などの撮影コンテンツに対しては、揺れていたりピンボケになっていたりする無効な映像は見たくないが、ピアノや合唱などの演奏は連続して聞きたいというような要望を考慮して、再生する映像は代表シーンや予め撮影して登録してある映像(青空、建物、花、子供の顔など)に切り替えて、音声のみ連続再生することもできる。
図1に示したサムネイル表示例に関しては、有効シーンSe1、Se2、およびSe3では通常再生を行い、無効シーンSv1、Sv2、およびSv3では登録映像の再生を行なう場合のプレイリストは、
(Se1の開始時刻、Se1の終了時刻)=(Se1s、Se1e)、通常再生;
(Sv1の開始時刻、Sv1の終了時刻)=(Sv1s、Sv1e)、登録映像の再生;
(Se2の開始時刻、Se2の終了時刻)=(Se2s、Se2e)、通常再生;
(Sv2の開始時刻、Sv2の終了時刻)=(Sv2s、Sv2e)、登録映像の再生、
(Se3の開始時刻、Se3の終了時刻)=(Se3s、Se3e)、通常再生;および
(Sv3の開始時刻、Sv3の終了時刻)=(Sv3s、Sv3e)、登録映像の再生
と表現できる。
プレイリストを参照することにより、無効シーンとして指定される区間ではカメラワークに起因する撮影映像の横揺れやたて揺れを取り除いた映像を生成する手段により、画像の揺れを取り除いた映像を表示する再生を行い、それ以外のシーンは通常速度で再生することもできる。
また、上述したデータ分類の閾値ThvおよびThfを複数レベルの閾値に拡張することによりそれぞれのレベルの閾値に対して異なる長さの再生時間(切りだし期間)の表示ができる。たとえば、閾値を5段階とした場合、閾値Thv_1〜Thv_5(または、Thf_1〜Thf_5でも同様)のレベルが真ん中(Thv_3)の時には、撮影クリップ毎の再生時間を表示させる。そして再生時間が想定よりも長ければ、再生時間を短くするレベルに閾値Thvを変更する。逆に、再生時間が想定よりも短ければ、再生時間を長くするレベルに閾値Thvを変更する。
さらにきめ細かい設定を行う場合には、クリップを構成するシーンのそれぞれに対して、5段階ある閾値Thv_1〜Thv_5のレベルが真ん中(Thv_3)の時に、そのシーンの再生時間を表示させる。そして、再生時間が想定よりも長ければ、再生時間を短くするレベルに閾値Thvを変更できる。逆に、再生時間が想定よりも短ければ、再生時間を長くするレベルに閾値Thvを変更できる。
また、クリップやクリップの集合体であるプレイリストに対して、トータルの再生時間を与えると、それぞれのクリップやシーンの閾値を自動で設定するプログラムを組むことにより、指定する再生時間に近いプレイリストを生成できる。
プレイリストを参照することにより、優先度があらかじめ決めた値以上のシーンまたは特定のカメラワークを持ったシーンより構成されるプレイリストを新たに生成して、タイトルに登録してもよい。
プレイリストを参照することにより、各シーンの種別(Typ)に応じたBGMを生成して再生し、シーンの切り替わり付近でBGMのメロディー、音色、テンポを変え、より芸術性、文化度の高いコンテンツの再生を行うこともできる。
上述のように、コンテンツ撮影装置Acc1は、カメラ101で被写体105を撮影して映像、音声またはデータの何れかを含むコンテンツデータであるAV信号Savを生成する。そして、カメラマイコン206a(カメラワーク検出部206s)でカメラ101の動きを検出し、シーンを表す第1のシーン情報(SI)を参照すると共に検出された動きを所定値Th(閾値情報Ti)と比較して、第1のメタデータであるインデックスデータDiおよびカメラメタDmを生成する。AV信号Savは第1のメタデータと組み合わされて、記録メディア214に記録される。
カメラマイコン206a(シーン情報生成部206i)は、さらに所定の特定窓期間(W)に発生する1つ以上の第1のメタデータ(Di,Dm)を所定の関数によりフィルタリングしてシーン種別Typ、優先度SP、開始時刻ts、終了時刻te、および代表時刻tr何れかのパラメータを含む第2のメタデータとしてインデックスデータDiおよびカメラメタDmを生成する。カメラマイコン206aは、なおさらに第1のシーン情報SIを参照して第2のメタデータ(Di,Dm)の第2のシーン情報であるインデックス情報Riを生成し、インデックス情報Riを参照してコンテンツ(AV信号Sav)の特定部分へのアクセスを可能としている。
なお、カメラマイコン206aは、上述の所定の関数の一例として、所定幅の窓期間W中に発生するメタデータの優先度SPの重み付き合計値を演算するものや、所定幅の窓期間W中に発生する第1のメタデータ(DiおよびDm)の中で最大の優先度SPを有するものを選別するものや、所定期間Tmin以上の間隔毎にパラメータを1つずつ設定するものや、所定期間W中にパラメータが選択されなかった場合には所定期間Tmin毎に1つ以上のパラメータを強制的に付加するものを用いることができる。
カメラマイコン206aは、上述の機能の他に、第2のメタデータであるインデックスデータDiおよびカメラメタDmに含まれるシーン種別Typ、優先度SP、開始時刻ts、終了時刻te、および代表時刻trのパラメータの少なくとも1つを参照して、複数のシーンを組み合わせてプレイリストを生成する機能を有するように構成される。
カメラマイコン206aは、さらに、優先度SPを参照して、第2のメタデータであるインデックスデータDiおよびカメラメタDmに含まれるパラメータを指定された個数以内に選別する機能を有するように構成される。
カメラマイコン206aは、なおさらに、第2のメタデータであるインデックスデータDiおよびカメラメタDmで構成される特徴あるシーン区間を指定順序で再生する場合に、当該シーン区間の再生時にその特徴の説明をテロップとして再生映像に重畳する機能を有するように構成される。
カメラマイコン206aは、外部から与えられるダイジェスト再生時間を越えない様にパラメータに関連付けられたコンテンツの構成部分を選択する機能を有するように構成される。
また、カメラマイコン206aは、ダイジェスト化する特徴あるシーンの優先度SP、種別Typ、ダイジェスト時間長、およびコンテンツのダイジェストへの縮小率の少なくとも一つに対する指定を受け付けて、コンテンツデータ(Sav)の再生時参照ファイルの補助データである第2優先度リストを参照し、指定されたダイジェスト生成方式に従って当該再生時参照ファイルを生成し、再生時参照ファイルを再生オブジェクトリストに登録する機能を有するように構成される。
(第2の実施の形態)
以下に、図8、図9、および図10を参照して、本発明の第2の実施の形態にかかるコンテンツ撮影装置について説明する。図8に示すように、本実施の形態にかかるコンテンツ撮影装置Acc2は、図1に示したコンテンツ撮影装置Acc1と基本的に同様の構成を有している。上述のように、第1の実施の形態にかかるコンテンツ撮像装置においては、データ分類の閾値Thのレベルを変えて、それぞれの閾値に関して再生時間の表示ができる。しかしながら、コンテンツ撮影装置Acc2は、カメラの動作モードにより、図5で説明したパン、ティルトやフィックスなどのカメラワーク、音声の収録に対して与える優先度をコンテンツ撮影装置の撮影モードに基づいて変更する機能を有している。
図9に示すように、コンテンツ撮影装置Acc2においては、コンテンツ撮影装置Acc1におけるカメラ101aがカメラ101bに置き換えられている。なお、カメラ101bにおいては、カメラ101aにおけるマイコン206aがマイコン206bに置き換えられ、ユーザ入力系210aがユーザ入力系210bに置き換えられ、ROM220が追加されている。
本例におけるユーザ入力系210bは、上述のユーザ入力系210aの機能に加えて、ユーザの操作によって、コンテンツ撮影装置Acc2の撮影モードをカメラマイコン206bに知らせる機能を有している。カメラマイコン206bは、ユーザ入力系210bから入力される撮影モードに応じて、ROM220から撮影シーンに対して与える優先度を選択的に読み出して、カメラメタDmを生成する。
以下に、図10を参照して、本実施の形態における撮影モードと優先度の関係について説明する。図10には、ROM220に格納される撮影モード/優先度表T220の一例が示されている。同表において、上の行には、コンテンツ撮影装置Accの撮影モードが表されている。左端の列には、ユーザによるコンテンツ撮影装置Acc2の操作、いわゆるカメラワークの種類が表されている。
本例においては、撮影モードの一例として、「通常」、「ポートレート」、「スポーツ」、「ローライト」、「スポットライト」、および「ナイトビュー」が設定れている。カメラワークとしては、「REC開始」、「RECポーズ」、「パン」、「ティルト」、「ズームアップ」、「ズームダウン」、「フィックスショット」、および「音声入力」が設定されている。カメラマイコン206bは、ユーザの操作によりユーザ入力系210bを介して入力される「撮影モード」と、絶対傾きセンサ207、角速度センサ208、および加速度センサ209から入力される信号に基づいて検出される「カメラワーク」とに基づいて、ROM220の撮影モード/優先度表T220から、カメラワークCWと撮影モードCMの組み合わせに対して一義的に割り当てられているスコア(15〜70)SP優先度として読み出
このように、通常モード、ポートレートモード、スポーツモード、ローライトモード、スポットライトモード、ナイトビューモードなど、撮影の各シーンモードに応じて、カメラワーク(含む音声の収録)毎に与える優先度が変更される。
たとえば、被写体の動きがより早いスポーツモードでは、パンやティルトのインデックスに対する得点を通常モードよりも大きくする。また、通常よりも暗い環境での撮影となるローライトモードでは、ズームアップやズームダウンのインデックスに対する得点も通常モードよりも大きくする。
そこで、個々のインデックスに対する得点が変わるので、マージしたインデックスの得点も変えることができる。これにより、撮影におけるシーンモードそれぞれに適した重要シーンの抽出ができる。なお、図10に示した、カメラワーク、撮影モード、および各スコア(優先度)は一例であって、必要に応じて任意に設定できる。
上述のように、コンテンツ撮影装置Acc2において、カメラマイコン206b(シーン情報生成部206i)は、特徴を持つ音を検出して、その発生時刻(Tb)と特徴を持つ音の識別情報と含む特徴音メタデータを生成し、生成された特徴音メタデータを保持するメタデータ選択メモリとして機能するように構成される。
カメラマイコン206bは、コンテンツの撮影毎にパラメータに対する優先度が異なる所定数の動作モードを具備し、当該所定数の動作モードのうち少なくとも1つを選択する毎に当該パラメータに対する優先度を表す撮影モード/優先度表T220を選択する機能を有するように構成されている。
コンテンツ撮影装置Acc2において、上述のパラメータは、カメラ部におけるレンズ部のズーム状態、絞り値、焦点距離、およびシャッタ速度、レンズ部の水平または垂直の傾き角、レンズ部の水平方向または垂直方向に回転する角速度、または、レンズ部の前後左右または垂直方向の移動加速度の少なくとも何れかを表すレンズ部の動作データ、またはユーザの入力コマンドデータ、または、前記動作データにあらかじめ決めた演算処理をカメラ制御手段で行って得たデータの何れかである。
(第3の実施の形態)
以下に、図11、図12、図13、図14、および図15を参照して、本発明の第3の実施の形態にかかるコンテンツ撮影装置について説明する。図11に示すように、本実施の形態にかかるコンテンツ撮影装置Acc3は、図1に示したコンテンツ撮影装置Acc1と基本的に同様の構成を有している。しかしながら、コンテンツ撮影装置Acc3においては、マイク103でキャッチされる特定の音声に応答して、クリップを特定するタイムコードと関連付けた(マーキングした)メタデータとして登録できる機能を有している。特定の音声の例としては、カチンコ110を鳴らした音や、運動会のかけっこのピストル発射音などが挙げられるが、撮影者が任意に決めることができる。なお、本実施の形態においては、カチンコ110がそのような音源として用いられる場合について説明する。
図11に示すように、コンテンツ撮影装置Acc3においては、コンテンツ撮影装置Acc1におけるカメラ101aがカメラ101cに置き換えられている。カメラ101cには、好ましくは、電子ビューファインダー(以降、「EVF」)111が取り付けられてる。なお、EVF111の代わりに、カメラ101c付属の液晶モニターあるいはテレビ109を用いてもよい。
図12に示すように、カメラ101cは、カメラ101aにおけるマイコン206aがマイコン206cに置き換えられていると共に、カチンコ入力系110が新たに設けられている。また、マイコン206cは、マイコン206aに、ソフトウエアのアルゴリズムで構成されるクリップ特定部(図12において、「CB」と表示)206fが追加されている。マイコン206cにおいては、カチンコ入力系110から入力されるカチンコ信号に基づいて、カチンコが鳴らされた時に撮影されるシーンに対して、タイムコード発生部206kおよびクリップ特定部206fによってタイムコードとシーン記述のメタデータが関連づけられる。
たとえば、カチンコ110に記入されている撮影日時、シーンNo.、カットNo.、テークNo.、そのテークが採用か不採用か保留か(通常、撮影現場の監督により指示される)、などのシーン情報(SI)を、撮影クリップにおけるカチンコ110を鳴らした時刻のタイムコードに関連付ける。本例においては、撮影の開始から撮影の終了までをクリップと呼ぶ。これにより、撮影クリップの有効部の先頭部分のタイムコードとシーン情報(SI)を関連付けできる。
シーン情報(SI)を使って、カメラの録画開始からカチンコ110を鳴らした時刻までの間の不要な収録データの削除や、収録結果が採用のクリップを選別、さらに選別された撮影クリップのシーンNo.、カットNo.、テークNo.の並べ替えが簡単にできる。つまり、図7に示したプレイリストフォルダ(PlayList)に記述された複数のプレイリストに記述されたテークNo.に基づいて、複数のプレイリストの並べ替えが簡単にできる。たとえば、運動会の撮影において、かけっこ(短距離競争)、リレーなどの長距離競争、綱引き、および玉入れ等の開始タイミングにおけるフレーム画像もすぐに呼び出すことができる。
次に、図13を参照して、撮影クリップの有効部分と無効部分について説明する。図13において、横軸は時刻tを表し、実線Lは映像シーケンスを表す。具体的には、符号Taはカムコーダ(カメラ101)による記録開始時刻を示し、符号Tbはカチンコ110が1回鳴らされた本番撮影開始時刻を示し、符号Tcはカチンコ110が2回鳴らされた本番撮影終了時刻を示し、符号Tdはカムコーダ(カメラ101c)の記録終了時刻を示している。
本例においては、記録開始時刻Taと本番撮影開始時刻Tbとの時間間隔P1は10秒、本番撮影終了時刻Tcと記録終了時刻Tdとの時間間隔P2は12秒と設定されている。この場合、撮影クリップの代表画像としては、たとえば、カチンコが1回鳴らされた本番撮影開始時刻Tbの画像を選択できる。そして、本番撮影開始時刻Tbのクリップを表す、例えば、(Scene012_Cut03_Take02_OK)というメタファイルが生成されて、同クリップの本番撮影開始時刻Tbのサムネイルを代表サムネイルに設定する。この場合、本番撮影開始時刻Tbは代表時刻と呼ばれる。
本番撮影開始時刻Tbは撮影監督が指示したカット先頭の時刻であり、本番撮影終了時刻Tcは撮影監督が指示したカット末尾の時刻である。撮影クリップの保存データとしては、たとえば、本番撮影開始時刻Tbの3秒前の時刻Teから、カチンコが2回鳴らされた本番撮影終了時刻Tcの3秒後の時刻Tfまでのコンテンツが選択できる。これにより撮影クリップ(コンテンツ)の保存容量を減らすことができる。
一般にAVコンテンツの編集においては、別のシーンとのつなぎを自然にするためにフェードインやフェードアウト処理を行う場合がある。クリップの先頭あるいは末尾には3秒程度の余裕を持たせると、後々、コンテンツにいろいろな特殊効果を施すことができるのでより質の高いコンテンツを制作することができる。
上述の時間間隔P1を前期無効本番撮影期間と呼び、時間間隔P2を後期無効本番撮影期間と呼び、本番撮影開始時刻Tbと本番撮影終了時刻Tcとの時間間隔を、有効本番撮影期間Peと呼ぶ。時刻Teから本番撮影開始時刻TbまでをPre本番撮影期間Prと呼び、本番撮影終了時刻Tcから時刻TfまでをPost本番撮影期間Ppと呼ぶ。そして、時刻Teから時刻Tfまでの、Pre本番撮影期間Pr、有効本番撮影期間Pe、およぶPost本番撮影期間Ppを併せて、クリップ保存期間Pcと呼ぶ。
図7に例示した、クリップファイルのディレクトリに存在する各クリップファイルに記されたシナリオのシーン番号、カット番号、およびテーク番号は撮影の順番、すなわち撮影時刻の順番で並んでいる。しかしながら、前述した様に時間的には順番通りであっても、シナリオに記載されているシーン番号、カット番号、およびテーク番号の順番にはなっていない。よって、このままでは、シナリオの流れに沿った再生を行うことができない。本実施の形態においては、このようなクリップファイルも以下に述べる2種類の方法でシナリオの流れに沿って再生させることができる。
先ず、第1の方法について説明する。この方法においては、ユーザがカメラ部マイコン206c対して、シナリオのシーン番号、およびカット番号の順番とおりに、収録テークの採用のカットだけを並べるコマンドを発行する。同コマンドに応答して、クリップファイルがシナリオのシーン番号、カット番号の順番とおりに並べてEVF111上に表示される。EVF111に表示される映像は、TVなど外部のモニタにも表示可能である。そうすることにより、シナリオのシーン番号、カット番号の順番とおりの編集など映画制作およびポスプロ作業を効率的に行うことができる。なお、EVF111の代わりにカメラ付属の液晶モニタやテレビ109を用いてもよい。
第2の方法においては、ユーザがカメラ部マイコン206cに対して、収録テークの採用OKのカットに対して、シナリオのシーン番号、カット番号、およびテーク番号を抜き出し、これらの連結した符号を新たなファイル名に書き換える(rename)よう指示する。元のファイル名は、クリップファイルのメタデータ、(XMLの表記では<original filename>として表す)として保存する。そして、ファイル名の変更は、図7に記した全てのディレクトリに存在する同名のファイルに対して行うものとする。
上述のように、ファイル名がシナリオのシーン番号、カット番号、およびテーク番号を
表しているので、EVF111上にシナリオのシーン番号、カット番号の順番とおりに並べた場
合、視覚的にシナリオとの対比が簡単に行える。たとえば、シーン番号が32、カット番号が5、およびテーク番号が2のカットのクリップファイル名は、“S032_C05_T02.clpi”と表される。なお、EVF111に表示される映像は、TVなど外部のモニタにも表示可能であり、シナリオのシーン番号、カット番号の順番とおりの編集など映画制作およびポスプロ作業を効率的に行える。
また、シナリオには書かれていないが、新たなカットの差し込み追加を行う必要に迫られることがある。この場合、カット番号とテーク番号の間に差し込みを表す記号、1、2、3やa、b、c(小文字の絵字)などを記入することにより対応できる。前述のクリップファイル、“S032_C05_T02.clpi”に新たなカット“b”を差し込んだ場合、そのファイル名を、たとえば、“S032_C05b_T02.clpi”と表わす。以上により新たなカットの差し込み追加も可能である。
次に、図14を参照して、EVF表示に基づいて、撮影シーン情報SI(シーン番号、カット番号、テーク番号、その収録テークの採用、不採用、保留などに関する)を登録する方法について説明する。同図において、符号Ex_1は、ユーザがリモコンを用いてシーン番号、カット番号、およびテーク番号を設定した時のEVFの表示例を示している。同例においては、ユーザによる設定事項SSとして、「Scene=023:Cut=03_Take=02」が、カメラ101cによる撮影映像PIを背景として、EVFの中央に表示される。
符号Ex_2は、撮影中のEVFの表示例を示している。同例においては、撮影中にも
シーン番号、カット番号、およびテーク番号をモニタできるように、これら設定情報SSとして「S023:C03:T02」が撮影映像PIを背景に、EVFの端に表示される様子が表されている。本例においては、EVFの端に表示されることを考慮して、設定事項SSは符号Ex_1の例に比べて、簡略化されている。
符号Ex_3は、撮影テークが採用の場合の確認画面例を示している。同例においては、設定事項SSとしては、「シーン番号、カット番号、およびテーク番号」の後に採用「OK」が追加表示される。
符号Ex_4は、撮影テークが不採用の場合の確認画面例を示している。同例においては、設定事項SSとしては、「シーン番号、カット番号、およびテーク番号」の後に不採用「NG」が追加表示される。
図15を参照して、台本、記録メディア、シーン番号、カット番号、テーク番号、テー
ク採用可否情報、PlayList、およびPlayItemの関係について説明する。同図において、グラフR1は、撮影の台本(シナリオ)と記録メディアの関係を示す。グラフR1から読み取れるように、1つの台本毎に1つの記録メディアが割り当てられている場合と、複数の台本毎に1つの記録メディアしか割り当てられていない場合とがある。
グラフR2は、特定の撮影日(収録日)における、収録(記録)順序と台本番号、シーン番号、カット番号、カット内特徴部分、カット内特徴部分の長さ、特徴部分のメタデータ種別、およびダイジェスト生成の情報からなるテーブルを示す。なお、図示されていないが、同テーブルには、好ましくは、テーク番号および各カットで採用したテークを識別するカット採用可否情報も含まれる。
グラフR3は、台本番号、シーン番号、カット番号、テーク番号、および各カットで採用したテークと上述のPlayItemとの関係を示す。本例においては、PlayL
istは3つのPlayItemより構成され、各々のPlayItemはシーン番号、
カット番号、テーク番号、および各カットの採用可否情報と関連付けられている。
マイコン206cは、ユーザの操作により撮影クリップの保存データとしては、図11に例示したカチンコ110を1回鳴らした本番撮影開始前の任意の時刻Teから、カチンコ110を2回鳴らした本番撮影終了後の任意の時刻Tfまでのコンテンツを選択できる。これにより本番撮影コンテンツの保存容量(クリップ保存期間Pc)をより柔軟に管理運用できる。
Pre本番撮影期間PrやPost本番撮影期間Ppをメタデータとしてパーソナルコンピュータ上で動く編集アプリケーションよりカメラ101bが受け取って運用することもできる。逆にカメラ101bが編集アプリケーションに、Pre本番撮影期間PrやPost本番撮影期間Ppをメタデータとして渡して編集アプリケーションを運用することもできる。なお、カチンコ110の代わりに、たとえばピストルの発射音を約100m離れた場所から聞く場合には、音速(1秒間に約350m進む)による音の遅延も考慮して、本番撮影開始時刻Tbや本番撮影終了時刻Tcを算出してコンテンツを管理する必要がある。
たとえば、運動会の撮影では、短距離競争、長距離競争、綱引き、および玉入れ等で使用されるピストルの発射音や太鼓の音を検出して、そのピストルの発射音や太鼓の音を検出したタイミングを用いてかけっこ(短距離競争)、リレーなどの長距離競争、綱引き、玉入れや演技などを表現するメタデータを生成できる。また、カチンコやピストルの音の発生タイミングをフレーム単位(NTSCの場合は33.3msecが1フレーム)よりも微細に検出するために、該フレームの音声信号(たとえば、WAVE信号)を解析してより精密な時刻を算出できる。
撮影クリップへのメタデータ関連付けは、携帯電話などの携帯端末で撮影中の場所、天気、役者の表情、調子などをリアルタイムで文字入力し、それらの情報を撮影状況のメタデータとして赤外線などでカムコーダ(カメラ101c)に伝送することにより実現することもできる。
ユーザは、携帯端末で文字入力を開始した時点でまずカメラにマーカを送り、その開始時点の時刻を覚えておく。この時点でカメラからID番号を携帯端末に返信するのが望ましい。そして、携帯端末で文字入力が完了した時点でカメラに前記ID情報と入力完了文字情報を送り、その入力開始時点でのメタデータとしてカメラ内の記録メディアに登録する。これによりメタデータの入力が必要と思った時刻の本番コンテンツにより正確にメタデータを付けることができる。
上述のように、本発明にかかるコンテンツ撮影装置は、ムービー撮影において、パン、ズームなどのカメラワークを一定時間モニタすることにより、メタデータ生成のための閾値を適正に較正できる。さらに、手持ちや三脚固定などのカメラの固定状況を自動的に判定し、カメラワークが正常あるいは異常であることを判定する閾値を自動的に設定できる。これにより、手持ちや三脚固定などカメラワークの品質に応じて、有効シーンや無効シーンの分類がきめ細かくできるようになり、ミスシューティング部である無効部の削除や、撮影の重要な部分であるダイジェスト生成がより高品位に実現できる。また、カチンコなどに連動してタイムコード等の情報をシーンに付与することによって、目的のコンテンツにメタデータを付けることができる。
上述のコンテンツ撮影装置Acc3においては、カメラマイコン206c(シーン情報生成部206i)は、コンテンツデータであるAV信号Savの記録動作中または記録終了後に、ユーザによる入力コマンドによりコンテンデータ(Sav)の採用の可否および保留かの何れかの意味を持つ収録結果タグを生成し、収録結果タグを保持するメタデータ選択メモリとして機能するように構成される。
カメラマイコン206cはさらに、
コンテンツの撮影開始の前に、コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、および撮影プログラム情報の少なくとも何れかを含む情報を収録情報タグとして前記撮影装置内のメモリに入力し、
撮影されたコンテンツの記録動作中に、特徴を有する音を検出してその発生時刻(Tb)と当該特徴を持つ音の識別情報とを含む特徴音発生タグを生成し、
特徴音発生タグを前記コンテンツのメタデータとして記録メディア214に記録する機能を有するように構成される。なお、特徴を有する音とは、カチンコを鳴らした音、ピストル発射音、および太鼓を鳴らした音の何れかである。
カメラマイコン206cは、記録メディア214に記録されたコンテンツの内、収録結果タグが採用(OK)のコンテンツを、前記シーン番号、前記カット番号、および前記テーク番号の何れかの番号の小さい方より並べ替える機能を有するように構成される。
カメラマイコン206cは、コンテンツの名前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を新しい名前として登録し、コンテンツの元の名前をコンテンツのメタデータとして登録する機能を有するように構成される。
本発明は、ムービー画像の撮影等に用いられるコンテンツ撮影装置に利用できる。
図1は、本発明の第1の実施の形態に係るコンテンツ撮影装置の説明図である。 図2は、図1に示すカメラの内部構成の説明図である。 図3は、インデックス情報を出力するシーン情報生成部の説明図である。 図4は、インデックスマージ情報を出力するシーン情報生成部の構成を示すブロック図である。 図5は、撮影に関する多数のメタデータと、少数の特徴のあるシーンを表すシーン表現メタデータとの説明図である。 図6は、図5に示したシーン表現メタデータ生成の説明図である。 図7は、ディレクトリ構成とファイル構成の説明図である。 図8は、本発明の第2の実施の形態に係るコンテンツ撮影装置の説明図である。 図9は、図8に示すカメラの内部構成の説明図である。 図10は、図9に示すROMに格納されるテーブルの説明図である。 図11は、本発明の第3の実施の形態に係るコンテンツ撮影装置の説明図である。 図12は、図11に示すカメラの内部構成の説明図である。 図13は、撮影クリップの有効部分と無効部分についての説明図である。 図14は、EVF表示の説明図である。 図15は、台本、記録メディア、シーン番号、カット番号、テーク番号、テーク採用可否情報、PlayList、およびPlayItemの関係図である。
符号の説明
Acc1、Acc3、Acc3 コンテンツ撮影装置
101a、101b、101c カメラ
102 レンズ部
103 マイク
104 リモコン
105 撮影対象
106 カメラ撮影データ
107 接続ケーブル
108 接続ケーブル
109 テレビ
201 ズーム制御部
202 フォーカス制御部
203 露出制御部
204 撮像素子
205 シャッタ速度制御部
206a、206b、206c カメラマイコン
206f クリップ特定部
206i シーン情報生成部
206k タイムコード発生部
206s カメラワーク検出部
206t 判定閾値設定部
206u 撮像手段の動作モード処理部
206w コンテンツ分類部
207 絶対傾きセンサ
208 角速度センサ
209 加速度センサ
210a、210b、210c ユーザ入力系
211 撮像信号処理部
212 音声処理系
213 H.264方式エンコーダ
214 記録メディア
215 出力インタフェース
220 ROM

Claims (22)

  1. 映像、音声またはデータの何れかを含むコンテンツデータを、シーンを表す第1のシーン情報を参照して生成される第1のメタデータと組み合わせて情報記憶媒体に記録し、前記第1のシーン情報を参照して別途生成する第2のシーン情報を参照してコンテンツデータの特定部分へのアクセスを可能とするコンテンツ撮影装置であって、
    被写体を撮影して前記コンテンツデータを生成する撮影手段と、
    前記撮影手段の動きを検出するカメラワーク検出手段と、
    前記検出された動きを所定値と比較して、前記第1のメタデータを生成する第1のメタデータ生成手段と、
    所定の特定窓期間において発生する1つ以上の前記第1のメタデータを所定の関数によりフィルタリングしてシーン種別、優先度、開始時刻、終了時刻、および代表時刻の何れかのパラメータを含む第2のメタデータを生成するシーン情報生成手段とを具備するコンテンツ撮影装置。
  2. 前記所定の関数は、所定幅の窓期間中に発生するメタデータの優先度の重み付き合計値を演算することを特徴とする請求項1に記載のコンテンツの撮影装置。
  3. 前記所定の関数は、所定幅の窓期間中に発生する前記第1のメタデータの中で最大の優先度を有するものを選別することを特徴とする請求項1に記載のコンテンツの撮影装置。
  4. 前記所定の関数は、所定期間以上の間隔毎にパラメータを1つずつ設定することを特徴とする請求項1に記載のコンテンツの撮影装置。
  5. 前記所定の関数は、所定期間内でパラメータが選択されなかった場合に、前記所定期間毎に1つ以上のパラメータを強制的に付加することを特徴とする請求項4に記載のコンテンツの撮影装置。
  6. 前記第2のメタデータに含まれるシーン種別、優先度、開始時刻、終了時刻、および代表時刻のパラメータの少なくとも1つを参照して、複数のシーンを組み合わせてプレイリストを生成するプレイリスト生成手段をさらに具備することを特徴とする請求項1に記載のコンテンツ撮影装置。
  7. 前記優先度を参照して、前記第2のメタデータに含まれるパラメータを指定された個数以内に選別するパラメータ選別手段をさらに具備する請求項1に記載のコンテンツ撮影装置。
  8. 前記第2のメタデータで構成される特徴あるシーン区間を指定順序で再生する場合に、当該シーン区間の再生時にその特徴の説明をテロップとして再生映像に重畳するテロップ表示手段をさらに備える請求項6に記載のコンテンツ撮影装置。
  9. 外部から与えられるダイジェスト再生時間を越えない様に前記パラメータに関連付けられたコンテンツの構成部分を選択するコンテンツ選択手段をさらに具備する請求項1に記載のコンテンツの撮影装置。
  10. ダイジェスト化する特徴あるシーンの優先度、種別、ダイジェスト時間長、およびコンテンツのダイジェストへの縮小率の少なくとも一つに対する指定を受け付けるダイジェスト生成方式指定手段と、
    前記コンテンツデータの再生時参照ファイルの補助データである第2優先度リストを参照し、前記指定されたダイジェスト生成方式に従って当該再生時参照ファイルを生成する手段と、
    前記再生時参照ファイルを再生オブジェクトリストに登録する登録手段とをさらに備える請求項1に記載のコンテンツ撮影装置。
  11. 前記シーン情報生成手段は、
    特徴を持つ音を検出して、その発生時刻と前記特徴を持つ音の識別情報とを含む特徴音メタデータを生成する特徴音メタデータ生成手段と、
    前記特徴音メタデータ生成手段の出力を保持するメタデータ選択メモリとを具備することを特徴とする請求項1に記載のコンテンツの撮影装置。
  12. 前記パラメータは、カメラ部におけるレンズ部のズーム状態、絞り値、焦点距離、およびシャッタ速度、レンズ部の水平または垂直の傾き角、レンズ部の水平方向または垂直方向に回転する角速度、または、レンズ部の前後左右または垂直方向の移動加速度の少なくとも何れかを表すレンズ部の動作データ、またはユーザの入力コマンドデータ、または、前記動作データにあらかじめ決めた演算処理をカメラ制御手段で行って得たデータの何れかであることを特徴とする請求項1に記載のコンテンツの撮影装置。
  13. 前記シーン情報生成手段は、
    前記コンテンツデータの記録動作中または記録終了後に、ユーザによる入力コマンドにより当該コンテンデータの採用の可否および保留かの何れかの意味を持つ収録結果タグを生成する収録結果タグ生成手段と、
    前記収録結果タグ生成手段の出力を保持するメタデータ選択メモリとを具備する請求項1に記載のコンテンツの撮影装置。
  14. コンテンツの撮影開始の前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を収録情報タグとして前記撮影装置内のメモリに入力するデータ入力手段と、
    前記撮影されたコンテンツの記録動作中に、特徴を有する音を検出して、その発生時刻と当該特徴を持つ音の識別情報とを含む特徴音発生タグを生成する特徴音発生タグ生成手段と、
    前記特徴音発生タグを前記コンテンツのメタデータとして前記情報記憶媒体に記録する手段とをさらに具備する請求項1に記載のコンテンツの撮影装置。
  15. 前記特徴を有する音とは、カチンコを鳴らした音、ピストル発射音、および太鼓を鳴らした音の何れかであることを特徴とする請求項14に記載のコンテンツの撮影装置。
  16. 前記情報記憶媒体に記録されたコンテンツの内、収録結果タグが採用のコンテンツを、前記シーン番号、前記カット番号、および前記テーク番号の何れかの番号の小さい方より並べ替える手段をさらに具備する請求項14に記載のコンテンツの撮影装置。
  17. コンテンツの名前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を新しい名前として登録する手段と、
    該コンテンツの元の名前を該コンテンツのメタデータとして登録する手段とをさらに具備する請求項14に記載のコンテンツの撮影装置。
  18. コンテンツの撮影開始の前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を収録情報タグとして前記撮影装置内のメモリに入力するデータ入力手段と、
    前記撮影されたコンテンツの記録動作中に、特徴を有する音を検出して、その発生時刻と当該特徴を持つ音の識別情報とを含む特徴音発生タグを生成する特徴音発生タグ生成手段と、
    前記特徴音発生タグを前記コンテンツのメタデータとして前記情報記憶媒体に記録する手段とをさらに具備する請求項13に記載のコンテンツの撮影装置。
  19. 前記特徴を有する音とは、カチンコを鳴らした音、ピストル発射音、および太鼓を鳴らした音の何れかであることを特徴とする請求項18に記載のコンテンツの撮影装置。
  20. 前記情報記憶媒体に記録されたコンテンツの内、収録結果タグが採用のコンテンツを、前記シーン番号、前記カット番号、および前記テーク番号の何れかの番号の小さい方より並べ替える手段をさらに具備する請求項18に記載のコンテンツの撮影装置。
  21. コンテンツの名前に、該コンテンツの撮影シリアル番号、撮影シーン番号、撮影カット番号、撮影テーク番号、撮影プログラム情報の少なくとも何れかを含む情報を新しい名前として登録する手段と、
    該コンテンツの元の名前を該コンテンツのメタデータとして登録する手段とをさらに具備する請求項18に記載のコンテンツの撮影装置。
  22. コンテンツの撮影毎に、前記パラメータに対する優先度が異なる所定数の動作モードを具備し、当該所定数の選択モードのうち少なくとも1つを選択する毎に当該パラメータに対する優先度を表すテーブルを選択する手段を具備する請求項1に記載のコンテンツの撮影装置。
JP2008534361A 2006-09-12 2007-09-12 コンテンツ撮影装置 Expired - Fee Related JP5022370B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008534361A JP5022370B2 (ja) 2006-09-12 2007-09-12 コンテンツ撮影装置

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006247213 2006-09-12
JP2006247214 2006-09-12
JP2006247213 2006-09-12
JP2006247214 2006-09-12
PCT/JP2007/067731 WO2008032739A1 (fr) 2006-09-12 2007-09-12 Dispositif de formation d'image de contenu
JP2008534361A JP5022370B2 (ja) 2006-09-12 2007-09-12 コンテンツ撮影装置

Publications (2)

Publication Number Publication Date
JPWO2008032739A1 JPWO2008032739A1 (ja) 2010-01-28
JP5022370B2 true JP5022370B2 (ja) 2012-09-12

Family

ID=39183795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008534361A Expired - Fee Related JP5022370B2 (ja) 2006-09-12 2007-09-12 コンテンツ撮影装置

Country Status (4)

Country Link
US (1) US8208792B2 (ja)
EP (1) EP2063635A4 (ja)
JP (1) JP5022370B2 (ja)
WO (1) WO2008032739A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102906818A (zh) * 2010-05-25 2013-01-30 伊斯曼柯达公司 将视频摘要存储为元数据

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007108458A1 (ja) * 2006-03-23 2007-09-27 Matsushita Electric Industrial Co., Ltd. コンテンツ撮影装置
KR101426978B1 (ko) * 2007-01-31 2014-08-07 톰슨 라이센싱 잠재적 샷 및 신 검출 정보의 자동 분류 방법 및 장치
WO2009062182A1 (en) 2007-11-09 2009-05-14 Topia Technology Architecture for management of digital files across distributed network
JP4737228B2 (ja) * 2008-05-07 2011-07-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5085462B2 (ja) * 2008-08-11 2012-11-28 ソニー株式会社 情報記録装置、撮像装置、情報記録方法およびプログラム
JP4720873B2 (ja) * 2008-08-11 2011-07-13 ソニー株式会社 情報記録装置、撮像装置、情報記録方法およびプログラム
US9241176B2 (en) * 2009-01-20 2016-01-19 Arris Enterprises, Inc. Content validation techniques
US8681239B2 (en) * 2009-04-07 2014-03-25 Panasonic Corporation Image capturing device, image capturing method, program, and integrated circuit
JP5487722B2 (ja) * 2009-05-25 2014-05-07 ソニー株式会社 撮像装置と振れ補正方法
JP5391145B2 (ja) * 2010-05-12 2014-01-15 日本放送協会 不快度推定装置及び不快度推定プログラム
US8432965B2 (en) * 2010-05-25 2013-04-30 Intellectual Ventures Fund 83 Llc Efficient method for assembling key video snippets to form a video summary
US8605221B2 (en) 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
US8446490B2 (en) 2010-05-25 2013-05-21 Intellectual Ventures Fund 83 Llc Video capture system producing a video summary
US8599316B2 (en) 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
US8619150B2 (en) 2010-05-25 2013-12-31 Intellectual Ventures Fund 83 Llc Ranking key video frames using camera fixation
US20120148216A1 (en) * 2010-12-14 2012-06-14 Qualcomm Incorporated Self-editing video recording
US9007428B2 (en) * 2011-06-01 2015-04-14 Apple Inc. Motion-based image stitching
US8483904B2 (en) * 2011-09-23 2013-07-09 Toyota Motor Engineering & Manufacturing North America, Inc. Drivability evaluation target levels
JP6136086B2 (ja) 2011-12-28 2017-05-31 ソニー株式会社 撮像装置および画像処理装置
US9560365B2 (en) * 2012-02-29 2017-01-31 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
JP5825279B2 (ja) * 2013-02-27 2015-12-02 ブラザー工業株式会社 端末装置及びプログラム
KR20150125947A (ko) * 2013-03-08 2015-11-10 톰슨 라이센싱 리스트 구동 선택 프로세스를 이용하여 비디오 및 미디어 시간 기반 편집을 개선하는 방법 및 장치
KR101479410B1 (ko) * 2013-07-08 2015-01-06 지승환 완구 부착형 애드온 장치를 이용한 증강현실 컨텐츠 제공 시스템
TWI555392B (zh) * 2013-07-30 2016-10-21 杜比實驗室特許公司 用於產生場景穩定的元資料之系統和方法
US9380776B2 (en) * 2014-04-18 2016-07-05 Hogman-Outdoors, Llc Game alert system
US10076111B2 (en) * 2014-04-18 2018-09-18 Hogman-Outdoors, Llc Game alert system
DE102014216511A1 (de) * 2014-08-20 2016-02-25 Carl Zeiss Meditec Ag Erstellen von Kapitelstrukturen für Videodaten mit Bildern aus einem Operationsmikroskop-Objektbereich
US9799376B2 (en) * 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
TWI549499B (zh) * 2015-02-17 2016-09-11 Zan Quan Technology Co Ltd A system for automatically recording motion data and a method thereof
FR3034553B1 (fr) * 2015-03-30 2018-04-13 Thales Procede de determination d'une direction d'un objet a partir d'une image de l'objet
US10616651B2 (en) * 2015-05-22 2020-04-07 Playsight Interactive Ltd. Event based video generation
KR102376700B1 (ko) * 2015-08-12 2022-03-22 삼성전자주식회사 비디오 컨텐츠 생성 방법 및 그 장치
CN105550251A (zh) * 2015-12-08 2016-05-04 小米科技有限责任公司 图片播放方法和装置
KR20170098079A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 전자 장치에서의 비디오 녹화 방법
US10452874B2 (en) * 2016-03-04 2019-10-22 Disney Enterprises, Inc. System and method for identifying and tagging assets within an AV file
US11198063B2 (en) * 2016-09-14 2021-12-14 Square Enix Co., Ltd. Video display system, video display method, and video display program
CN109963085B (zh) * 2017-12-26 2020-08-25 深圳市优必选科技有限公司 一种调整快门速度的方法、装置及机器人
CN109076263B (zh) 2017-12-29 2021-06-22 深圳市大疆创新科技有限公司 视频数据处理方法、设备、***及存储介质
JP2021064870A (ja) * 2019-10-15 2021-04-22 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
EP4057617A4 (en) * 2019-12-03 2023-04-12 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND INFORMATION PROCESSING SYSTEM
US20220417616A1 (en) * 2019-12-13 2022-12-29 Carity Aps Configurable personalized remote control
US11477351B2 (en) * 2020-04-10 2022-10-18 Ssimwave, Inc. Image and video banding assessment
JP2023063699A (ja) * 2021-10-25 2023-05-10 キヤノン株式会社 記録装置
CN114500851A (zh) * 2022-02-23 2022-05-13 广州博冠信息科技有限公司 视频录制方法及装置、存储介质、电子设备
WO2024084663A1 (ja) * 2022-10-20 2024-04-25 株式会社 ミックウェア 情報処理装置、および情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134435A (ja) * 2001-10-30 2003-05-09 Matsushita Electric Ind Co Ltd 映像データ送信方法及び映像データ受信方法、並びに映像監視システム
JP2004363825A (ja) * 2003-06-03 2004-12-24 Canon Inc 記録再生装置、記録再生方法、その記録媒体およびプログラム
JP2005252372A (ja) * 2004-03-01 2005-09-15 Ntt Docomo Tokai Inc ダイジェスト映像作成装置及びダイジェスト映像作成方法
JP2005286437A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像群のダイジェストの作成
JP2006018972A (ja) * 2004-07-05 2006-01-19 Nippon Hoso Kyokai <Nhk> メタデータ生成装置及びメタデータ生成プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2752716B2 (ja) 1989-09-01 1998-05-18 日本電信電話株式会社 動画像ダイジェスト自動生成方式
JP2677312B2 (ja) * 1991-03-11 1997-11-17 工業技術院長 カメラワーク検出方法
JPH05252432A (ja) 1991-11-25 1993-09-28 Olympus Optical Co Ltd カメラシステム
JP3230858B2 (ja) 1992-11-26 2001-11-19 松下電器産業株式会社 動画像の優先度自動選択方法および動画像ダイジェスト自動表示装置
KR100215586B1 (ko) * 1992-11-09 1999-08-16 모리시타 요이찌 다이제스트 화상 자동생성 장치 및 다이제스트 화상 자동생성 방법
US6211912B1 (en) * 1994-02-04 2001-04-03 Lucent Technologies Inc. Method for detecting camera-motion induced scene changes
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6360234B2 (en) * 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
GB2359918A (en) * 2000-03-01 2001-09-05 Sony Uk Ltd Audio and/or video generation apparatus having a metadata generator
CA2372554A1 (en) * 2000-04-10 2001-10-18 Sony Corporation Asset management system and asset management method
US6807361B1 (en) * 2000-07-18 2004-10-19 Fuji Xerox Co., Ltd. Interactive custom video creation system
WO2002098130A2 (en) * 2001-05-31 2002-12-05 Canon Kabushiki Kaisha Information storing apparatus and method therefor
US7224892B2 (en) * 2001-06-26 2007-05-29 Canon Kabushiki Kaisha Moving image recording apparatus and method, moving image reproducing apparatus, moving image recording and reproducing method, and programs and storage media
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
KR100912984B1 (ko) * 2002-04-12 2009-08-20 미쓰비시덴키 가부시키가이샤 메타데이터 편집 장치, 메타데이터 재생 장치, 메타데이터 배신 장치, 메타데이터 검색 장치, 메타데이터 재생성 조건 설정 장치, 콘텐츠 배신 장치, 메타데이터 배신 방법, 메타데이터 재생성 장치, 메타데이터 재생성 방법
US7383508B2 (en) * 2002-06-19 2008-06-03 Microsoft Corporation Computer user interface for interacting with video cliplets generated from digital video
JP3781715B2 (ja) 2002-11-01 2006-05-31 松下電器産業株式会社 メタデータ制作装置及び検索装置
JP2004056397A (ja) * 2002-07-18 2004-02-19 Canon Inc 画像処理装置および方法
JP4332364B2 (ja) * 2003-04-04 2009-09-16 ソニー株式会社 映像記録システム,映像記録方法
KR100745995B1 (ko) * 2003-06-04 2007-08-06 삼성전자주식회사 메타 데이터 관리 장치 및 방법
GB2404299A (en) * 2003-07-24 2005-01-26 Hewlett Packard Development Co Method and apparatus for reviewing video
JP2004362610A (ja) 2004-08-06 2004-12-24 Matsushita Electric Ind Co Ltd シナリオ情報解析装置及びシナリオ情報解析方法
JP4281724B2 (ja) * 2005-08-26 2009-06-17 ソニー株式会社 撮像装置および方法
WO2007108458A1 (ja) * 2006-03-23 2007-09-27 Matsushita Electric Industrial Co., Ltd. コンテンツ撮影装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134435A (ja) * 2001-10-30 2003-05-09 Matsushita Electric Ind Co Ltd 映像データ送信方法及び映像データ受信方法、並びに映像監視システム
JP2004363825A (ja) * 2003-06-03 2004-12-24 Canon Inc 記録再生装置、記録再生方法、その記録媒体およびプログラム
JP2005252372A (ja) * 2004-03-01 2005-09-15 Ntt Docomo Tokai Inc ダイジェスト映像作成装置及びダイジェスト映像作成方法
JP2005286437A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像群のダイジェストの作成
JP2006018972A (ja) * 2004-07-05 2006-01-19 Nippon Hoso Kyokai <Nhk> メタデータ生成装置及びメタデータ生成プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102906818A (zh) * 2010-05-25 2013-01-30 伊斯曼柯达公司 将视频摘要存储为元数据
CN102906818B (zh) * 2010-05-25 2015-09-09 高智83基金会有限责任公司 存储视频摘要的方法和显示相应于视频摘要的视频帧的***

Also Published As

Publication number Publication date
EP2063635A1 (en) 2009-05-27
JPWO2008032739A1 (ja) 2010-01-28
US8208792B2 (en) 2012-06-26
US20090103898A1 (en) 2009-04-23
EP2063635A4 (en) 2009-12-09
WO2008032739A1 (fr) 2008-03-20

Similar Documents

Publication Publication Date Title
JP5022370B2 (ja) コンテンツ撮影装置
JP4976378B2 (ja) コンテンツ撮影装置
US8643745B2 (en) Content shooting apparatus
US7502560B2 (en) Image capturing apparatus, method for recording captured image data, and captured image data processing apparatus and method
JP5685732B2 (ja) 映像抽出装置、プログラム及び記録媒体
JP3988079B2 (ja) 情報処理装置および方法、並びにプログラム
JP4960121B2 (ja) コンテンツ撮影装置
KR20070081448A (ko) 기록 장치, 기록 방법, 기록 방법의 프로그램, 기록 방법의프로그램을 기록한 기록 매체, 재생장치, 재생 방법, 재생방법의 프로그램 및 재생 방법의 프로그램을 기록한 기록매체
CN101263706A (zh) 摄像装置、记录方法
JP4992639B2 (ja) コンテンツ撮影装置
JP2006157893A (ja) 撮像装置
WO2009150827A1 (ja) コンテンツ編集装置
JP2006211324A (ja) ディジタルカメラ装置、画像再生方法および画像再生プログラム、ならびに、データ構造体
JP2010245856A (ja) 映像編集装置
JP2005260749A (ja) 電子カメラ、及び電子カメラの制御プログラム
JP4698961B2 (ja) 電子カメラ、及び電子カメラの制御プログラム
JP2009232325A (ja) 撮像装置
US7962002B2 (en) Recording apparatus and method, recording medium, and program
JP2008072572A (ja) コンテンツ撮影装置
JP4667411B2 (ja) コンテンツ撮影装置
JP2009055618A (ja) 電子カメラ、及び電子カメラの制御プログラム
JP2005269356A (ja) 画像データ記録装置および画像データ記録再生装置
JP6463967B2 (ja) 撮像装置及びその制御方法
JP2009033277A (ja) ビデオカメラ
JP2008113111A (ja) 記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120615

R150 Certificate of patent or registration of utility model

Ref document number: 5022370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees