JP2006303595A - 素材記録装置および素材記録方法 - Google Patents

素材記録装置および素材記録方法 Download PDF

Info

Publication number
JP2006303595A
JP2006303595A JP2005118397A JP2005118397A JP2006303595A JP 2006303595 A JP2006303595 A JP 2006303595A JP 2005118397 A JP2005118397 A JP 2005118397A JP 2005118397 A JP2005118397 A JP 2005118397A JP 2006303595 A JP2006303595 A JP 2006303595A
Authority
JP
Japan
Prior art keywords
recording
video
video material
data
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005118397A
Other languages
English (en)
Inventor
Takuji Moriya
卓司 守屋
Takeharu Hino
竹春 日野
Katsuyuki Fujihata
勝之 藤畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005118397A priority Critical patent/JP2006303595A/ja
Priority to US11/404,624 priority patent/US20060233529A1/en
Publication of JP2006303595A publication Critical patent/JP2006303595A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】映像コンテンツなどの映像素材の記録および編集にかかる時間を低減した素材記録装置および素材記録方法を提供する。
【解決手段】映像コンテンツを記録する光ディスク装置2と、コンピュータ3とがネットワーク900を介して接続される。コンピュータ3は、光ディスク装置2から低解像度のプロキシAVデータが供給され、ライブ映像としてストリーミング再生するとともに、プロキシAVデータの任意の位置にメタデータとしてのエッセンスマークを受け付けてメタデータファイルに記述する。そして、1クリップの撮影終了後に、ヘッダとフッタとが付加されたプロキシAVデータファイルがコンピュータ3に転送される。
【選択図】図1

Description

本発明は、たとえば放送用の映像コンテンツなどの映像素材を記録するための素材記録装置および素材記録方法に関し、特に、記録対象の映像素材の所望の位置と指標情報とを編集のために関連付ける技術に関する。
近年、その大容量化やデータ転送速度の向上により、光ディスクを、放送業務用のビデオカメラの記録媒体として用いることができるようになってきている。例えば、青紫色発光ダイオードにより映像や音声のデータが記録される光ディスクの記録容量は、片面1層の記録方式で約23GBにもなり、また、データの転送速度(記録ビットレート)は、圧縮率によっても異なるが50Mbps以上にも及ぶ。
そして、このような光ディスクと放送業務用ビデオカメラを用いて、所望の映像コンテンツを撮影する場合には、取り込んだ映像から、画質の劣化などが生じないように比較的低い圧縮率で圧縮した映像データ(主映像データ)の他に、そのビデオデータよりも高い圧縮率で圧縮したプロキシ映像データ(低解像度の映像データ)を生成し、光ディスクに記録する(たとえば特許文献1参照)。
なお、取り込んだ音声についても、低圧縮率の主音声データの他、必要に応じて、高圧縮率のプロキシ音声データが作成される。
プロキシ映像データやプロキシ音声データ(以下、プロキシAVデータ)は、近年、一般的に行われている、いわゆるノンリニア編集を行うためのデータであり、パーソナルコンピュータに取り込まれた後、編集の素材とされる。これは、パーソナルコンピュータなどでノンリニア編集を行う場合、その処理能力が不足することから、上述したような高ビットレートの主映像データを、直接、編集用の素材とすることができないからである。
このように、プロキシ映像データに基づいて行われる編集はプロキシ編集(粗編集)と呼ばれることがあり、この粗編集は、例えば、撮影現場などで簡易な編集として行われる。粗編集作業では、たとえば記録した映像のキーとなる位置を記録する、記録した映像の所望の位置にコメント書きをする、等の作業がある。たとえば、野球の試合が映像コンテンツの場合、粗編集では、たとえば試合中に「ホームラン」があった位置(タイムコード等)を記録し、その「ホームラン」に対してコメント書きをする作業などが行われる。
下記特許文献1には、映像のキーとなる位置を後に確認するために、映像データに対して付加情報として、メタデータの説明が開示されている(たとえば、段落番号[0070])。
粗編集は、主として映像コンテンツを取得する現場での作業であり、その結果は、例えば、光ディスクに記録された状態で配送される主映像・音声データ(以下、単にAVデータ)とは別に、最終的な放送用データを作成するスタジオの装置などに、ネットワークを介して送信される。そして、そのスタジオにおいて、プロキシ編集の結果に基づく主映像データの編集が行われ、最終的な、放送用の映像データが作成される。
特開2004−343217号公報
ところで、従来、粗編集作業は、映像コンテンツの記録終了後に、光ディスクに記録されたプロキシAVデータをパーソナルコンピュータに転送し、再生しながら行っていた。これは、映像コンテンツを記録するカメラマンは、撮影作業に忙しく、撮影しながら映像のキーとなる位置を記録することはできないためである。したがって、撮影作業と粗編集作業が順に行われ、非常に時間がかかっていた。
本発明は、上述した観点によってなされたものであって、その目的は、映像コンテンツなどの映像素材の記録および編集にかかる時間を低減した素材記録装置および素材記録方法を提供することにある。
上記課題を克服するために、本発明の第1の観点は、映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置であって、前記第1処理部は、映像素材を記録開始から記録終了までを1単位として記録する素材記録部と、前記素材記録部が1つの映像素材を記録終了する前に、当該映像素材を記録した順に第2処理部へ送信を開始する送信部と、を備え、前記第2処理部は、前記第1処理部からの映像素材を順に受信する受信部と、受信した映像素材を表示する表示部と、前記表示部に表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて記録する指標情報処理部と、を備え、前記第1処理部は、映像素材の記録終了後に、少なくとも当該映像素材の記録期間を含む第1付加情報と、当該映像素材の終了位置を示す第2付加情報とに基づいて、当該映像素材に対応した素材ファイルを生成し、前記第2処理部へ送信する素材記録装置である。
好ましくは、送信部は、記録した順にリアルタイムで第2処理部へ送信する。これにより、素材記録部により映像素材の記録と、表示部による映像素材の表示とが極めて少ない時間差をもって行われる。
上記課題を克服するために、本発明の第2の観点は、第1処理装置〜第2処理装置間で行われる素材記録方法であって、前記第1処理装置において、映像素材を記録するステップと、前記映像素材の記録終了に応じて、当該映像素材を第2処理装置へ送信するステップと、前記第2処理装置において、前記映像素材を受信するステップと、受信した映像素材を表示するステップと、表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れるステップと、受け入れた指標情報と、対応する位置とを関連付けて記録するステップと、映像素材の記録終了後に、前記第1処理装置が、少なくとも当該映像素材の記録期間を含む第1付加情報と、当該映像素材の終了位置を示す第2付加情報とに基づいて、当該映像素材に対応した素材ファイルを生成し、前記第2処理装置へ送信するステップと、を備えた素材記録方法である。
なお、本発明において、素材IDは、映像素材を特定するための固有の符号、番号、記号などの識別情報を含む概念である。
本発明によれば、映像コンテンツなどの映像素材の記録と、当該映像素材の所望の位置における映像と指標情報とを関連付けた記録とが平行して行われるため、記録・編集にかかる時間を低減することができる。
以下、本発明の一実施形態である素材記録装置1について、以下の順に説明する。
[素材記録装置1の全体構成]
[光ディスク装置2の構成]
[コンピュータ3の構成]
[コンピュータ3のGUI]
[素材記録装置1の動作]
(1)ネットワーク接続開始〜映像表示
(2)記録開始
(3)エッセンスマークEMの入力
(4)記録終了
[実施の形態における効果]
[素材記録装置1の全体構成]
素材記録装置1は、たとえば放送番組制作現場などで映像コンテンツ(映像素材)の記録・粗編集を行うための装置である。素材記録装置1では、映像コンテンツを記録するのと平行して、映像コンテンツ(プロキシAVデータ)の所望の位置にエッセンスマーク等の入力、およびそれに伴うメタデータファイルの生成を可能とした装置である。
なお、一般にメタデータとは、あるデータに関する上位データであり、各種データの内容を表すためのインデックスとして機能するデータである。本実施形態の説明において、メタデータは、エッセンスマーク、UMID(Unique Material Identifier;SMPTE 330Mとして国際標準化されたAV素材の識別子)、フレームカウント(または、タイムコード)を含んで構成される時系列メタデータであり、光ディスク装置2およびコンピュータ3の双方で生成される。また、必要に応じて、非時系列メタデータも生成される。
エッセンスマークについては、後述する。
図1は、素材記録装置1の全体構成を示す図である。
図1に示すように、素材記録装置1は、ビデオカメラなどの撮像手段で取得した映像コンテンツを記録する光ディスク装置2と、当該映像コンテンツをプロキシAVデータとしてネットワーク900を介して受信し、ストリーミング再生するとともに、編集用の指標情報を入力可能なパーソナルコンピュータ(Personal Computer)3(以下、コンピュータ3)とを含む。
なお、映像コンテンツを送信する光ディスク装置2は、本発明の「第1処理部」,「第1処理装置」に相当し、映像コンテンツを受信するコンピュータ3は、本発明の「第2処理部」,「第2処理装置」に相当する。
光ディスク装置2において高ビットレートで符号化されたAVデータを、そのままコンピュータ3に転送・処理することは、通信容量およびコンピュータ3の処理能力を考慮すると困難な場合があるため、本実施形態では、光ディスク装置2側で低解像度のプロキシAVデータを生成して、コンピュータ3に送信するようになっている。
コンピュータ3では、プロキシAVデータを受信して再生(ストリーミング再生)するとともに、当該プロキシAVデータの任意の位置に対してエッセンスマークの入力を受け付ける。
なお、素材記録装置1において、光ディスク装置2とコンピュータ3は、所定のイーサネットプロトコルに準拠してネットワーク900に接続される。
素材記録装置1の好ましい使用形態では、たとえば光ディスク装置2を操作するユーザAとは別のユーザBがコンピュータ3を操作する。かかる使用形態では、ユーザAは、撮影作業に専念でき、ユーザBは、リアルタイムで撮影内容を視聴しながら編集に必要な指標情報を入力することができる。したがって、撮影作業と編集作業とを同時進行させることができる。
次に、本発明の指標情報としてのエッセンスマークについて、概略的に説明する。
エッセンスマークは、映像コンテンツから取得されたAVデータの所望の映像シーン(またはカット)に関連付けられたインデックスを表す。エッセンスマークを参照することで、AVデータの再生処理をしなくても、当該エッセンスマークに対応付けられた特定のシーンを把握することができるので、編集を行う際に便利である。
素材記録装置1において、エッセンスマークは、予め予約語として定義される。したがって、光ディスク装置2とコンピュータ3とのインタフェース間で、エッセンスマークを相手装置に応じて変換することなく、共通のメタデータとして扱うことが可能である。
図2は、エッセンスマークを定義するために用いられる予約語の例を示す図である。なお、この図2の例は一例であって、さらに他のエッセンスマークを追加定義することも可能である。
“_RecStart”は、記録の開始位置を示す撮影開始マークである。“_RecEnd”は、記録の終了位置を示す撮影終了マークである。“_ShotMark1”および“_ShotMark2”は、注目すべき時点などの任意の位置を示すショットマークである。“_Cut”は、カット位置を示すカットマークである。“_Flash”は、フラッシュが発光された位置を検出したフラッシュ検出位置を示すフラッシュマークである。“_FilterChange”は、撮像装置においてレンズフィルタを変更した位置を示すフィルタ変更マークである。“_ShutterSpeedChange”は、撮像装置においてシャッタ速度を変更した位置を示すシャッタ速度変更マークである。“_GainChange”は、フィルタなどのゲインを変更した位置を示すゲイン変更マークである。“_WhiteBalanceChange”は、ホワイトバランスを変更した位置を示すホワイトバランス変更マークである。“_OverBrightness”は、映像信号の出力レベルが限界値を超えた位置を示すマークである。“_OverAudioLimiter”は、音声信号の出力レベルが限界値を超えた位置を示す大音量マークである。
上述までの各マークは、映像データのフレームカウントに対応付けて記録される。
“_In−XXX”は、カットまたは素材の切り出し開始位置を示す編集開始マークである。“_Out−XXX”は、カットまたは素材の切り出し終了位置を示す編集終了マークである。編集開始マークおよび編集終了マークは、編集開始点(IN点)や編集終了点(OUT点)が追加される毎に、数字やアルファベットなどが“XXX”の部分に順に番号付けがなされる。例えば、“_In−001”、“_In−002”、・・・のようになる。
なお、図2において、たとえば、“_Flash”, “_ShutterSpeedChange”, “_WhiteBalanceChange”など、撮影機能に依存したエッセンスマークは、光ディスク装置2側で生成され、メタデータファイルに記述される。
図2において、たとえば、“_ShotMark1”,“_ShotMark2”,“_In−XXX”,“_Out−XXX”など、映像編集のためのエッセンスマークは、コンピュータ3側で入力され、メタデータファイルに記述される。
上述のように定義されたエッセンスマークを、粗編集時にインデックスとして用いることで、目的に応じた映像シーンを効率的に選択することが可能となる。
[光ディスク装置2の構成]
次に、光ディスク装置2の構成について、図3に関連付けて説明する。
図3は、光ディスク装置2の構成を示すブロック図である。
図3において、撮像部21は、映像コンテンツを撮像するカメラ、映像をモニタするLCD、および撮像調整機構を含む。撮像部21は、ビデオ信号とオーディオ信号とが多重化されたAV信号を生成して、AV信号インタフェース22に供給する。たとえば、操作部29の入力に応じて、映像コンテンツの記録開始および記録終了し、1クリップのAV信号を生成する。なお、1回の記録開始から記録終了に至るまでの連続した映像区間を1クリップという。光ディスク装置2では、クリップ単位でAVデータ、プロキシAVデータなどが管理され、クリップ単位でファイルが生成される。
また、撮像部21は、操作部29の入力に応じて、たとえばホワイトバランスの調整、フラッシュの発光などの撮像調整を行う。
AV信号インタフェース22は、撮像部21から供給された映像信号をビデオ符号化部23に、音声信号をオーディオプロセッサ24にそれぞれ出力する。
ビデオ符号化部23は、供給されたビデオ信号を、必要に応じてディジタル変換した後、例えばMPEG(Moving Picture Experts Group)2方式の圧縮符号化(エンコード)を行い、得られたデータを、所定のインタフェース回路を介してバス20に出力する。
オーディオプロセッサ24は、AV信号インタフェース22から供給された音声信号をアナログ/ディジタル変換し、得られたデータを所定のインタフェース回路を介してバス20に出力する。
ドライブ25は、ピックアップ251、ピックアップからのレーザの発生と、その反射光の検出を制御するピックアップコントローラ252、光ディスク4に記録させるデータをピックアップ251に出力するとともに、ピックアップ251で検出されたレーザの反射光から、データを取得するデータプロセッサ253、データプロセッサ253とバス29の間のデータの送受信を行うドライブインタフェース254から構成されている。
なお、ドライブ25には、光ディスクのローディング機能を有しているが、図3では当該機能ブロックは省略されている。
CPU26は、ROM27に記録されている制御プログラムをRAM24に展開し、光ディスク装置1の全体の動作を制御する。例えば、CPU22は、光ディスク4がドライブ28に装着されたとき、ドライブ38の各部を制御する。
CPU26は、ビデオ符号化部23およびオーディオプロセッサ24の出力データを多重化して、AVデータおよびプロキシAVデータを生成する。その際、プロキシAVデータをAVデータよりも低ビットレートとした圧縮符号化を行うように、ビデオ符号化部23を制御する。
生成したプロキシAVデータは、通信インタフェース28を介して、たとえば2秒分のパケットごとにコンピュータ3へ送信される。
CPU26は、ドライブ25を制御し、記録終了後に1クリップ分のプロキシAVデータをプロキシAVデータファイルとして光ディスク4に記録する。このプロキシAVデータファイルは、記録終了後に、コンピュータ3へ送信される。
プロキシAVデータファイルは、図4に示すように、プロキシヘッダ(以下、ヘッダ)、パケットデータ、フッタから構成される。
ヘッダは、プロキシAVデータの圧縮方式が記述されたデータのほか、記録長データを含む。したがって、ヘッダは、記録終了によってその内容が確定する。
パケットデータは、2秒ごとのプロキシAVデータを含むパケットを複数含む。各パケットは、2秒ごとのプロキシAVデータのほか、クリップを特定するためのクリップ番号(本発明の素材ID)、パケットを特定するためのパケット番号を含んでいる。クリップ番号は、対応するクリップのUMIDに応じて設定され、クリップごとに異なる固有の番号である。パケット番号は、当該クリップにおいて、記録開始から順に送信されるパケットごとに連続した番号となっている(たとえば、“C0001”,“C0002”,…)。
フッタは、プロキシAVデータの終わりを示す符号を含む。
CPU26は、たとえばホワイトバランスの調整、フラッシュの発光などの撮像調整が行われると、対応するエッセンスマークEMを抽出し、その撮像調整時のフレームカウントと関連付けて、メタデータファイルMDF1(本発明の第1ファイルに相当)に記述する。すなわち、1クリップの映像コンテンツの位置と、当該位置に対応して設定されるエッセンスマークとを関連付けて、メタデータファイルMDF1に記述する。そして、1クリップ分のメタデータファイルMDF1は、光ディスク4に記録される。
なお、後述するように、光ディスク4上のメタデータファイルMDF1は、コンピュータ3からメタデータファイルMDF3を受信した後、メタデータファイルMDF3に書き換えられる。
CPU26は、光ディスク装置2の動作状態を示すデータとして、ステータスSTSを生成する。そして、コンピュータ3からの要求に応じて、ステータスSTSを返信する。ステータスSTSは、記録中であることを示す“REC”、再生中であることを示す“PLAY”、停止中であることを示す“STOP”(または、“PAUSE”)を含む。たとえば、“STOP”のステータスにおいて記録開始操作がなされると、ステータスは、“STOP”から“REC”に変化し、さらに記録終了操作がなされると、ステータスは、“REC”から“STOP”に変化する。
CPU26は、記録開始操作によって、新しいクリップのAVデータが生成され始めると、対応するクリップデータを生成する。クリップデータには、クリップ番号、フレームレート、UMIDが含まれる。光ディスク装置2は、コンピュータ3からの要求に応じて、クリップデータをコンピュータ3へ送信する。
[コンピュータ3の構成]
次に、コンピュータ3の構成について説明する。
コンピュータ3には、光ディスク装置2から、多重化されたプロキシAVデータがパケット単位で送信される。コンピュータ3では、送信されたプロキシAVデータをストリーミング再生(映像出力、音声出力)するとともに、プロキシAVデータの所望の位置に対して、指標情報としてのエッセンスマークが入力可能となっている。そして、入力されたエッセンスマークがメタデータファイルに記述されるとともに、エッセンスマークの入力位置に対応するサムネイル画像が表示される。
図5に示すように、コンピュータ3は、通信インタフェース31、操作部32、メモリ33、ディスプレイ34、スピーカ35、CPU36を含んで構成される。
通信インタフェース31は、所定のイーサネットプロトコルに準拠し、光ディスク装置2と通信可能に構成される。通信インタフェース31は、光ディスク装置2から、1クリップの映像コンテンツの記録中に、ステータスSTS、クリップデータ、プロキシAVデータを受信する。また、通信インタフェース31は、当該クリップの記録後に、プロキシAVデータファイルおよびメタデータファイルMDF1を受信する。
操作部32は、ディスプレイ34と協調して所定のGUI(Graphical User Interface)を構成する。すなわち、操作部32は、たとえばキーボードを有し、そのキーボードに対する操作入力がディスプレイ34に表示される画像に対応している。
操作部32は、操作入力として、エッセンスマークEMを受け入れる。すなわち、コンピュータ3を操作するユーザは、プロキシAVデータの再生映像(ライブ映像)を見ながら、後工程の編集作業のためのインデックスとして、エッセンスマークEMを入力する。
たとえば、プロ野球ゲームのライブ映像の再生中において、ホームランがあった時点で操作部32に対して所定の操作を行なうことで、ホームランに対応するエッセンスマークEMがフレームカウントと対応付けられる。これにより、後でプロ野球ゲームのダイジェスト版のAVデータを生成するような編集作業が容易になる。
入力されたエッセンスマークEMは、CPU36によって、入力した時点のフレームカウントと関連付けられる。また、操作部32は、エッセンスマークEMに対応したテキストデータ(コメント)を受け入れる。
エッセンスマークEM、フレームカウント(またはタイムコード)、コメントは、メタデータファイルMDF2(本発明の第2ファイルに相当)に記述される。そして、1クリップ分のメタデータファイルMDF2は、メモリ33に記録される。
CPU36は、通信インタフェース31を介して、たとえば1秒ごとに光ディスク装置2に対して、光ディスク装置2が生成するステータスSTS(光ディスク装置2の状態を示すデータ)を要求し、取得する。すなわち、CPU32は、光ディスク装置2が現在、記録中であるか(“REC”)、再生中であるか(“PLAY”)、停止中であるか(“STOP”)について、1秒ごとに検出を行う。
CPU36は、コンピュータ3から取得したプロキシAVデータを順次ストリーミング再生する。すなわち、プロキシAVデータを復号し、復号により得られた映像を順次ディスプレイ34に表示し、復号により得られた音声をスピーカ35に出力する。
CPU36は、1クリップの記録終了の後、プロキシAVデータファイルを光ディスク装置2に対して要求し、取得する。すなわち、本実施形態では、1クリップの映像コンテンツの記録開始によって、光ディスク装置2は、プロキシAVデータを受信するが、受信したプロキシAVデータは、必ずしも記録する必要はない。そして、受信したプロキシAVデータを包含したプロキシAVデータファイルを、記録終了後に受信することにしている。
CPU36は、1クリップの記録終了の後、光ディスク装置2からメタデータファイルMDF1を取得し、内部で生成したメタデータファイルMDF2と合併(マージ)させて、メタデータファイルMDF3(本発明の第3ファイルに相当)を生成し、メモリ33に格納する。
メタデータファイルのマージは、以下のように行う。
メタデータファイルMDF2とメタデータファイルMDF1とで、エッセンスマークEMと関連付けられたフレームカウントが異なる場合には、そのままマージする。
メタデータファイルMDF2およびMDF1におけるエッセンスマークEMが同一のフレームカウントと関連付けられている場合には、いずれか(たとえばMDF1)のエッセンスマークEMに対応するフレームカウントを、たとえば1つシフトする(たとえば増加させる)。すなわち、マージ後に、すべてのフレームカウントで、対応するエッセンスマークEMが1つのみとなるような処理を行う。
そして、CPU36は、マージにより得られたメタデータファイルMDF3を光ディスク装置2へ送信する。これにより、光ディスク装置2とコンピュータ3とで、共通のメタデータファイルMDF3によって、各クリップを管理することができる。
ディスプレイ34は、操作部32と協調した所定のGUIに従って、送信されたプロキシAVデータの映像再生、エッセンスマークの入力に応じた表示などを行う。
ディスプレイ34のGUIの一例については、後述する。
[コンピュータ3のGUI]
次に、コンピュータ3のGUIについて説明する。
図6は、コンピュータ3のディスプレイ34の表示画像を示す図である。図に示すように、ディスプレイ34は、概ね4つの表示領域A1〜A4を含んで構成される。なお、図6は、光ディスク装置2が記録中である場合の表示例を示す。
表示領域A1は、ディスクデータとクリップデータに基づいて、クリップ単位でのファイル管理状態を表示する領域である。図6においては、「C0001」〜「C0011」は、それぞれ、すでにメモリ33にプロキシAVデータファイルが記録されたクリップ番号を示している。また、図6では、クリップ番号が「C0012」のプロキシAVデータを受信していることを強調するため、表示領域A1では、他のクリップ番号のクリップと異なる表示方法で「C0012」が表示されている。
表示領域A2は、受信中のプロキシAVデータの映像(ライブ映像)を表示する領域である。表示領域A2には、ライブ映像のほか、時刻情報、ステータスSTSの検出結果(たとえば、表示領域A2の左下端の領域A21の“REC”)が表示される。
表示領域A3は、操作部32のファンクションキーとエッセンスマークに対応するテキスト(EM名称)との対応関係を表示する領域である。たとえば、“_ShotMark1”(図2参照)というエッセンスマークに対応するEM名称“ShotMrk1”がファンクションキーF1に対応して表示されている。コンピュータ3を操作するユーザは、ライブ映像の所望の位置で、ファンクションキーを押下することにより、対応するエッセンスマークEMが入力されることになる。入力されたエッセンスマークは、メタデータファイルMDF2に記述される。
表示領域A4は、入力されたエッセンスマークEMに対応したサムネイル画像を表示する領域である。ファンクションキーの押下によりエッセンスマークEMが入力されると、入力時に表示領域A2に表示している画像がビットマップ形式に変換されて、図6に示すように、ビットマップ画像(サムネイル画像)、エッセンスマーク、コメントなどを含むサムネイル画像領域が生成され、表示される。なお、サムネイル画像領域のコメント欄には、サムネイル画像領域が生成された後、常にテキスト入力を受け付ける。
サムネイル画像領域には、クリップ開始時刻に対し、エッセンスマークEMに対応するフレームカウントを付加することでタイムコード(LTC)が表示される。
図6では、クリップ番号が「C0012」のクリップのプロキシAVデータを再生しており、たとえば表示領域A42には、当該クリップの複数のサムネイル画像領域がスクロール可能に表示されている。また、表示領域A41には、表示領域A1でアクティブとなっているクリップ(図では、「C0012」のクリップ)のプロパティ情報(たとえば、タイトル、日付、記録開始時のサムネイル画像等)が表示されている。
コンピュータ3は、上述したようなGUIを有しているため、ユーザは、記録中の映像コンテンツをリアルタイムにライブ映像として視聴できるとともに、そのライブ映像の所望の位置に、後の編集作業のために必要となるエッセンスマークEMを入力することができる。さらに、サムネイル画像領域のコメント欄にメモを入力でき、後の編集作業に有益である。
[素材記録装置1の動作]
次に、素材記録装置1の動作について説明する。
(1)ネットワーク接続開始〜映像表示(図7参照)
先ず、光ディスク装置2とコンピュータ3間の通信を確立するため、コンピュータ3から光ディスク装置2に対して接続要求を行う(ステップST1)。たとえば、コンピュータ3ではユーザネームとパスワードの入力操作を受け入れるように構成し、光ディスク装置2ではその入力内容に基づいて認証処理を行う(ステップST2)。そして、光ディスク装置2は、認証結果をコンピュータ3に通知する(ステップST3)。認証が成功すると、ステップST4以降の処理が行われる。
なお、図7では、光ディスク装置2のステータスSTSは“STOP”、すなわち「停止中」であり、映像の記録を行っていないものとする。
ステップST4では、コンピュータ3は、ステータスSTSとディスクデータDDの要求を行う(ステップST4)。ここで、ディスクデータDDには、光ディスク装置2にロードされた光ディスク固有のID(ディスクID)が含まれている。これらの要求に応じて、コンピュータ3は、光ディスク装置2からステータスSTSとディスクデータDDを受信する(ステップST5)。
なお、図示しないが、以後、コンピュータ3は、定期的に、たとえば1秒ごとに光ディスク装置2に対してステータスSTSの要求を行い、ステータスSTSを取得する。
次に、コンピュータ3は、プロキシAVデータを要求し(ステップST6)、その要求に応じて、光ディスク装置2は、EE(Electric to Electric)画のプロキシAVデータを送信する(ステップST7)。すなわち、光ディスク装置2は、「停止中」であり、取得した映像・音声をそのままコンピュータ3へ送信しているだけである。そして、コンピュータ3は、受信したプロキシAVデータをストリーミング再生する。(ステップST8)。すなわち、プロキシAVデータを復号し、復号により得られた映像を順次ディスプレイ34に表示し、復号により得られた音声をスピーカ35に出力する。
(2)記録開始(図8参照)
次に、光ディスク装置2のユーザに操作入力に応じて、光ディスク装置2が記録を開始すると、光ディスク装置2は、ステータスSTSを“STOP”から“REC”へ変化させる。コンピュータ3は、1秒ごとにステータスSTSの要求をしており、このステータス変化をすぐに検出する(ステップST10)。検出結果は、ユーザが認識できるように、コンピュータ3のディスプレイ34に表示される。
そして、コンピュータ3は、光ディスク装置2に対して、記録中のAVデータのクリップデータを要求する(ステップST11)。光ディスク装置2では、UMIDに対応するクリップ番号によって記録中のAVデータが管理されており、このクリップ番号を含むクリップデータがコンピュータ3に対して送信される(ステップST12)。これにより、光ディスク装置2とコンピュータ3とで、共通のクリップ番号に関連付けてファイルを管理することができる。
コンピュータ3では、送信されたクリップデータに含まれるクリップ番号に対応付けて、プロキシAVデータファイルを作成する。そして、コンピュータ3は、プロキシAVデータの要求(ステップST13)に応じて、パケット単位でプロキシAVデータを受信する(ステップST14)。受信したプロキシAVデータは、復号されて再生される(ステップST15)。
(3)エッセンスマークEMの入力(図9参照)
記録が行われ、コンピュータ3においてストリーミング再生が行われている間、操作部32を介したエッセンスマークを受け入れて、メタデータファイルMDF2に記述する。
エッセンスマークEMに対応するテキスト(EM名称)は、たとえば操作部32のファンクションキーと関連付けて、あらかじめメモリ33に設定登録されている。そして、CPU36は、ファンクションキーに対する入力を検出すると(ステップST20)、その入力に対応したエッセンスマークEMをメモリ33から読み出すとともに、入力を検出した時点での映像のフレームカウントを抽出する(ステップST21)。
また、操作部32は、コメント入力を受け付ける(ステップST24)。このコメント入力は、図示するようなステップST21とST22の間のタイミングに限らず、必要に応じて随時受け付ける。
エッセンスマークEM、フレームカウント、コメントは、関連付けられて、メタデータファイルMDF2に記述される(ステップST22)。
さらに、ファンクションキーに対する入力を検出した時点においてディスプレイ34に再生している画像をビットマップ形式の画像データに変換してサムネイル画像を生成し、表示する(ステップST23)。前述したように、コメントは、サムネイル画像を生成後であっても入力が可能である。
(4)記録終了(図10参照)
次に、光ディスク装置2に対するユーザの操作入力に応じて、光ディスク装置2が記録を終了すると、光ディスク装置2は、ステータスSTSを“REC”から“STOP”へ変化させる。コンピュータ3は、1秒ごとにステータスSTSの要求をしており、このステータス変化を短時間で検出する(ステップST30)。
1クリップの記録が終了すると、光ディスク装置2では、そのクリップの記録長(記録期間)データをヘッダに書き込んで、プロキシAVデータファイルを完成させる。
コンピュータ3は、ステータス変化を検出した後、このプロキシAVデータファイルを要求し(ステップST31)、取得する(ステップST32)。
次に、コンピュータ3は、光ディスク装置2で生成されたメタデータファイルMDF1を光ディスク装置2に対して要求し(ステップST33)、取得する(ステップST34)。
さらに、コンピュータ3は、メタデータファイルMDF2とメタデータファイルMDF1とを合併(マージ)して、メタデータファイルMDF3を生成する(ステップST35)。
マージにより生成されたメタデータファイルMDF3は、光ディスク装置2へ送信される(ステップST36)。そして、光ディスク装置2では、光ディスク上のメタデータファイルMDF1を、取得したメタデータファイルMDF3に書き換える(ステップST37)。これにより、光ディスク装置2のユーザは、コンピュータ3に対して入力されたエッセンスマークEMが付加されたメタデータファイルを解釈して、AVデータ(主データ)を編集することが可能となる。
[実施の形態における効果]
以上説明したように、本実施形態に係る素材記録装置1では、映像コンテンツを記録する光ディスク装置2と、コンピュータ3とがネットワークを介して接続される。コンピュータ3は、光ディスク装置2から低解像度のプロキシAVデータが供給され、ライブ映像としてストリーミング再生するとともに、プロキシAVデータの任意の位置にエッセンスマークEMを受け入れて、メタデータファイルMDF2に記述する。そして、1クリップの撮影終了後に、コンピュータ3において、当該メタデータファイルMDF2と、撮像調整に応じて光ディスク装置2側で生成されたメタデータファイルMDF1とがマージされる。マージにより得られたメタデータファイルMDF3は、光ディスク装置2に転送され、光ディスク上のメタデータファイルMDF1が書き換えられる。これにより、以下の効果が得られる。
すなわち、
(1)光ディスク装置2を操作するユーザA(撮影者)とは別のユーザB(編集者)がコンピュータ3を操作する状況において、ユーザAは、撮影作業に専念でき、ユーザBは、リアルタイムで撮影内容をリアルタイムで視聴しながら編集に必要なエッセンスマークを入力することができる。したがって、撮影作業と粗編集作業とを同時進行させることができ、撮影作業と粗編集作業とが順番に行われていた従来の装置と比較して、格段に作業時間を低減させることができる。
(2)従来の装置では、粗編集作業において、編集者は、記録された映像コンテンツを再生しながら、所望の映像シーンのタイムコードやコメントなどをメモ書きしていたが、本実施形態に係る素材記録装置1を使用すると、映像コンテンツの記録中にコンピュータ3に直接エッセンスマーク、コメントを入力することができ、編集効率が著しく向上する。
また、本実施形態に係る素材記録装置1では、1クリップの映像コンテンツの記録終了後に、ヘッダおよびフッタが付加されたプロキシAVデータファイルが光ディスク装置2からコンピュータ3に転送される。
これにより、映像コンテンツを記録する光ディスク装置2と同一のプロキシAVデータファイルを確実に取得することができる。つまり、コンピュータ3は、記録中に順次受信するプロキシAVデータを順次メモリに格納し、自身でプロキシAVデータファイルを生成することはせずに、記録終了後に、プロキシAVデータファイルを光ディスク装置2から取得するように構成したので、通信異常などによる受信プロキシAVデータの欠落を考慮する必要がない。すなわち、ストリーミング再生中と異なり、受信データの確実性を確保するための手続き(たとえば、チェックサム等)に関する処理時間を考慮する必要がないので、プロキシAVデータファイルを確実に取得できる。
そして、コンピュータ3を操作する編集者は、取得したプロキシAVデータファイルを、コンピュータ3から最終的な放送用データを作成するスタジオの装置などに、ネットワークを介して素早く転送できる。したがって、編集効率が著しく向上する。
なお、本発明の実施形態は、上述した実施形態に拘泥せず、当業者であれば、本発明の要旨を変更しない範囲内で様々な改変が可能である。
たとえば、上述の実施形態において、プロキシAVデータはAVデータ(主データ)と比較して、低ビットレートによって圧縮符号化された低解像度のデータであるが、これに限られない。光ディスク装置2〜コンピュータ3間の通信容量や、コンピュータ3の処理能力を考慮して、AVデータよりも情報量の少ないデータであればよい。また、今後の通信容量の拡大、コンピュータ3の処理能力の飛躍的向上によっては、AVデータ(主データ)をそのままコンピュータ3に転送することも想定し得る。
また、上述した実施形態の説明では、コンピュータ3は、好ましくは、光ディスク装置2で生成したプロキシAVデータをリアルタイムで再生するが、通信容量やコンピュータ3の処理能力に応じて、遅れ時間を伴って再生された場合でも編集効率が向上するという効果は得られる。すなわち、光ディスク装置2が映像コンテンツの記録を終了する前に、すでに記録した映像コンテンツのプロキシAVデータの転送を開始し、コンピュータ3において、転送されたプロキシAVデータの再生およびエッセンスマークの入力ができれば、撮影作業と粗編集作業とを時間的にオーバーラップさせることができ、編集効率が向上する。
実施形態に係る素材記録装置の全体構成を示す図である。 エッセンスマークを定義するために用いられる予約語の例を示す図である。 実施形態に係る光ディスク装置の構成を示すブロック図である。 プロキシAVデータファイルのデータ構成を図解する図である。 実施形態に係るパーソナルコンピュータの構成を示すブロック図である。 実施形態に係るコンピュータのディスプレイの表示画像を示す図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。
符号の説明
1…素材記録装置
2…光ディスク装置
20…バス、21…撮像部、22…AV信号インタフェース、
23…ビデオ符号化部、24…オーディオプロセッサ、25…ドライブ、
26…CPU、27…ROM、28…通信インタフェース、29…操作部
3…パーソナルコンピュータ
30…バス、31…通信インタフェース、32…操作部、33…メモリ、
34…ディスプレイ、35…スピーカ、36…CPU

Claims (6)

  1. 映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置であって、
    前記第1処理部は、
    映像素材を記録開始から記録終了までを1単位として記録する素材記録部と、
    前記素材記録部が1つの映像素材を記録終了する前に、当該映像素材を記録した順に第2処理部へ送信を開始する送信部と、を備え、
    前記第2処理部は、
    前記第1処理部からの映像素材を順に受信する受信部と、
    受信した映像素材を表示する表示部と、
    前記表示部に表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて記録する指標情報処理部と、を備え、
    前記第1処理部は、映像素材の記録終了後に、少なくとも当該映像素材の記録期間を含む第1付加情報と、当該映像素材の終了位置を示す第2付加情報とに基づいて、当該映像素材に対応した素材ファイルを生成し、前記第2処理部へ送信する
    素材記録装置。
  2. 前記第1処理部は、映像素材の位置と、当該位置に対応して設定される指標情報とを関連付けた第1ファイルを生成し、
    前記第2処理部は、第1処理部から送信された前記映像素材の位置と、当該位置に対応して受け入れた指標情報とを関連付けた第2ファイルを生成し、かつ、前記第1および第2ファイルを併合した第3ファイルを生成する
    請求項1記載の素材記録装置。
  3. 前記第1処理部は、第2処理部から1の映像素材に対する第3ファイルを取得し、当該映像素材に対して生成した第1ファイルに換えて、取得した第3ファイルを記録する
    請求項2記載の素材記録装置。
  4. 前記第1処理部は、記録対象の映像素材を固有の素材IDによって管理し、
    前記第2処理部は、受信した映像素材と、当該映像素材の素材IDとを関連付けて処理する
    請求項1記載の素材記録装置。
  5. 前記第1処理部は、前記映像素材を当該映像素材よりも低解像度の第2映像素材に変換して、第2処理部へ送信する
    請求項1記載の素材記録装置。
  6. 第1処理装置〜第2処理装置間で行われる素材記録方法であって、
    前記第1処理装置において、
    映像素材を記録するステップと、
    前記映像素材の記録終了に応じて、当該映像素材を第2処理装置へ送信するステップと、
    前記第2処理装置において、
    前記映像素材を受信するステップと、
    受信した映像素材を表示するステップと、
    表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れるステップと、
    受け入れた指標情報と、対応する位置とを関連付けて記録するステップと、
    映像素材の記録終了後に、前記第1処理装置が、少なくとも当該映像素材の記録期間を含む第1付加情報と、当該映像素材の終了位置を示す第2付加情報とに基づいて、当該映像素材に対応した素材ファイルを生成し、前記第2処理装置へ送信するステップと、
    を備えた素材記録方法。
JP2005118397A 2005-04-15 2005-04-15 素材記録装置および素材記録方法 Pending JP2006303595A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005118397A JP2006303595A (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法
US11/404,624 US20060233529A1 (en) 2005-04-15 2006-04-14 Contents recording system and contents recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005118397A JP2006303595A (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法

Publications (1)

Publication Number Publication Date
JP2006303595A true JP2006303595A (ja) 2006-11-02

Family

ID=37108571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005118397A Pending JP2006303595A (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法

Country Status (2)

Country Link
US (1) US20060233529A1 (ja)
JP (1) JP2006303595A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4396567B2 (ja) * 2005-04-15 2010-01-13 ソニー株式会社 素材記録装置および素材記録方法
JP4442500B2 (ja) * 2005-04-15 2010-03-31 ソニー株式会社 素材記録装置および素材記録方法
US20090207998A1 (en) * 2008-01-07 2009-08-20 Angus Wall Determining unique material identifier numbers using checksum values
US8463109B2 (en) 2008-01-07 2013-06-11 Black Mariah, Inc. Editing digital film
JP5603641B2 (ja) * 2010-04-23 2014-10-08 キヤノン株式会社 撮像装置、画像処理装置、制御方法及びプログラム
JP4987129B2 (ja) 2010-04-23 2012-07-25 キヤノン株式会社 画像処理装置及びその制御方法
KR101711009B1 (ko) * 2010-08-26 2017-03-02 삼성전자주식회사 영상 저장장치, 영상 재생장치, 영상 저장방법, 영상 제공방법, 저장매체 및 촬영장치
US20140376887A1 (en) * 2013-06-24 2014-12-25 Adobe Systems Incorporated Mobile device video selection and edit
US9858969B2 (en) * 2015-01-29 2018-01-02 HiPoint Technology Services, INC Video recording and editing system
CN113067983B (zh) * 2021-03-29 2022-11-15 维沃移动通信(杭州)有限公司 视频处理方法、装置、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3837746B2 (ja) * 1995-04-08 2006-10-25 ソニー株式会社 編集システム
US7272298B1 (en) * 1998-05-06 2007-09-18 Burst.Com, Inc. System and method for time-shifted program viewing
JP2000059758A (ja) * 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 監視カメラ装置、監視装置、及びこれらを用いた遠隔監視システム
JP3988079B2 (ja) * 2003-05-13 2007-10-10 ソニー株式会社 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US20060233529A1 (en) 2006-10-19

Similar Documents

Publication Publication Date Title
JP4396567B2 (ja) 素材記録装置および素材記録方法
JP2006303595A (ja) 素材記録装置および素材記録方法
JP6920578B2 (ja) 映像ストリーミング装置、映像編集装置および映像配信システム
KR100741588B1 (ko) 재생 장치 및 재생 방법
JP4355659B2 (ja) データ処理装置
WO2004051999A1 (ja) ビデオ信号処理装置、ビデオ信号記録装置、ビデオ信号再生装置、ビデオ信号処理装置の処理方法、ビデオ信号記録装置の処理方法、ビデオ信号再生装置の処理方法、記録媒体
JP4442499B2 (ja) 素材記録装置および素材記録方法
JP4442500B2 (ja) 素材記録装置および素材記録方法
US20100080536A1 (en) Information recording/reproducing apparatus and video camera
JP5759212B2 (ja) シナリオ編集装置およびシナリオ編集方法、ならびに撮像システム
JP2004180279A (ja) コンテンツ編集支援システム,映像処理装置,再生装置,編集装置,コンピュータプログラム,およびコンテンツ処理方法
CN102474585A (zh) 图像处理设备和图像处理方法
JP4962783B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
US7864225B2 (en) System and method for displaying image capture time
JPWO2005081522A1 (ja) データ処理装置およびデータ処理方法
JP2020182164A (ja) 撮像装置、その制御方法及びプログラム
JP4165542B2 (ja) ビデオデータ処理装置,ビデオデータ処理装置の処理方法,プログラム,記録媒体
JP4165543B2 (ja) ビデオデータ記録装置,ビデオデータ再生装置,ビデオデータ記録装置の処理方法,ビデオデータ再生装置の処理方法,プログラム,記録媒体
JP2005117439A (ja) 記録再生装置、記録方法
JP2010212772A (ja) 映像データ送信装置、映像データ受信装置およびそれらを備えた映像伝送システム
JP2008310910A (ja) 記録再生装置及びその制御方法
JP2006157343A (ja) 静止画作成方法及び静止画作成装置
JP2009060325A (ja) 編集装置および編集方法、並びにプログラム
JP2004362653A (ja) 記録装置、情報記録再生装置、記録方法、コンピュータプログラム及び記憶媒体