JP2004363734A - Motion picture editing device and its program - Google Patents

Motion picture editing device and its program Download PDF

Info

Publication number
JP2004363734A
JP2004363734A JP2003157250A JP2003157250A JP2004363734A JP 2004363734 A JP2004363734 A JP 2004363734A JP 2003157250 A JP2003157250 A JP 2003157250A JP 2003157250 A JP2003157250 A JP 2003157250A JP 2004363734 A JP2004363734 A JP 2004363734A
Authority
JP
Japan
Prior art keywords
moving image
image data
data
determined
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003157250A
Other languages
Japanese (ja)
Other versions
JP4189555B2 (en
Inventor
Toshiya Kiso
俊也 木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003157250A priority Critical patent/JP4189555B2/en
Publication of JP2004363734A publication Critical patent/JP2004363734A/en
Application granted granted Critical
Publication of JP4189555B2 publication Critical patent/JP4189555B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion picture editing device that automatically edits a plurality of pieces of relevant motion picture data as a single piece of motion picture data. <P>SOLUTION: After motion picture data 1 are obtained (S11), the final frame data of the motion picture data 1 are obtained (S12). After motion picture data 2 are obtained (S13), the start frame data of the motion picture data 2 are obtained (S14). The final frame data of the motion picture data 1 and the start frame data of the motion picture data 2 are compared with each other (S15), and when the two pieces of frame data, i.e. images, match each other, combination is decided (S16), thereby combining the motion picture data 1 and motion picture data 2 together (S17). Consequently, editing time and trouble can be saved by editing a plurality of pieces of relevant motion picture data into a single piece of motion picture data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、動画像編集装置およびそのプログラムに係り、詳しくは、複数の動画データに対する編集動作を実行する動画像編集装置に関する。
【0002】
【従来の技術】
従来、動画像撮影装置として、典型的なものにデジタルカメラがある。このようなデジタルカメラによる撮影は、従来の銀塩カメラによる撮影と異なり、撮影時あるいは撮影後に撮影された画像データに対して、デジタル画像処理を行うことが可能である。
また、処理速度、記憶容量の増大などによる性能向上により静止画のみでなく動画の撮影も可能となってきている。
そして、撮影した動画ファイルが二つある場合(以下、動画ファイル1、動画ファイル2という)には、ユーザは動画ファイル1と動画ファイル2を合わせて一つの動画ファイルを作りたい場合がある。かかる場合には、手動により、単純に動画ファイル1と動画ファイル2をそのまま結合するか、あるいは動画編集を行い、動画ファイル1と動画ファイル2の間に場面転換の効果を与えて、動画ファイルの結合を行っている。
【0003】
また、下記特許公開公報には、自動的に動画を編集する画像処理システムが開示されている。この画像処理システムは、被写体が記録された動画データの所在を特定するための情報と被写体が記録された時刻とを対応付けるための管理情報を生成し、管理情報に基づいて編集して、特定の被写体について一貫性を持つ新たな動画データを自律的に生成可能とするものである。
【0004】
【特許文献】
公開特許公報 特開平10−215434号(段落「0023」および段落「0028」参照)
【0005】
【発明が解決しようとする課題】
しかしながら、従来のデジタルカメラにあっては、動画撮影を終了してしまうと1つの動画ファイルが生成されてしまうため、以下のような問題点があった。(1)ユーザが間違って動画撮影を終了させてしまうと、すぐに動画撮影を開始しても、別のファイルとして記録されてしまうため、1つの動画ファイルとして記録したい場合には、ユーザが手動で編集をしなければならなかった。
(2)また、デジタルカメラで動画像を撮影した場合には、30秒ぐらいで撮影が停止してしまうため、関連のある連続した一連の動画像を撮影した場合であっても、複数の動画ファイルとして記録されてしまうという欠点があった。
(3)編集作業を行なうにしても、動画ファイルが複数ある場合には、手間と時間がかかるので、編集作業が大変であった。
また、このような問題は、上記した特許文献に開示されている技術によっても解決できるものではなかった。
【0006】
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の関連性のある動画データを自動的に一つの動画データとして編集することができる動画像編集装置およびそのプログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的達成のため、請求項1記載の発明による動画像編集装置は、第1の動画データを取得する第1動画データ取得手段と、
第2の動画データを取得する第2動画データ取得手段と、
前記第1の動画データと前記第2の動画データとを比較する比較手段と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データと前記第2の動画データを結合するか否かを判定する判定手段と、
前記判定手段により結合と判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合手段と、を備えたことを特徴とする。
【0008】
また、例えば、請求項2に記載されているように、前記第1動画データ取得手段、及び前記第2動画データ取得手段は、動画データを記録可能な記録媒体から動画データを取得するようにしてもよい。
また、例えば、請求項3に記載されているように、前記動画像編集装置は、
撮影対象物を撮影可能な動画像編集装置であって、
前記第1動画データ取得手段は、前記記録媒体から動画データを取得し、前記第2動画データ取得手段は、撮影した動画データを取得するようにしてもよい。
【0009】
また、請求項4に記載されているように、前記比較手段は、
前記第1の動画データの最終フレームのデータと、前記第2の動画データの開始フレームのデータとを比較するようにしてもよい。
また、請求項5に記載されているように、前記判定手段は、
前記比較手段による比較結果に基づき、動画データ同士が所定の範囲内にあると判断した場合は、結合と判定するようにしてもよい。
また、請求項6に記載されているように、前記所定の範囲内は、ユーザによって任意に設定できるようにしてもよい。
また、請求項7に記載されているように、前記結合手段は、前記判定手段により結合と判定された場合は、前記第1の動画データの最終フレームデータの後に、前記第2の動画データの開始フレームデータを結合して1つの動画データに編集するようにしてもよい。
【0010】
また、例えば、請求項8に記載されているように、前記比較手段は、前記第1の動画データの各フレームデータと、前記第2の動画データの各フレームデータとをそれぞれフレームデータごとに順次比較するようにしてもよい。
また、請求項9に記載されているように、前記判定手段は、
前記比較手段による比較結果に基づいて、前記第1の動画データと前記第2の動画データに重複しているデータがあると判断した場合には、結合と判定するようにしてもよい。
また、請求項10に記載されているように、前記結合手段は、
前記判定手段により結合と判定された場合に、前記第2の動画データの重複している部分を削除して、第1の動画データの最終フレームデータの後に、削除した残りの第2の動画データを結合して1つの動画データにするようにしてもよい。
【0011】
また、例えば、請求項11に記載されているように、前記比較手段によって比較するときは、比較するフレームデータに映し出されている対象物の位置、形状、又は大きさを比較するようにしてもよい。
また、請求項12に記載されているように、前記結合手段によって結合するときには、1つに結合された動画データを記録媒体に記録し、結合の対象となる取得した動画データを記録媒体から削除するようにしてもよい。
【0012】
請求項13記載の発明によるプログラムは、第1の動画データを取得する処理と、
第2の動画データを取得する処理と、
前記第1の動画データと前記第2の動画データとを比較する処理と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データと前記第2の動画データを結合するか否かを判定する処理と、
この処理により結合と判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する処理と、
をコンピュータで実行させて動画像の編集を行なうことを特徴とする。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を、デジタルカメラに適用した一例として図面を参照して説明する。
【0014】
(第1の実施の形態)
図1は、デジタルカメラ1の概略構成を示すブロック図である。デジタルカメラ1は動画像編集装置を構成し、CCD2とDSP/CPU3とを有している。
DSP/CPU3は、画像データの圧縮・伸張、音声データの処理を含む各種のデジタル信号処理機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。特に、メモリ・カード13に記録されている動画ファイル、つまり動画データをインターフェイス12、データバス9を介して取得し、DRAM10に記憶させる。この機能は、動画データ取得手段に相当する。この動画データ取得手段は、メモリ・カード13から第1の動画データ(以下、動画データ1という)と第2の動画データ(以下、動画データ2という)を取得する。なお、動画データ1と動画データ2は、任意に取得される。なお、このとき、取得した動画データに、動画データ1、動画データ2として取得されたことがわかるように識別記号を付す。
【0015】
また、DSP/CPU3は、取得した動画データ同士を比較する。このとき、動画データ1の最終フレームデータと動画データ2の開始フレームデータとを比較し、フレームデータの対象物の位置、形状、大きさを比較するようにしてもよい。この機能は比較手段に相当する。
そして、DSP/CPU3は、この比較結果に基づいて、2つのフレームデータの内容が一致するか否かを判定し、概略一致の場合には、動画データ1と動画データ2とを結合するとの判定を行なう。この機能は判定手段に相当する。
【0016】
さらに、DSP/CPU3は、結合と判定された場合には、DRAM10に記憶されている動画データ1と動画データ2とを結合させる。このとき、動画データ1の後に動画データ2を結合させ、この機能は結合手段に相当する。そして結合された動画データは、1つの動画ファイルとしてデータバス9、インターフェイス12を介して、メモリ・カード13に記録される。このとき、DSP/CPU3は、メモリ・カード13に記録されている、動画データ1と動画データ2を削除する。
【0017】
DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、CCD2から出力される撮像信号を相関二重信号サンプリングして保持するCDS(Correlated Double Sampling)回路、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅後の撮像信号をデジタル信号に変換するA/D変換器(AD)から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。
【0018】
DSP/CPU3には、表示装置6、キー入力部7、音声処理部8が接続されるとともに、アドレス・データバス9を介してDRAM10、内蔵フラッシュメモリ11、カード・インターフェイス12が接続されており、カード・インターフェイス12には、デジタルカメラ1の本体の図示しないスロットルに装着された着脱可能なメモリ・カード13が接続されている。
【0019】
表示装置6はカラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時には保存メモリであるメモリ・カード13から読み出され伸張された記録画像を表示する。キー入力部7はシャッターボタン、動画撮影に使用する録画開始/終了ボタン、電源キー、MENUキー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。
【0020】
音声処理部8は、内蔵マイク、アンプ、A/D変換器、内蔵スピーカ、D/A変換器等を含み、音声付の静止画又は動画の撮影時には、内蔵マイクに入力した音声をデジタル信号に変換してDSP/CPU3へ送る。DSP/CPU3へ送られた音声データはDRAM10に順次蓄積され、最終的には、DSP/CPU3によって生成された画像データとともにメモリ・カード13に記憶される。また、音声処理部8は、音声付の静止画又は動画の再生時には、各映像に付属する音声データに基づく音声を再生して内蔵スピーカから音声出力する。また、必要に応じ、内蔵スピーカにより各種の報知音を報音する。
【0021】
DRAM10は、CCD2により撮像された後、デジタル化された被写体の画像データ等を一時記憶するバッファメモリ、DSP/CPU3のワーキングメモリとしても使用され、メモリ・カード13に記録されている動画ファイルをカードI/F12とアドレス・データバス9を介して記憶し、編集作業に必要な処理が行なわれる。
【0022】
内蔵フラッシュメモリ11には、DSP/CPU3による各部の制御に必要な制御プログラム、すなわちメモリ・カード13から動画ファイルを取得したり、編集作業、動画ファイルを比較し、結合するか否かを判定し、結合するためのプログラム等を含む各種の制御に必要なプログラム、及び各制御に必要なデータが記憶されており、DSP/CPU3は前記プログラムに従い動作する。
【0023】
すなわち、DSP/CPU3、アドレス・データバス9、カードI/F12、メモリ・カード13、DRAM10、内蔵フラッシュメモリ11は、第1動画データ取得手段、第2動画データ取得手段を構成し、DSP/CPU3、アドレス・データバス9、DRAM10、内蔵フラッシュメモリ11は、比較手段、判定手段、結合手段を構成する。
【0024】
次に、以上の構成からなるデジタルカメラ1における動作を説明する。図2はユーザが動画撮影モードを設定したときのDSP/CPU3の処理手順を示すフローチャートである。
ユーザがキー入力部7を操作して動画撮影モードに設定すると、撮影したいと思う景色、風景をデジタルカメラで撮影し、撮影した映像をメモリ・カード等に記録することができるようになる。
【0025】
DSP/CPU3は、上記動画撮影モードが設定されると、CCD2による撮影を開始して被写体のスルー画像を表示装置6に表示させる(ステップS1)。
スルー画像とは、CCD2により撮像された対象物をDRAM10に記憶させ、その記憶された映像を表示画面に表示し、CCD2により撮像された対象物が変わることにより、DRAM10に記憶された映像が更新され、表示画面に表示される映像も変わることである。スルー表示状態では、DRAM10に記憶された映像をそのまま表示するが、メモリ・カード13にその映像のデータが記録されないので、その映像データが保存していない状態である。
次に、スルー画像が表示されている状態でユーザによりシャッターボタンが押下されたと判断すると(ステップS2)、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮像し記憶する動画像撮影処理を開始する(ステップS3)。シャッターボタンが押下されるまで、ステップS2に留まり、スルー表示が継続する。
【0026】
シャッターボタンが押されるか(ステップS4)、または、動画撮影処理が開始してから30秒経過したら(ステップS5)、動画撮影処理は停止され(ステップS6)、それまでの間にバッファメモリ(DRAM10)上に展開されている動画データを用いて動画ファイルを生成し、メモリ・カード13に記憶する(ステップS7)。その後、ステップS1に戻る。
この動作を繰り返すことにより、メモリ・カード13に動画ファイルが順次記録され、この複数の動画ファイルがメモリ・カード13に記録される。また、このメモリ・カード13に記録された動画ファイルが、後述する編集の対象となる動画データ1、動画データ2となる。
ステップS4でシャッターボタンが押下されず、動画撮影処理が開始されてから30秒経過してなければ(ステップS5でNO)、ステップS4に戻り、シャッターボタン押下又は30秒経過するまで、動画撮影処理が続行される。
【0027】
次に、メモリ・カード13に記憶された動画ファイルの編集について説明する。この動画ファイルの編集は、1つの連続した映像が複数の動画ファイルに分かれて記録された場合に、自動的に、その連続性のある複数の動画ファイルを結合させて、一つの動画ファイルに編集するものである。
ユーザによりキー入力部7が操作されて動画像編集モードに設定されると、メモリ・カード13に記録されている動画データは、DSP/CPU3によって、カードI/F12、アドレス・データバス9を介して、DRAM10に記憶される。ここで、DRAM10に記憶される動画データはDSP/CPU3によって選択される。ここでは便宜上、2つの動画データしか選択していない。
【0028】
図3は、DRAM10に記憶された動画データを表しており、図3(a)、(b)の20、40は動画データの開始フレームであり、30、50は最終フレームである。そして、動画データは開始フレームと最終フレーム、その間に複数のフレームが存在する。また、tの矢印の方向は、時間の経過を表している。
【0029】
図3(a)は、DRAM10に記憶された動画データ1を、(b)は、動画データ2を表している。
また、図3(a)の60は、動画データ1の最終フレームのデータ(以下、フレームデータ)の画像を示したものであり、図3(b)の70は動画データ2の開始フレームデータの画像を示したものである。
動画データ1の最終フレームデータと動画2の開始フレームデータには、山100、家110、山と大地の境界線120からなる画像が現されている。
なお、動画データ2は、動画データ1から一番撮影時刻が近い動画データ、かつ、動画データ1の撮影時刻より後に撮影された動画データを選択するようにしてもよい。
【0030】
次に、図4のフローチャートに基づいて動画編集を説明する。
動画編集モードに設定されると、ステップS11でメモリ・カード13から動画データ1を取得する。このとき取得した動画データに、動画データ1として取得されたことがわかるように識別記号等を付す。次いでステップS12で取得した動画データ1の最終フレームデータを取得する。
次に、ステップS13で動画データ2を取得する。このとき、取得した動画データに、現在取得されている動画データ1に対する動画データ2として取得されたことがわかるように識別記号等を付す。ステップS14で取得した動画データ2の開始フレームを取得する。よって、この識別記号に基づいて、動画データ1、動画データ2として取得したかどうかを判断する。
【0031】
ステップS15で取得された動画データ1の最終フレームデータと動画データ2の開始フレームデータとを比較し、ステップ16で一致していないと判断した場合には、結合しないと判定しステップ18に進む。ステップS16で一致していると判断した場合には、結合と判定する。
例えば、図3(a)、(b)に示されている動画データは、動画データ1の最終フレームデータ30と動画データ2の開始フレームデータ50は一致しているので結合すると判定される。
【0032】
ステップS16で結合と判定した場合には、ステップ17に進み、動画データ1の後に動画データ2を結合する。図5は結合された動画データに示しており、80は動画データ1の最終フレーム30であったものであり、90は動画データ2の開始フレーム50であったものである。
この結合された動画データは、新たな動画ファイルとしてアドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
なお、識別記号等を用いているので、動画データを取得して、比較した場合には、再び同じ動画データを取得して比較することは無いので、重複した作業を行なわないで済み、新たな動画データを生成した場合でも、再び同じ動画データを生成することは無い。
また、この生成された動画ファイルをメモリ・カード13に記憶するときに、動画データ1と動画データ2として取得された動画データ(動画ファイル)をメモリ・カード13から削除するようにしてもよい。
すなわち、動画データ1と動画データ2を取得して、新たな動画データAを生成しても、再び同じ動画データを動画データ1、動画データ2と取得して、同じ動画データAを生成することは無いので、同一の動画データを幾つも生成することは無い。
【0033】
ステップS16で、結合しないと判定すると、ステップS18に進み、現在取得されている動画データ1に対する動画データ2として取得されていない動画データがメモリ・カード13にあるかどうかを判断する。あると判断された場合には、ステップS13に戻り、現在取得されている動画データ1に対する動画データ2として取得されていない動画データをメモリ・カード13から新たに取得する。無いと判断された場合には、ステップS19に進む。
ここで、現在取得されている動画データ1に対する動画データ2として既に取得された動画データは再び取得することは無いが、以下で説明するように、動画データ1として新たに動画データが取得されると、メモリ・カード13に記録されている動画データは、すべて動画データ2として取得されていない動画データになる。すなわち、動画データ2として取得されたか否かは、動画データ1を基準に判断する。
【0034】
ステップS17で動画ファイルを生成し、又はステップS18で、無いと判断された場合には、ステップS19に進み、動画データ1として取得されていない動画データがメモリ・カード13にあるかどうかを判断し、あると判断した場合には、ステップS11に戻り、新たな動画データをメモリ・カード13から取得し、同じ動作を繰り返す。無いと判断した場合には、動画編集モードを終了する。なお、動画データ1、動画データ2として取得したか否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを取得して、同一の動画データを幾つも生成することはない。
また、ステップS17で新たな動画データを生成した場合には、この生成された動画データも、動画データ1、動画データ2として特定されていない動画データに含まれるので、ステップS17で新たに動画データを生成した場合には、動画編集モードを終了することは無い。これにより、3つ以上の動画データも連続性、関連性がある場合には、1つの動画データに自動編集することができる。
【0035】
次に、どのようにステップS15で比較し、ステップ16で判定するのかを図6、7を用いて説明する。
図6は、図4のステップS15の比較手段、ステップS16の判定手段のサブルーチンを示した図である。
図7(a)、(b)、(c)は、動画ファイルのフレームデータの画像を示すものである。
図7のフレームデータの画像は、山100、家110、山と大地の境界線120とから構成されており、図7(a)、(b)、(c)はすべて、同じ対象物であり、撮影した場所が違うものである。
【0036】
図6のステップS101では、動画データ1の最終フレームデータと動画データ2の開始フレームデータとの対象物をそれぞれ特定する。対象物を特定したものが、図7(d)、(e)、(f)となる。そして、ステップS102で対象物の位置、形状、大きさをそれぞれ取得する。この場合には、山、家のそれぞれの位置、形状、大きさを特定する。
次いで、ステップS103で、それぞれの、つまり動画データ1の最終フレームデータと動画データ2の開始フレームデータの対象物の位置、形状、大きさをそれぞれ比較する。
【0037】
次いで、ステップS104で対象物の位置を比較した結果、一致していると判断した場合には、ステップS105に進み、ステップS105で対象物の形状を比較した結果一致していると判断した場合には、ステップS106に進み、ステップS106で対象物の大きさを比較した結果、一致していると判断した場合は、ステップS107に進み、結合と判定する。そして、図4のステップS17に進む。また、ステップS104〜ステップS106で対象物の位置、形状、大きさが、一つでも一致していないと判断された場合は、図4のステップ18に進む。
【0038】
図7(a)が動画データ1の最終フレームデータの画像で、同図(b)が動画データ2の開始フレームデータの画像であるとすると、動画データ1の最終フレームデータと動画データ2の開始フレームデータは、山の位置、形状、大きさがそれぞれ一致しており、家の形状、大きさもそれぞれ一致しているが、家の位置が異なるので、結合と判定されない。
なお、対象物の位置、形状、大きさの一致は、完全同一でなくてもよい。この一致の範囲は、予め設定されていてもよく、また、ユーザが任意に設定できるようにしてもよい。また、対象物の位置、形状、大きさの一致の範囲をそれぞれ変えるようにして重み付けを行うようにしてもよい。例えば、対象物の位置に関する一致の範囲を広くするか、あるいは対象物の位置に関する判定を行わないようにした場合は、図7(a)と同図(b)は一致と判断されることになる。また、形状が一致すれば一致というようにしてもよいし、位置、形状、大きさの判断基準とは別の基準、例えば、色彩などによって判断させるようにしてもよい。
【0039】
このように、動画編集モードに設定されると、メモリ・カード13に記録されている動画データを動画データ1、動画データ2として取得し,DRAMに記憶する。次いで、DRAM10に動画データ1と動画データ2を記憶すると、動画データ1の最終フレームと動画データ2の開始フレームを取得し、2つのフレームデータを比較する。そして、比較の結果、2つのフレームデータが一致していると判断すると、動画データ1と動画データ2とを結合すると判定する。
次に、DRAM10に記憶されている動画データ1と動画データ2を結合させる。このとき結合の方法としては、動画データ1の後に動画データ2を結合させる。
次に、この結合された動画データは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
これにより、連続性、関連性のある動画像が、1つの動画ファイルとして自動的に編集される。
【0040】
以上のように、第1の実施の形態においては、複数の動画ファイルに、連続性、関連性のある映像が分かれて記録されていても、自動的に連続性、関連性のある動画ファイルを1つの動画ファイルに編集するので、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画ファイルとして記録され、すぐに動画撮影を開始しても動画データは別の動画ファイルとして記録されてしまうが、連続性、関連性のある動画ファイル同士であれば、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、自動的に一つの動画ファイルに編集してくれる。
さらに、ユーザが故意に動画撮影を終了して、また、新たに動画撮影を開始しても、終了した動画像と開始した動画像が連続性、関連性があれば、自動的に編集してくれるので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、一つの動画像として編集してくれるので定期的に撮影すれば、景色の移り変わり、植物の成長等が一つの動画ファイルとして編集することができる。
【0041】
デジタルカメラによる動画の撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに動画撮影を開始すれば、連続性、関連性のある映像を1つの動画ファイルとして編集することができる。
また、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができ、また、複数のデジタルカメラで同時に同じ場所で、撮影した動画ファイルも、連続性、関連性があれば1つの動画ファイルとして編集することができる。
【0042】
なお、第1の実施の形態では、デジタルカメラを使用して、自動編集を行なっているが、デジタルカメラに限られるものではなく、動画ファイルを記録したメモリ・カード13をパソコン等に読み込ませることにより、パソコン上で自動編集できることは言うまでもない。
また、メモリ・カード13に限らず、インターネット上から取得した動画ファイルをパソコン等にダウンロードすることにより自動的に編集することができるようにしてもよい。
【0043】
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。第2の実施の形態の動画編集は、メモリ・カード13に記録された動画データと現在撮影中の動画データ、すなわち、既に記録された映像と、撮影している映像とが、連続性、関連性のあるものと判断すると、動画撮影の終了と同時に、記録された動画データと、今撮影が終わった動画データを結合して、一つの動画データとして、メモリ・カード13に記録するというものである。
よって、第2の実施の形態は、撮影中に編集作業を行なうので、動画編集モードというものは必要ない。
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いる。
DSP/CPU3は、CCD2により撮像された後、デジタル化された被写体の画像データをDRAM10に記憶させ、この機能が、撮影動画データ取得手段に相当する。
他の機能は第1の実施の形態と同様なので、説明を省く。
【0044】
第2の実施の形態の動画編集を図8、図9のフローチャートに従いながら説明する。
ユーザによりキー入力部7が操作され動画撮影モードに設定されると、ステップS21でCCDによる撮影を開始して被写体のスルー表示を表示装置6に表示させる。そして、ステップS22でスルー表示の状態でユーザによりシャッターボタンが押下されたと判断すると、ステップS23に進み、所定のフレームレート(1/30秒の固定周期)で動画像(動画フレーム)を撮影し記憶する動画像撮影処理を開始する。ステップS22でシャッターボタンが押下されていないと判断したら、シャッターボタンが押下されるまで、ステップS22に留まり、スルー表示が継続する。
【0045】
ステップS24で、動画像撮影処理を開始したときの開始フレームデータを取得する。次いで、ステップS25でメモリ・カード13から動画データを取得する。このとき、取得した動画データに、取得されたことがわかるように識別記号等を付す。次いで、ステップ26で取得した動画データの最終フレームデータを取得する。よって、この識別記号に基づいて、取得した動画データか否かが判断できる。
なお、新たな動画撮影が開始された場合には、この識別記号を消去する。
【0046】
ステップS27で、撮影を開始したときの開始フレームデータとメモリ・カード13から取得した動画データの最終フレームデータとを比較し、ステップS28で、この二つのデータが一致しているかどうかを判断する。一致の範囲は、予め設定されていてもよく、また、ユーザが任意に設定できるようにしてもよい。一致していると判断された場合には、結合と判定し、ステップS29に進み、一致していないと判断した場合には、結合しないと判定し、ステップS33に進む。
【0047】
ステップS28で結合と判定し、ステップS29に進むと、シャッターボタンが押下されたかどうかを判断し、押下されたと判断した場合は、ステップS31に進み、押下されていないと判断した場合は、ステップS30に進む。ステップS30で、動画像撮影処理を開始してから、30秒経過したかを判断し、経過した場合には、ステップS31進み、経過していないと判断した場合には、ステップS29に戻る。
【0048】
すなわち、シャッターボタンが押下されるまで、または、動画像撮影処理を開始してから30秒経過するまでは、動画像が撮影され、シャッターボタンが押下されるか、または、動画像撮影処理を開始してから30秒経過するとステップS31に進み、動画像撮影処理が停止される。
【0049】
ステップS31で動画像撮影処理が停止されると、ステップS32に進み、DRAM10に記憶されているメモリ・カード13から取得され、ステップS28で一致していると判断された最終フレームデータを含む動画データとバッファメモリに展開されている動画データを結合させる。このとき、メモリ・カード13から取得された動画データの後にバッファメモリに展開されている動画データを結合させる。次に、結合させた動画データを用いて一つの動画ファイルを生成し、メモリ・カード13に記録する。
このとき、メモリ・カード13から取得した動画データをメモリ・カード13から削除するようにしてもよい。
【0050】
ステップS28で一致していないと判定された場合は、ステップS33に進み、ステップS33で、メモリ・カード13の中に取得していない動画データがあるかどうかを判断し、あると判断した場合には、ステップS25に戻り、メモリ・カード13から新たな動画データを取得し、同じ作業を繰り返す。
ステップS33で、無いと判断された場合には、ステップS34に進み、シャッターボタンが押下されたかどうかを判断する。押下されたと判断された場合には、ステップS36に進み、押下されていないと判断された場合には、ステップS35に進む。
【0051】
ステップS35で、動画像撮影処理が開始されてから、30秒経過したかを判断し、30秒経過したと判断した場合には、ステップS36に進み、30秒経過していないと判断した場合には、ステップS34に戻る。
すなわち、シャッターボタンが押下されるまで、または、動画像撮影処理が開始されてから30秒経過するまでは動画像が撮影され、シャッターボタンが押下されるか、または、動画像撮影処理が開始されてから30秒経過するとステップS36に進み、動画像撮影処理が停止される。
【0052】
ステップS36に進むと、動画像撮影処理を停止し、ステップS37に進み、バッファメモリに展開されている動画データを用いて動画ファイルを生成し、メモリ・カード13に記録する。
すなわち、メモリ・カード13に一連の連続した関連性のある動画データが無いと判断し、撮影された動画データとメモリ・カード13に記憶されている動画データとの動画像編集を行なわずに、撮影された動画像をメモリ・カード13に記憶する。
【0053】
ステップS27で比較し、ステップS28で結合するか否かを判定するのは、第1の実施の形態で説明したように、フレームデータの対象物をそれぞれ特定し、対象物の位置、形状、大きさをそれぞれ比較し、一致するかを判定する。この場合、一致するか否かを判定する判定基準は、予め設定されていてもよく、ユーザが任意に設定することもできる。例えば、位置、形状、大きさが一致すれば一致と判断させたり、形状だけが、又は、別の要件、例えば色彩などが、一致すれば一致と判断させたりすることも可能である。
【0054】
このように、動画撮影処理が開始されると、メモリ・カード13に記録されている動画データを取得し、DRAM10に記憶する。次に、撮影中の動画データの開始フレームデータとメモリ・カード13から取得した動画データの最終フレームデータを取得し、2つのフレームデータを比較する。比較の結果、2つのフレームデータが一致すると判断した場合には、結合と判定する。一致していないと判断した場合には、結合しないと判定し、メモリ・カード13から新たな動画データを取得して、上述した比較、判定を行なう。
結合と判定し、動画撮影が終了した時点で、取得した動画データと、撮影が終わった動画データを結合させる。このとき結合の方法としては、取得した動画データの後に撮影が終わった動画データを結合させる。
【0055】
この結合された動画データは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
このとき、メモリ・カード13から取得した動画データを削除するようにしてもよい。
また、撮影中の動画データとメモリ・カード13に記録されているすべての動画データとが一致していないと判断され、結合しないと判定された場合には、結合作業を行なうことなく、撮影された動画データを単体で、メモリ・カード13に記録する。すなわち、編集作業を行なうことはなく、普通に動画撮影の作業をしたことなる。
これにより、連続性、関連性のある動画像が、撮影中に自動的に編集することができる。
【0056】
以上のように、第2の実施の形態においては、撮影中に編集作業を行なうので、撮影中の映像が、メモリ・カード13に既に記録されている映像と、関連性、連続性のある場合には、自動的に、撮影の終了と共に記録されている映像と撮影を終了した映像を結合させて、一つの動画ファイルとして記録することができる。
また、撮影中に編集作業を行うので、編集作業に伴う手間と時間を無くすことができる。
さらに、一度動画撮影を終了してしまうと、1つの動画ファイルとして記録されてしまうが、すぐに動画撮影を開始すれば、撮影中に編集作業を行うので、記録した動画ファイルのデータと撮影をした動画データが結合されて、一つの動画ファイルとして記録することができる。
【0057】
デジタルカメラによる動画撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに撮影を開始すれば、撮影中に編集作業を行うので、連続性、関連性のある画像を1つの動画ファイルとして記録することができる。
また、ユーザが故意に動画像撮影を終了して、ある程度時間が経過してから、動画像撮影を開始した場合でも、記録されている動画像と撮影中の動画像が、連続性、関連性があれば、撮影中に動画編集作業を行なうので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、定期的に撮影することにより、その都度、景色の移り変わり、植物の成長等が1つの動画ファイルとして記録することができる。
【0058】
(第3の実施の形態)
次に、本発明の第3の実施の形態を説明する。第3の実施の形態の動画編集は、メモリ・カード13に記録された複数の動画データの中で、重複した部分を持つ動画データ、すなわち重複した映像を持つ動画データ同士を、結合させるものである。
この結合の際は、どちらか一方の動画データの重複部分を削除して結合させる。
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラを用いる。
ユーザによりキー入力部7が操作され動画像編集モードに設定されると、DSP/CPU3は、メモリ・カード13に記録されている動画データをカードI/F12、アドレス・データバス9を介してDRAM10に記憶する。ここでは便宜上、2つの動画データしか選択していない。
【0059】
図10は、DRAM10に記憶された2つの動画データを表わしており、図10(a)、(b)の200、400は動画データの開始フレームを表わしており、300、500は動画データの最終フレームを表わしている。そして、動画データは開始フレームと最終フレーム、その間に複数のフレームが存在する。また、tの矢印の方向は、時間の経過を表わしている。
また、図10(a)はDRAM10に記憶された動画データ1を、(b)は動画データ2を表わしている。
【0060】
第3の実施の形態の動画編集を、図11、図12のフローチャートに従いながら説明する。
動画編集モードに設定されると、ステップS51で、メモリ・カード13から動画データ1をファイル単位で取得する。このとき、取得した動画データ1に、動画データ1として取得されたことがわかるように識別記号等を付す。
次いで、ステップS52に進み、動画データ1の最終フレームデータを取得する。次いで、ステップS53に進み、メモリ・カード13から動画データ2をファイル単位で取得する。このとき、取得した動画データに、動画データ1に対する動画データ2として取得されたことがわかるように識別記号等を付す。
次いで、ステップS54で動画データ2の開始フレームデータを取得する。そして、ステップS55に進む。よって、この識別記号に基づいて、動画データ1、動画データ2として取得したかどうかを判断する。
【0061】
ステップS55で、取得した2つのフレームデータを比較し、ステップS56で、比較結果に基づき2つのフレームデータが一致するかどうかを判断する。この比較、判断の方法は第1の実施の形態で述べたとおり、対象物の位置、形状、大きさに基づいて判断させるようにしてもよい。また、色彩その他方法で判断させるようにしてもよい。
【0062】
ステップS56で、一致していないと判断すると、ステップS57に進み、比較した2つのフレームデータの中に動画データ2の最終フレームデータを含んでいるかどうかを判断する。
ステップS57で含んでいないと判断すると、ステップS58に進み、動画データ2の比較されたフレームデータの1つ後のフレームデータを取得し、ステップS55に戻る。すなわち、一致すると判断されるまで、動画データ2のフレームデータを取得し、動画データ2の最終フレームデータまで順次比較される。
ステップS57で2つの比較したフレームデータの中に動画データ2の最終フレームデータを含んでいると判断した場合には、動画データ1と動画データ2は重複している部分が無いと判断し、ステップS64に進んで、現在取得されている動画データ1に対する動画データ2として新たな動画データをメモリ・カード13から取得する。
【0063】
順次比較した結果、ステップS56で一致していると判断された場合には、ステップS59に進む。図10で示す、動画データ1の最終フレーム300と動画データ2のフレーム700のデータ同士が、仮に一致したとする。ステップS59で、2つの比較したフレームデータの中に動画データ2の開始フレームデータがあるかどうかを判断し、あると判断した場合には、ステップS63に進み、無いと判断した場合にはステップS60に進む。
図10の動画データ2のフレーム700の部分は、開始フレームではないので、ステップS59では、含まないと判断されるのでステップS60に進む。
【0064】
ステップS60に進むと、動画データ1の比較したフレームの1つ前のフレームのデータ(フレームデータ)と、動画データ2の比較したフレームの1つ前のフレームデータをそれぞれ取得し、ステップS61で2つのフレームデータを比較する。次いで、ステップS62に進み、2つのフレームデータが比較結果に基づいて一致するかどうかを判断する。一致していないと判断した場合にはステップS64に進み、一致していると判断した場合には、ステップS59に戻り、同じ動作を繰り返す。
【0065】
この動作を繰り返した結果、動画データ1のフレームデータと動画データ2のフレームデータとが、動画データ2の開始フレームまでそれぞれ一致していると判断した場合には、重複したデータがあるので、結合と判定し、ステップS63に進む。
すなわち、図10に示すように、動画データ1の最終フレームデータ300と動画データ2のフレームデータ700が一致し、次に、動画データ1のフレーム300の一つ前のフレームデータと動画データ2のフレーム700の一つ前のフレームデータとが一致し、このように順々に比較した結果、動画データ1のフレームデータ600と動画データ2の開始フレームデータ400まで一致している状態をいう。図10に示す斜線部が一致していると判断されたフレームデータである。
【0066】
一致していないと判断された場合には、動画データ1と動画データ2は重複した部分が無いと判断し、結合しないとの判定をし、ステップS64に進んで、現在取得されている動画データ1に対する動画データ2として、新たな動画データをメモリ・カード13から取得する。
動画データ2の開始フレームデータまで、動画データ1のフレームデータと動画データ2のフレームデータとがそれぞれ一致していると判定された場合は、つまり、ステップS59で動画データ2の開始フレームデータを含むと判断された場合には、動画データ1と動画データ2は重複したデータがあると判断し、結合と判定する。次いで、ステップS63に進む。
【0067】
以上の説明では、重複したデータがある場合を想定して説明しているが、重複したデータが無くても結合と判定する場合もある。
詳しく説明すると、ステップS52で取得した動画データ1の最終フレームデータと、ステップS54で取得した動画データ2の開始フレームデータとを比較した結果(ステップS55)、データ同士が一致した場合には(ステップS56)、一致したフレームデータは、当然に動画データ2の開始フレームデータを含むことになるので、結合と判定する(ステップS59)。
すなわち、第3の実施の形態の発明は、第1の実施の形態の発明を具備するものであり、重複したデータが無くても、連続性、関連性のある動画データは結合と判定される。
【0068】
次にステップS63に進み、動画データ1と動画データ2とを結合させて新たな動画ファイルを生成する。このとき、結合の方法は、動画データ2の重複部分を削除して、動画データ1の後に削除した残りの動画データ2を結合させる。つまり、図13に示す図のようになる。図13の800は動画データ1の開始フレーム200であった部分であり、900は動画データ1のフレーム600であった部分であり、かつ、動画データ2の開始フレーム400とほぼ同じデータを持つフレームである。1000は動画データ1の最終フレーム300であった部分であり、かつ、動画データ2のフレーム700とほぼ同じデータを持つフレームである。1100は動画データ2の最終フレーム500であった部分である。
また、図13の斜線部は、動画データ1と動画データ2とが重複していると判断されたデータを示すものである。
なお、この実施の形態では、動画データ2の重複部分を削除して結合しているが、動画データ1の重複部分を削除して動画データ1と動画データ2とを結合させてもよい。
【0069】
そして、この結合して新たに生成された動画ファイルは、アドレス・データバス9、カードI/F12を介して、メモリ・カード13に記録される。
なお、識別記号等を用いているので、動画データを取得して、比較した場合には、再び同じ動画データを取得して比較することは無いので、重複した作業を行なわないで済み、新たな動画データを生成した場合でも、再び同じ動画データを生成することは無い。
また、この生成された動画ファイルをメモリ・カード13に記憶するときに、動画データ1と動画データ2として取得された動画データ(動画ファイル)をメモリ・カード13から削除するようにしてもよい。
すなわち、動画データ1と動画データ2を取得して、新たな動画データAを生成しても、再び同じ動画データを動画データ1、動画データ2と取得して、同じ動画データAを生成することは無いので、同一の動画データを幾つも生成することは無い。
この作業が済むと、ステップS65に進む。
【0070】
ステップS62で一致していないと判定されるか、または、ステップS57で最終フレームデータを含んでいると判断されると、この動画データ1と動画データ2は重複しているデータが無いと判断して、ステップS64に進む。そして、現在取得されている動画データ1に対する動画データ2として取得されていない動画データが、メモリ・カード13にあるかどうかを判断し、あると判断された場合には、ステップS53に戻り、新たな動画データ2を取得する。ステップS64で、動画データ2として取得されていない動画データが無いと判断された場合には、ステップS65に進む。
ここで、現在取得されている動画データ1に対する動画データ2として既に取得された動画データは再び取得することは無いが、以下で説明するように、動画データ1として新たに動画データが取得されると、メモリ・カード13に記録されている動画データは、すべて動画データ2として取得されていない動画データになる。すなわち、動画データ2として取得されたか否かは、動画データ1を基準に判断する。
【0071】
ステップS65に進むと、動画データ1として取得されていない動画データが、メモリ・カード13にあるかどうかを判断し、あると判断された場合には、ステップS51に戻り、新たな動画データ1を取得する。ステップS65で動画データ1として取得されていない動画データが無いと判断された場合には、動画編集モードを終了する。
なお、動画データ1、動画データ2として取得した否かの判断は、動画データに付された識別記号等に基づいて行なわれるので、再び同じ動画ファイルを取得して、同一の動画データを幾つも生成することはない。
また、ステップS63で新たな動画データを生成した場合には、この生成された動画データも、動画データ1、動画データ2として特定されていない動画データに含まれるので、ステップS63で新たに動画データを生成した場合には、動画編集モードを終了することは無い。これにより、3つ以上の動画データも連続性、関連性がある場合には、1つの動画データに自動編集することができる。
【0072】
このように、動画編集モードに設定されると、メモリ・カード13に記録されている動画データを動画データ1、動画データ2として取得し、DRAM10に記憶する。次いで、DRAM10に動画データ1と動画データ2を記憶すると、動画データ1の最終フレームと動画データ2の開始フレームを取得し、2つのフレームデータを比較する。一致していないと判断された場合には、動画データ2の次のフレームデータを取得し、動画データ1の最終フレームデータと比較する。一致すると判断するまで、動画データ1の最終フレームデータと動画データ2のフレームデータとを比較し続ける。
【0073】
動画データ2の最終フレームデータまで一致していないと判断された場合には、動画データ1と動画データ2は重複している部分がないと判断し、新たな動画データをメモリ・カード13から動画データ2として取得し、上記した動作を繰り返す。
一致すると判断した場合には、一致すると判断された動画データ1の最終フレームデータと動画データ2のフレームデータを基準に、一つ前のフレームデータを動画データ1、動画データ2からそれぞれ取得して比較し一致するか否かを判定する。一致すると判断されると、さらに一つ前のフレームデータを、動画データ1、動画データ2からそれぞれ取得比較し、一致するか判断する。この比較判断は、動画データ2の開始フレームデータまで続ける。しかし、一回でも一致していないと判定したら動画データ1と動画データ2は重複する部分はないと判断し、新たな動画データをメモリ・カード13から動画データ2として取得し、上記した動作を繰り返す。
【0074】
比較し判断した結果、動画データ1の最終フレームデータと一致していると判定された動画データ2のフレームデータから動画データ2の開始フレームデータまでの各フレームデータと、動画データ1の各フレームデータとが一致していると判定した場合には、動画データ1と動画データ2は重複しているデータがあると判断し、動画データ1と動画データ2を結合させる。このとき動画データ2の重複した部分を削除して、動画データ1と削除した残りの動画データ2を結合させる。
結合した動画データに基づいて、新たな動画ファイルを生成し、メモリ・カード13に記録する。
なお、動画データ1の重複した部分を削除して、動画データ1と動画データ2とを結合するようにしてもよい。
このとき、動画データ1と動画データ2をメモリ・カード13から削除するようにしてもよい。
これにより、重複した動画データを含む動画データ同士を結合させるので、連続性、関連性のある動画像が、1つの動画ファイルとして編集される。
また、動画データ1と動画データ2とが重複したデータを持たなくても、動画データ1の最終フレームデータと動画データ2の開始フレームデータとが一致していれば、結合されるので、連続性、関連性のある動画像が、1つの動画ファイルとして編集される。
【0075】
以上のように、第3の実施の形態においては、重複したデータを含む動画データ同士を、自動的に編集するので、連続性、関連性のある動画データを1つの動画ファイルとして生成することができる。
また、重複しているデータがあるかどうかを自動的に判断してくれるので、編集作業に伴う手間と時間を大幅に減少させることができる。
さらに、複数のデジタルカメラ等で同時に同じ場所で撮影した複数の動画ファイルは、重複したデータを有する可能性が高く、かかる場合も、自動的に編集することができる。
加えて、動画ファイルの編集をパソコン等で行なうことにより、データ容量の大きい複数の動画データを簡易に自動編集することができる。
重複した動画データを持たなくても、連続性、関連性のある動画ファイル同士を自動的に編集することができるので、多彩な編集が可能となる。
【0076】
なお、この第3の実施の形態では、デジタルカメラを使用して、自動編集を行なっているが、デジタルカメラに限られるものではなく、動画ファイルを記録したメモリ・カード13をパソコン等に読み込ませることにより、パソコン上で自動編集できることは言うまでもない。
また、メモリ・カード13に限らず、インターネット上から取得した動画ファイルをパソコン等にダウンロードすることにより自動的に編集することができるようにしてもよい。
【0077】
本発明は、上記各実施の形態に限定されるものではなく、以下のような変形態様の実施が可能である。
(a)本発明の動画像編集装置は、パソコン等にCCDカメラを取り付けることにより、パソコンで映像を撮像し、パソコン上で動画像の自動編集を行なうものに適用してもよい。
(b)また、本発明の動画像編集装置は、撮影機能を有した携帯電話、時計その他の機器を用いて動画像の自動編集を行なうものに適用してもよい。
【0078】
【発明の効果】
請求項1記載の発明によれば、複数の動画データに、連続性、関連性のある映像が分かれて記録されていても、自動的に連続性、関連性のある動画データを1つの動画データに編集するので、編集作業に伴う手間と、時間を大幅に軽減することができる。
また、一度動画撮影を終了してしまうと、1つの動画データとして記録され、すぐに動画撮影を開始しても動画データは別の動画データとして記録されてしまうが、連続性、関連性のある動画データ同士であれば、ユーザが間違って動画撮影を終了してしまっても、すぐに動画撮影を開始すれば、自動的に一つの動画データに編集してくれる。
さらに、ユーザが故意に動画撮影を終了して、また、新たに動画撮影を開始しても、終了した動画像と開始した動画像が連続性、関連性があれば、自動的に編集してくれるので、例えば、撮影の対象物が風景、景色、植物等の動画像であれば、一つの動画像として編集してくれるので定期的に撮影すれば、景色の移り変わり、植物の成長等が一つの動画データとして編集することができる。
また、動画撮影を開始してから30秒経過すると自動的に動画撮影が終了してしまうが、この場合にも、すぐに撮影を開始すれば、自動的に1つの動画データに編集してくれる。
【0079】
請求項2記載の発明によれば、記録媒体に記録されている動画データを自動で編集してくれるので、デジタルカメラにかぎらず、記録媒体を読み取ることができるものであれば、携帯電話、パソコン等などの機器を用いて自動編集することができる。
また、動画データの編集をパソコン等で行なうことにより、要領の大きい複数の動画データを簡易に自動編集することができる。
請求項3記載の発明によれば、撮影中に編集作業を行なうので、撮影中の映像が、記録媒体に記録されている映像と、関連性、連続性のある場合には、自動的に、撮影の終了と共に記録されている映像と撮影中の映像を結合させて、一つの動画データとして生成することができる。
また、撮影中に編集作業を行うので、編集作業に伴う手間と時間を無くすことができる。
デジタルカメラによる動画撮影は、約30秒経過と同時に動画像撮影が自動的に終了してしまうが、この場合でも、すぐに撮影を開始すれば、撮影中に編集作業を行うので、連続性、関連性のある画像を1つの動画データとして記録することができる。
【0080】
請求項4記載の発明によれば、動画データ1の最終フレームデータと動画データ2の開始フレームデータを比較するので、連続した映像だけを確実に1つの動画データとして、編集することができる。
請求項5記載の発明によれば、フレームデータ同士が所定の範囲内であれば結合と判定するので、確実に連続した映像が1つの動画データとして編集することができる。
請求項6記載の発明によれば、所定の範囲内を、ユーザが任意に設定することができるので、用途に適した編集が可能となる。
請求項7記載の発明によれば、動画データ1の最終フレームの後に動画データ2の開始フレームが来るように編集するので、自然に連続した動画データを生成することができる。
【0081】
請求項8乃至10記載の発明によれば、重複したデータを含む動画データ同士を、自動的に編集するので、連続性、関連性のある動画データを1つの動画データとして生成することができる。
また、重複しているデータがあるかどうかを自動的に判断してくれるので、編集作業に伴う手間と時間を大幅に減少させることができる。
さらに、複数のデジタルカメラ等で同時に同じ場所で撮影した複数の動画データは、重複したデータを有する可能性が高く、かかる場合も、自動的に編集することができる。
加えて、重複した動画データが無くても、連続性、関連性のある動画データであれば、1つの動画データとして自動的に編集することができる。
【0082】
請求項11記載の発明によれば、対象物の位置、形状、大きさを比較するので、フレームデータの比較がより確実にでき、連続したなめらかな映像を自動で編集することができる。
請求項12記載の発明によれば、編集の基となった動画データ1と動画データ2を削除して、編集した動画データを生成するので、重複した動画データを記録媒体に記録しないですみ、同じ編集作業をしないで済む。
【0083】
請求項13記載の発明によれば、プログラムを用いることにより、既存するデジタルカメラ等の画像編集装置によって、本発明を実施することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態のデジタルカメラのブロック図である。
【図2】動画撮影モードの動作を示すフローチャートである。
【図3】動画データの構成を示す図である。
【図4】動画像編集モードの動作を示すフローチャートである。
【図5】動画データの編集後の構成を示す図である。
【図6】動画編集モードの比較、判断のサブルーチンを示すフローチャートである。
【図7】動画データのフレーム画像を示す図である。
【図8】動画撮影モードの動作を示すフローチャートである。
【図9】動画撮影モードの動作を示すフローチャートである。
【図10】動画データの構成を示す図である。
【図11】動画像編集モードの動作を示すフローチャートである。
【図12】動画像編集モードの動作を示すフローチャートである。
【図13】動画データの編集後の構成を示す図である。
【符号の説明】
1 デジタルカメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
8 音声処理部
9 データバス
10 DRAM
11 内蔵フラッシュメモリ
12 インターフェイス
13 メモリ・カード
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image editing apparatus and a program thereof, and more particularly, to a moving image editing apparatus that performs an editing operation on a plurality of moving image data.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a digital camera is a typical moving image photographing apparatus. Unlike the conventional silver halide camera, the digital camera can perform digital image processing on image data captured during or after capturing, unlike conventional silver halide cameras.
Further, not only still images but also moving images can be captured due to performance improvements due to increases in processing speed, storage capacity, and the like.
If there are two captured video files (hereinafter referred to as video file 1 and video file 2), the user may want to create a video file by combining video file 1 and video file 2. In such a case, the moving image file 1 and the moving image file 2 are simply combined as they are, or the moving image is edited, and a scene change effect is provided between the moving image file 1 and the moving image file 2 to manually change the moving image file. You are joining.
[0003]
Further, the following patent publication discloses an image processing system for automatically editing a moving image. This image processing system generates management information for associating information for identifying the location of moving image data in which a subject is recorded with the time at which the subject was recorded, edits the management information based on the management information, and edits the specific information. This makes it possible to autonomously generate new moving image data consistent with the subject.
[0004]
[Patent Document]
Published Patent Publication JP-A-10-215434 (see paragraphs “0023” and “0028”)
[0005]
[Problems to be solved by the invention]
However, in the conventional digital camera, one moving image file is generated when the moving image shooting is completed, and thus has the following problems. (1) If the user ends the moving image shooting by mistake, even if the moving image shooting is started immediately, the moving image is recorded as another file. Had to be edited in.
(2) In addition, when a moving image is shot with a digital camera, the shooting is stopped in about 30 seconds. Therefore, even when a series of related moving images is shot, a plurality of moving images There was a drawback that it was recorded as a file.
(3) Even if the editing operation is performed, when there are a plurality of moving image files, it takes time and effort, so that the editing operation is difficult.
In addition, such a problem cannot be solved by the technique disclosed in the above-mentioned patent document.
[0006]
Therefore, the present invention has been made in view of such a conventional problem, and provides a moving image editing apparatus and a program for automatically editing a plurality of related moving image data as one moving image data. The purpose is to do.
[0007]
[Means for Solving the Problems]
To achieve the above object, the moving image editing apparatus according to the first aspect of the present invention includes a first moving image data acquisition unit that acquires first moving image data,
Second moving image data acquisition means for acquiring second moving image data;
Comparing means for comparing the first moving image data with the second moving image data;
Determining means for determining whether or not to combine the first moving image data and the second moving image data based on a comparison result of the data by the comparing means;
A combination unit that combines the first moving image data and the second moving image data into one moving image data when the combination is determined by the determination unit; .
[0008]
Further, for example, as described in claim 2, the first moving image data acquiring unit and the second moving image data acquiring unit are configured to acquire moving image data from a recording medium capable of recording moving image data. Is also good.
Further, for example, as described in claim 3, the moving image editing apparatus includes:
A moving image editing apparatus capable of photographing an object to be photographed,
The first moving image data acquiring unit may acquire moving image data from the recording medium, and the second moving image data acquiring unit may acquire photographed moving image data.
[0009]
Further, as described in claim 4, the comparing means includes:
The data of the last frame of the first moving image data may be compared with the data of the start frame of the second moving image data.
Further, as set forth in claim 5, the determining means includes:
If it is determined based on the comparison result by the comparing means that the moving image data are within a predetermined range, it may be determined that the moving image data is combined.
Further, as set forth in claim 6, the predetermined range may be arbitrarily set by a user.
In addition, as described in claim 7, when the combining unit determines that the combination is determined by the determination unit, the combining unit adds the second moving image data after the last frame data of the first moving image data. The start frame data may be combined to edit one moving image data.
[0010]
Further, for example, as set forth in claim 8, the comparing means sequentially converts each frame data of the first moving image data and each frame data of the second moving image data for each frame data. You may make it compare.
In addition, as set forth in claim 9, the determining means includes:
If it is determined based on the comparison result by the comparing means that there is data overlapping the first moving image data and the second moving image data, it may be determined that the data is combined.
Further, as set forth in claim 10, the coupling means includes:
When it is determined by the determining means that the second moving image data is combined, the overlapping portion of the second moving image data is deleted, and after the last frame data of the first moving image data, the remaining second moving image data is deleted. May be combined into one moving image data.
[0011]
Further, for example, as described in claim 11, when comparing by the comparing means, the position, shape, or size of the object shown in the frame data to be compared may be compared. Good.
Further, as described in claim 12, when combined by the combining means, the combined moving image data is recorded on a recording medium, and the acquired moving image data to be combined is deleted from the recording medium. You may make it.
[0012]
A program according to the invention of claim 13 includes a process of acquiring first moving image data;
A process of obtaining second video data;
Comparing the first video data with the second video data;
A process of determining whether or not to combine the first moving image data and the second moving image data, based on a comparison result of the data by the comparing unit;
When the combination is determined by this processing, the first moving image data and the second moving image data are combined to edit one moving image data;
Is executed by a computer to edit a moving image.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings as an example in which the present invention is applied to a digital camera.
[0014]
(First Embodiment)
FIG. 1 is a block diagram illustrating a schematic configuration of the digital camera 1. The digital camera 1 constitutes a moving image editing apparatus, and has a CCD 2 and a DSP / CPU 3.
The DSP / CPU 3 is a one-chip microcomputer that has various digital signal processing functions including image data compression / decompression and audio data processing, and controls each unit of the digital camera 1. In particular, a moving image file recorded on the memory card 13, that is, moving image data is obtained via the interface 12 and the data bus 9 and stored in the DRAM 10. This function corresponds to moving image data acquisition means. The moving image data acquiring means acquires first moving image data (hereinafter, moving image data 1) and second moving image data (hereinafter, moving image data 2) from the memory card 13. Note that the moving image data 1 and the moving image data 2 are arbitrarily acquired. At this time, an identification symbol is attached to the obtained moving image data so that it can be understood that the moving image data has been obtained as the moving image data 1 and the moving image data 2.
[0015]
Further, the DSP / CPU 3 compares the acquired moving image data with each other. At this time, the last frame data of the moving image data 1 and the start frame data of the moving image data 2 may be compared, and the position, shape, and size of the object in the frame data may be compared. This function corresponds to a comparison unit.
Then, the DSP / CPU 3 determines whether or not the contents of the two frame data match based on the result of the comparison. Perform This function corresponds to a determination unit.
[0016]
Further, when the combination is determined, the DSP / CPU 3 combines the moving image data 1 and the moving image data 2 stored in the DRAM 10. At this time, the moving image data 2 is combined after the moving image data 1, and this function corresponds to a combining unit. The combined moving image data is recorded as one moving image file on the memory card 13 via the data bus 9 and the interface 12. At this time, the DSP / CPU 3 deletes the moving image data 1 and the moving image data 2 recorded on the memory card 13.
[0017]
The DSP / CPU 3 is connected to a TG (Timing Generator) 4 for driving the CCD 2, and the TG 4 is connected to a unit circuit 5 for inputting an analog imaging signal corresponding to an optical image of a subject output from the CCD 2. Have been. The unit circuit 5 includes a CDS (Correlated Double Sampling) circuit that samples and holds a correlated double signal of an image signal output from the CCD 2, a gain adjustment amplifier (AGC) that amplifies the image signal, and digitally converts the image signal after amplification. It comprises an A / D converter (AD) for converting the signal into a signal. The output signal of the CCD 2 is sent to the DSP / CPU 3 as a digital signal via the unit circuit 5.
[0018]
The DSP / CPU 3 is connected to a display device 6, a key input unit 7, a voice processing unit 8, and a DRAM 10, a built-in flash memory 11, and a card interface 12 via an address / data bus 9. A detachable memory card 13 mounted on a throttle (not shown) of the main body of the digital camera 1 is connected to the card interface 12.
[0019]
The display device 6 includes a color LCD and its driving circuit, displays a subject image captured by the CCD 2 as a through image when in a shooting standby state, and reads out a recorded image from a memory card 13 as a storage memory when reproducing a recorded image. The expanded recorded image is displayed. The key input unit 7 includes a plurality of operation keys such as a shutter button, a recording start / end button used for moving image shooting, a power key, and a MENU key, and outputs a key input signal corresponding to a key operation by a user to the DSP / CPU 3. I do.
[0020]
The audio processing unit 8 includes a built-in microphone, an amplifier, an A / D converter, a built-in speaker, a D / A converter, and the like, and converts a sound input to the built-in microphone into a digital signal when capturing a still image or a moving image with sound. Convert and send to DSP / CPU3. The audio data sent to the DSP / CPU 3 is sequentially stored in the DRAM 10 and finally stored in the memory card 13 together with the image data generated by the DSP / CPU 3. When a still image or a moving image with sound is reproduced, the sound processing unit 8 reproduces sound based on sound data attached to each image and outputs the sound from the built-in speaker. In addition, various kinds of notification sounds are emitted from the built-in speaker as needed.
[0021]
The DRAM 10 is also used as a buffer memory for temporarily storing digitized image data of a subject after being imaged by the CCD 2 and a working memory of the DSP / CPU 3, and stores a moving image file recorded on the memory card 13 into a card. The data is stored via the I / F 12 and the address / data bus 9, and the processing required for the editing operation is performed.
[0022]
The built-in flash memory 11 acquires a moving image file from the memory card 13, ie, a control program required for controlling each unit by the DSP / CPU 3, edits work, compares moving image files, and determines whether or not to combine the files. A program necessary for various controls including a program for coupling and the like, and data necessary for each control are stored, and the DSP / CPU 3 operates according to the program.
[0023]
That is, the DSP / CPU 3, the address / data bus 9, the card I / F 12, the memory card 13, the DRAM 10, and the built-in flash memory 11 constitute a first moving image data acquiring unit and a second moving image data acquiring unit. , Address / data bus 9, DRAM 10, and built-in flash memory 11 constitute comparison means, determination means, and coupling means.
[0024]
Next, the operation of the digital camera 1 having the above configuration will be described. FIG. 2 is a flowchart showing a processing procedure of the DSP / CPU 3 when the user sets the moving image shooting mode.
When the user operates the key input unit 7 to set the moving image shooting mode, the scenery and scenery to be shot can be shot with a digital camera, and the shot image can be recorded on a memory card or the like.
[0025]
When the moving image shooting mode is set, the DSP / CPU 3 starts shooting with the CCD 2 and displays a through image of the subject on the display device 6 (step S1).
The through image means that the object imaged by the CCD 2 is stored in the DRAM 10, the stored image is displayed on a display screen, and the image captured by the CCD 2 is changed to update the image stored in the DRAM 10. That is, the image displayed on the display screen also changes. In the through display state, the video stored in the DRAM 10 is displayed as it is, but the video data is not stored in the memory card 13 because the video data is not recorded on the memory card 13.
Next, when it is determined that the user has pressed the shutter button while the through image is displayed (step S2), a moving image (moving image frame) is captured at a predetermined frame rate (1/30 second fixed period). The moving image photographing process to be stored is started (step S3). Until the shutter button is pressed, the process remains at step S2 and the through display is continued.
[0026]
If the shutter button is pressed (step S4) or if 30 seconds have elapsed since the start of the moving image shooting process (step S5), the moving image shooting process is stopped (step S6), and the buffer memory (DRAM 10 ) A moving image file is generated using the moving image data developed above and stored in the memory card 13 (step S7). Then, the process returns to step S1.
By repeating this operation, moving image files are sequentially recorded on the memory card 13, and the plurality of moving image files are recorded on the memory card 13. The moving image file recorded on the memory card 13 becomes moving image data 1 and moving image data 2 to be edited later.
If the shutter button is not pressed in step S4 and 30 seconds have not elapsed since the start of the moving image shooting process (NO in step S5), the process returns to step S4, and the moving image shooting process is performed until the shutter button is pressed or 30 seconds elapse. Is continued.
[0027]
Next, editing of the moving image file stored in the memory card 13 will be described. When editing a video file, if one continuous video is divided into a plurality of video files and recorded, the video files with the continuity are automatically combined and edited into one video file. Is what you do.
When the user operates the key input unit 7 to set the moving image editing mode, the moving image data recorded on the memory card 13 is transmitted by the DSP / CPU 3 via the card I / F 12 and the address data bus 9. And stored in the DRAM 10. Here, the moving image data stored in the DRAM 10 is selected by the DSP / CPU 3. Here, only two pieces of moving image data are selected for convenience.
[0028]
FIG. 3 shows moving image data stored in the DRAM 10. In FIGS. 3A and 3B, reference numerals 20 and 40 denote start frames of the moving image data, and reference numerals 30 and 50 denote final frames. The moving image data has a start frame and an end frame, and a plurality of frames exist between them. The direction of the arrow t indicates the passage of time.
[0029]
FIG. 3A shows the moving image data 1 stored in the DRAM 10, and FIG. 3B shows the moving image data 2.
3A shows an image of the data of the last frame of the moving image data 1 (hereinafter, frame data), and 70 in FIG. 3B shows the starting frame data of the moving image data 2. It shows an image.
In the last frame data of the moving image data 1 and the start frame data of the moving image 2, an image composed of the mountain 100, the house 110, and the boundary 120 between the mountain and the earth appears.
As the moving image data 2, moving image data whose shooting time is closest to the moving image data 1 and moving image data shot after the shooting time of the moving image data 1 may be selected.
[0030]
Next, moving image editing will be described based on the flowchart of FIG.
When the moving image editing mode is set, the moving image data 1 is acquired from the memory card 13 in step S11. At this time, an identification symbol or the like is attached to the obtained moving image data so that it can be seen that the moving image data has been obtained as moving image data 1. Next, the final frame data of the moving image data 1 obtained in step S12 is obtained.
Next, the moving image data 2 is acquired in step S13. At this time, an identification symbol or the like is attached to the acquired moving image data so that it can be seen that the moving image data 1 has been acquired as the moving image data 2 for the currently acquired moving image data 1. The start frame of the moving image data 2 obtained in step S14 is obtained. Therefore, it is determined whether or not they have been acquired as the moving image data 1 and the moving image data 2 based on the identification symbols.
[0031]
The final frame data of the moving image data 1 and the start frame data of the moving image data 2 acquired in step S15 are compared. If it is determined in step 16 that they do not match, it is determined that they are not combined, and the process proceeds to step 18. If it is determined in step S16 that they match, it is determined that they are combined.
For example, the moving image data shown in FIGS. 3A and 3B are determined to be combined because the last frame data 30 of the moving image data 1 and the start frame data 50 of the moving image data 2 match.
[0032]
If it is determined in step S16 that the moving image data is combined, the process proceeds to step S17, and the moving image data 2 is combined after the moving image data 1. FIG. 5 shows the combined moving image data, where 80 is the last frame 30 of the moving image data 1 and 90 is the start frame 50 of the moving image data 2.
The combined moving image data is recorded on the memory card 13 via the address data bus 9 and the card I / F 12 as a new moving image file.
In addition, since the identification symbols and the like are used, when moving image data is acquired and compared, the same moving image data is not acquired again and compared. Even when moving image data is generated, the same moving image data is not generated again.
When the generated moving image file is stored in the memory card 13, the moving image data (moving image file) acquired as the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
That is, even if the moving image data 1 and the moving image data 2 are acquired and the new moving image data A is generated, the same moving image data is acquired again as the moving image data 1 and the moving image data 2 and the same moving image data A is generated. Therefore, there is no generation of the same moving image data.
[0033]
If it is determined in step S16 that the moving images are not to be combined, the process proceeds to step S18, and it is determined whether moving image data not acquired as moving image data 2 with respect to the currently acquired moving image data 1 is present on the memory card 13. If it is determined that there is a moving image data, the process returns to step S13, and the moving image data not obtained as the moving image data 2 for the currently obtained moving image data 1 is newly obtained from the memory card 13. If it is determined that there is not, the process proceeds to step S19.
Here, the moving image data already acquired as the moving image data 2 with respect to the currently acquired moving image data 1 is not acquired again, but as described below, the moving image data is newly acquired as the moving image data 1. Then, the moving image data recorded on the memory card 13 becomes moving image data that is not all acquired as the moving image data 2. That is, whether or not the moving image data 2 has been acquired is determined based on the moving image data 1.
[0034]
In step S17, a moving image file is generated, or in step S18, when it is determined that there is no moving image file, the process proceeds to step S19, and it is determined whether moving image data not acquired as moving image data 1 exists in the memory card 13. If it is determined that there is, the process returns to step S11, acquires new moving image data from the memory card 13, and repeats the same operation. If it is determined that there is no moving image, the moving image editing mode is ended. Since the determination as to whether or not the video data has been obtained as the video data 1 and the video data 2 is made based on the identification symbol or the like attached to the video data, the same video file is obtained again and the same video data is generated several times. Is not generated.
When new moving image data is generated in step S17, the generated moving image data is also included in moving image data not specified as moving image data 1 and moving image data 2. Is generated, the moving image editing mode is not ended. Thereby, when three or more moving image data also have continuity and relevance, it can be automatically edited into one moving image data.
[0035]
Next, how the comparison is made in step S15 and the determination is made in step 16 will be described with reference to FIGS.
FIG. 6 is a diagram showing a subroutine of the comparing means in step S15 and the determining means in step S16 in FIG.
FIGS. 7A, 7B, and 7C show images of frame data of a moving image file.
The image of the frame data in FIG. 7 is composed of a mountain 100, a house 110, and a boundary 120 between the mountain and the earth, and FIGS. 7A, 7B, and 7C are all the same object. , The place where the picture was taken is different.
[0036]
In step S101 in FIG. 6, the objects of the last frame data of the moving image data 1 and the start frame data of the moving image data 2 are specified. FIGS. 7D, 7E, and 7F show the specified object. Then, in step S102, the position, shape, and size of the target are acquired. In this case, the position, shape, and size of each of the mountain and the house are specified.
Next, in step S103, the position, shape, and size of each object, that is, the final frame data of the moving image data 1 and the start frame data of the moving image data 2, are compared.
[0037]
Next, as a result of comparing the positions of the objects in step S104, if it is determined that they match, the process proceeds to step S105, and if it is determined in step S105 that the shapes of the objects match, it is determined that they match. Proceeds to step S106, and if it is determined in step S106 that the sizes of the objects match, the process proceeds to step S107 to determine the combination. Then, the process proceeds to step S17 in FIG. If it is determined in steps S104 to S106 that at least one of the position, shape, and size of the object does not match, the process proceeds to step 18 in FIG.
[0038]
Assuming that FIG. 7A is an image of the last frame data of the moving image data 1 and FIG. 7B is an image of the starting frame data of the moving image data 2, the last frame data of the moving image data 1 and the start of the moving image data 2 are assumed. In the frame data, the position, shape, and size of the mountain match, and the shape and size of the house also match. However, since the position of the house is different, it is not determined to be combined.
Note that the position, shape, and size of the target object do not need to be completely the same. This matching range may be set in advance, or may be arbitrarily set by the user. Also, weighting may be performed by changing the range of coincidence of the position, shape, and size of the object. For example, if the range of coincidence with respect to the position of the target object is widened or the determination regarding the position of the target object is not performed, FIG. 7A and FIG. Become. If the shapes match, it may be determined that they match, or the determination may be made based on a criterion different from the determination criterion of the position, shape, and size, for example, color.
[0039]
As described above, when the moving image editing mode is set, the moving image data recorded on the memory card 13 is acquired as the moving image data 1 and the moving image data 2 and stored in the DRAM. Next, when the moving image data 1 and the moving image data 2 are stored in the DRAM 10, the last frame of the moving image data 1 and the start frame of the moving image data 2 are obtained, and the two frame data are compared. Then, as a result of the comparison, when it is determined that the two frame data match, it is determined that the moving image data 1 and the moving image data 2 are combined.
Next, the moving image data 1 and the moving image data 2 stored in the DRAM 10 are combined. At this time, as a method of combining, the moving image data 2 is combined after the moving image data 1.
Next, the combined moving image data is recorded on the memory card 13 via the address / data bus 9 and the card I / F 12.
As a result, a moving image having continuity and relation is automatically edited as one moving image file.
[0040]
As described above, in the first embodiment, even if the continuity and the related video are separately recorded in a plurality of moving image files, the continuity and the relevant moving image file are automatically recorded. Since editing is performed for one moving image file, the labor and time involved in the editing operation can be significantly reduced.
Also, once the moving image shooting is completed, the moving image data is recorded as one moving image file. Even if the moving image shooting is started immediately, the moving image data is recorded as another moving image file. Even if the user mistakenly ends moving image shooting between moving image files, if moving image shooting is started immediately, the moving image file is automatically edited into one moving image file.
Furthermore, even if the user intentionally ends the moving image shooting and starts a new moving image shooting, if the finished moving image and the started moving image have continuity and relevance, they are automatically edited. For example, if the object to be photographed is a moving image of a landscape, scenery, plant, etc., it will be edited as a single moving image, so if you shoot regularly, the scenery changes, plant growth, etc. Can be edited as a single video file.
[0041]
When shooting a moving image with a digital camera, the moving image shooting automatically ends as soon as about 30 seconds have elapsed. Even in this case, if the moving image shooting is started immediately, the continuity and related images are reduced to one. Can be edited as a single video file.
In addition, by editing a video file on a personal computer or the like, multiple video data with a large data volume can be easily and automatically edited. If there is continuity and relevance, it can be edited as one moving image file.
[0042]
In the first embodiment, automatic editing is performed using a digital camera. However, the present invention is not limited to a digital camera, and a personal computer or the like can read a memory card 13 storing a moving image file. Needless to say, this allows automatic editing on a personal computer.
Also, the present invention is not limited to the memory card 13, and a moving image file obtained from the Internet may be automatically edited by downloading it to a personal computer or the like.
[0043]
(Second embodiment)
Next, a second embodiment of the present invention will be described. In the moving image editing according to the second embodiment, the moving image data recorded on the memory card 13 and the moving image data currently being photographed, that is, the already recorded image and the photographed image When it is determined that the moving image data has a characteristic, the recorded moving image data and the moving image data that has just been shot are combined at the same time as the end of the moving image shooting, and are recorded on the memory card 13 as one moving image data. is there.
Therefore, in the second embodiment, since the editing operation is performed during shooting, a moving image editing mode is not required.
The second embodiment also uses a digital camera having a configuration similar to that shown in FIG.
The DSP / CPU 3 stores the digitized image data of the subject in the DRAM 10 after being imaged by the CCD 2, and this function corresponds to a photographed moving image data acquisition unit.
The other functions are the same as those of the first embodiment, and the description is omitted.
[0044]
Moving image editing according to the second embodiment will be described with reference to the flowcharts in FIGS.
When the user operates the key input unit 7 to set the moving image shooting mode, shooting by the CCD is started in step S21, and a through display of the subject is displayed on the display device 6. If it is determined in step S22 that the shutter button has been pressed by the user in the through display state, the flow advances to step S23 to capture and store a moving image (moving image frame) at a predetermined frame rate (fixed cycle of 1/30 second). The moving image shooting process to be performed is started. If it is determined in step S22 that the shutter button has not been pressed, the process remains in step S22 and the through display continues until the shutter button is pressed.
[0045]
In step S24, start frame data at the time of starting the moving image photographing process is obtained. Next, moving image data is acquired from the memory card 13 in step S25. At this time, an identification symbol or the like is attached to the acquired moving image data so that the acquired moving image data can be recognized. Next, the final frame data of the moving image data obtained in step 26 is obtained. Therefore, it can be determined whether or not the acquired moving image data is based on the identification symbol.
When a new moving image shooting is started, the identification symbol is deleted.
[0046]
In step S27, the start frame data at the time of starting the photographing is compared with the last frame data of the moving image data acquired from the memory card 13, and in step S28, it is determined whether or not the two data match. The matching range may be set in advance, or may be set arbitrarily by the user. If it is determined that they match, it is determined that they are combined, and the process proceeds to step S29. If it is determined that they do not match, it is determined that they are not combined and the process proceeds to step S33.
[0047]
If it is determined that the shutter button is pressed in step S28 and the process proceeds to step S29, it is determined whether or not the shutter button has been pressed. If it is determined that the shutter button has been pressed, the process proceeds to step S31. Proceed to. In step S30, it is determined whether 30 seconds have elapsed since the start of the moving image photographing process. If it has elapsed, the process proceeds to step S31, and if it is determined that it has not elapsed, the process returns to step S29.
[0048]
That is, until the shutter button is pressed or until 30 seconds have elapsed since the start of the moving image shooting process, the moving image is shot and the shutter button is pressed or the moving image shooting process starts. If 30 seconds have passed since then, the process proceeds to step S31, and the moving image shooting process is stopped.
[0049]
When the moving image shooting process is stopped in step S31, the process proceeds to step S32, in which moving image data including the last frame data acquired from the memory card 13 stored in the DRAM 10 and determined to match in step S28. And the moving image data developed in the buffer memory. At this time, the moving image data expanded in the buffer memory after the moving image data acquired from the memory card 13 is combined. Next, one moving image file is generated using the combined moving image data, and recorded on the memory card 13.
At this time, the moving image data acquired from the memory card 13 may be deleted from the memory card 13.
[0050]
If it is determined in step S28 that they do not match, the process proceeds to step S33. In step S33, it is determined whether or not there is moving image data that has not been acquired in the memory card 13. Returns to step S25, acquires new moving image data from the memory card 13, and repeats the same operation.
If it is determined in step S33 that there is no shutter button, the process advances to step S34 to determine whether the shutter button has been pressed. If it is determined that the button has been pressed, the process proceeds to step S36. If it is determined that the button has not been pressed, the process proceeds to step S35.
[0051]
In step S35, it is determined whether 30 seconds have elapsed since the start of the moving image shooting processing. If it is determined that 30 seconds have elapsed, the process proceeds to step S36, and if it is determined that 30 seconds have not elapsed. Returns to step S34.
That is, a moving image is shot until the shutter button is pressed or until 30 seconds have elapsed since the start of the moving image shooting process, and the shutter button is pressed or the moving image shooting process is started. If 30 seconds have passed since then, the process proceeds to step S36, and the moving image shooting process is stopped.
[0052]
In step S36, the moving image photographing process is stopped. In step S37, a moving image file is generated using the moving image data developed in the buffer memory, and is recorded on the memory card 13.
That is, it is determined that the memory card 13 does not have a series of continuously related moving image data, and the moving image data of the captured moving image data and the moving image data stored in the memory card 13 are not edited. The captured moving image is stored in the memory card 13.
[0053]
The comparison in step S27 and the determination as to whether or not to combine in step S28 are performed by specifying the target of the frame data and determining the position, shape, and size of the target, as described in the first embodiment. Are compared to determine whether they match. In this case, the criterion for determining whether or not they match may be set in advance, or may be arbitrarily set by the user. For example, it is also possible to judge a match if the position, shape, and size match, or to judge a match if only the shape or another requirement, such as a color, matches.
[0054]
As described above, when the moving image photographing process is started, the moving image data recorded on the memory card 13 is acquired and stored in the DRAM 10. Next, the start frame data of the moving image data being captured and the last frame data of the moving image data obtained from the memory card 13 are obtained, and the two frame data are compared. As a result of the comparison, when it is determined that the two frame data match, it is determined that the two frame data are combined. When it is determined that they do not match, it is determined that they are not combined, new moving image data is acquired from the memory card 13, and the above-described comparison and determination are performed.
It is determined that the moving image data has been combined, and when the moving image shooting is completed, the acquired moving image data is combined with the captured moving image data. At this time, as a combining method, the acquired moving image data is combined with the captured moving image data.
[0055]
The combined moving image data is recorded on the memory card 13 via the address data bus 9 and the card I / F 12.
At this time, the moving image data acquired from the memory card 13 may be deleted.
If it is determined that the moving image data being shot does not match all the moving image data recorded on the memory card 13 and it is determined that the moving image data is not to be combined, the moving image data is captured without performing the combining operation. The moving image data alone is recorded on the memory card 13. In other words, the editing work is not performed, and the work of shooting a moving image is performed normally.
Thus, a continuous and related moving image can be automatically edited during shooting.
[0056]
As described above, in the second embodiment, since the editing operation is performed during shooting, the video being shot has relevance and continuity with the video already recorded on the memory card 13. In this case, the video recorded at the end of shooting and the video whose shooting has been completed can be automatically combined and recorded as one moving image file.
Further, since the editing work is performed during shooting, the trouble and time involved in the editing work can be eliminated.
Further, once movie shooting is completed, the movie file is recorded as one movie file. However, if movie movie shooting is started immediately, editing work will be performed during shooting. The combined moving image data can be combined and recorded as one moving image file.
[0057]
When shooting a moving image with a digital camera, the moving image shooting automatically ends as soon as about 30 seconds elapse, but even in this case, if shooting is started immediately, editing work is performed during shooting, so continuity, Relevant images can be recorded as one moving image file.
Even if the user intentionally ends moving image shooting and starts moving image shooting after a certain period of time, the recorded moving image and the moving image being shot still have continuity and relevance. If there is a video editing work during shooting, for example, if the shooting target is a moving image such as landscape, scenery, plants, etc., by shooting regularly, the scenery changes, plants Can be recorded as one moving image file.
[0058]
(Third embodiment)
Next, a third embodiment of the present invention will be described. The moving image editing according to the third embodiment combines moving image data having an overlapping portion, that is, moving image data having an overlapping video among a plurality of moving image data recorded on the memory card 13. is there.
In this connection, the overlapping part of either one of the moving image data is deleted and combined.
The third embodiment also uses a digital camera having a configuration similar to that shown in FIG.
When the user operates the key input unit 7 to set the moving image editing mode, the DSP / CPU 3 transfers the moving image data recorded on the memory card 13 to the DRAM 10 via the card I / F 12 and the address data bus 9. To memorize. Here, only two pieces of moving image data are selected for convenience.
[0059]
FIG. 10 shows two pieces of moving image data stored in the DRAM 10, 200 and 400 in FIGS. 10A and 10B show start frames of the moving image data, and 300 and 500 show the last frames of the moving image data. Represents a frame. The moving image data has a start frame and an end frame, and a plurality of frames exist between them. The direction of the arrow t indicates the passage of time.
10A shows the moving image data 1 stored in the DRAM 10, and FIG. 10B shows the moving image data 2.
[0060]
The moving image editing according to the third embodiment will be described with reference to the flowcharts of FIGS.
When the moving image editing mode is set, the moving image data 1 is acquired from the memory card 13 in file units in step S51. At this time, an identification symbol or the like is attached to the acquired moving image data 1 so that it can be recognized that the moving image data 1 has been acquired.
Next, the process proceeds to step S52 to acquire the last frame data of the moving image data 1. Next, the process proceeds to step S53, where the moving image data 2 is acquired from the memory card 13 in file units. At this time, an identification symbol or the like is attached to the acquired moving image data so that it can be understood that the moving image data 1 has been acquired as the moving image data 2.
Next, in step S54, start frame data of the moving image data 2 is obtained. Then, the process proceeds to step S55. Therefore, it is determined whether or not they have been acquired as the moving image data 1 and the moving image data 2 based on the identification symbols.
[0061]
In step S55, the obtained two frame data are compared, and in step S56, it is determined whether or not the two frame data match based on the comparison result. As described in the first embodiment, the method of comparison and determination may be made based on the position, shape, and size of the object. Further, the determination may be made by a color or other method.
[0062]
If it is determined in step S56 that they do not match, the process proceeds to step S57, and it is determined whether or not the compared two frame data includes the last frame data of the moving image data 2.
If it is determined in step S57 that the moving image data 2 is not included, the process proceeds to step S58 to acquire the frame data immediately after the compared frame data of the moving image data 2 and returns to step S55. That is, the frame data of the moving image data 2 is acquired until it is determined that they match, and the frame data of the moving image data 2 is sequentially compared to the last frame data.
If it is determined in step S57 that the two compared frame data include the last frame data of the moving image data 2, it is determined that the moving image data 1 and the moving image data 2 have no overlapping portion. Proceeding to S64, new moving image data is acquired from the memory card 13 as moving image data 2 for the currently acquired moving image data 1.
[0063]
As a result of the sequential comparison, if it is determined that they match in step S56, the process proceeds to step S59. It is assumed that the data of the last frame 300 of the moving image data 1 and the data of the frame 700 of the moving image data 2 shown in FIG. In step S59, it is determined whether or not the start frame data of the moving image data 2 is present in the two compared frame data. Proceed to.
Since the frame 700 of the moving image data 2 in FIG. 10 is not the start frame, it is determined in step S59 that it does not include the frame 700, and the process proceeds to step S60.
[0064]
In step S60, the data (frame data) of the frame immediately before the compared frame of the moving image data 1 and the frame data of the previous frame of the compared frame of the moving image data 2 are obtained. Compare two frame data. Next, the process proceeds to step S62 to determine whether or not the two frame data match based on the comparison result. If it is determined that they do not match, the process proceeds to step S64. If it is determined that they match, the process returns to step S59 and the same operation is repeated.
[0065]
As a result of repeating this operation, when it is determined that the frame data of the moving image data 1 and the frame data of the moving image data 2 match each other up to the start frame of the moving image data 2, there is duplicate data. Is determined, and the process proceeds to step S63.
That is, as shown in FIG. 10, the last frame data 300 of the moving image data 1 and the frame data 700 of the moving image data 2 match, and then the frame data immediately before the frame 300 of the moving image data 1 and the frame data 700 of the moving image data 2 The frame data immediately before the frame 700 matches, and as a result of the sequential comparison, the frame data 600 of the moving image data 1 and the start frame data 400 of the moving image data 2 match. The frame data shown in FIG. 10 is the frame data determined to match.
[0066]
If it is determined that they do not match, it is determined that the moving image data 1 and the moving image data 2 have no overlapping portion, it is determined that they do not combine, and the process proceeds to step S64, where the currently acquired moving image data New moving image data is acquired from the memory card 13 as moving image data 2 for 1.
When it is determined that the frame data of the moving image data 1 and the frame data of the moving image data 2 match each other up to the start frame data of the moving image data 2, that is, the start frame data of the moving image data 2 is included in step S59. When it is determined that the moving image data 1 and the moving image data 2 are duplicated data, it is determined that they are combined. Next, the process proceeds to step S63.
[0067]
Although the above description has been made on the assumption that there is duplicated data, the combination may be determined even if there is no duplicated data.
More specifically, as a result of comparing the last frame data of the moving image data 1 acquired in step S52 with the start frame data of the moving image data 2 acquired in step S54 (step S55), if the data match (step S55). S56) Since the matching frame data naturally includes the start frame data of the moving image data 2, it is determined that the frame data is combined (step S59).
That is, the invention of the third embodiment includes the invention of the first embodiment. Even if there is no duplicate data, the continuity and related moving image data are determined to be combined. .
[0068]
Next, the process proceeds to step S63, in which the moving image data 1 and the moving image data 2 are combined to generate a new moving image file. At this time, the combining method deletes the overlapping part of the moving image data 2 and combines the remaining moving image data 2 deleted after the moving image data 1. That is, the result is as shown in FIG. In FIG. 13, reference numeral 800 denotes a portion that was the start frame 200 of the moving image data 1, 900 denotes a portion that was the frame 600 of the moving image data 1, and a frame having substantially the same data as the start frame 400 of the moving image data 2. It is. A frame 1000 is the last frame 300 of the moving image data 1 and has substantially the same data as the frame 700 of the moving image data 2. Reference numeral 1100 denotes a portion that was the last frame 500 of the moving image data 2.
The hatched portions in FIG. 13 indicate data for which it is determined that the moving image data 1 and the moving image data 2 overlap.
In this embodiment, the overlapping part of the moving image data 2 is deleted and combined. However, the overlapping part of the moving image data 1 may be deleted and the moving image data 1 and the moving image data 2 may be combined.
[0069]
Then, the moving image file newly generated by the connection is recorded on the memory card 13 via the address / data bus 9 and the card I / F 12.
In addition, since the identification symbols and the like are used, when moving image data is acquired and compared, the same moving image data is not acquired again and compared. Even when moving image data is generated, the same moving image data is not generated again.
When the generated moving image file is stored in the memory card 13, the moving image data (moving image file) acquired as the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
That is, even if the moving image data 1 and the moving image data 2 are acquired and the new moving image data A is generated, the same moving image data is acquired again as the moving image data 1 and the moving image data 2 and the same moving image data A is generated. Therefore, there is no generation of the same moving image data.
When this operation is completed, the process proceeds to a step S65.
[0070]
If it is determined in step S62 that they do not match, or if it is determined in step S57 that the last frame data is included, it is determined that the moving image data 1 and the moving image data 2 have no overlapping data. Then, the process proceeds to step S64. Then, it is determined whether or not moving image data that has not been acquired as moving image data 2 with respect to the currently acquired moving image data 1 is present in the memory card 13. Of moving image data 2 is obtained. If it is determined in step S64 that there is no moving image data that has not been acquired as the moving image data 2, the process proceeds to step S65.
Here, the moving image data already acquired as the moving image data 2 with respect to the currently acquired moving image data 1 is not acquired again, but as described below, the moving image data is newly acquired as the moving image data 1. Then, the moving image data recorded on the memory card 13 becomes moving image data that is not all acquired as the moving image data 2. That is, whether or not the moving image data 2 has been acquired is determined based on the moving image data 1.
[0071]
In step S65, it is determined whether moving image data that has not been acquired as moving image data 1 is present in the memory card 13. If it is determined that there is, moving back to step S51, the new moving image data 1 is deleted. get. If it is determined in step S65 that there is no moving image data that has not been acquired as the moving image data 1, the moving image editing mode ends.
The determination as to whether or not the video data has been obtained as the video data 1 and the video data 2 is made based on the identification symbol or the like attached to the video data. It does not generate.
When new moving image data is generated in step S63, the generated moving image data is also included in moving image data not specified as moving image data 1 and moving image data 2. Is generated, the moving image editing mode is not ended. Thereby, when three or more moving image data also have continuity and relevance, it can be automatically edited into one moving image data.
[0072]
As described above, when the moving image editing mode is set, the moving image data recorded on the memory card 13 is acquired as the moving image data 1 and the moving image data 2 and stored in the DRAM 10. Next, when the moving image data 1 and the moving image data 2 are stored in the DRAM 10, the last frame of the moving image data 1 and the start frame of the moving image data 2 are obtained, and the two frame data are compared. If it is determined that they do not match, the next frame data of the moving image data 2 is obtained and compared with the last frame data of the moving image data 1. Until it is determined that they match, the last frame data of the moving image data 1 and the frame data of the moving image data 2 are continuously compared.
[0073]
If it is determined that the final frame data of the moving image data 2 does not match, it is determined that there is no overlapping portion between the moving image data 1 and the moving image data 2 and new moving image data is transferred from the memory card 13 to the moving image data. Data 2 is obtained, and the above operation is repeated.
When it is determined that they match, the previous frame data is obtained from the moving image data 1 and the moving image data 2 based on the last frame data of the moving image data 1 and the frame data of the moving image data 2 that are determined to match. Compare and determine whether they match. If it is determined that they match, the previous frame data is further obtained and compared from the moving image data 1 and the moving image data 2 to determine whether they match. This comparison is continued up to the start frame data of the moving image data 2. However, if it is determined that there is no match even once, it is determined that the moving image data 1 and the moving image data 2 have no overlapping portion, new moving image data is obtained as the moving image data 2 from the memory card 13, and the above operation is performed. repeat.
[0074]
As a result of the comparison, each frame data from the frame data of the moving image data 2 determined to match the last frame data of the moving image data 1 to the start frame data of the moving image data 2, and each frame data of the moving image data 1 Is determined to match, it is determined that the moving image data 1 and the moving image data 2 have overlapping data, and the moving image data 1 and the moving image data 2 are combined. At this time, the overlapping part of the moving image data 2 is deleted, and the moving image data 1 and the remaining deleted moving image data 2 are combined.
Based on the combined moving image data, a new moving image file is generated and recorded on the memory card 13.
Note that the overlapping part of the moving image data 1 may be deleted, and the moving image data 1 and the moving image data 2 may be combined.
At this time, the moving image data 1 and the moving image data 2 may be deleted from the memory card 13.
As a result, moving image data including overlapping moving image data are combined with each other, so that a moving image having continuity and relevance is edited as one moving image file.
Further, even if the moving image data 1 and the moving image data 2 do not have overlapping data, if the last frame data of the moving image data 1 and the start frame data of the moving image data 2 match, the moving image data 1 and the moving image data 2 are combined. The related moving image is edited as one moving image file.
[0075]
As described above, in the third embodiment, moving image data including duplicated data is automatically edited, so that continuous and related moving image data can be generated as one moving image file. it can.
In addition, since it automatically determines whether there is duplicate data, it is possible to greatly reduce the labor and time involved in editing work.
Further, a plurality of moving image files shot at the same place by a plurality of digital cameras or the like at the same time have a high possibility of having duplicate data, and in such a case, it can be automatically edited.
In addition, by editing a moving image file on a personal computer or the like, a plurality of moving image data having a large data capacity can be easily and automatically edited.
Even if there is no overlapping moving image data, the moving image files having continuity and relation can be automatically edited, so that various editing can be performed.
[0076]
In the third embodiment, automatic editing is performed using a digital camera. However, the present invention is not limited to a digital camera, and a personal computer or the like reads a memory card 13 storing moving image files. Needless to say, this allows automatic editing on a personal computer.
Also, the present invention is not limited to the memory card 13, and a moving image file obtained from the Internet may be automatically edited by downloading it to a personal computer or the like.
[0077]
The present invention is not limited to the above embodiments, and the following modifications can be made.
(A) The moving image editing apparatus of the present invention may be applied to an apparatus in which a CCD camera is attached to a personal computer or the like so that a personal computer captures an image and the moving image is automatically edited on the personal computer.
(B) Further, the moving image editing apparatus of the present invention may be applied to an apparatus that automatically edits a moving image using a mobile phone, a clock, or another device having a photographing function.
[0078]
【The invention's effect】
According to the first aspect of the present invention, even if continuity and related video are separately recorded in a plurality of moving image data, continuity and relevant moving image data are automatically converted into one moving image data. Since editing is performed in a short time, the labor and time involved in the editing work can be greatly reduced.
Also, once the moving image shooting is completed, the moving image data is recorded as one moving image data, and even if the moving image shooting is started immediately, the moving image data is recorded as another moving image data. Even if the user ends video recording by mistake, if the user ends video recording by mistake, if the user starts video recording immediately, the video data is automatically edited into one video data.
Furthermore, even if the user intentionally ends the moving image shooting and starts a new moving image shooting, if the finished moving image and the started moving image have continuity and relevance, they are automatically edited. For example, if the object to be photographed is a moving image of a landscape, scenery, plant, etc., it will be edited as a single moving image, so if you shoot regularly, the scenery changes, plant growth, etc. Can be edited as one video data.
Also, when 30 seconds have elapsed since the start of the movie shooting, the movie shooting ends automatically. In this case, if the shooting is started immediately, the movie data is automatically edited into one movie data. .
[0079]
According to the second aspect of the present invention, the moving image data recorded on the recording medium is automatically edited. Therefore, the mobile phone and the personal computer are not limited to digital cameras, as long as the recording medium can be read. Automatic editing can be performed using a device such as.
In addition, by editing moving image data with a personal computer or the like, a plurality of moving image data having a large point can be easily and automatically edited.
According to the third aspect of the present invention, since the editing work is performed during shooting, when the video being shot has relevance and continuity with the video recorded on the recording medium, The video recorded at the end of the shooting and the video being shot can be combined to generate one moving image data.
Further, since the editing work is performed during shooting, the trouble and time involved in the editing work can be eliminated.
When shooting a moving image with a digital camera, the moving image shooting automatically ends as soon as about 30 seconds elapse, but even in this case, if shooting is started immediately, editing work is performed during shooting, so continuity, Relevant images can be recorded as one moving image data.
[0080]
According to the fourth aspect of the present invention, since the last frame data of the moving image data 1 and the start frame data of the moving image data 2 are compared, only continuous video can be reliably edited as one moving image data.
According to the fifth aspect of the present invention, if the frame data are within a predetermined range, it is determined that they are combined, so that a continuous video can be reliably edited as one moving image data.
According to the invention described in claim 6, since the user can arbitrarily set the predetermined range, editing suitable for the application can be performed.
According to the seventh aspect of the present invention, since the editing is performed so that the start frame of the moving image data 2 comes after the last frame of the moving image data 1, naturally continuous moving image data can be generated.
[0081]
According to the invention of claims 8 to 10, moving image data including overlapping data are automatically edited, so that moving image data having continuity and relevance can be generated as one moving image data.
In addition, since it automatically determines whether there is duplicate data, it is possible to greatly reduce the labor and time involved in editing work.
Furthermore, a plurality of moving image data shot at the same place by a plurality of digital cameras or the like at the same time has a high possibility of having duplicate data, and in such a case, it can be automatically edited.
In addition, even if there is no overlapping moving image data, if the moving image data has continuity and relevance, it can be automatically edited as one moving image data.
[0082]
According to the eleventh aspect, since the position, shape, and size of the object are compared, the comparison of the frame data can be performed more reliably, and a continuous smooth video can be automatically edited.
According to the twelfth aspect of the present invention, the edited moving image data is generated by deleting the moving image data 1 and the moving image data 2 on which the editing is based, so that the duplicated moving image data need not be recorded on the recording medium. You do not have to do the same editing work.
[0083]
According to the thirteenth aspect, by using the program, the present invention can be implemented by an existing image editing device such as a digital camera.
[Brief description of the drawings]
FIG. 1 is a block diagram of a digital camera according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating an operation in a moving image shooting mode.
FIG. 3 is a diagram showing a configuration of moving image data.
FIG. 4 is a flowchart showing an operation in a moving image editing mode.
FIG. 5 is a diagram showing a configuration after editing moving image data.
FIG. 6 is a flowchart showing a subroutine for comparing and determining a moving image editing mode.
FIG. 7 is a diagram showing a frame image of moving image data.
FIG. 8 is a flowchart showing an operation in a moving image shooting mode.
FIG. 9 is a flowchart showing an operation in a moving image shooting mode.
FIG. 10 is a diagram showing a configuration of moving image data.
FIG. 11 is a flowchart showing an operation in a moving image editing mode.
FIG. 12 is a flowchart showing an operation in a moving image editing mode.
FIG. 13 is a diagram showing a configuration after editing moving image data.
[Explanation of symbols]
1 Digital camera
2 CCD
3 DSP / CPU
4 TG
5 Unit circuit
6 Display device
7 Key input section
8 Audio processing unit
9 Data bus
10 DRAM
11 Built-in flash memory
12 Interface
13 Memory card

Claims (13)

第1の動画データを取得する第1動画データ取得手段と、
第2の動画データを取得する第2動画データ取得手段と、
前記第1の動画データと前記第2の動画データとを比較する比較手段と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データと前記第2の動画データを結合するか否かを判定する判定手段と、
前記判定手段により結合と判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する結合手段と、を備えたことを特徴とする動画像編集装置。
First moving image data acquiring means for acquiring first moving image data;
Second moving image data acquisition means for acquiring second moving image data;
Comparing means for comparing the first moving image data with the second moving image data;
Determining means for determining whether or not to combine the first moving image data and the second moving image data based on a comparison result of the data by the comparing means;
A combination unit that combines the first moving image data and the second moving image data into one moving image data when the combination is determined by the determination unit; Video editing device.
前記第1動画データ取得手段、及び前記第2動画データ取得手段は、
動画データを記録可能な記録媒体から動画データを取得することを特徴とする請求項1記載の動画像編集装置。
The first moving image data obtaining means and the second moving image data obtaining means,
2. The moving image editing apparatus according to claim 1, wherein the moving image data is acquired from a recording medium capable of recording the moving image data.
前記動画像編集装置は、
撮影対象物を撮影可能な動画像編集装置であって、
前記第1動画データ取得手段は、前記記録媒体から動画データを取得し、
前記第2動画データ取得手段は、撮影した動画データを取得することを特徴とする請求項1記載の動画編集装置。
The moving image editing device,
A moving image editing apparatus capable of photographing an object to be photographed,
The first moving image data acquiring means acquires moving image data from the recording medium,
2. The moving image editing apparatus according to claim 1, wherein the second moving image data obtaining unit obtains photographed moving image data.
前記比較手段は、
前記第1の動画データの最終フレームのデータと、前記第2の動画データの開始フレームのデータとを比較することを特徴とする請求項1乃至3の何れかに記載の動画像編集装置。
The comparing means includes:
4. The moving image editing apparatus according to claim 1, wherein data of a last frame of the first moving image data is compared with data of a start frame of the second moving image data.
前記判定手段は、
前記比較手段による比較結果に基づき、動画データ同士が所定の範囲内にあると判断した場合は、結合と判定することを特徴とする請求項1乃至4の何れかに記載の動画像編集装置。
The determining means includes:
5. The moving image editing apparatus according to claim 1, wherein when the moving image data is determined to be within a predetermined range based on a comparison result by the comparing unit, the moving image data is determined to be combined.
前記所定の範囲内は、
ユーザによって任意に設定できることを特徴とする請求項5記載の動画像編集装置。
Within the predetermined range,
6. The moving picture editing apparatus according to claim 5, wherein the moving picture editing apparatus can be arbitrarily set by a user.
前記結合手段は、
前記判定手段により結合と判定された場合は、前記第1の動画データの最終フレームデータの後に、前記第2の動画データの開始フレームデータを結合して1つの動画データに編集することを特徴とする請求項1乃至6の何れかに記載の動画像編集装置。
The coupling means,
When the combination is determined by the determination means, after the last frame data of the first moving image data, the start frame data of the second moving image data is combined and edited into one moving image data. The moving picture editing apparatus according to claim 1.
前記比較手段は、
前記第1の動画データの各フレームデータと、前記第2の動画データの各フレームデータとをそれぞれフレームデータごとに順次比較することを特徴とする請求項1乃至3の何れかに記載の動画像編集装置。
The comparing means includes:
The moving image according to any one of claims 1 to 3, wherein each frame data of the first moving image data and each frame data of the second moving image data are sequentially compared for each frame data. Editing device.
前記判定手段は、
前記比較手段による比較結果に基づいて、前記第1の動画データと前記第2の動画データに重複しているデータがあると判断した場合には、結合と判定することを特徴とする請求項8記載の画像編集装置。
The determining means includes:
9. The method according to claim 8, wherein when it is determined based on a comparison result by the comparing means that there is data overlapping the first moving image data and the second moving image data, the data is determined to be combined. The image editing device according to the above.
前記結合手段は、
前記判定手段により結合と判定された場合に、前記第2の動画データの重複している部分を削除して、第1の動画データの最終フレームデータの後に、削除した残りの第2の動画データを結合して1つの動画データにすることを特徴とする請求項8又は9に記載の動画像編集装置。
The coupling means,
When it is determined by the determining means that the second moving image data is combined, the overlapping portion of the second moving image data is deleted, and after the last frame data of the first moving image data, the remaining second moving image data is deleted. 10. The moving picture editing apparatus according to claim 8, wherein the moving picture editing apparatus is combined into one moving picture data.
前記比較手段によって比較するときは、
比較するフレームデータに映し出されている対象物の位置、形状、又は大きさを比較することを特徴とする請求項1乃至10の何れかに記載の動画像編集装置。
When comparing by the comparing means,
The moving image editing apparatus according to any one of claims 1 to 10, wherein the position, the shape, or the size of the object shown in the frame data to be compared is compared.
前記結合手段によって結合するときには、
1つに結合された動画データを記録媒体に記録し、結合の対象となる取得した動画データを記録媒体から削除することを特徴とする請求項1乃至11の何れかに記載の動画像編集装置。
When coupling by the coupling means,
12. The moving picture editing apparatus according to claim 1, wherein the combined moving picture data is recorded on a recording medium, and the acquired moving picture data to be combined is deleted from the recording medium. .
第1の動画データを取得する処理と、
第2の動画データを取得する処理と、
前記第1の動画データと前記第2の動画データとを比較する処理と、
前記比較手段によるデータの比較結果に基づいて、前記第1の動画データと前記第2の動画データを結合するか否かを判定する処理と、
この処理により結合と判定された場合には、前記第1の動画データと前記第2の動画データとを結合して1つの動画データに編集する処理と、をコンピュータで実行させて動画像の編集を行なうことを特徴とするプログラム。
A process of acquiring first moving image data;
A process of obtaining second video data;
Comparing the first video data with the second video data;
A process of determining whether or not to combine the first moving image data and the second moving image data, based on a comparison result of the data by the comparing unit;
If it is determined by this processing that the moving image is combined, the computer executes the processing of combining the first moving image data and the second moving image data into one moving image data and editing the moving image. A program characterized by performing.
JP2003157250A 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof Expired - Fee Related JP4189555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003157250A JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003157250A JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2004363734A true JP2004363734A (en) 2004-12-24
JP4189555B2 JP4189555B2 (en) 2008-12-03

Family

ID=34051070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003157250A Expired - Fee Related JP4189555B2 (en) 2003-06-02 2003-06-02 Moving picture editing apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4189555B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707205B1 (en) 2005-09-22 2007-04-13 삼성전자주식회사 Method and apparatus for detect play section in sports video
JP2009017365A (en) * 2007-07-06 2009-01-22 Canon Inc Program recorder and control method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707205B1 (en) 2005-09-22 2007-04-13 삼성전자주식회사 Method and apparatus for detect play section in sports video
JP2009017365A (en) * 2007-07-06 2009-01-22 Canon Inc Program recorder and control method therefor

Also Published As

Publication number Publication date
JP4189555B2 (en) 2008-12-03

Similar Documents

Publication Publication Date Title
JP4873031B2 (en) Imaging apparatus, imaging method, and program
US8482624B2 (en) Image pickup device with still picture pickup function during moving picture pickup operation
JP4853932B2 (en) Imaging apparatus and program
JP2012100216A (en) Camera and moving image capturing program
JP4189556B2 (en) Moving image processing apparatus and program thereof
JP4208613B2 (en) Imaging device
JP3891147B2 (en) Movie editing apparatus, movie editing method and program
JP2001309221A (en) Camera
JP6229356B2 (en) Imaging apparatus, imaging method, and program
JP4189555B2 (en) Moving picture editing apparatus and program thereof
JP5168375B2 (en) Imaging apparatus, imaging method, and program
JP5836578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6665019B2 (en) Imaging device
JP5283433B2 (en) Digital still camera, image processing method and program
JP5188277B2 (en) Imaging apparatus, control method therefor, and program
JP2006287828A (en) Moving picture imaging apparatus and program thereof
JP4130517B2 (en) Digital still camera with music playback function and image music playback device
JP4288858B2 (en) Camera device and camera system, photographing condition capturing device and method, sample image management method, and recording medium
JP5633113B2 (en) Imaging apparatus, recording control method, and program
JP2005072729A (en) Electronic camera and image photographing method
JP2009272846A (en) Image processor, image processing method and program
JP4322144B2 (en) Image shooting device
JP3559499B2 (en) Digital camera
JP2004088518A (en) Imaging/recording apparatus, image reproducing apparatus, and image recording/reproducing control program
JP2006314136A (en) Photographic device and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4189555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130926

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees