JP3797158B2 - VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO - Google Patents

VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO Download PDF

Info

Publication number
JP3797158B2
JP3797158B2 JP2001256747A JP2001256747A JP3797158B2 JP 3797158 B2 JP3797158 B2 JP 3797158B2 JP 2001256747 A JP2001256747 A JP 2001256747A JP 2001256747 A JP2001256747 A JP 2001256747A JP 3797158 B2 JP3797158 B2 JP 3797158B2
Authority
JP
Japan
Prior art keywords
video
image data
scenario
data
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001256747A
Other languages
Japanese (ja)
Other versions
JP2003069944A (en
Inventor
悟 百瀬
芳春 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2001256747A priority Critical patent/JP3797158B2/en
Publication of JP2003069944A publication Critical patent/JP2003069944A/en
Application granted granted Critical
Publication of JP3797158B2 publication Critical patent/JP3797158B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する技術に関する。
【0002】
【従来の技術】
近年、家庭へのデジタルビデオカメラの普及に伴い、手軽に動画映像を編集可能なアプリケーションプログラムの出現が望まれている。従来のこうした動画編集のアプリケーションプログラムでは、ディスプレイの画面上にタイムラインと呼ばれる時間を付した帯状の入れ物を用意し、同じく画面上に用意された動画映像の先頭フレームのアイコンを、マウスによるドラッグ&ドロップの操作により、そのタイムライン上に順に移動することで、先頭フレームが表示された複数の動画映像がつながれた動画映像作品を作成することができる。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の技術では、動画映像の並び順が定められるだけで、良質な映像作品を得ることができないといった問題があった。
【0004】
この発明は、良質な映像作品を作成し得るようにすることを目的としている。
【0005】
【課題を解決するための手段およびその作用・効果】
前述した課題の少なくとも一部を解決するための手段として、以下に示す構成をとった。
【0013】
この発明の映像編集方法は、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択するステップと、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示するステップと、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づけるステップと
(d)前記ステップ(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成するステップと
を備えるとともに、
前記ステップ(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示するステップを備え、
前記ステップ(d)は、
(d1)前記先頭画像データを前記映像作品に含ませるステップを備える、
ことを特徴としている。
【0014】
こうした構成の映像編集方法によれば、シナリオに含まれる特徴的な映像場面に、各映像データを対応づけていくことで、各映像データはそれら映像場面の配列順序と一致する順序で配列される。このため、各映像データはシナリオに従って配列されることになる。したがって、複数の映像を良質な配列で並べる編集作業を、作業者の編集のセンスに委ねるのではなく、容易に行なうことができる。さらに、映像作品に、シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を付与することができることから、良質な映像作品を作成することができる。
【0015】
上記映像編集方法において、(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与するステップを備える構成とすることができる。この構成によれば、オープニング画面に所望の文字列を付与することができることから、より一層良質な映像作品を作成することができる。
【0016】
上記映像編集方法において、(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出すステップと、(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与するステップとを備える構成とすることができる。この構成によれば、オープニング画面に自動的に映像データの作成日を付与することができる。
【0017】
上記映像編集方法において、
前記ステップ(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示するステップを備え、
前記ステップ(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませるステップを備える、
構成とすることができる。
【0018】
この構成によれば、映像作品にエンディング画面を付与することができることから、良質な映像作品を作成することができる。
【0019】
上記エンディング画面を付与する構成の映像編集方法において、(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与するステップを備える構成とすることができる。この構成によれば、エンディング画面に所望の文字列を付与することができることから、より一層良質な映像作品を作成することができる。
【0020】
この発明の映像編集方法において、前記映像データは、デジタルビデオカメラにより撮影して得られた動画映像データである構成とすることができる。この構成によれば、デジタルビデオカメラからの動画映像の編集が可能となる。
【0024】
この発明の映像編集装置は、
動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する映像編集装置であって、
1または複数のシナリオタイトルの中から、外部からの指示に従って1のシナリオを選択するシナリオ選択手段と、
該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する絵図出力制御手段と、
前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける映像データ対応づけ手段と、
前記映像データ対応づけ手段により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する映像作品作成手段と
を備えるとともに、
前記絵図出力制御手段は、
前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する手段を備え、
前記映像作品作成手段は、
前記先頭画像データを前記映像作品に含ませる手段を備える、
ことを特徴としている。
【0025】
この発明のコンピュータプログラムは、
動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成するためのコンピュータプログラムであって、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択する機能と、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する機能と、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける機能と
(d)前記機能(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する機能と
をコンピュータに実現させるとともに、
前記機能(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する機能を備え、
前記機能(d)は、
(d1)前記先頭画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラムを特徴としている。
【0026】
上記構成のこの発明の映像編集装置とコンピュータプログラムは、上記映像編集方法と同様な作用・効果をそれぞれ有しており、複数の映像を良質な配列で並べる編集作業を容易に行なうことができるという効果と、良質な映像作品を作成することができるという効果を両立する。
【0027】
この発明の記録媒体は、この発明のコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体を特徴としている。この記録媒体は、この発明の各映像編集方法、各映像編集装置、各コンピュータプログラムと同様な作用・効果を有している。
【0028】
【発明の他の態様】
この発明は、以下のような他の態様も含んでいる。その第1の態様は、この発明の第1または第2のコンピュータプログラムを通信経路を介して供給するプログラム供給装置としての態様である。この第1の態様では、コンピュータプログラムをコンピュータネットワーク上のサーバなどに置き、通信経路を介して、必要なプログラムをコンピュータにダウンロードし、これを実行することで、上記の装置や方法を実現することができる。
【0029】
第2の態様は、連続した映像作品を作成する映像編集方法であって、(a)オープニング画面を示す先頭画像データを用意するステップと、(b)前記先頭画像データを前記映像作品に含ませるステップとを備えることを特徴とする態様である。第3の態様は、連続した映像作品を作成する映像編集方法であって、(a)エンディング画面を示す最後尾画像データを用意するステップと、(b)前記最後尾画像データを前記映像作品に含ませるステップとを備えることを特徴とする態様である。さらにその他の態様としては、第3または第4の態様の各構成要件を備える装置やコンピュータプログラムとしての態様である。
【0030】
【発明の実施の形態】
以上説明したこの発明の構成・作用を一層明らかにするために、以下この発明の実施の形態を実施例に基づき説明する。図1は、この発明の一実施例を適用するコンピュータシステムの外観図である。このコンピュータシステムは、コンピュータ10とCRTディスプレイ12を備える。コンピュータ10は、コンピュータ本体16とキーボード18とマウス20を備える。なお、このコンピュータ本体16には、CD−ROM22の内容を読み取るCDドライブ24が搭載されている。また、コンピュータ本体16には、デジタルビデオカメラ(以下、DVカメラと呼ぶ)26が接続されている。
【0031】
図2は、コンピュータシステムのハードウェアの概略構成を示すブロック図である。図示するように、このコンピュータ本体16は、中央演算処理装置としてのCPU30を中心にバスにより相互に接続されたROM31、RAM32、表示画像メモリ33、マウスインタフェース34、キーボードインタフェース35、CDC36、HDC37、CRTC38、DVインタフェース40およびI/Oポート41を備える。
【0032】
ROM31は、内蔵されている各種プログラム等を記憶する読み出し専用のメモリである。RAM32は、各種データ等を記憶する読み出し・書込み可能なメモリである。表示画像メモリ33はCRTディスプレイ12に表示する画像の画像データを記憶するメモリである。マウスインタフェース34は、マウス20とのデータ等のやり取りを司るインタフェースである。キーボードインタフェース35は、キーボード18からのキー入力を司るインタフェースである。CDC36は、CDドライブ(CDD)24を制御するCDコントローラである。HDC37は、ハードディスクドライブ(HDD)42を制御するハードディスクコントローラである。
【0033】
CRTC38は、表示画像メモリ33に記憶される表示画像データに基づいてCRTディスプレイ12における画像の表示を制御するCRTコントローラである。DVインタフェース40は、DVカメラ26からの動画映像信号の入力を司るインタフェースである。I/Oポート41は、シリアル出力のポートを備えており、モデム44に接続されており、このモデム44を介して、公衆電話回線46に接続されている。コンピュータ10は、モデム44を介して、外部のネットワークに接続されており、特定のサーバ48に接続可能となっている。
【0034】
このコンピュータシステムでは、オペレーティングシステムはHDD42に記憶されており、コンピュータ本体16に電源を投入すると、HDD42のブートブロックに書き込まれたローダに従ってRAM32の所定の領域にロードされる。また、DVカメラ26から取り込んだ動画映像を編集するためのアプリケーションプログラム(コンピュータプログラム)は、CD−ROM22に予め格納されており、所定のインストールプログラムを起動することで、CDドライブ24からコンピュータ本体16にインストールされる。このインストールされたコンピュータプログラムは、HDD42に記憶されており、所定の起動命令を受けたときに、RAM32の所定の領域にロードされる。
【0035】
この動画映像を編集するためのコンピュータプログラムをCPU30が実行することによって本発明の各種構成要件は実現される。このコンピュータプログラムは、前述したように、CD−ROM22に格納されたものであるが、これに替えて、フロッピィディスク、光磁気ディスク、ICカード等の他の携帯型記録媒体(可搬型記録媒体)に格納された構成としてもよい。また、このコンピュータプログラムは、外部のネットワークに接続される特定のサーバ48から、ネットワークを介して提供されるプログラムデータをダウンロードして、RAM32またはHDD42に転送することにより得るようにすることもできる。
【0036】
以上説明したハードウェア構成を有するコンピュータシステムによる動画映像編集の様子について次に説明する。図3は、コンピュータ本体16によって動画映像の編集がなされる処理の様子を示すブロック図である。図示するように、コンピュータ本体16の内部で動作しているコンピュータプログラム51によれば、まず、動画編集のシナリオが、予め用意した複数のシナリオの中から、シナリオ選択部51aにより一つ選択される。ここでいうシナリオというのは、編集を行なって作成しようとしている映像作品のストーリを決めるためのもので、結婚式、子供の成長日記、運動会、動物園等の目的に沿って予め複数用意されている。作業者によるマウス20の操作を受けて入力される操作信号に基づき、シナリオ選択部51aによって、それら予め用意された複数のシナリオの中から一のシナリオが選択される。
【0037】
次いで、シナリオ選択部51aにより選択されたシナリオに含まれる特徴的な映像場面を絵図(例えば、イラストの絵図)によりそれぞれ示す複数の画像データ(以下、絵図データと呼ぶ)が、そのシナリオの順序に従う配列でCRTディスプレイ12に表示される。この表示は、複数の絵図データを、絵図出力制御部51bによってビデオドライバ52へ出力することにより行なう。
【0038】
一方、動画映像キャプチャ部51cにより、DVカメラ26から動画編集に必要な所望の区間の動画映像データがキャプチャされる。そのキャプチャされた動画映像データは、CRTディスプレイ12に表示された複数の絵図データのいずれかを選択して、その一の絵図データに対して、映像データ対応づけ部51dによって対応づけがなされる。なお、動画映像キャプチャ部51cからは、動画編集に必要な所望の区間の動画映像データが順に送られてきており、映像データ対応づけ部51dは、これら動画映像データを順に、CRTディスプレイ12に表示された絵図データのいずれかに対応づける処理を行なっている。
【0039】
その後、映像データ対応づけ部51dにより対応づけのなされた各動画映像データを、映像作品作成部51eにより、対応先の各絵図データの配列順序と一致するようにつなげて連続した一の動画映像作品を作成して、ビデオドライバ52へこの動画映像作品を出力する。また、必要に応じて動画映像作品をファイルの形で外部へ出力したりする。
【0040】
さらに、絵図出力制御部51bのオープニング/エンディング出力部51b−1により、シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の絵図データの先頭位置に表示するとともに、エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する。また、映像作品作成部51eのオープニング/エンディング付与部51e−1により、上記作成する動画映像作品に、オープニング画面やエンディング画面を含ませる。
【0041】
コンピュータ本体16のCPU30で実行される上記コンピュータプログラム51に従う処理(動画映像編集処理)について、次に説明する。図4は、この動画映像編集処理のルーチンを示すフローチャートである。このルーチンは、コンピュータプログラム51を実行させる旨の指示がなされたのを受けて実行される。
【0042】
図示するように、処理が開始されると、CPU30は、まず、初期画面を示すウィンドウWDをCRTディスプレイ12に表示する処理を行なう(ステップS100)。図5は、このウィンドウWDを示す説明図である。図示するように、初期画面のウィンドウWDには、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の5種類のタブTB1,TB2,TB3,TB4,TB5が用意されており、作業者は、これらタブTB1〜TB5を順にマウス20によりクリックしていくことで、CRTディスプレイ12の画面上で動画編集の作業を進めていくことができる。「シナリオ」のタブTB1は、動画編集のシナリオの選択を行なう作業を実行するためのものである。このシナリオの選択がなされると、その選択されたシナリオに含まれる特徴的な映像場面を示す複数の絵図データがウィンドウWD内のコマ画像表示用のフィールドfd10に表示される。なお、ここでは一のシナリオに複数の絵図データが含まれるものとしたが、場合によっては、一のシナリオに一の絵図データが含まれる構成とすることもできる。
【0043】
「キャプチャ」のタブTB2は、DVカメラ26から動画編集に必要な所望の区間の動画映像データをキャプチャするとともに、そのキャプチャした動画映像データを、CRTディスプレイ12に表示された複数の絵図データのいずれかに対応づける作業を実行するためのものである。「編集」のタブTB3は、その対応づけのなされた動画映像データの範囲を微調整したり、その対応づけの位置を変更したりする作業を実行するためのものである。「効果」のタブTB4は、作成しようとしている作品に効果音、テロップ等を入れる作業を実行するためのものである。「出力」のタブTB5は、「編集」のタブTB3からの作業により編集された動画映像データを動画映像作品としてDVカメラ26に出力させる作業を実行するためのものである。
【0044】
なお、「シナリオ」のタブTB1が選択されて実行される作業が、前述したシナリオ選択部51aおよび絵図出力制御部51bに対応しており、「キャプチャ」のタブTB2が選択されて実行される作業が、前述した動画映像キャプチャ部51cおよび映像データ対応づけ部51dに対応しており、「出力」のタブTB5が選択されて実行される作業が、映像作品作成部51eに対応している。
【0045】
図5に示した初期画面のウィンドウWDには、上述した「シナリオ」のタブTB1が選択された状態が表示される。図示するように、この初期画面のウィンドウWDには、「分類の選択」、「作品タイトルの選択」、「シーンの素材」の3つのデータ入力用のフィールドfd1,fd2,fd3と、複数の静止画の画像データを表示する前述したコマ画像表示用フィールドfd10とを備える。
【0046】
「分類の選択」のフィールドfd1は、シナリオについての分類を選択するためのものであり、例えば、結婚式、運動会、旅行、子供の成長記録、動物園などが選択肢として用意されている。作業者によるマウス20のクリック操作を受けて、これら選択肢のうちの一つが選択される。「作品タイトルの選択」のフィールドfd2は、シナリオを選択するためのものであり、例えば「分類の選択」のフィールドfd1で動物園が選択された場合には、運動会、運動会1、運動会2、運動会3などが選択肢として用意されている。シナリオは、前述したように、編集を行なって作成しようとする映像作品のストーリを決めるためのものであり、HDD42にシナリオデータとして予め記憶されている。なお、複数のシナリオデータを集めたのがシナリオ格納ファイルである。
【0047】
図6は、シナリオ格納ファイルSFの内容を模式的に示す説明図である。図示するように、シナリオ格納ファイルSFには、複数のシナリオデータSDが格納されている。1つのシナリオデータSDは、図中の1行に相当し、「分類」、「作品タイトル」、「画像ファイル名」の3つのデータアイテムDM1,DM2,DM3から構成される。なお、これらシナリオデータSDは、「分類」のデータアイテムDM1の内容によってソートされている。
【0048】
「分類」のデータアイテムDM1には、シナリオの分類を示すデータが格納され、上記ウィンドウWDに設けられた「分類の選択」のフィールドfd1の選択肢がこのデータアイテムDM1の内容によって定まる。「作品タイトル」のデータアイテムDM2には、シナリオを示すデータが格納され、上記「作品タイトルの選択」のフィールドfd2の選択肢がこのデータアイテムDM2の内容によって定まる。「画像ファイル名」のデータアイテムDM3には、図示するように、例えば、「ezu41」、「ezu42」といった、HDD42にビットマップ形式で記憶された絵図データのファイル名が複数、記憶されている。なお、これら複数のファイル名は、シナリオに基づいて予め定められた順序で記憶されている。例えば、「作品タイトル」が「運動会」の場合には、「開会式」、「1年生の徒競走」、「2年生の徒競走」という実際の運動会のプログラムを考慮した順にそれぞれの特徴的な映像場面を示す絵図データのファイル名が記憶されている。なお、こうした画像データのファイル名をデータアイテムDM3に記憶していく動作を、以下、この画像データのシナリオデータへの登録と呼ぶことにする。また、上記HDD42には、各絵図データ毎に組となる属性データも記憶されている。この属性データは、BGM等の効果音、テロップ等を示すデータである。
【0049】
図4のフローチャートに戻り、ステップS100で初期画面の表示がなされた後、次いで、CPU30は、シナリオルーチンに処理を移行する(ステップS110)。図7は、CPU30で実行されるシナリオルーチンの詳細を示すフローチャートである。図示するように、このシナリオルーチンに処理が移行すると、CPU30は、ウィンドウWDにおいて、作業者によるマウス20の操作を受けて、「分類の選択」のフィールドfd1から所望の分類を入力するとともに、「作品タイトルの選択」のフィールドfd2から所望の作品タイトルを入力する処理を行なう(ステップS112,S114)。
【0050】
次いで、CPU30は、ステップS112およびS114で入力された分類と作品タイトルに基づいて、絵図データの表示を行なう(ステップS116)。詳細には、ステップS112およびS114での入力された分類と作品タイトルをシナリオ格納ファイルSFに照らし合わせることで、シナリオ格納ファイルSFから分類と作品タイトルの一致する一のシナリオ格納データSDを選択する。次いで、その選択されたシナリオ格納データSDに記憶される「画像ファイル名」のデータアイテムDM3の内容に基づき、ビットマップ形式の複数の絵図データをCD−ROM22またはHDD42から読み出して、これら絵図データをウィンドウWDのコマ画像表示用フィールドfd10に表示する。なお、この表示は、図示するように、長尺上のフィルムを模した枠組みの中に、各絵図データが、「画像ファイル名」のデータアイテムDM3に記憶される順に並ぶように行なわれる。その後、リターンに抜けて、このシナリオルーチンの処理を一旦終了する。
【0051】
なお、図7のフローチャートには記載しないが、このシナリオルーチンでは、次のような様々な処理がなされる。図5に示すように、ウィンドウWDの「シーンの素材」のデータ入力用のフィールドfd3には、「分類の選択」のデータ入力用のフィールドfd1で選択された内容に属するシーンの素材が複数表示される。このシーンの素材とは、コマ画像表示用フィールドfd10に表示されるビットマップ形式の画像データと同様のものである。作業者は、このシーンの素材を用いることで、シナリオ格納ファイルSFの形で予め提供される絵図データの集合としてのシナリオを変更することが可能となり、オリジナルのシナリオを作成することができる。
【0052】
具体的には、作業者は、「シーンの素材」のデータ入力用のフィールドfd3から一のシーンの素材の画像データを、マウス20によりドラッグして、コマ画像表示用フィールドfd10に表示された複数の絵図の中の一コマにドロップし、その後、「シーンの素材」のデータ入力用のフィールドfd3の下方にある「シナリオの登録」のボタンBT1を、マウス20によりクリックするといった作業を行なう。この結果、コマ画像表示用フィールドfd10の内容は、マウス20によりドロップした絵図データの直後に、マウス20により選択された「シーンの素材」の画像データが追加された表示となる。このとき、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3の内容もその表示と一致するように、「シーンの素材」の画像データのファイル名を追加する補正が行なわれる。なお、この構成では、既存のシナリオを上書き修正しているが、これに替えて、新たに別の作品タイトルとして記憶する構成とすることもできる。
【0053】
なお、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3に記憶される内容については、コマ画像表示用フィールドfd10に表示される画像データの一コマをクリックしてキーボード18から[Delete]キーを入力することで、削除補正することも可能である。
【0054】
シナリオルーチンの処理が終了すると、図4のステップS120に処理は移行し、CPU30は、作業者によるマウス20の操作により、「キャプチャ」のタブTB2が選択されたか否かを判別する(ステップS120)。ここで、選択されていないと判別された場合には、ステップS120の処理を繰り返し実行して、タブTB2が選択されるのを待つ。一方、ステップS120で、「キャプチャ」のタブTB2が選択されたと判別された場合には、CPU30は、キャプチャルーチンに処理を移行する(ステップS130)。
【0055】
図8は、CPU30で実行されるキャプチャルーチンの詳細を示すフローチャートである。図示するように、このキャプチャルーチンに処理が移行すると、CPU30は、まず、動画映像をキャプチャするための動画映像キャプチャ用のフィールドfd20をウィンドウWDに表示する(ステップS131)。図9は、このときのウィンドウWDの一例を示す説明図である。図示するように、動画映像キャプチャ用フィールドfd20は、小型テレビを模式化したもので、画面部fd21と、ボタンスイッチ群fd22とを備える。
【0056】
図8に戻り、次いで、CPU30は、変数iに初期値0をセットして(ステップS132)、その後、変数iを値1だけインクリメントする(ステップS133)。その後、CPU30は、コマ画像表示用フィールドfd10に現在表示中のシナリオデータ、すなわち「シナリオ」のタブTB1にて選択されたシナリオデータ(以下、こうしたシナリオデータを「選択中のシナリオデータ」と呼ぶ)をシナリオ格納ファイルSFから読み出して、そのシナリオデータの「画像ファイル名」のデータアイテムDM3に格納される絵図データ(実際はそのファイル名)を先頭位置から順に数えて、上記変数iの数と一致する番数目の絵図データ(同上)を特定する(ステップS134)。
【0057】
なお、作業者は、必要に応じて、コマ画像表示用フィールドfd10に表示された絵図のコマをマウス20によりクリック操作することで、絵図データの特定位置をそのクリックされた絵図のコマに対応する位置に変更する(すなわち、上記変数iの値を変更する)ことができる(ステップS135)。
【0058】
その後、CPU30は、DVカメラ26から動画映像をキャプチャする処理を行なう(ステップS136)。このキャプチャの処理は、ウィンドウWDに表示した動画映像キャプチャ用のフィールドfd20を用いて行なう。以下、このキャプチャの処理について詳細に説明する。
【0059】
動画映像キャプチャ用のフィールドfd20の下方には、そのフィールドfd20の画面fd21に動画映像を再生したり、その再生を停止したり、早送りしたり、巻き戻したり、再生を一時中断する上述したボタンスイッチ群fd22が設けられている。作業者は、これらボタンスイッチ群fd22をマウス20により操作することで、コンピュータ10に接続されたDVカメラ26からの動画映像を自在に取り込んで、フィールドfd20の画面部fd21に再生することができる。さらに、ボタンスイッチ群fd22の右下には、キャプチャボタンfd23が設けられている。このキャプチャボタンfd23は、画面部fd21で再生される動画映像から所望の区間をキャプチャするためのものである。
【0060】
作業者は、ボタンスイッチ群fd22を操作して、動画映像キャプチャ用のフィールドfd20の画面部fd21にDVカメラ26からの動画映像を再生する。作業者は、キャプチャしたい開始点に動画映像が達すると、まず、ボタンスイッチ群fd22中の「ポーズ」ボタンもしくは「停止」ボタンをクリック操作して、再生を一旦停止する。その後、キャプチャボタンfd23を一度クリックする。キャプチャボタンfd23がクリックされると、動画映像の再生が再開され、キャプチャボタンfd23は、1度クリックされるとキャプチャしたい終点を指定する機能に切り替わることから、作業者は、次いで、キャプチャしたい範囲の終点まで再生が進んだ時点で、キャプチャボタンf23を再度クリックする。
【0061】
こうした一連のマウス20による操作を行なうことで、DVカメラ26で撮影した動画映像から所望の区間をキャプチャすることができる。なお、このキャプチャされた所望の区間の動画映像データ(以下、動画クリップとも呼ぶ)は、avi形式でHDD42に格納される。なお、avi形式の動画クリップには音声データも含まれる。また、このキャプチャ時に、動画クリップの先頭フレームを示す画像データが、上記avi形式の動画クリップと対になってHDDに格納される。
【0062】
ステップS136の実行後、CPU30は、ステップS134またはS135で特定された絵図データ(実際はそのファイル名)の直後に、上記ステップS136でキャプチャした動画クリップについての先頭フレームの画像データのファイル名を追加する処理を行なう(ステップS137)。
【0063】
図6に示すようなデータ構造の格納ファイルを備えるこの実施例で、図5に示すように、分類が「運動会」に、作品タイトルが「運動会3」に選択された場合には、前述したように、4番目のシナリオデータSD(4)が選択される。この結果、ウィンドウWD上のコマ画像表示用フィールドfd10には、図5に示すような「運動会3」のシナリオに含まれる特徴画像が表示される。こうした状態において、「キャプチャ」のタブTB2が選択された後に、動画映像キャプチャ用のフィールドfd20を用いて動画映像のキャプチャが最初に行なわれた場合、ステップS133では変数iが値1にセットされていることから、ステップS138でその変数iの値に対応する1番目の絵図データの直後に、上記キャプチャされた動画映像の先頭フレームのファイル名が追加されることになる。即ち、図10に示すように、4番目のシナリオデータSD(4)において、第1番目の絵図データのファイル名=”ezu41”と第2番目の絵図データのファイル名=”ezu42”との間に、キャプチャされた動画映像の先頭フレームのファイル名=”frame1”が追加されることになる。
【0064】
図8に戻り、ステップS137の実行後、ステップS137で更新されたシナリオデータに基づいて、コマ画像表示用フィールドfd10の内容を再表示する処理を行なう(ステップS138)。図11は、図10に示したシナリオデータSD(4)に基づいてコマ画像表示用フィールドfd10を再表示したウィンドウWDを示す説明図である。図11に示すように、第1番目の絵図のコマCM1と第2番目の絵図のコマCM2との間に、キャプチャされた動画映像の先頭フレームFM1が追加される。
【0065】
なお、ステップ137のシナリオデータの更新の際に、追加された先頭フレームのファイル名に対応する動画クリップと関連づけて、その追加された位置の直前に配置された絵図データの属性データがそのままコピーされた属性データを記憶する処理も行なっている。すなわち、追加された動画クリップに対し、その対応づけた絵図データの効果音等の属性データが自動的に設定される。なお、この属性データをコピーする処理は、属性データのうちの予め定られた種類のデータだけをコピーするようにすることもできるし、いずれの種類の属性データもコピーしないようにすることもできる。これらの切り替えは、画面上から作業者が自由に設定できる。
【0066】
図8に戻り、ステップS138の実行後、変数iがその最大値、即ち、選択状態にあるシナリオデータの画像ファイル名のデータアイテムDM3に格納される絵図データの数(ステップS137で追加する先頭フレームは数には入れない)を越えているかを判別する(ステップS139)。ここで、越えていないと判別されたときには、ステップS133に戻して、ステップS133以後のステップを繰り返し処理する。一方、ステップS139で変数iが最大値を超えたと判別された時には、ステップ13Aに処理を進めて、その他の処理を実行して、その後、「リターン」に抜けて、このキャプチャルーチンの処理を一旦終了する。ここで、その他の処理とは、後述するような2つの絵図のコマの間に複数の動画映像クリップを追加するような処理である。
【0067】
以上のように構成されたキャプチャルーチンによれば、動画映像キャプチャ用フィールドfd20を用いてDVカメラ26から動画映像データを1つキャプチャする毎に、そのキャプチャした動画クリップを、選択状態にあるシナリオデータSDに自動的に登録していく。なお、この登録は、第1番目の動画クリップを、第1番目の絵図データの直後に、第2番目の動画クリップを、第2番目の絵図データの直後にというように、「画像ファイル名」のデータアイテムDM3の格納順位を順に一つずつ後ろにずらしつつ行なう。また、このキャプチャルーチンによれば、作業者によって、コマ画像表示用フィールドfd10に表示された絵図のコマがマウス20によりクリック操作された上で、動画映像データのキャプチャが行なわれた場合には、そのキャプチャした動画映像クリップの登録の位置を、そのクリックされた絵図の画像データの直後に変更している。
【0068】
なお、このキャプチャルーチンでは、フローチャートには記さなかったが、コマ画像表示用フィールドfd10に表示された絵図のコマと絵図のコマとの間に追加された動画映像データの先頭フレーム(例えば、図11に示した先頭フレームFM1)が作業者によってクリックされた上で、動画映像データのキャプチャが行なわれた場合には、そのキャプチャした動画映像クリップの登録の位置を、そのクリックされたフレームの直後に変更している。この構成によれば、連続して並ぶ2つの絵図のコマの間に、複数の動画映像クリップを追加することが可能となる。また、コマ画像表示用フィールドfd10内において、動画映像クリップを示す先頭フレームのコマをマウス20のドラッグ&ドロップ操作により他の絵図データのコマの間に移動できる構成とすることもできる。
【0069】
キャプチャルーチンの処理が終了すると、図4のステップS140に処理は移行し、CPU30は、作業者によるマウス20の操作により、「編集」のタブTB3が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS140の処理を繰り返し実行して、タブTB3が選択されるのを待つ。一方、ステップS140で、「編集」のタブTB3が選択されたと判別された場合には、CPU30は、編集ルーチンに処理を移行する(ステップS150)。
【0070】
図12は、CPU30で実行される編集ルーチンの詳細を示すフローチャートである。図示するように、この編集ルーチンに処理が移行すると、CPU30は、まず、動画映像を表示するための動画映像表示用のフィールドfd30をウィンドウWDに表示する(ステップS151)。図13は、このときのウィンドウWDの一例を示す説明図である。図示するように、この動画映像表示用フィールドfd30は、「キャプチャ」のタブTB21が選択されたときに表示された図9に示した動画映像キャプチャ用フィールドfd20をほぼそのまま用いて、大きく相違する点は、ボタンスイッチ群fd32以外に設けられるスイッチ類にある。ボタンスイッチ群fd32の左側に、「IN」、「OUT」と記されたイン点、アウト点指定用のボタンスイッチfd33,fd34が設けられている。このイン点、アウト点指定用のボタンスイッチfd33,fd34は、動画映像クリップのうちから編集に必要とする部分をトリミングするために用いるものである。
【0071】
図12に戻り、ステップS151の実行後、CPU30は、選択中のシナリオデータに登録されたいずれかの動画映像クリップを動画映像表示用のフィールドfd30に再生する処理を開始する(ステップS152)。具体的には、作業者による、コマ画像表示用フィールドfd10に表示された各コマのうちの一の動画映像クリップの先頭フレームをクリックする操作を受けて、その先頭フレームに対応する動画映像データをHDD42から読み出して、動画映像表示用フィールドfd30にその動画映像データを再生する処理を開始する。
【0072】
作業者は、動画映像表示用フィールドfd30の画面部fd31に再生される動画映像を見ながら、トリミングしたい開始点に来たとき、イン点指定用のボタンスイッチfd33をクリックして、トリミングしたい終了点に来たとき、アウト点指定用のボタンスイッチfd34をクリックする。CPU30は、ステップS152の実行後、上記イン点指定用のボタンスイッチfd33からの入力があるか否かを判別する(ステップS153)。ここで、その入力がないと判別された場合には、ステップS153の処理を繰り返して、イン点指定用のボタンスイッチfd33からの入力があるの待つ。一方、ステップS153でその入力があると判別された場合には、再生中の動画映像データに対してその再生している位置を開始点として指定する(ステップS154)。
【0073】
ステップS154の実行後、CPU30は、上記アウト点指定用のボタンスイッチfd34からの入力があるか否かを判別する(ステップS155)。ここで、その入力がないと判別された場合には、ステップS155の処理を繰り返して、アウト点指定用のボタンスイッチfd34からの入力があるの待つ。一方、ステップS155でその入力があると判別された場合には、再生中の動画映像データに対してその再生している位置を終了点として指定する(ステップS156)。
【0074】
なお、この実施例では、画面部fd31に動画映像を再生した上でイン点、アウト点を指定していたが、これに替えて動画映像の表示位置を調整するスライダを画面上に表示して、このスライダをマウスにより操作した上でイン点、アウト点を指定する構成とすることもできる。
【0075】
図14は、上記開始点および終了点の指定がなされた動画映像データを模式的に示す説明図である。図示するように、動画映像データには、開始点と終了点とが記されている。この開始点と終了点との間(図中、ハッチングで示した領域)が、作業者に指定された編集に必要となる範囲、すなわち有効範囲となる。したがって、作業者は、「キャプチャ」のタブTB2からの作業によりキャプチャされた動画映像データに対して編集に使用する範囲を、必要に応じて微調整することができる。
【0076】
図12に戻り、ステップS156の実行後、CPU30は、ステップS152で開始した再生を終了して(ステップS157)、次いで、全ての編集を終えたか否かを判別する(ステップS158)。この判別は、他のタブTB1,TB2,TB4,TB5が選択されたかによって判別する。ここで、全ての編集を終えていないと判別された場合には、ステップS152に処理を戻して新たな編集を行なう。
【0077】
なお、図13に示すように、ボタンスイッチ群f32の右側には、ハサミのマークが記されたボタンスイッチfd35が設けられている。図12のフローチャートにはこのボタンスイッチfd35を用いた詳しい処理の流れは記さなかったが、このボタンスイッチfd35によって、登録された動画編集クリップを所望の地点で分割するといったことも可能である。
【0078】
一方、ステップS158で、全ての編集を終えたと判別された場合には、編集ルーチンを終了する。編集ルーチンの処理が終了すると、図4のステップS160に処理は移行し、CPU30は、作業者によるマウス20の操作により、「効果」のタブTB4が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS160の処理を繰り返し実行して、タブTB4が選択されるのを待つ。一方、ステップS160で、「効果」のタブTB4が選択されたと判別された場合には、CPU30は、効果ルーチンに処理を移行する(ステップS170)。
【0079】
この効果ルーチンに処理が移行すると、ウィンドウWDは、図15に示すような表示となる。この効果ルーチンは、このウィンドウWDから各種の入力作業を行なうことで、「編集」のタブTB3から編集されたシナリオデータに対して効果音、テロップ等を入れる作業を実行する。なお、ここでは詳細な処理の流れの記載は省略するが、図15中の「全体効果」のタブfd41がクリックされたときには、現在選択中のシナリオデータについて、そのシナリオデータから定まるストーリの全体に対して効果音等を施すことができ、また、「部分効果」のタブfd42がクリックされたときには、現在選択中のシナリオデータに登録される一の動画映像クリップに対して効果音等を施すことができる。なお、ここでは、前述した属性データを書き換えるようにしてその記録がなされてる。こうした属性データは、前述したように動画クリップに別体にて互いに関連づけがなされて記憶されているが、両者を一つのファイルの形に変換する処理は後述するレンダリング処理により実行されることになる。
【0080】
この効果ルーチンの処理が終了すると、図4のステップS180に処理は移行し、CPU30は、作業者によるマウス20の操作により、「出力」のタブTB5が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS180の処理を繰り返し実行して、タブTB5が選択されるのを待つ。一方、ステップS180で、「出力」のタブTB5が選択されたと判別された場合には、CPU30は、出力ルーチンに処理を移行する(ステップS190)。
【0081】
図16は、CPU30で実行される出力ルーチンの詳細を示すフローチャートである。図示するように、この出力ルーチンに処理が移行すると、CPU30は、まず、ウィンドウWD内の動画映像表示用フィールドfd30に、DVカメラ出力を指示するカメラ出力ボタンスイッチを表示する(ステップS191)。図17は、このときのウィンドウWDの一例を示す説明図である。図示するように、この動画映像表示用フィールドfd30のボタンスイッチ群fd32の右側に、カメラ出力ボタンスイッチfd40が設けられている。
【0082】
図16に戻り、ステップS191の実行後、CPU30は、作業者によるマウス操作によって、カメラ出力ボタンスイッチfd40がクリックされたか否かを判別する(ステップS192)。ここで、クリックされていないと判別された場合には、ステップS192の処理を繰り返して、カメラ出力ボタンスイッチfd40がクリックされるのを待つ。一方、ステップS192で、カメラ出力ボタンスイッチfd40がクリックされたと判別された場合には、コマ画像表示用フィールドfd10に現在表示中のシナリオデータ(選択中のシナリオデータ)をシナリオ格納ファイルSFから読み出す(ステップS193)。
【0083】
その後、CPU30は、そのシナリオデータに基づいてレンダリング処理を行なうことで、DVカメラ26への出力が可能な最終的な動画映像作品を作成する(ステップS194)。詳しくは、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3に格納される、動画映像クリップの先頭フレームを示すファイル名を先頭位置から順に読み出して、読み出した都度に、そのファイル名の先頭フレームに対応する動画映像クリップを読み出してレンダリングして、出力ファイルに先頭位置から順に書き出す。なお、この動画映像クリップにおいて、図14で示した開始点および終了点が指定されている場合には、その開始点から終了点までの範囲を出力ファイルに書き出すものとする。開始点および終了点の指定のない動画映像クリップについては全体をそのまま書き出す。
【0084】
この結果、この出力ファイルには、選択中のシナリオデータに登録された全ての動画映像クリップがその登録の順序、即ち、対応づけのなされた絵図データの配列順序と一致する順序で配列されることになる。こうしてシナリオデータに登録される全ての動画映像クリップを一の出力ファイルに書き出すことで、その出力ファイルからなる動画映像作品が作成される。例えば、図10に示すシナリオデータSD(4)のような構成の場合、”frame1”、”frame2”、…の各動画クリップがつなげられた動画映像作品が作成されることになる。なお、この出力ファイルはDVコーデックのデータ形式となっている。
【0085】
ステップS194の実行後、上記出力ファイルをDVカメラ26に出力する(ステップS195)。その後、リターンに抜けて、この出力ルーチンを終了する。なお、この出力ルーチンでは、作成した動画映像作品をDVカメラ26に書き戻す構成としたが、他のデータ形式のファイルで外部に出力することもできる。詳細には、「ファイル」のボタンfd51をクリックして図示しない出力ファイル変更用のフィールドを開いて、このフィールドから「MPEG」等の他のデータ形式を指定することで、動画映像作品を他のデータ形式のファイルで外部に出力することができる。
【0086】
また、上記出力ファイル変更用のフィールドから「絵図データも含む」という指示を行なうことで、上記出力ファイルのような動画映像クリップだけを含む構成に替えて、動画映像クリップとともに絵図データを含む出力ファイルを作成することもできる。この構成によれば、イラストの絵図がまず映ってから、そのイラストに関わる動画映像クリップが映し出され、次いで、次のイラストの絵図が映って、そのイラストに関わる動画映像クリップが続いて映し出されるといった、動画映像作品が作成されることになる。例えば、図10に示すシナリオデータSD(4)のような構成の場合、”ezu1”、”frame1”、”ezu2”、”frame2”、…の絵図データと動画クリップとが組となってつなげられた動画映像作品が作成されることになる。
【0087】
上記出力ルーチンの処理が終了すると、図4のステップS190を抜けて、動画映像編集処理のルーチンを終了する。
【0088】
なお、この動画映像編集処理のルーチンでは、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の5種類のタブTB1,TB2,TB3,TB4,TB5がこの順でマウス20の操作によりクリックされることで、各作業が実行されているが、これに替えて、一の作業が済むと、次の作業が自動的に実行されるように構成してもよい。また、こうしたタブの形態で各作業を進ませる構成に替えて、ウィザード形式の「進む」、「戻る」のボタンで各作業を進ませる構成としてもよい。
【0089】
以上のように構成されたこの実施例のコンピュータシステムによれば、予め用意したシナリオに含まれる特徴的な映像場面の絵図データに、各動画映像データを対応づけていくことで、各動画映像データはそれら映像場面の配列順序と一致する順序で配列される。このため、各動画映像データは予め用意したシナリオに従って配列されることになる。したがって、複数の動画映像データを良質な配列で並べる編集作業を容易に行なうことができる。
【0090】
また、この実施例では、DVカメラ26から動画映像データをキャプチャする作業を行ないながら、対応先の画像データへの対応づけがなされることから、作業性および操作性に優れている。特にこの実施例では、対応先の画像データが自動的に1つずつずれていくことから、素早く簡単に編集を行なうことができる。また、自動的にすべての画像データへの対応づけを作業者に促すことから、必要な動画映像を編集し忘れといったことがない。さらに、この実施例では、キャプチャした動画映像データに対して有効となる区間を指定することができることから、映像データに対して編集に使用する範囲を、必要に応じて微調整することができる。
【0091】
また、この実施例では、出力ファイルの形で出力される動画映像作品を、シナリオの特徴的な映像場面を示す絵図の画像データと映像データとが組をなして順につなげられたものに選択的に切り替えることができる。このために、動画映像データではなく、絵図の画像データも映すことができることから、より趣味性の高い映像作品を提供することができる。
【0092】
さらに、この実施例には、図3で示した上記オープニング/エンディング出力部51b−1およびオープニング/エンディング付与部51e−1により実現される、動画映像作品に自動的にオープニング画面、エンディング画面を挿入する機能が設けられている。この点について、以下詳述する。
【0093】
図18は、この実施例における「環境設定」のダイアログボックスDBの一例を示す説明図である。コンピュータプログラムに従って実行される動画映像編集の処理において、図示しないメインメニューから「設定」ボタン(図示せず)がマウス20によりクリックされると、この「環境設定」のダイアログボックスDBが表示されることになる。図示するように、「環境設定」のダイアログボックスDBには、「作業フォルダ」、「クリップ再生時の設定」、「オープニング画面/エンディング画面の設定」および「DVカメラの設定」用の各入力用フィールドfd61,fd62,fd63,fd64が備えられている。
【0094】
ここで特に関係のあるのは、「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63である。この入力用フィールドfd63には、オープニング画面のチェックボックスcb1と、エンディング画面のチェックボックスcb2とが設けられており、各チェックボックスcb1,cb2がマウス20によりクリックされると、その指定された画面を動画映像作品に自動的に挿入するという設定がなされる。
【0095】
「環境設定」のダイアログボックスDBによって環境設定の指示がなされると、CPU30は、そのダイアログボックスDBの入力内容に従って各種の設定を行なう。「オープニング画面/エンディング画面の設定」については、入力用フィールドfd63からの入力内容に従って、シナリオ格納ファイルSFを更新する処理を行なう。図6で表わしたのが、シナリオ格納ファイルSFであるが、ここでは、CPU30は、このシナリオ格納ファイルSFを更新する処理を行なう。
【0096】
詳細には、CPU30は、上記「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63において、オープニング画面のチェックボックスcb1がチェックされているときに、シナリオ格納ファイルSFに、オープニング画面を示す先頭画像データのファイル名を挿入する。また、CPU30は、上記入力用フィールドfd63において、エンディング画面のチェックボックスcb2がチェックされているときに、シナリオ格納ファイルSFに、エンディング画面を示す最後尾画像データのファイル名を挿入する。図19は、ステップS200による更新後のシナリオ格納ファイルSF′の一例を示す説明図である。図示するように、先頭画像データのファイル名(例えば、”openfr”)の挿入位置は、第1番目の絵図のコマezu71の手前、すなわち、「画像ファイル名」のデータアイテムDM3の先頭位置であり、最後尾画像データのファイル名(例えば”endfr”)の挿入位置は、最終の絵図の後方、すなわち、「画像ファイル名」のデータアイテムDM3の最後尾位置である。
【0097】
図20は、オープニング画面OPの一例を示す説明図である。このオープニング画面OPには、「タイトル」、「場所」および「日付」の3項目ofd1,ofd2,ofd3が掲載されている。「タイトル」の項目ofd1には、シナリオ格納ファイルSFの「分類」のデータアイテムDM1に格納された内容が入力されている。すなわち、結婚式、運動会、旅行、子供の成長記録、動物園といったシナリオに対応したタイトルが入力されている。「場所」の項目ofd2には、初期状態として、”in_____”が仮に入力され、後述するステップで、場所を示す文字列に書き換えられる。ダミーの文字列としては、”in ここに場所をいれて下さい”といった作業者に入力を促すものとすることもできる。「日付」の項目ofd3には、初期状態として、”00/00/00”が仮に入力され、後述するステップで、DVテープに記録されている日付に書き替えられる。
【0098】
図21は、エンディング画面EPの一例を示す説明図である。このエンディング画面EPには、「エンディング文字」、「撮影者」および「編集者」の3項目efd1,efd2,efd3が掲載されている。「エンディング文字」の項目efd1には、例えば、「END」とか「終」といった文字列が入力されている。「撮影者」の項目efd2には、初期状態として、”撮影_____”が仮に入力され、後述するステップで、撮影者を示す文字列に替えられる。ダミーの文字列としては、”撮影 ここに場所をいれて下さい”といった作業者に入力を促すものとすることもできる。「編集者」の項目efd3には、初期状態として、”編集_____”が仮に入力され、後述するステップで、編集者を示す文字列に書き替えられる。ダミーの文字列としては、”編集 ここに場所をいれて下さい”といった入力を促すものとすることもできる。
【0099】
図20および図21で示したオープニング画面OPおよびエンディング画面EPを示す先頭画像データおよび最後尾画像データは、ビットマップ形式の画像データで、上述したファイル名でもってHDD42に格納される。
【0100】
このコンピュータシステムでは、上述したように、図4で示したフローチャートに従って処理が実行されることによって、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の各作業が適宜実行される。「シナリオ」の作業は、前述したように、図7で示したシナリオルーチンに従って実行されるが、ここでは、前述したように、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3に、先頭画像データおよび最後尾画像データの各ファイル名が格納されていることから、シナリオルーチンのステップS116で表示される絵図データ(すなわち、選択された分類のシナリオに対応する絵図データ)は、オープニング画面OPおよびエンディング画面EPの各画像データを含んだものとなる。図22は、シナリオルーチンの実行後のウィンドウWDの一例を示す説明図である。図示するように、コマ画像表示用フィールドfd10に格納される、長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示され、その枠組の最後尾には、エンディング画面EPが表示されることになる。
【0101】
なお、図22に示した例は、「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63において、オープニング画面のチェックボックスcb1とエンディング画面のチェックボックスcb2とが共にチェックされた場合であり、オープニング画面のチェックボックスcb1がチェックされ、エンディング画面のチェックボックスcb2がチェックされていない場合には、上記長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示され、その枠組の最後尾には、エンディング画面EPは表示されることはない。また、オープニング画面のチェックボックスcb1がチェックされていなくて、エンディング画面のチェックボックスcb2がチェックされている場合には、上記長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示されずに、その枠組の最後尾には、エンディング画面EPが表示される。なお、両チェックボックスcb1,cb2が共にチェックされていない場合には、上記長尺上のフィルムを模した枠組には、オープニング画面OPもエンディング画面EPが表示されることはない。
【0102】
この実施例では、上述したように、「環境設定」のダイアログボックスDBにおいて「オープニング画面/エンディング画面の設定」が行なわれた場合に、シナリオ格納ファイルSFにオープニング画面やエンディング画面を挿入するファイル更新を行ない、この更新後のシナリオ格納ファイルSF′を用いて、コマ画像表示用フィールドfd10へのシナリオの表示を行なっている。この結果、コマ画像表示用フィールドfd10に表示される、選択された分類についてシナリオは、オープニング画面やエンディング画面を含むものとなる。こうした構成に替えて、次のような他の態様によっても、コマ画像表示用フィールドfd10への表示を行なうことができる。
【0103】
この他の態様では、シナリオ格納ファイルSFは、図6のままで、オープニング画面やエンディング画面を付加するファイル更新は行なわない。そして、「シナリオ」の作業において、シナリオ格納ファイルSFに基づいてコマ画像表示用フィールドfd10に、選択された分類についての表示を行なう際に、まず、「オープニング画面/エンディング画面の設定」の設定内容に基づいて、先頭位置や最後尾位置に、無地色(例えばブルー)のコマの画像データを付加するようにする。すなわち、オープニング画面のチェックボックスcb1がチェックされている場合には、先頭位置にその無地色のコマの画像データの付加を行ない、エンディング画面のチェックボックスcb2がチェックされている場合には、最後尾位置にそのコマの画像データの付加を行なう。
【0104】
その後、その無地色のコマの画像データに、選択されたシナリオの分類(すなわち、ステップS112で選択された分類)に基づいて、オープニング画面OPについては、図20に例示するような「タイトル」、「場所」および「日付」の3項目ofd1,ofd2,ofd3を、エンディング画面EPについては、図21に例示するような「エンディング文字」、「撮影者」および「編集者」の3項目efd1,efd2,efd3をそれぞれ書き込む。この結果、上述した例と同様に、コマ画像表示用フィールドfd10に、オープニング画面やエンディング画面を含むシナリオ(選択された分類のシナリオ)を表示することができる。
【0105】
「キャプチャ」の作業は、前述したように、図8で示したキャプチャルーチンに従って実行されるが、ここでは、DVカメラ26から動画映像をキャプチャした際に、DVテープに記録されている日付を読込んで、その読込んだ日付でもって、オープニング画面OPを示す先頭画像データの「日付」の項目ofd3の部分を書換える処理(図示せず)が実行される。図23は、キャプチャルーチンの実行後のオープニング画面OPの一例を示す説明図である。このオープニング画面OPでは、「日付」の項目ofd3が、DVテープに記録されている日付に替えられている。「編集」の作業は、図12で示した編集ルーチンに従って実行される。
【0106】
「効果」の作業は、ここでは、前述したシナリオデータに対してテロップを入れる機能を使って、オープニング画面OPおよびエンディング画面EPを所望のものに書き換える処理を行なっている。図24は、この「効果」の作業時のウィンドウWDの一例を示す説明図である。図示において、ウィンドウ中のコマ画像表示用フィールドfd10に表示中のシナリオデータから、オープニング画面OPまたはエンディング画面EPを選択して、その後、「部分効果」のタブfd42に設けられたテロップ設定用のボタンTbtをクリックすることで、テロップ設定用のダイアログボックスを表示する。
【0107】
図25は、テロップ設定用のダイアログボックスTDBを示す説明図である。図示するように、テロップ設定用のダイアログボックスTDBには、選択された画像における上段/中段/下段の3つの領域に対してそれぞれ文字を入力するための文字列入力用フィールドTfd1,Tfd2,Tfd3と、左右方向を調整する調整用ボタン群Tfd4と、文字の入力結果を選択された画像とともに表示するプレビュー画面Tfd5とが設けられている。作業者は、文字列入力用フィールドTfd1,Tfd2,Tfd3に対して、入力したいテロップの文字列を入力して、プレビュー画面Tfd5に表示される文字列の位置を見ながら、調整用ボタン群Tfd4を駆使して、そのテロップの文字列の左右方向を調整することで、選択した画像上の所望の領域にテロップを貼り付けることができる。
【0108】
図25は、オープニング画面OPが選択状態にあるときを例示しており、このオープニング画面OPの各項目ofd1,ofd2,ofd3が、上段/中段/下段の文字列入力用フィールドTfd1,Tfd2,Tfd3にそれぞれ対応する。このため、上段の文字列入力用フィールドTfd1には、「タイトル」の項目ofd1に入力された内容が表示され、中段の文字列入力用フィールドTfd2には、「場所」の項目ofd2に入力された内容が表示され、下段の文字列入力用フィールドTfd3には、「日付」の項目ofd3に入力された内容が表示される。作業者は、こうしたオープニング画面OPの各項目ofd1,ofd2,ofd3に既に入力されている内容を見て、必要に応じて、文字列入力用フィールドTfd1,Tfd2,Tfd3の内容を書き換えることで、それら項目ofd1,ofd2,ofd3の内容を所望のものに書き換えるができる。エンディング画面EPについても、同様の操作で、「エンディング文字」、「撮影者」、「編集者」の各項目efd1,efd2,efd3の内容を書き換えることができる。
【0109】
「出力」の作業は、前述したように、図16で示した出力ルーチンに従って実行されるが、実際は、ステップ194の動画映像作品の作成処理は次のように構成されている。図26は、動画映像作品の作成処理の詳細を示すフローチャートである。図示するように、CPU30は、まず、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3中に、オープニング画面を示す先頭画像データのファイル名が存在するか否かを判別し(ステップS194a)、ここで、その先頭画像データのファイル名が存在すると判別された場合には、そのファイル名に対応するオープニングの画像データをHDD42から読み出してレンダリングして、その画像データを出力ファイルにまず書き出す(ステップS194b)。
【0110】
ステップS194bの実行後、CPU30は、「画像ファイル名」のデータアイテムDM3に格納される、動画映像クリップの先頭フレームを示すファイル名を先頭位置から順に読み出して、読み出した都度に、そのファイル名の先頭フレームに対応する動画映像クリップを読み出してレンダリングして、出力ファイルに先頭位置から順に書き出す(ステップS194c)。なお、ステップS194aで、オープニング画面を示す先頭画像データのファイル名が存在しないと判別された場合には、ステップS194bの処理を読み飛ばして、ステップS194cに処理を進める。
【0111】
ステップS194cの実行後、CPU30は、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3中に、エンディング画面を示す最後尾画像データのファイル名が存在するか否かを判別し(ステップS194d)、ここで、その最後尾画像データのファイル名が存在すると判別された場合には、そのファイル名に対応するエンディングの画像データをHDD42から読み出してレンダリングして、その画像データを出力ファイルに書き出す(ステップS194e)。なお、ステップS194dで、エンディング画面を示す最後尾画像データのファイル名が存在しないと判別された場合には、ステップS194eの処理を読み飛ばす。その後、ステップ194の動画映像作品の作成処理を終了する。その後、図16のステップS195に処理を進めて、上記出力ファイルをDVカメラ26に出力する。
【0112】
こうした構成の出力ルーチンの結果、DVカメラ26に出力される出力ファイルは、シナリオに従う動画映像作品であり、かつ、オープニング画面、エンディング画面が挿入された作品を表すものとなる。なお、この実施例においては、ビットマップ形式の先頭画像データや最後尾画像データの出力を、所定の時間(例えば、2,3秒)だけ継続するようになされている。なお、先頭画像データのレンダリング時には、画像が徐々に大きくなるようにフェードインさせ、また、最後尾画像データのレンダリング時には、画像が徐々に小さくなって、フェードアウトさせる構成とすることもできる。さらには、先頭画像データや最後尾画像データの再生時に、音楽が流れるように音声データをクリップする構成とすることもできる。
【0113】
以上のような構成のコンピュータシステムでは、映像作品にオープニング画面とエンディング画面とを付与することができることから、良質な映像作品を作成することができる。
【0114】
また、この実施例では、オープニング画面やエンディング画面に、所望の文字列を簡単な操作で付与することができる。また、オープニング画面にDVテープに記録されている日付を自動的に付与することができる。従って、容易に、より一層良質な映像作品を作成することができる。
【0115】
なお、前記実施例では、デジタルビデオカメラにより撮影して得られた動画映像データを編集する構成であったが、これに替えて、外部(例えば、他のコンピュータ)から動画映像データを受信してその動画映像データを編集する構成としてもよい。また、動画映像に限る必要もなく、デジタルカメラにより撮影して得られた静止画の映像データを編集する構成としてもよい。
【0116】
また、前記実施例における絵図データを、ビットマップ形式の画像データに替えて、他の形式、例えば、JPEGとかGIFの形式の画像データとすることもできる。また、オープニング画面を示す先頭画像データやエンディング画面を示す最後尾画像データを、ビットマップ形式の画像データに替えて、他の形式、例えば、JPEGとかGIFの形式の画像データとすることもできる。さらに、先頭画像データや最後尾画像データを動画の映像データとすることもできる。
【0117】
上記実施例において、オープニング画面やエンディング画面に、さらに、他の項目、例えば、作業者が自由に入力可能なコメント欄等を掲載する構成としてもよい。
【0118】
さらに他の態様として次のような構成とすることもできる。「シナリオ」のタブTB1に基づく作業が実行されない状態で、「編集」のタブTB2が選択されたときに、DVカメラ26から動画編集に必要な所望の区間の動画映像データをキャプチャするとともに、そのキャプチャした動画映像データを順に配列することが可能な構成とする。この配列の作業は、キャプチャした動画映像の動画クリップを、ウィンドウWD内のコマ画像表示用のフィールドfd10に順に並べることで行なわれる構成とする。このときに、先頭位置や最後尾位置に、無地色のコマの画像データを付加するようにする。すなわち、オープニング画面のチェックボックスcb1がチェックされている場合には、先頭位置にその無地色のコマの画像データの付加を行ない、エンディング画面のチェックボックスcb2がチェックされている場合には、最後尾位置にそのコマの画像データの付加を行なう。なお、その無地色のコマの画像データに簡単な「始まり」とか「終わり」の文字列を付加するようにすることができる。また、「効果」のタブTB4からの作業により、その無地色のコマの画像データ上に所望の文字列を書き込みすることができる構成とすることもできる。その後、「出力」のタブTB5が選択されたときに、レンダリングを行ない、オープニング画面を含む映像作品を作成する。あるいは、エンディング画面を含む映像作品を作成する。あるいは、オープニング画面とエンディング画面の双方を含む映像作品を作成する。
【0119】
以上、本発明の一実施例を詳述してきたが、本発明は、こうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲において種々なる態様にて実施することができるのは勿論のことである。
【図面の簡単な説明】
【図1】この発明の一実施例を適用するコンピュータシステムの外観図である。
【図2】コンピュータシステムのハードウェアの概略構成を示すブロック図である。
【図3】コンピュータ本体16によって動画映像の編集がなされる処理の様子を示すブロック図である。
【図4】CPU30で実行される動画映像編集処理ルーチンを示すフローチャートである。
【図5】「シナリオ」のタブTB1が選択されたときのウィンドウWDの一例を示す説明図である。
【図6】シナリオ格納ファイルSFの内容を模式的に示す説明図である。
【図7】シナリオルーチンの詳細を示すフローチャートである。
【図8】キャプチャルーチンの詳細を示すフローチャートである。
【図9】「キャプチャ」のタブTB2が選択されたときのウィンドウWDの一例を示す説明図である。
【図10】動画映像の対応づけがなされた後のシナリオ格納ファイルSFの内容を模式的に示す説明図である。
【図11】図10に示したシナリオデータSD(4)に基づいてコマ画像表示用フィールドfd10を再表示したウィンドウWDを示す説明図である。
【図12】編集ルーチンの詳細を示すフローチャートである。
【図13】「編集」のタブTB3が選択されたときのウィンドウWDの一例を示す説明図である。
【図14】開始点および終了点の指定がなされた動画映像データを模式的に示す説明図である。
【図15】「効果」のタブTB4が選択されたときのウィンドウWDの一例を示す説明図である。
【図16】出力ルーチンの詳細を示すフローチャートである。
【図17】「出力」のタブTB5が選択されたときのウィンドウWDの一例を示す説明図である。
【図18】「環境設定」のダイアログボックスDBの一例を示す説明図である。
【図19】更新後のシナリオ格納ファイルSF′の一例を示す説明図である。
【図20】オープニング画面OPの一例を示す説明図である。
【図21】エンディング画面EPの一例を示す説明図である。
【図22】シナリオルーチンの実行後のウィンドウWDの一例を示す説明図である。
【図23】キャプチャルーチンの実行後のオープニング画面OPの一例を示す説明図である。
【図24】「効果」の作業時のウィンドウWDの一例を示す説明図である。
【図25】テロップ設定用のダイアログボックスTDBを示す説明図である。
【図26】動画映像作品の作成処理の詳細を示すフローチャートである。
【符号の説明】
10…コンピュータ
12…CRTディスプレイ
16…コンピュータ本体
18…キーボード
20…マウス
22…ROM
24…CDドライブ
26…DVカメラ
30…CPU
31…ROM
32…RAM
33…表示画像メモリ
34…マウスインタフェース
35…キーボードインタフェース
36…CDC
37…HDC
38…CRTC
40…DVインタフェース
41…I/Oポート
42…HDD
44…モデム
46…公衆電話回線
48…サーバ
51…コンピュータプログラム
51a…シナリオ選択部
51b…絵図出力制御部
51c…動画映像キャプチャ部
51d…映像データ対応づけ部
51e…映像作品出力部
52…ビデオドライバ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for creating a continuous video work by ordering a plurality of video data indicating moving images or still images according to a scenario.
[0002]
[Prior art]
In recent years, with the widespread use of digital video cameras at home, the emergence of application programs that can easily edit video images has been desired. In such a conventional video editing application program, a strip-like container with a time called a timeline is prepared on the display screen, and the icon of the first frame of the video image prepared on the screen is also dragged and dragged with the mouse. By moving in order on the timeline by the drop operation, a moving image work in which a plurality of moving images with the first frame displayed are connected can be created.
[0003]
[Problems to be solved by the invention]
However, the above-described conventional technique has a problem that it is impossible to obtain a high-quality video work only by determining the arrangement order of the moving image.
[0004]
An object of the present invention is to make it possible to create a high-quality video work.
[0005]
[Means for solving the problems and their functions and effects]
As means for solving at least a part of the problems described above, the following configuration is adopted.
[0013]
The video editing method of the present invention comprises:
(A) selecting one scenario from one or more scenarios according to an external instruction;
(B) displaying a plurality of pieces of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) receiving an operation command by an operator from the screen of the display device, and selectively associating the plurality of video data with each image data displayed on the screen;
(D) arranging the video data correlated in the step (c) so as to coincide with the arrangement order of the corresponding image data to create one continuous video work;
With
The step (b)
(B1) comprising: displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data;
The step (d)
(D1) comprising the step of including the head image data in the video work,
It is characterized by that.
[0014]
According to the video editing method having such a configuration, by associating each video data with a characteristic video scene included in the scenario, each video data is arranged in an order that matches the arrangement order of the video scenes. . For this reason, each video data is arranged according to a scenario. Therefore, the editing work for arranging a plurality of videos in a high-quality arrangement can be easily performed without leaving the editing sense of the operator. Furthermore, since an opening screen on which at least a title corresponding to the scenario is posted can be added to the video work, a high-quality video work can be created.
[0015]
The video editing method may include a step of (e) assigning a desired character string to the opening screen indicated by the head image data. According to this configuration, since a desired character string can be given to the opening screen, it is possible to create a higher quality video work.
[0016]
In the video editing method, (f) reading the creation date of the video data from a recording medium on which the video data is recorded, and (g) assigning the creation date to the opening screen indicated by the head image data And the step of performing. According to this configuration, the creation date of the video data can be automatically given to the opening screen.
[0017]
In the above video editing method,
The step (b)
(B2) including a step of displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The step (d)
(D2) comprising the step of including the last image data in the video work,
It can be configured.
[0018]
According to this configuration, since the ending screen can be given to the video work, a high-quality video work can be created.
[0019]
The video editing method configured to add the ending screen may include a step of (h) adding a desired character string to the ending screen indicated by the tail image data. According to this configuration, since a desired character string can be assigned to the ending screen, it is possible to create a higher quality video work.
[0020]
In the video editing method of the present invention, the video data may be moving image data obtained by photographing with a digital video camera. According to this configuration, editing of a moving image from a digital video camera is possible.
[0024]
The video editing apparatus of the present invention
A video editing device for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
Scenario selection means for selecting one scenario from one or more scenario titles according to an external instruction;
Pictorial image output control means for displaying a plurality of image data respectively showing characteristic video scenes included in the selected scenario on the screen of the display device in an arrangement according to the order of the scenario;
Video data associating means for selectively associating each of the plurality of video data with respect to each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
Video work creation means for arranging each video data correlated by the video data correlation means so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work;
With
The picture output control means includes
Means for displaying top image data indicating an opening screen on which at least a title corresponding to the scenario is posted, at a top position of the plurality of image data;
The video work creating means is:
Means for including the head image data in the video work;
It is characterized by that.
[0025]
The computer program of the present invention is
A computer program for creating a series of video works by ordering a plurality of video data representing moving images or still images according to a scenario,
(A) a function of selecting one scenario from one or a plurality of scenarios according to an external instruction;
(B) a function of displaying a plurality of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a function of selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
(D) a function of arranging each video data associated by the function (c) so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work;
Is realized on a computer,
The function (b) is
(B1) A function of displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data,
The function (d) is
(D1) having a function of including the head image data in the video work;
It features a computer program.
[0026]
The video editing apparatus and computer program of the present invention configured as described above have the same operations and effects as the video editing method, respectively, and can easily perform editing work for arranging a plurality of videos in a high quality array. Both the effect and the effect of creating a high-quality video work.
[0027]
The recording medium of the present invention is characterized by a computer-readable recording medium on which the computer program of the present invention is recorded. This recording medium has the same operations and effects as the video editing methods, video editing apparatuses, and computer programs of the present invention.
[0028]
Other aspects of the invention
The present invention includes other aspects as follows. The 1st aspect is an aspect as a program supply apparatus which supplies the 1st or 2nd computer program of this invention via a communication path. In the first aspect, the above-described apparatus and method are realized by placing a computer program on a server or the like on a computer network, downloading a necessary program to a computer via a communication path, and executing the program. Can do.
[0029]
The second aspect is a video editing method for creating a continuous video work, wherein (a) preparing a top image data indicating an opening screen; and (b) including the top image data in the video work. And a step. A third aspect is a video editing method for creating a continuous video work, comprising: (a) preparing tail image data indicating an ending screen; and (b) adding the tail image data to the video work. Including the step of including. Furthermore, as another aspect, it is an aspect as an apparatus or computer program provided with each component of the 3rd or 4th aspect.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
In order to further clarify the configuration and operation of the present invention described above, embodiments of the present invention will be described based on examples. FIG. 1 is an external view of a computer system to which one embodiment of the present invention is applied. The computer system includes a computer 10 and a CRT display 12. The computer 10 includes a computer main body 16, a keyboard 18, and a mouse 20. The computer main body 16 is equipped with a CD drive 24 for reading the contents of the CD-ROM 22. A digital video camera (hereinafter referred to as a DV camera) 26 is connected to the computer main body 16.
[0031]
FIG. 2 is a block diagram illustrating a schematic configuration of hardware of the computer system. As shown in the figure, the computer main body 16 includes a ROM 31, a RAM 32, a display image memory 33, a mouse interface 34, a keyboard interface 35, a CDC 36, an HDC 37, and a CRTC 38, which are mutually connected by a bus around a CPU 30 as a central processing unit. DV interface 40 and I / O port 41 are provided.
[0032]
The ROM 31 is a read-only memory that stores various built-in programs and the like. The RAM 32 is a readable / writable memory for storing various data. The display image memory 33 is a memory for storing image data of an image to be displayed on the CRT display 12. The mouse interface 34 is an interface that manages data exchange with the mouse 20. The keyboard interface 35 is an interface that manages key input from the keyboard 18. The CDC 36 is a CD controller that controls the CD drive (CDD) 24. The HDC 37 is a hard disk controller that controls a hard disk drive (HDD) 42.
[0033]
The CRTC 38 is a CRT controller that controls display of an image on the CRT display 12 based on display image data stored in the display image memory 33. The DV interface 40 is an interface that controls input of a moving image signal from the DV camera 26. The I / O port 41 has a serial output port, and is connected to a modem 44, and is connected to a public telephone line 46 via the modem 44. The computer 10 is connected to an external network via a modem 44 and can be connected to a specific server 48.
[0034]
In this computer system, the operating system is stored in the HDD 42, and when the computer main body 16 is turned on, it is loaded into a predetermined area of the RAM 32 according to the loader written in the boot block of the HDD 42. In addition, an application program (computer program) for editing the moving image captured from the DV camera 26 is stored in advance in the CD-ROM 22, and a predetermined installation program is started to start the computer main body 16 from the CD drive 24. To be installed. The installed computer program is stored in the HDD 42, and is loaded into a predetermined area of the RAM 32 when a predetermined activation command is received.
[0035]
Various configuration requirements of the present invention are realized by the CPU 30 executing a computer program for editing the moving image. As described above, this computer program is stored in the CD-ROM 22, but instead of this, another portable recording medium (portable recording medium) such as a floppy disk, a magneto-optical disk, or an IC card. It is good also as a structure stored in. The computer program can also be obtained by downloading program data provided via a network from a specific server 48 connected to an external network and transferring the program data to the RAM 32 or the HDD 42.
[0036]
Next, a description will be given of how a video image is edited by the computer system having the hardware configuration described above. FIG. 3 is a block diagram illustrating a process of editing a moving image by the computer main body 16. As shown in the figure, according to the computer program 51 operating inside the computer main body 16, first, a scenario for moving image editing is selected from a plurality of prepared scenarios by the scenario selection unit 51a. . The scenario here is for deciding the story of the video work that you are going to edit and creating, and there are several prepared in advance for the purpose of wedding, children's growth diary, athletic meet, zoo, etc. . Based on the operation signal input in response to the operation of the mouse 20 by the worker, the scenario selection unit 51a selects one scenario from the plurality of prepared scenarios.
[0037]
Next, a plurality of pieces of image data (hereinafter referred to as pictorial data) each showing a characteristic video scene included in the scenario selected by the scenario selection unit 51a as a pictorial map (for example, a pictorial picture of an illustration) follow the order of the scenario. The array is displayed on the CRT display 12. This display is performed by outputting a plurality of picture data to the video driver 52 by the picture output control unit 51b.
[0038]
On the other hand, the moving image capturing unit 51c captures moving image data in a desired section necessary for moving image editing from the DV camera 26. The captured moving image data is selected from among a plurality of picture data displayed on the CRT display 12 and is associated with the one picture data by the video data associating unit 51d. Note that moving image data of a desired section necessary for moving image editing is sequentially transmitted from the moving image capturing unit 51c, and the image data associating unit 51d sequentially displays these moving image data on the CRT display 12. A process for associating with any of the illustrated picture data is performed.
[0039]
Thereafter, each moving image video data associated by the video data associating unit 51d is connected by the video product creating unit 51e so as to coincide with the arrangement order of the corresponding picture data, so that one continuous moving image video product is obtained. , And outputs the moving image work to the video driver 52. In addition, if necessary, the video work is output to the outside in the form of a file.
[0040]
Further, the opening / ending output unit 51b-1 of the picture output control unit 51b displays the top image data indicating the opening screen on which at least the title corresponding to the scenario is posted at the start position of the plurality of picture data. The last image data indicating the ending screen is displayed at the last position of the plurality of image data. In addition, the opening / ending provision unit 51e-1 of the video product creation unit 51e includes an opening screen and an ending screen in the created video video product.
[0041]
Next, processing (moving image editing processing) according to the computer program 51 executed by the CPU 30 of the computer main body 16 will be described. FIG. 4 is a flowchart showing a routine of the moving image editing process. This routine is executed in response to an instruction to execute the computer program 51.
[0042]
As shown in the figure, when the process is started, the CPU 30 first performs a process of displaying a window WD indicating an initial screen on the CRT display 12 (step S100). FIG. 5 is an explanatory diagram showing the window WD. As shown in the figure, the initial screen window WD includes five types of tabs TB1, TB2, TB3, TB4, and TB5 of “scenario”, “capture”, “edit”, “effect”, and “output”. The operator can click on these tabs TB <b> 1 to TB <b> 5 with the mouse 20 in order to proceed with the movie editing operation on the screen of the CRT display 12. The “scenario” tab TB1 is used to execute an operation for selecting a scenario for editing a moving image. When this scenario is selected, a plurality of picture data indicating characteristic video scenes included in the selected scenario is displayed in the frame image display field fd10 in the window WD. Here, a single scenario includes a plurality of picture data. However, in some cases, one scenario may include one picture data.
[0043]
The “capture” tab TB2 captures moving image data of a desired section necessary for moving image editing from the DV camera 26, and the captured moving image data is displayed on any of a plurality of picture data displayed on the CRT display 12. This is for executing the work of associating with each other. The “edit” tab TB3 is used to finely adjust the range of the associated moving image data or change the position of the association. The “effect” tab TB4 is used to execute an operation of adding sound effects, telops, etc. to the work to be created. The “output” tab TB5 is used to execute a task of causing the DV camera 26 to output the moving image data edited by the operation from the “edit” tab TB3 as a moving image product.
[0044]
Note that the work performed when the “scenario” tab TB1 is selected corresponds to the scenario selection unit 51a and the picture output control unit 51b described above, and the work performed when the “capture” tab TB2 is selected. Corresponds to the moving image capturing unit 51c and the image data associating unit 51d described above, and the work performed when the “output” tab TB5 is selected corresponds to the image creation unit 51e.
[0045]
In the window WD of the initial screen shown in FIG. 5, a state in which the above-described “scenario” tab TB1 is selected is displayed. As shown in the figure, the window WD of the initial screen includes three data input fields fd1, fd2, and fd3 of “selection of classification”, “selection of work title”, and “scene material”, and a plurality of still images. And the above-described frame image display field fd10 for displaying image data of the image.
[0046]
The “classification selection” field fd1 is used to select a classification for the scenario. For example, wedding, athletic meet, travel, child growth record, zoo, and the like are prepared as options. In response to a click operation of the mouse 20 by the operator, one of these options is selected. The “work title selection” field fd2 is for selecting a scenario. For example, when a zoo is selected in the “classification selection” field fd1, a sports day, a sports day 1, a sports day 2, a sports day 3 Etc. are prepared as options. As described above, the scenario is for determining the story of the video work to be created by editing, and is stored in advance in the HDD 42 as scenario data. A scenario storage file is a collection of a plurality of scenario data.
[0047]
FIG. 6 is an explanatory diagram schematically showing the contents of the scenario storage file SF. As illustrated, the scenario storage file SF stores a plurality of scenario data SD. One scenario data SD corresponds to one line in the figure, and is composed of three data items DM1, DM2, and DM3 of “classification”, “work title”, and “image file name”. The scenario data SD is sorted according to the contents of the “classification” data item DM1.
[0048]
Data indicating the classification of the scenario is stored in the “classification” data item DM1, and the choices in the field “fd1” of “classification selection” provided in the window WD are determined by the contents of the data item DM1. Data indicating a scenario is stored in the data item DM2 of “work title”, and the choices in the field “fd2” of the “selection of work title” are determined by the contents of the data item DM2. In the “image file name” data item DM3, as shown in the figure, for example, a plurality of file names of pictorial data stored in the HDD 42 in a bitmap format such as “ezu41” and “ezu42” are stored. The plurality of file names are stored in a predetermined order based on the scenario. For example, if the “work title” is “athletic meet”, each characteristic video scene in the order considering the actual athletic meet program “opening ceremony”, “first grader race”, “second grader race” Is stored. The operation of storing the file name of the image data in the data item DM3 is hereinafter referred to as registration of the image data into the scenario data. The HDD 42 also stores attribute data that forms a set for each picture data. This attribute data is data indicating sound effects such as BGM, telop, and the like.
[0049]
Returning to the flowchart of FIG. 4, after the initial screen is displayed in step S100, the CPU 30 then shifts the processing to the scenario routine (step S110). FIG. 7 is a flowchart showing details of the scenario routine executed by the CPU 30. As shown in the figure, when the processing shifts to this scenario routine, the CPU 30 receives an operation of the mouse 20 by the operator in the window WD, inputs a desired category from the “class selection” field fd1, and “ A process of inputting a desired title from the “select title” field fd2 is performed (steps S112 and S114).
[0050]
Next, the CPU 30 displays picture data based on the classification and the work title input in steps S112 and S114 (step S116). Specifically, by comparing the classification and work title input in steps S112 and S114 with the scenario storage file SF, one scenario storage data SD whose classification and work title match is selected from the scenario storage file SF. Next, based on the contents of the data item DM3 of “image file name” stored in the selected scenario storage data SD, a plurality of bitmap data is read from the CD-ROM 22 or the HDD 42, and these graphic data are read out. The image is displayed in the frame image display field fd10 of the window WD. As shown in the figure, this display is performed so that each picture data is arranged in the order stored in the data item DM3 of “image file name” in a frame imitating a long film. Thereafter, the process returns to the return, and the processing of this scenario routine is once ended.
[0051]
Although not described in the flowchart of FIG. 7, the following various processes are performed in this scenario routine. As shown in FIG. 5, a plurality of scene materials belonging to the contents selected in the data input field fd1 of “selection of classification” are displayed in the data input field fd3 of “scene material” of the window WD. Is done. The material of this scene is the same as the bitmap format image data displayed in the frame image display field fd10. By using the material of this scene, the worker can change the scenario as a set of picture data provided in advance in the form of the scenario storage file SF, and can create an original scenario.
[0052]
Specifically, the operator drags the image data of the material of one scene from the data input field fd3 of the “scene material” with the mouse 20 to display a plurality of images displayed in the frame image display field fd10. Then, the mouse 20 is clicked on a “scenario registration” button BT1 below the field fd3 for data input of “scene material”. As a result, the content of the frame image display field fd10 is displayed with the image data of “scene material” selected by the mouse 20 added immediately after the picture data dropped by the mouse 20. At this time, correction is performed to add the file name of the image data of “scene material” so that the content of the data item DM3 of “image file name” of the scenario storage file SF also matches the display. In this configuration, the existing scenario is overwritten and corrected, but instead, it may be configured to newly store as another work title.
[0053]
The contents stored in the data item DM3 of the “image file name” of the scenario storage file SF are clicked on one frame of the image data displayed in the frame image display field fd10, and the [Delete] key is selected from the keyboard 18. It is also possible to correct deletion by inputting.
[0054]
When the scenario routine process ends, the process proceeds to step S120 in FIG. 4, and the CPU 30 determines whether or not the “capture” tab TB2 is selected by the operation of the mouse 20 by the operator (step S120). . Here, if it is determined that it has not been selected, the process of step S120 is repeatedly executed to wait for the tab TB2 to be selected. On the other hand, if it is determined in step S120 that the “capture” tab TB2 has been selected, the CPU 30 shifts the processing to the capture routine (step S130).
[0055]
FIG. 8 is a flowchart showing details of the capture routine executed by the CPU 30. As shown in the figure, when the processing shifts to this capture routine, the CPU 30 first displays a moving image capture field fd20 for capturing a moving image on the window WD (step S131). FIG. 9 is an explanatory diagram showing an example of the window WD at this time. As shown in the drawing, the moving image capture field fd20 is a model of a small television, and includes a screen part fd21 and a button switch group fd22.
[0056]
Returning to FIG. 8, the CPU 30 then sets the initial value 0 to the variable i (step S132), and then increments the variable i by the value 1 (step S133). After that, the CPU 30 displays the scenario data currently displayed in the frame image display field fd10, that is, the scenario data selected in the “scenario” tab TB1 (hereinafter, such scenario data is referred to as “selected scenario data”). Is read from the scenario storage file SF, and the picture data (actually the file name) stored in the data item DM3 of the “image file name” of the scenario data is counted in order from the top position, and matches the number of the variable i. Number picture data (same as above) is specified (step S134).
[0057]
If necessary, the operator clicks the frame of the picture displayed in the frame image display field fd10 with the mouse 20 to correspond to the specific position of the picture data corresponding to the clicked picture frame. The position can be changed (that is, the value of the variable i is changed) (step S135).
[0058]
Thereafter, the CPU 30 performs a process of capturing a moving image from the DV camera 26 (step S136). This capture processing is performed using the moving image capture field fd20 displayed in the window WD. Hereinafter, the capture process will be described in detail.
[0059]
Below the field fd20 for moving picture capture, the above-mentioned button switch that plays the moving picture on the screen fd21 of the field fd20, stops the playback, fast forwards, rewinds, or pauses the playback. A group fd22 is provided. By operating these button switch groups fd22 with the mouse 20, the operator can freely capture a moving image from the DV camera 26 connected to the computer 10 and reproduce it on the screen unit fd21 of the field fd20. Furthermore, a capture button fd23 is provided at the lower right of the button switch group fd22. The capture button fd23 is for capturing a desired section from the moving image reproduced on the screen unit fd21.
[0060]
The operator operates the button switch group fd22 to reproduce the moving image from the DV camera 26 on the screen portion fd21 of the moving image capturing field fd20. When the moving image reaches the start point to be captured, the worker first clicks a “pause” button or a “stop” button in the button switch group fd22 to temporarily stop reproduction. Thereafter, the capture button fd23 is clicked once. When the capture button fd23 is clicked, the playback of the moving image is resumed, and when the capture button fd23 is clicked once, the function is switched to a function for designating the end point to be captured. When the reproduction proceeds to the end point, the capture button f23 is clicked again.
[0061]
By performing a series of operations with the mouse 20 as described above, a desired section can be captured from the moving image captured by the DV camera 26. The captured video data of the desired section (hereinafter also referred to as a video clip) is stored in the HDD 42 in the avi format. Note that audio data is also included in the avi format video clip. At the time of capture, image data indicating the first frame of the moving image clip is stored in the HDD in pairs with the moving image clip in the avi format.
[0062]
After execution of step S136, the CPU 30 adds the file name of the image data of the first frame for the video clip captured in step S136 immediately after the picture data (actually the file name) specified in step S134 or S135. Processing is performed (step S137).
[0063]
In this embodiment provided with a storage file having a data structure as shown in FIG. 6, as shown in FIG. 5, when the classification is selected as “Sports Day” and the title of work is “Sports Day 3”, as described above. The fourth scenario data SD (4) is selected. As a result, in the frame image display field fd10 on the window WD, a feature image included in the “athletic meet 3” scenario as shown in FIG. 5 is displayed. In this state, after the “capture” tab TB2 is selected, when the moving image is first captured using the moving image capturing field fd20, the variable i is set to the value 1 in step S133. In step S138, the file name of the first frame of the captured moving image is added immediately after the first picture data corresponding to the value of the variable i. That is, as shown in FIG. 10, in the fourth scenario data SD (4), the file name of the first picture data = “ezu41” and the file name of the second picture data = “ezu42”. In addition, the file name = “frame1” of the first frame of the captured moving image is added.
[0064]
Returning to FIG. 8, after the execution of step S137, based on the scenario data updated in step S137, a process for redisplaying the contents of the frame image display field fd10 is performed (step S138). FIG. 11 is an explanatory diagram showing a window WD in which the frame image display field fd10 is redisplayed based on the scenario data SD (4) shown in FIG. As shown in FIG. 11, the first frame FM1 of the captured moving image is added between the frame CM1 of the first picture and the frame CM2 of the second picture.
[0065]
When the scenario data is updated in step 137, the attribute data of the picture data arranged immediately before the added position is copied as it is in association with the movie clip corresponding to the file name of the added first frame. The process of storing the attribute data is also performed. That is, attribute data such as sound effects of the associated picture data is automatically set for the added video clip. In the process of copying the attribute data, it is possible to copy only predetermined types of data among the attribute data, or not to copy any type of attribute data. . These changes can be freely set by the operator from the screen.
[0066]
Returning to FIG. 8, after the execution of step S138, the variable i is the maximum value, that is, the number of picture data stored in the data item DM3 of the image file name of the scenario data in the selected state (the first frame added in step S137). Is not included in the number) (step S139). Here, when it is determined that the value does not exceed, the process returns to step S133, and the steps after step S133 are repeatedly processed. On the other hand, when it is determined in step S139 that the variable i has exceeded the maximum value, the process proceeds to step 13A, and other processes are performed. Thereafter, the process returns to “RETURN”, and the process of this capture routine is temporarily performed. finish. Here, the other process is a process of adding a plurality of moving image video clips between two frames of a picture as described later.
[0067]
According to the capture routine configured as described above, every time one moving image data is captured from the DV camera 26 using the moving image capturing field fd20, the captured moving image clip is selected as scenario data. It is automatically registered in SD. In this registration, the "first file clip" is immediately after the first picture data, the second video clip is immediately after the second picture data, and so on. The storage order of the data item DM3 is shifted backward one by one in order. Further, according to this capture routine, when the moving image data is captured after the operator clicks on the frame of the picture displayed in the frame image display field fd10 with the mouse 20, The registration position of the captured video clip is changed immediately after the image data of the clicked picture.
[0068]
In this capture routine, although not shown in the flowchart, the first frame of the moving image data added between the frame of the picture displayed in the frame image display field fd10 (for example, FIG. 11). When the moving image data is captured after the operator clicked on the first frame FM1) shown in FIG. 1, the registered position of the captured moving image clip is set immediately after the clicked frame. It has changed. According to this configuration, it is possible to add a plurality of moving image video clips between two picture frames arranged in succession. Further, in the frame image display field fd10, a frame of the first frame indicating a moving image video clip can be moved between frames of other picture data by a drag and drop operation of the mouse 20.
[0069]
When the capture routine process ends, the process proceeds to step S140 in FIG. 4, and the CPU 30 determines whether or not the “edit” tab TB3 is selected by the operation of the mouse 20 by the operator. If it is determined that it is not selected, the process of step S140 is repeatedly executed to wait for the tab TB3 to be selected. On the other hand, if it is determined in step S140 that the “edit” tab TB3 has been selected, the CPU 30 shifts the processing to an editing routine (step S150).
[0070]
FIG. 12 is a flowchart showing details of the editing routine executed by the CPU 30. As shown in the figure, when the processing shifts to this editing routine, the CPU 30 first displays a moving image display field fd30 for displaying a moving image on the window WD (step S151). FIG. 13 is an explanatory diagram showing an example of the window WD at this time. As shown in the figure, the moving image display field fd30 is largely different from the moving image display field fd20 shown in FIG. 9 displayed when the “capture” tab TB21 is selected. Are switches provided other than the button switch group fd32. On the left side of the button switch group fd32, button switches fd33 and fd34 for designating the in and out points labeled "IN" and "OUT" are provided. The button switches fd33 and fd34 for designating the in point and the out point are used for trimming a portion necessary for editing from the moving image video clip.
[0071]
Returning to FIG. 12, after executing step S151, the CPU 30 starts a process of reproducing any moving image video clip registered in the selected scenario data in the moving image display field fd30 (step S152). Specifically, when an operator clicks on the top frame of one video video clip of each frame displayed in the frame image display field fd10, the video data corresponding to the top frame is obtained. A process of reading from the HDD 42 and reproducing the moving image data in the moving image display field fd30 is started.
[0072]
When the operator comes to the start point to be trimmed while watching the video image reproduced on the screen part fd31 of the video image display field fd30, the operator clicks the in-point designation button switch fd33 to end the point to be trimmed. Is clicked, the button switch fd34 for designating the out point is clicked. After executing step S152, the CPU 30 determines whether or not there is an input from the in-point specifying button switch fd33 (step S153). If it is determined that there is no input, the processing in step S153 is repeated, and the input from the button switch fd33 for in-point designation is waited. On the other hand, if it is determined in step S153 that there is an input, the playback position is designated as the start point for the moving image data being played back (step S154).
[0073]
After executing step S154, the CPU 30 determines whether or not there is an input from the button switch fd34 for designating the out point (step S155). If it is determined that there is no input, the process of step S155 is repeated, and an input from the button switch fd34 for designating the out point is awaited. On the other hand, if it is determined in step S155 that there is an input, the playback position is designated as the end point for the moving image data being played back (step S156).
[0074]
In this embodiment, the moving image is reproduced on the screen portion fd31 and the in point and the out point are designated. Instead, a slider for adjusting the moving image display position is displayed on the screen. The slider can be operated with the mouse and the IN point and OUT point can be designated.
[0075]
FIG. 14 is an explanatory diagram schematically showing moving image video data in which the start point and the end point are specified. As shown in the drawing, the moving image data has a start point and an end point. A range between the start point and the end point (indicated by hatching in the drawing) is a range necessary for editing designated by the operator, that is, an effective range. Therefore, the operator can finely adjust the range used for editing the moving image data captured by the work from the “capture” tab TB2 as necessary.
[0076]
Returning to FIG. 12, after executing step S156, the CPU 30 ends the reproduction started in step S152 (step S157), and then determines whether or not all editing has been completed (step S158). This determination is made depending on whether other tabs TB1, TB2, TB4, and TB5 are selected. If it is determined that all editing has not been completed, the process returns to step S152 to perform new editing.
[0077]
As shown in FIG. 13, a button switch fd35 with scissors marks is provided on the right side of the button switch group f32. Although the detailed flow of processing using the button switch fd35 is not described in the flowchart of FIG. 12, the registered moving image editing clip can be divided at a desired point by the button switch fd35.
[0078]
On the other hand, if it is determined in step S158 that all editing has been completed, the editing routine is terminated. When the processing of the editing routine ends, the process proceeds to step S160 in FIG. 4, and the CPU 30 determines whether or not the “effect” tab TB4 is selected by the operation of the mouse 20 by the operator. Here, when it is determined that it is not selected, the process of step S160 is repeatedly executed to wait for the tab TB4 to be selected. On the other hand, if it is determined in step S160 that the “effect” tab TB4 has been selected, the CPU 30 proceeds to the effect routine (step S170).
[0079]
When the processing shifts to this effect routine, the window WD is displayed as shown in FIG. The effect routine performs various input operations from this window WD, and thereby performs an operation of adding sound effects, telops, etc. to the scenario data edited from the “edit” tab TB3. Although detailed description of the processing flow is omitted here, when the “overall effect” tab fd41 in FIG. 15 is clicked, the scenario data currently selected is displayed in the entire story determined from the scenario data. A sound effect or the like can be applied to the “partial effect” tab fd42, and a sound effect or the like is applied to one video image clip registered in the currently selected scenario data. Can do. Here, the above-described attribute data is recorded so as to be rewritten. As described above, such attribute data is stored separately associated with the moving image clip, but the process of converting both into a single file form is executed by a rendering process described later. .
[0080]
When the processing of this effect routine is completed, the processing proceeds to step S180 in FIG. 4, and the CPU 30 determines whether or not the “output” tab TB5 is selected by the operation of the mouse 20 by the operator. If it is determined that it is not selected, the process of step S180 is repeatedly executed to wait for the tab TB5 to be selected. On the other hand, if it is determined in step S180 that the “output” tab TB5 has been selected, the CPU 30 shifts the processing to an output routine (step S190).
[0081]
FIG. 16 is a flowchart showing details of an output routine executed by the CPU 30. As shown in the figure, when the processing shifts to this output routine, the CPU 30 first displays a camera output button switch for instructing DV camera output in the moving image display field fd30 in the window WD (step S191). FIG. 17 is an explanatory diagram showing an example of the window WD at this time. As shown in the drawing, a camera output button switch fd40 is provided on the right side of the button switch group fd32 of the moving image display field fd30.
[0082]
Returning to FIG. 16, after executing step S191, the CPU 30 determines whether or not the camera output button switch fd40 has been clicked by the mouse operation by the operator (step S192). If it is determined that the button has not been clicked, the process in step S192 is repeated to wait for the camera output button switch fd40 to be clicked. On the other hand, if it is determined in step S192 that the camera output button switch fd40 has been clicked, the scenario data currently displayed in the frame image display field fd10 (selected scenario data) is read from the scenario storage file SF ( Step S193).
[0083]
Thereafter, the CPU 30 performs a rendering process based on the scenario data, thereby creating a final moving image work that can be output to the DV camera 26 (step S194). Specifically, the file name indicating the first frame of the moving image video clip, which is stored in the data item DM3 of the “image file name” of the scenario data read in step S193, is read in order from the start position, and each time the file is read, the file The video clip corresponding to the first frame of the name is read and rendered, and written to the output file in order from the first position. If the start point and end point shown in FIG. 14 are specified in this moving image video clip, the range from the start point to the end point is written to the output file. The entire video clip with no start point and no end point is written as it is.
[0084]
As a result, in this output file, all the moving picture video clips registered in the selected scenario data are arranged in the order of registration, that is, the order that matches the arrangement order of the associated picture data. become. In this way, by writing all the moving picture clips registered in the scenario data to one output file, a moving picture work composed of the output files is created. For example, in the case of a configuration such as scenario data SD (4) shown in FIG. 10, a moving image work in which each moving image clip of “frame 1”, “frame 2”,... Is connected is created. This output file is in the DV codec data format.
[0085]
After execution of step S194, the output file is output to the DV camera 26 (step S195). Thereafter, the process returns to return, and this output routine is terminated. In this output routine, the created moving image work is written back to the DV camera 26, but it can also be output to the outside as a file of another data format. More specifically, by clicking the “file” button fd51 to open a field for changing an output file (not shown) and designating another data format such as “MPEG” from this field, Data format files can be output externally.
[0086]
In addition, by giving an instruction “include picture data” from the output file change field, the output file includes picture data together with the video clip instead of the structure including only the video clip such as the output file. Can also be created. According to this configuration, the illustration picture is first shown, then the video clip related to the illustration is shown, and then the next illustration picture is shown, followed by the video clip related to the illustration. A video work will be created. For example, in the case of the configuration like the scenario data SD (4) shown in FIG. 10, the picture data of “ezu1”, “frame1”, “ezu2”, “frame2”,... Will be created.
[0087]
When the processing of the output routine is completed, the process exits step S190 of FIG. 4 and ends the moving image editing process routine.
[0088]
In this moving image editing process routine, the five types of tabs TB1, TB2, TB3, TB4, and TB5 of “scenario”, “capture”, “edit”, “effect”, and “output” are arranged in this order. Each operation is executed by clicking on the above operation, but instead, it may be configured such that the next operation is automatically executed when one operation is completed. Further, instead of the configuration in which each work is advanced in the form of such a tab, a configuration may be adopted in which each work is advanced by a “forward” or “back” button in a wizard format.
[0089]
According to the computer system of this embodiment configured as described above, each moving image video data is associated with the image data of the characteristic video scene included in the scenario prepared in advance. Are arranged in an order that matches the arrangement order of the video scenes. For this reason, each moving image data is arranged according to a scenario prepared in advance. Therefore, it is possible to easily perform an editing operation for arranging a plurality of moving image data in a high quality array.
[0090]
Further, in this embodiment, the work to capture the moving image data from the DV camera 26 is performed while being associated with the corresponding image data, so that the workability and the operability are excellent. Particularly in this embodiment, the corresponding image data is automatically shifted one by one, so that editing can be performed quickly and easily. In addition, since the operator is automatically prompted to associate all the image data, the user does not forget to edit the necessary moving image. Furthermore, in this embodiment, since a valid section for the captured moving image data can be designated, the range used for editing the video data can be finely adjusted as necessary.
[0091]
Also, in this embodiment, a moving image work output in the form of an output file is selectively selected as a combination of image data and image data of a picture showing a characteristic video scene of a scenario in a pair. You can switch to For this reason, not only moving image data but also image data of a picture can be displayed, so that a video work with higher hobby can be provided.
[0092]
Furthermore, in this embodiment, an opening screen and an ending screen are automatically inserted into the moving image work realized by the opening / ending output unit 51b-1 and the opening / ending giving unit 51e-1 shown in FIG. Function is provided. This point will be described in detail below.
[0093]
FIG. 18 is an explanatory diagram showing an example of the “environment setting” dialog box DB in this embodiment. In a moving image editing process executed according to a computer program, when a “setting” button (not shown) is clicked with a mouse 20 from a main menu (not shown), this “environment setting” dialog box DB is displayed. become. As shown in the figure, the “environment setting” dialog box DB includes “work folder”, “setting for clip playback”, “setting for opening / ending screen”, and “setting for DV camera” for each input. Fields fd61, fd62, fd63, and fd64 are provided.
[0094]
Here, the input field fd63 for “setting of the opening screen / ending screen” is particularly relevant. This input field fd63 is provided with a check box cb1 for the opening screen and a check box cb2 for the ending screen. When the check boxes cb1 and cb2 are clicked with the mouse 20, the designated screen is displayed. A setting is made to automatically insert into a video work.
[0095]
When an environment setting instruction is given by the “environment setting” dialog box DB, the CPU 30 performs various settings in accordance with the input contents of the dialog box DB. For “opening screen / ending screen setting”, the scenario storage file SF is updated in accordance with the input content from the input field fd63. FIG. 6 shows a scenario storage file SF. Here, the CPU 30 performs a process of updating the scenario storage file SF.
[0096]
Specifically, the CPU 30 displays the opening screen in the scenario storage file SF when the opening screen check box cb1 is checked in the input field fd63 for “setting of the opening screen / ending screen”. Insert the file name of the image data. In addition, when the ending screen check box cb2 is checked in the input field fd63, the CPU 30 inserts the file name of the last image data indicating the ending screen into the scenario storage file SF. FIG. 19 is an explanatory diagram showing an example of the scenario storage file SF ′ after the update in step S200. As shown in the drawing, the insertion position of the file name (for example, “openfr”) of the top image data is the front position of the data item DM3 of “image file name”, that is, before the frame eu71 of the first picture. The insertion position of the file name (for example, “endfr”) of the last image data is behind the last picture, that is, the last position of the data item DM3 of “image file name”.
[0097]
FIG. 20 is an explanatory diagram showing an example of the opening screen OP. On this opening screen OP, three items ofd1, ofd2, and ofd3 of “title”, “location”, and “date” are posted. In the “title” item ofd1, the content stored in the “classification” data item DM1 of the scenario storage file SF is input. That is, titles corresponding to scenarios such as weddings, athletic meet, travel, children's growth records, and zoos are entered. In the “location” item ofd2, “in_____” is temporarily input as an initial state, and is rewritten into a character string indicating the location in a step described later. As a dummy character string, it is possible to prompt the operator to input such as “in, place here”. In the “date” item ofd3, “00/00/00” is temporarily input as an initial state, and is rewritten to the date recorded on the DV tape in a later-described step.
[0098]
FIG. 21 is an explanatory diagram showing an example of the ending screen EP. In this ending screen EP, three items efd1, efd2, and efd3 of “ending character”, “photographer”, and “editor” are posted. For example, a character string such as “END” or “End” is input to the item “efd1” of “Ending Character”. In the item “efd2” of “photographer”, “photographing _____” is temporarily input as an initial state, and is changed to a character string indicating the photographer in a step described later. As a dummy character string, it is possible to prompt the operator to input such as “Please take a place here”. In the “editor” item efd3, “edit_____” is temporarily input as an initial state, and is rewritten to a character string indicating the editor in a later-described step. As a dummy character string, it is also possible to prompt for an input such as “Please enter a place here”.
[0099]
The first image data and the last image data indicating the opening screen OP and the ending screen EP shown in FIGS. 20 and 21 are bitmap format image data, and are stored in the HDD 42 with the above-described file names.
[0100]
In this computer system, as described above, processing is executed in accordance with the flowchart shown in FIG. 4, so that “scenario”, “capture”, “edit”, “effect”, and “output” operations are appropriately executed. Is done. As described above, the work of “scenario” is executed according to the scenario routine shown in FIG. 7. Here, as described above, the data item DM3 of “image file name” of the scenario storage file SF is the head. Since the file names of the image data and the last image data are stored, the picture data displayed in step S116 of the scenario routine (that is, the picture data corresponding to the selected classification scenario) is the opening screen OP. In addition, each image data of the ending screen EP is included. FIG. 22 is an explanatory diagram showing an example of the window WD after execution of the scenario routine. As shown in the figure, an opening screen OP is displayed at the beginning of a frame imitating a long film stored in the frame image display field fd10, and an ending screen EP is displayed at the end of the frame. Will be.
[0101]
The example shown in FIG. 22 is a case where both the opening screen check box cb1 and the ending screen check box cb2 are checked in the input field fd63 for “opening screen / ending screen setting”. When the check box cb1 on the opening screen is checked and the check box cb2 on the ending screen is not checked, the opening screen OP is displayed at the top of the frame imitating the above-mentioned long film, and the frame of the frame is displayed. At the end, the ending screen EP is not displayed. If the opening screen check box cb1 is not checked and the ending screen check box cb2 is checked, an opening screen OP is displayed at the top of the frame imitating the above-mentioned long film. Instead, an ending screen EP is displayed at the end of the frame. When both the check boxes cb1 and cb2 are not checked, the opening screen OP and the ending screen EP are not displayed on the frame imitating the long film.
[0102]
In this embodiment, as described above, when “opening screen / ending screen setting” is performed in the “environment setting” dialog box DB, the file update for inserting the opening screen and the ending screen into the scenario storage file SF is performed. The scenario is displayed in the frame image display field fd10 using the updated scenario storage file SF ′. As a result, the scenario for the selected classification displayed in the frame image display field fd10 includes an opening screen and an ending screen. In place of such a configuration, display in the frame image display field fd10 can be performed also by other modes as described below.
[0103]
In this other aspect, the scenario storage file SF remains as shown in FIG. 6, and the file update for adding the opening screen and the ending screen is not performed. In the “scenario” operation, when displaying the selected classification in the frame image display field fd10 based on the scenario storage file SF, first, the setting contents of the “opening screen / ending screen setting” are set. Based on the above, image data of a plain color (for example, blue) frame is added to the head position and the tail position. That is, when the check box cb1 on the opening screen is checked, the image data of the plain color frame is added to the head position, and when the check box cb2 on the ending screen is checked, The image data of the frame is added to the position.
[0104]
Thereafter, based on the classification of the selected scenario (that is, the classification selected in step S112), the opening screen OP includes “title” as illustrated in FIG. The “item” and “date” three items ofd1, ofd2, and ofd3, and the ending screen EP, the “ending character”, “photographer”, and “editor” three items efd1, efd2 as illustrated in FIG. , Efd3 are written respectively. As a result, as in the above-described example, a scenario including the opening screen and the ending screen (scenario of the selected classification) can be displayed in the frame image display field fd10.
[0105]
As described above, the “capture” operation is executed according to the capture routine shown in FIG. 8, but here, when a moving image is captured from the DV camera 26, the date recorded on the DV tape is read. Thus, a process (not shown) for rewriting the “date” item ofd3 of the top image data indicating the opening screen OP is executed based on the read date. FIG. 23 is an explanatory diagram showing an example of the opening screen OP after execution of the capture routine. In this opening screen OP, the item “ofd3” of “date” is changed to the date recorded on the DV tape. The “editing” operation is executed according to the editing routine shown in FIG.
[0106]
In the “effect” operation, here, a process of rewriting the opening screen OP and the ending screen EP to a desired one is performed using the above-described function for inserting a telop on the scenario data. FIG. 24 is an explanatory diagram showing an example of the window WD during the “effect” work. In the drawing, the opening screen OP or the ending screen EP is selected from the scenario data being displayed in the frame image display field fd10 in the window, and then a telop setting button provided in the “partial effect” tab fd42 By clicking Tbt, a dialog box for setting a telop is displayed.
[0107]
FIG. 25 is an explanatory diagram showing a dialog box TDB for setting a telop. As shown in the figure, the telop setting dialog box TDB includes character string input fields Tfd1, Tfd2, and Tfd3 for inputting characters to the upper, middle, and lower regions of the selected image. An adjustment button group Tfd4 for adjusting the horizontal direction and a preview screen Tfd5 for displaying a character input result together with a selected image are provided. The operator inputs the character string of the telop to be input to the character string input fields Tfd1, Tfd2, and Tfd3, and sets the adjustment button group Tfd4 while viewing the position of the character string displayed on the preview screen Tfd5. By making full use of the text string of the telop, the telop can be pasted in a desired area on the selected image.
[0108]
FIG. 25 exemplifies a case where the opening screen OP is in a selected state. The items ofd1, ofd2, and ofd3 of the opening screen OP are displayed in the upper / middle / lower character string input fields Tfd1, Tfd2, and Tfd3. Each corresponds. Therefore, the contents input in the “title” item ofd1 are displayed in the upper character string input field Tfd1, and the “location” item ofd2 is input in the middle character string input field Tfd2. The contents are displayed, and the contents input in the “date” item ofd3 are displayed in the lower character string input field Tfd3. The operator looks at the contents already entered in each item ofd1, ofd2, and ofd3 of the opening screen OP, and rewrites the contents of the character string input fields Tfd1, Tfd2, and Tfd3 as necessary. The contents of the items ofd1, ofd2, and ofd3 can be rewritten as desired. With respect to the ending screen EP, the contents of the items “efd1, efd2, efd3” of “ending character”, “photographer”, and “editor” can be rewritten by the same operation.
[0109]
As described above, the “output” operation is executed according to the output routine shown in FIG. 16, but in reality, the process of creating a moving image work in step 194 is configured as follows. FIG. 26 is a flowchart showing the details of the process of creating a moving image work. As shown in the figure, the CPU 30 first determines whether or not the file name of the first image data indicating the opening screen exists in the data item DM3 of “image file name” of the scenario data read out in step S193 ( In step S194a), if it is determined that the file name of the head image data exists, the opening image data corresponding to the file name is read from the HDD 42 and rendered, and the image data is converted into an output file. First, writing is performed (step S194b).
[0110]
After execution of step S194b, the CPU 30 sequentially reads out the file name indicating the first frame of the moving image video clip stored in the data item DM3 of “image file name” from the top position, and each time the file name is read, The moving image video clip corresponding to the top frame is read and rendered, and written in the output file in order from the top position (step S194c). If it is determined in step S194a that the file name of the first image data indicating the opening screen does not exist, the process of step S194b is skipped and the process proceeds to step S194c.
[0111]
After executing step S194c, the CPU 30 determines whether or not the file name of the last image data indicating the ending screen exists in the data item DM3 of “image file name” of the scenario data read out in step S193 ( Step S194d) When it is determined that the file name of the last image data exists, the ending image data corresponding to the file name is read from the HDD 42 and rendered, and the image data is output to the output file. (Step S194e). When it is determined in step S194d that the file name of the last image data indicating the ending screen does not exist, the process of step S194e is skipped. Thereafter, the creation process of the moving image work in step 194 is terminated. Thereafter, the process proceeds to step S195 in FIG. 16, and the output file is output to the DV camera 26.
[0112]
As a result of the output routine having such a configuration, the output file output to the DV camera 26 is a moving image video work according to the scenario, and represents a work in which an opening screen and an ending screen are inserted. In this embodiment, the output of the first image data and the last image data in bitmap format is continued for a predetermined time (for example, a few seconds). Note that when rendering the first image data, the image may be faded in so as to gradually increase, and when rendering the last image data, the image may be gradually decreased and faded out. Furthermore, the audio data can be clipped so that music flows when the first image data and the last image data are reproduced.
[0113]
In the computer system configured as described above, since an opening screen and an ending screen can be added to a video work, a high-quality video work can be created.
[0114]
In this embodiment, a desired character string can be given to the opening screen and the ending screen with a simple operation. Further, the date recorded on the DV tape can be automatically given to the opening screen. Therefore, it is possible to easily create an even higher quality video work.
[0115]
In the above embodiment, the moving image data obtained by photographing with the digital video camera is edited. Instead, the moving image data is received from the outside (for example, another computer). The moving image data may be edited. Further, the present invention is not limited to a moving image, and may be configured to edit still image video data obtained by photographing with a digital camera.
[0116]
In addition, the picture data in the above embodiment can be replaced with image data in a bitmap format, and can be in other formats, for example, JPEG or GIF format image data. In addition, the top image data indicating the opening screen and the last image data indicating the ending screen may be replaced with the image data in the bitmap format, and the image data in another format, for example, JPEG or GIF format. Furthermore, the top image data and the last image data can be used as video data of a moving image.
[0117]
In the above-described embodiment, another item such as a comment field that can be freely input by the operator may be posted on the opening screen or the ending screen.
[0118]
Further, as another aspect, the following configuration may be adopted. When the work based on the “scenario” tab TB1 is not executed and the “edit” tab TB2 is selected, the video video data of a desired section necessary for video editing is captured from the DV camera 26, and The captured moving image data is arranged in order. The arrangement work is performed by sequentially arranging the moving image clips of the captured moving image in the frame image display field fd10 in the window WD. At this time, image data of a plain color frame is added to the head position or the tail position. That is, when the check box cb1 on the opening screen is checked, the image data of the plain color frame is added to the head position, and when the check box cb2 on the ending screen is checked, The image data of the frame is added to the position. A simple “start” or “end” character string can be added to the image data of the plain color frame. Alternatively, a desired character string can be written on the image data of the plain color frame by the work from the “effect” tab TB4. Thereafter, when the “output” tab TB5 is selected, rendering is performed to create a video work including an opening screen. Alternatively, a video work including an ending screen is created. Alternatively, a video work including both an opening screen and an ending screen is created.
[0119]
As mentioned above, although one Example of this invention was explained in full detail, this invention is not limited at all to such an Example, In the range which does not deviate from the summary of this invention, it can implement in various aspects. Of course.
[Brief description of the drawings]
FIG. 1 is an external view of a computer system to which an embodiment of the present invention is applied.
FIG. 2 is a block diagram showing a schematic configuration of hardware of a computer system.
FIG. 3 is a block diagram illustrating a process of editing a moving image by the computer main body 16;
4 is a flowchart showing a moving image editing process routine executed by CPU 30. FIG.
FIG. 5 is an explanatory diagram illustrating an example of a window WD when a “scenario” tab TB1 is selected;
FIG. 6 is an explanatory diagram schematically showing the contents of a scenario storage file SF.
FIG. 7 is a flowchart showing details of a scenario routine.
FIG. 8 is a flowchart showing details of a capture routine.
FIG. 9 is an explanatory diagram showing an example of a window WD when a “capture” tab TB2 is selected.
FIG. 10 is an explanatory diagram schematically showing the contents of a scenario storage file SF after the association of the moving image.
11 is an explanatory diagram showing a window WD in which a frame image display field fd10 is re-displayed based on the scenario data SD (4) shown in FIG.
FIG. 12 is a flowchart showing details of an editing routine.
FIG. 13 is an explanatory diagram showing an example of a window WD when an “edit” tab TB3 is selected.
FIG. 14 is an explanatory diagram schematically showing moving image video data for which a start point and an end point are designated.
FIG. 15 is an explanatory diagram showing an example of a window WD when an “effect” tab TB4 is selected.
FIG. 16 is a flowchart showing details of an output routine.
FIG. 17 is an explanatory diagram illustrating an example of a window WD when an “Output” tab TB5 is selected.
FIG. 18 is an explanatory diagram illustrating an example of an “environment setting” dialog box DB;
FIG. 19 is an explanatory diagram showing an example of a scenario storage file SF ′ after update.
FIG. 20 is an explanatory diagram showing an example of an opening screen OP.
FIG. 21 is an explanatory diagram showing an example of an ending screen EP.
FIG. 22 is an explanatory diagram showing an example of a window WD after execution of a scenario routine.
FIG. 23 is an explanatory diagram showing an example of an opening screen OP after execution of a capture routine.
FIG. 24 is an explanatory diagram showing an example of a window WD at the time of “effect” work;
FIG. 25 is an explanatory diagram showing a dialog box TDB for setting a telop.
FIG. 26 is a flowchart illustrating details of a moving image work creation process.
[Explanation of symbols]
10 ... Computer
12 ... CRT display
16 ... computer body
18 ... Keyboard
20 ... Mouse
22 ... ROM
24 ... CD drive
26 ... DV camera
30 ... CPU
31 ... ROM
32 ... RAM
33 ... Display image memory
34 ... Mouse interface
35 ... Keyboard interface
36 ... CDC
37 ... HDC
38 ... CRTC
40 ... DV interface
41 ... I / O port
42 ... HDD
44 ... Modem
46 ... Public telephone line
48 ... Server
51. Computer program
51a ... scenario selection part
51b ... Picture output control unit
51c ... Video image capture unit
51d: Video data association unit
51e… Video output part
52 ... Video driver

Claims (15)

動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する映像編集方法であって、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択するステップと、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示するステップと、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づけるステップと
(d)前記ステップ(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成するステップと
を備えるとともに、
前記ステップ(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示するステップを備え、
前記ステップ(d)は、
(d1)前記先頭画像データを前記映像作品に含ませるステップを備える、
映像編集方法。
A video editing method for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
(A) selecting one scenario from one or more scenarios according to an external instruction;
(B) displaying a plurality of pieces of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a step of selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from an operator on the screen of the display device; Arranging the video data correlated in the step (c) so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work, and
The step (b)
(B1) comprising: displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data;
The step (d)
(D1) comprising the step of including the head image data in the video work,
Video editing method.
請求項1に記載の映像編集方法であって、
(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与するステップ
を備える映像編集方法。
The video editing method according to claim 1,
(E) A video editing method comprising a step of assigning a desired character string to the opening screen indicated by the head image data.
請求項1に記載の映像編集方法であって、
(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出すステップと、
(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与するステップと
を備える映像編集方法。
The video editing method according to claim 1,
(F) reading a creation date of the video data from a recording medium recording the video data;
(G) A video editing method comprising: adding the creation date to an opening screen indicated by the head image data.
請求項1に記載の映像編集方法であって、
前記ステップ(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示するステップを備え、
前記ステップ(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませるステップを備える、
映像編集方法。
The video editing method according to claim 1,
The step (b)
(B2) including a step of displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The step (d)
(D2) comprising the step of including the last image data in the video work,
Video editing method.
請求項4に記載の映像編集方法であって、
(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与するステップ
を備える映像編集方法。
The video editing method according to claim 4,
(H) A video editing method comprising: adding a desired character string to an ending screen indicated by the last image data.
前記映像データは、デジタルビデオカメラにより撮影して得られた動画映像データである請求項1ないし請求項5のいずれかに記載の映像編集方法。  6. The video editing method according to claim 1, wherein the video data is moving image video data obtained by photographing with a digital video camera. 動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する映像編集装置であって、
1または複数のシナリオタイトルの中から、外部からの指示に従って1のシナリオを選択するシナリオ選択手段と、
該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する絵図出力制御手段と、
前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける映像データ対応づけ手段と、
前記映像データ対応づけ手段により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する映像作品作成手段と
を備えるとともに、
前記絵図出力制御手段は、
前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する手段を備え、
前記映像作品作成手段は、
前記先頭画像データを前記映像作品に含ませる手段を備える、
映像編集装置。
A video editing device for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
Scenario selection means for selecting one scenario from one or more scenario titles according to an external instruction;
Pictorial image output control means for displaying a plurality of image data respectively showing characteristic video scenes included in the selected scenario on the screen of the display device in an arrangement according to the order of the scenario;
Video data associating means for selectively associating each of the plurality of video data with respect to each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
Video work creation means for arranging each video data correlated by the video data correlation means so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work. As well as
The picture output control means includes
Means for displaying top image data indicating an opening screen on which at least a title corresponding to the scenario is posted, at a top position of the plurality of image data;
The video work creating means is:
Means for including the head image data in the video work;
Video editing device.
請求項7に記載の映像編集装置であって、
前記絵図出力制御手段は、
エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する手段を備え、
前記映像作品作成手段は、
前記最後尾画像データを前記映像作品に含ませる手段を備える、
映像編集装置。
The video editing apparatus according to claim 7,
The picture output control means includes
Means for displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The video work creating means is:
Means for including the tail image data in the video work,
Video editing device.
動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成するためのコンピュータプログラムであって、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択する機能と、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する機能と、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける機能と
(d)前記機能(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する機能と
をコンピュータに実現させるとともに、
前記機能(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する機能を備え、
前記機能(d)は、
(d1)前記先頭画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラム。
A computer program for creating a series of video works by ordering a plurality of video data representing moving images or still images according to a scenario,
(A) a function of selecting one scenario from one or a plurality of scenarios according to an external instruction;
(B) a function of displaying a plurality of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a function for selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from the operator on the screen of the display device; Arranging the video data correlated by the function (c) so as to coincide with the arrangement order of the corresponding image data, and causing the computer to create a continuous video work With
The function (b) is
(B1) A function of displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data,
The function (d) is
(D1) having a function of including the head image data in the video work;
Computer program.
請求項9に記載のコンピュータプログラムであって、
(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与する機能
をコンピュータに実現させるためのコンピュータプログラム。
A computer program according to claim 9,
(E) A computer program for causing a computer to realize a function of assigning a desired character string to the opening screen indicated by the head image data.
請求項9に記載のコンピュータプログラムであって、
(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出す機能と、
(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与する機能と
をコンピュータに実現させるためのコンピュータプログラム。
A computer program according to claim 9,
(F) a function of reading a creation date of the video data from a recording medium in which the video data is recorded;
(G) A computer program for causing a computer to realize the function of assigning the creation date to the opening screen indicated by the head image data.
請求項9に記載のコンピュータプログラムであって、
前記機能(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する機能を備え、
前記機能(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラム。
A computer program according to claim 9,
The function (b) is
(B2) having a function of displaying tail image data indicating an ending screen at the tail position of the plurality of image data;
The function (d) is
(D2) having a function of including the last image data in the video work;
Computer program.
請求項12に記載のコンピュータプログラムであって、
(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与する機能
をコンピュータに実現させるためのコンピュータプログラム。
A computer program according to claim 12, comprising:
(H) A computer program for causing a computer to realize a function of assigning a desired character string to the ending screen indicated by the last image data.
前記映像データは、デジタルビデオカメラにより撮影して得られた動画映像データである請求項9ないし請求項13のいずれかに記載のコンピュータプログラム。  The computer program according to any one of claims 9 to 13, wherein the video data is moving image video data obtained by photographing with a digital video camera. 請求項9ないし請求項14のいずれかに記載のコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。  A computer-readable recording medium in which the computer program according to any one of claims 9 to 14 is recorded.
JP2001256747A 2001-08-27 2001-08-27 VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO Expired - Fee Related JP3797158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001256747A JP3797158B2 (en) 2001-08-27 2001-08-27 VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001256747A JP3797158B2 (en) 2001-08-27 2001-08-27 VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO

Publications (2)

Publication Number Publication Date
JP2003069944A JP2003069944A (en) 2003-03-07
JP3797158B2 true JP3797158B2 (en) 2006-07-12

Family

ID=19084522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001256747A Expired - Fee Related JP3797158B2 (en) 2001-08-27 2001-08-27 VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO

Country Status (1)

Country Link
JP (1) JP3797158B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128880A (en) 2004-10-27 2006-05-18 Funai Electric Co Ltd Dvd recorder connected to ieee 1394 serial bus, and digital video recording apparatus connected to ieee 1394 serial bus
JP4693549B2 (en) * 2005-08-25 2011-06-01 内外航空サービス株式会社 Information providing system and program

Also Published As

Publication number Publication date
JP2003069944A (en) 2003-03-07

Similar Documents

Publication Publication Date Title
JP4261644B2 (en) Multimedia editing method and apparatus
JP3219027B2 (en) Scenario editing device
US9445016B2 (en) Features such as titles, transitions, and/or effects which vary according to positions
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP4424389B2 (en) Movie creation device, movie creation method, and program
TWI280512B (en) Information recording media and information recording method
US20060056796A1 (en) Information processing apparatus and method and program therefor
JPH11341350A (en) Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
JP5701017B2 (en) Movie playback apparatus, movie playback method, computer program, and storage medium
JP2008027492A (en) Recording control device, recording control method, and program
JP4892074B2 (en) Electronic device, image output method and program
JP2005026834A (en) Annotation providing apparatus and annotation providing program
US20040091234A1 (en) System and method of facilitating appliance behavior modification
KR20050003690A (en) System and method of automatic moving picture editing and storage media for the method
JP4142382B2 (en) Content creation system and content creation method
US20050265692A1 (en) Apparatus, method, and program for image reproduction
US7398004B1 (en) Software methods for authoring multimedia content to be written to optical media
US7844163B2 (en) Information editing device, information editing method, and computer product
JPH11224266A (en) Electronic video document preparation and utilization method and program storage medium
JP3797158B2 (en) VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO
JP3826686B2 (en) VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO
JP4420987B2 (en) Image editing device
JP2011193386A (en) Electronic apparatus and image processing method
JP4752260B2 (en) Information processing apparatus and information processing method
AU719329B2 (en) Multi-media editing method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees