JP3797158B2 - VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO - Google Patents
VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO Download PDFInfo
- Publication number
- JP3797158B2 JP3797158B2 JP2001256747A JP2001256747A JP3797158B2 JP 3797158 B2 JP3797158 B2 JP 3797158B2 JP 2001256747 A JP2001256747 A JP 2001256747A JP 2001256747 A JP2001256747 A JP 2001256747A JP 3797158 B2 JP3797158 B2 JP 3797158B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- image data
- scenario
- data
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する技術に関する。
【0002】
【従来の技術】
近年、家庭へのデジタルビデオカメラの普及に伴い、手軽に動画映像を編集可能なアプリケーションプログラムの出現が望まれている。従来のこうした動画編集のアプリケーションプログラムでは、ディスプレイの画面上にタイムラインと呼ばれる時間を付した帯状の入れ物を用意し、同じく画面上に用意された動画映像の先頭フレームのアイコンを、マウスによるドラッグ&ドロップの操作により、そのタイムライン上に順に移動することで、先頭フレームが表示された複数の動画映像がつながれた動画映像作品を作成することができる。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来の技術では、動画映像の並び順が定められるだけで、良質な映像作品を得ることができないといった問題があった。
【0004】
この発明は、良質な映像作品を作成し得るようにすることを目的としている。
【0005】
【課題を解決するための手段およびその作用・効果】
前述した課題の少なくとも一部を解決するための手段として、以下に示す構成をとった。
【0013】
この発明の映像編集方法は、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択するステップと、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示するステップと、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づけるステップと
(d)前記ステップ(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成するステップと
を備えるとともに、
前記ステップ(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示するステップを備え、
前記ステップ(d)は、
(d1)前記先頭画像データを前記映像作品に含ませるステップを備える、
ことを特徴としている。
【0014】
こうした構成の映像編集方法によれば、シナリオに含まれる特徴的な映像場面に、各映像データを対応づけていくことで、各映像データはそれら映像場面の配列順序と一致する順序で配列される。このため、各映像データはシナリオに従って配列されることになる。したがって、複数の映像を良質な配列で並べる編集作業を、作業者の編集のセンスに委ねるのではなく、容易に行なうことができる。さらに、映像作品に、シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を付与することができることから、良質な映像作品を作成することができる。
【0015】
上記映像編集方法において、(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与するステップを備える構成とすることができる。この構成によれば、オープニング画面に所望の文字列を付与することができることから、より一層良質な映像作品を作成することができる。
【0016】
上記映像編集方法において、(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出すステップと、(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与するステップとを備える構成とすることができる。この構成によれば、オープニング画面に自動的に映像データの作成日を付与することができる。
【0017】
上記映像編集方法において、
前記ステップ(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示するステップを備え、
前記ステップ(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませるステップを備える、
構成とすることができる。
【0018】
この構成によれば、映像作品にエンディング画面を付与することができることから、良質な映像作品を作成することができる。
【0019】
上記エンディング画面を付与する構成の映像編集方法において、(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与するステップを備える構成とすることができる。この構成によれば、エンディング画面に所望の文字列を付与することができることから、より一層良質な映像作品を作成することができる。
【0020】
この発明の映像編集方法において、前記映像データは、デジタルビデオカメラにより撮影して得られた動画映像データである構成とすることができる。この構成によれば、デジタルビデオカメラからの動画映像の編集が可能となる。
【0024】
この発明の映像編集装置は、
動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成する映像編集装置であって、
1または複数のシナリオタイトルの中から、外部からの指示に従って1のシナリオを選択するシナリオ選択手段と、
該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する絵図出力制御手段と、
前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける映像データ対応づけ手段と、
前記映像データ対応づけ手段により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する映像作品作成手段と
を備えるとともに、
前記絵図出力制御手段は、
前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する手段を備え、
前記映像作品作成手段は、
前記先頭画像データを前記映像作品に含ませる手段を備える、
ことを特徴としている。
【0025】
この発明のコンピュータプログラムは、
動画または静止画を示す複数の映像データを、シナリオに沿って順序づけることにより、連続した映像作品を作成するためのコンピュータプログラムであって、
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択する機能と、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する機能と、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける機能と
(d)前記機能(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する機能と
をコンピュータに実現させるとともに、
前記機能(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する機能を備え、
前記機能(d)は、
(d1)前記先頭画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラムを特徴としている。
【0026】
上記構成のこの発明の映像編集装置とコンピュータプログラムは、上記映像編集方法と同様な作用・効果をそれぞれ有しており、複数の映像を良質な配列で並べる編集作業を容易に行なうことができるという効果と、良質な映像作品を作成することができるという効果を両立する。
【0027】
この発明の記録媒体は、この発明のコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体を特徴としている。この記録媒体は、この発明の各映像編集方法、各映像編集装置、各コンピュータプログラムと同様な作用・効果を有している。
【0028】
【発明の他の態様】
この発明は、以下のような他の態様も含んでいる。その第1の態様は、この発明の第1または第2のコンピュータプログラムを通信経路を介して供給するプログラム供給装置としての態様である。この第1の態様では、コンピュータプログラムをコンピュータネットワーク上のサーバなどに置き、通信経路を介して、必要なプログラムをコンピュータにダウンロードし、これを実行することで、上記の装置や方法を実現することができる。
【0029】
第2の態様は、連続した映像作品を作成する映像編集方法であって、(a)オープニング画面を示す先頭画像データを用意するステップと、(b)前記先頭画像データを前記映像作品に含ませるステップとを備えることを特徴とする態様である。第3の態様は、連続した映像作品を作成する映像編集方法であって、(a)エンディング画面を示す最後尾画像データを用意するステップと、(b)前記最後尾画像データを前記映像作品に含ませるステップとを備えることを特徴とする態様である。さらにその他の態様としては、第3または第4の態様の各構成要件を備える装置やコンピュータプログラムとしての態様である。
【0030】
【発明の実施の形態】
以上説明したこの発明の構成・作用を一層明らかにするために、以下この発明の実施の形態を実施例に基づき説明する。図1は、この発明の一実施例を適用するコンピュータシステムの外観図である。このコンピュータシステムは、コンピュータ10とCRTディスプレイ12を備える。コンピュータ10は、コンピュータ本体16とキーボード18とマウス20を備える。なお、このコンピュータ本体16には、CD−ROM22の内容を読み取るCDドライブ24が搭載されている。また、コンピュータ本体16には、デジタルビデオカメラ(以下、DVカメラと呼ぶ)26が接続されている。
【0031】
図2は、コンピュータシステムのハードウェアの概略構成を示すブロック図である。図示するように、このコンピュータ本体16は、中央演算処理装置としてのCPU30を中心にバスにより相互に接続されたROM31、RAM32、表示画像メモリ33、マウスインタフェース34、キーボードインタフェース35、CDC36、HDC37、CRTC38、DVインタフェース40およびI/Oポート41を備える。
【0032】
ROM31は、内蔵されている各種プログラム等を記憶する読み出し専用のメモリである。RAM32は、各種データ等を記憶する読み出し・書込み可能なメモリである。表示画像メモリ33はCRTディスプレイ12に表示する画像の画像データを記憶するメモリである。マウスインタフェース34は、マウス20とのデータ等のやり取りを司るインタフェースである。キーボードインタフェース35は、キーボード18からのキー入力を司るインタフェースである。CDC36は、CDドライブ(CDD)24を制御するCDコントローラである。HDC37は、ハードディスクドライブ(HDD)42を制御するハードディスクコントローラである。
【0033】
CRTC38は、表示画像メモリ33に記憶される表示画像データに基づいてCRTディスプレイ12における画像の表示を制御するCRTコントローラである。DVインタフェース40は、DVカメラ26からの動画映像信号の入力を司るインタフェースである。I/Oポート41は、シリアル出力のポートを備えており、モデム44に接続されており、このモデム44を介して、公衆電話回線46に接続されている。コンピュータ10は、モデム44を介して、外部のネットワークに接続されており、特定のサーバ48に接続可能となっている。
【0034】
このコンピュータシステムでは、オペレーティングシステムはHDD42に記憶されており、コンピュータ本体16に電源を投入すると、HDD42のブートブロックに書き込まれたローダに従ってRAM32の所定の領域にロードされる。また、DVカメラ26から取り込んだ動画映像を編集するためのアプリケーションプログラム(コンピュータプログラム)は、CD−ROM22に予め格納されており、所定のインストールプログラムを起動することで、CDドライブ24からコンピュータ本体16にインストールされる。このインストールされたコンピュータプログラムは、HDD42に記憶されており、所定の起動命令を受けたときに、RAM32の所定の領域にロードされる。
【0035】
この動画映像を編集するためのコンピュータプログラムをCPU30が実行することによって本発明の各種構成要件は実現される。このコンピュータプログラムは、前述したように、CD−ROM22に格納されたものであるが、これに替えて、フロッピィディスク、光磁気ディスク、ICカード等の他の携帯型記録媒体(可搬型記録媒体)に格納された構成としてもよい。また、このコンピュータプログラムは、外部のネットワークに接続される特定のサーバ48から、ネットワークを介して提供されるプログラムデータをダウンロードして、RAM32またはHDD42に転送することにより得るようにすることもできる。
【0036】
以上説明したハードウェア構成を有するコンピュータシステムによる動画映像編集の様子について次に説明する。図3は、コンピュータ本体16によって動画映像の編集がなされる処理の様子を示すブロック図である。図示するように、コンピュータ本体16の内部で動作しているコンピュータプログラム51によれば、まず、動画編集のシナリオが、予め用意した複数のシナリオの中から、シナリオ選択部51aにより一つ選択される。ここでいうシナリオというのは、編集を行なって作成しようとしている映像作品のストーリを決めるためのもので、結婚式、子供の成長日記、運動会、動物園等の目的に沿って予め複数用意されている。作業者によるマウス20の操作を受けて入力される操作信号に基づき、シナリオ選択部51aによって、それら予め用意された複数のシナリオの中から一のシナリオが選択される。
【0037】
次いで、シナリオ選択部51aにより選択されたシナリオに含まれる特徴的な映像場面を絵図(例えば、イラストの絵図)によりそれぞれ示す複数の画像データ(以下、絵図データと呼ぶ)が、そのシナリオの順序に従う配列でCRTディスプレイ12に表示される。この表示は、複数の絵図データを、絵図出力制御部51bによってビデオドライバ52へ出力することにより行なう。
【0038】
一方、動画映像キャプチャ部51cにより、DVカメラ26から動画編集に必要な所望の区間の動画映像データがキャプチャされる。そのキャプチャされた動画映像データは、CRTディスプレイ12に表示された複数の絵図データのいずれかを選択して、その一の絵図データに対して、映像データ対応づけ部51dによって対応づけがなされる。なお、動画映像キャプチャ部51cからは、動画編集に必要な所望の区間の動画映像データが順に送られてきており、映像データ対応づけ部51dは、これら動画映像データを順に、CRTディスプレイ12に表示された絵図データのいずれかに対応づける処理を行なっている。
【0039】
その後、映像データ対応づけ部51dにより対応づけのなされた各動画映像データを、映像作品作成部51eにより、対応先の各絵図データの配列順序と一致するようにつなげて連続した一の動画映像作品を作成して、ビデオドライバ52へこの動画映像作品を出力する。また、必要に応じて動画映像作品をファイルの形で外部へ出力したりする。
【0040】
さらに、絵図出力制御部51bのオープニング/エンディング出力部51b−1により、シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の絵図データの先頭位置に表示するとともに、エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する。また、映像作品作成部51eのオープニング/エンディング付与部51e−1により、上記作成する動画映像作品に、オープニング画面やエンディング画面を含ませる。
【0041】
コンピュータ本体16のCPU30で実行される上記コンピュータプログラム51に従う処理(動画映像編集処理)について、次に説明する。図4は、この動画映像編集処理のルーチンを示すフローチャートである。このルーチンは、コンピュータプログラム51を実行させる旨の指示がなされたのを受けて実行される。
【0042】
図示するように、処理が開始されると、CPU30は、まず、初期画面を示すウィンドウWDをCRTディスプレイ12に表示する処理を行なう(ステップS100)。図5は、このウィンドウWDを示す説明図である。図示するように、初期画面のウィンドウWDには、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の5種類のタブTB1,TB2,TB3,TB4,TB5が用意されており、作業者は、これらタブTB1〜TB5を順にマウス20によりクリックしていくことで、CRTディスプレイ12の画面上で動画編集の作業を進めていくことができる。「シナリオ」のタブTB1は、動画編集のシナリオの選択を行なう作業を実行するためのものである。このシナリオの選択がなされると、その選択されたシナリオに含まれる特徴的な映像場面を示す複数の絵図データがウィンドウWD内のコマ画像表示用のフィールドfd10に表示される。なお、ここでは一のシナリオに複数の絵図データが含まれるものとしたが、場合によっては、一のシナリオに一の絵図データが含まれる構成とすることもできる。
【0043】
「キャプチャ」のタブTB2は、DVカメラ26から動画編集に必要な所望の区間の動画映像データをキャプチャするとともに、そのキャプチャした動画映像データを、CRTディスプレイ12に表示された複数の絵図データのいずれかに対応づける作業を実行するためのものである。「編集」のタブTB3は、その対応づけのなされた動画映像データの範囲を微調整したり、その対応づけの位置を変更したりする作業を実行するためのものである。「効果」のタブTB4は、作成しようとしている作品に効果音、テロップ等を入れる作業を実行するためのものである。「出力」のタブTB5は、「編集」のタブTB3からの作業により編集された動画映像データを動画映像作品としてDVカメラ26に出力させる作業を実行するためのものである。
【0044】
なお、「シナリオ」のタブTB1が選択されて実行される作業が、前述したシナリオ選択部51aおよび絵図出力制御部51bに対応しており、「キャプチャ」のタブTB2が選択されて実行される作業が、前述した動画映像キャプチャ部51cおよび映像データ対応づけ部51dに対応しており、「出力」のタブTB5が選択されて実行される作業が、映像作品作成部51eに対応している。
【0045】
図5に示した初期画面のウィンドウWDには、上述した「シナリオ」のタブTB1が選択された状態が表示される。図示するように、この初期画面のウィンドウWDには、「分類の選択」、「作品タイトルの選択」、「シーンの素材」の3つのデータ入力用のフィールドfd1,fd2,fd3と、複数の静止画の画像データを表示する前述したコマ画像表示用フィールドfd10とを備える。
【0046】
「分類の選択」のフィールドfd1は、シナリオについての分類を選択するためのものであり、例えば、結婚式、運動会、旅行、子供の成長記録、動物園などが選択肢として用意されている。作業者によるマウス20のクリック操作を受けて、これら選択肢のうちの一つが選択される。「作品タイトルの選択」のフィールドfd2は、シナリオを選択するためのものであり、例えば「分類の選択」のフィールドfd1で動物園が選択された場合には、運動会、運動会1、運動会2、運動会3などが選択肢として用意されている。シナリオは、前述したように、編集を行なって作成しようとする映像作品のストーリを決めるためのものであり、HDD42にシナリオデータとして予め記憶されている。なお、複数のシナリオデータを集めたのがシナリオ格納ファイルである。
【0047】
図6は、シナリオ格納ファイルSFの内容を模式的に示す説明図である。図示するように、シナリオ格納ファイルSFには、複数のシナリオデータSDが格納されている。1つのシナリオデータSDは、図中の1行に相当し、「分類」、「作品タイトル」、「画像ファイル名」の3つのデータアイテムDM1,DM2,DM3から構成される。なお、これらシナリオデータSDは、「分類」のデータアイテムDM1の内容によってソートされている。
【0048】
「分類」のデータアイテムDM1には、シナリオの分類を示すデータが格納され、上記ウィンドウWDに設けられた「分類の選択」のフィールドfd1の選択肢がこのデータアイテムDM1の内容によって定まる。「作品タイトル」のデータアイテムDM2には、シナリオを示すデータが格納され、上記「作品タイトルの選択」のフィールドfd2の選択肢がこのデータアイテムDM2の内容によって定まる。「画像ファイル名」のデータアイテムDM3には、図示するように、例えば、「ezu41」、「ezu42」といった、HDD42にビットマップ形式で記憶された絵図データのファイル名が複数、記憶されている。なお、これら複数のファイル名は、シナリオに基づいて予め定められた順序で記憶されている。例えば、「作品タイトル」が「運動会」の場合には、「開会式」、「1年生の徒競走」、「2年生の徒競走」という実際の運動会のプログラムを考慮した順にそれぞれの特徴的な映像場面を示す絵図データのファイル名が記憶されている。なお、こうした画像データのファイル名をデータアイテムDM3に記憶していく動作を、以下、この画像データのシナリオデータへの登録と呼ぶことにする。また、上記HDD42には、各絵図データ毎に組となる属性データも記憶されている。この属性データは、BGM等の効果音、テロップ等を示すデータである。
【0049】
図4のフローチャートに戻り、ステップS100で初期画面の表示がなされた後、次いで、CPU30は、シナリオルーチンに処理を移行する(ステップS110)。図7は、CPU30で実行されるシナリオルーチンの詳細を示すフローチャートである。図示するように、このシナリオルーチンに処理が移行すると、CPU30は、ウィンドウWDにおいて、作業者によるマウス20の操作を受けて、「分類の選択」のフィールドfd1から所望の分類を入力するとともに、「作品タイトルの選択」のフィールドfd2から所望の作品タイトルを入力する処理を行なう(ステップS112,S114)。
【0050】
次いで、CPU30は、ステップS112およびS114で入力された分類と作品タイトルに基づいて、絵図データの表示を行なう(ステップS116)。詳細には、ステップS112およびS114での入力された分類と作品タイトルをシナリオ格納ファイルSFに照らし合わせることで、シナリオ格納ファイルSFから分類と作品タイトルの一致する一のシナリオ格納データSDを選択する。次いで、その選択されたシナリオ格納データSDに記憶される「画像ファイル名」のデータアイテムDM3の内容に基づき、ビットマップ形式の複数の絵図データをCD−ROM22またはHDD42から読み出して、これら絵図データをウィンドウWDのコマ画像表示用フィールドfd10に表示する。なお、この表示は、図示するように、長尺上のフィルムを模した枠組みの中に、各絵図データが、「画像ファイル名」のデータアイテムDM3に記憶される順に並ぶように行なわれる。その後、リターンに抜けて、このシナリオルーチンの処理を一旦終了する。
【0051】
なお、図7のフローチャートには記載しないが、このシナリオルーチンでは、次のような様々な処理がなされる。図5に示すように、ウィンドウWDの「シーンの素材」のデータ入力用のフィールドfd3には、「分類の選択」のデータ入力用のフィールドfd1で選択された内容に属するシーンの素材が複数表示される。このシーンの素材とは、コマ画像表示用フィールドfd10に表示されるビットマップ形式の画像データと同様のものである。作業者は、このシーンの素材を用いることで、シナリオ格納ファイルSFの形で予め提供される絵図データの集合としてのシナリオを変更することが可能となり、オリジナルのシナリオを作成することができる。
【0052】
具体的には、作業者は、「シーンの素材」のデータ入力用のフィールドfd3から一のシーンの素材の画像データを、マウス20によりドラッグして、コマ画像表示用フィールドfd10に表示された複数の絵図の中の一コマにドロップし、その後、「シーンの素材」のデータ入力用のフィールドfd3の下方にある「シナリオの登録」のボタンBT1を、マウス20によりクリックするといった作業を行なう。この結果、コマ画像表示用フィールドfd10の内容は、マウス20によりドロップした絵図データの直後に、マウス20により選択された「シーンの素材」の画像データが追加された表示となる。このとき、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3の内容もその表示と一致するように、「シーンの素材」の画像データのファイル名を追加する補正が行なわれる。なお、この構成では、既存のシナリオを上書き修正しているが、これに替えて、新たに別の作品タイトルとして記憶する構成とすることもできる。
【0053】
なお、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3に記憶される内容については、コマ画像表示用フィールドfd10に表示される画像データの一コマをクリックしてキーボード18から[Delete]キーを入力することで、削除補正することも可能である。
【0054】
シナリオルーチンの処理が終了すると、図4のステップS120に処理は移行し、CPU30は、作業者によるマウス20の操作により、「キャプチャ」のタブTB2が選択されたか否かを判別する(ステップS120)。ここで、選択されていないと判別された場合には、ステップS120の処理を繰り返し実行して、タブTB2が選択されるのを待つ。一方、ステップS120で、「キャプチャ」のタブTB2が選択されたと判別された場合には、CPU30は、キャプチャルーチンに処理を移行する(ステップS130)。
【0055】
図8は、CPU30で実行されるキャプチャルーチンの詳細を示すフローチャートである。図示するように、このキャプチャルーチンに処理が移行すると、CPU30は、まず、動画映像をキャプチャするための動画映像キャプチャ用のフィールドfd20をウィンドウWDに表示する(ステップS131)。図9は、このときのウィンドウWDの一例を示す説明図である。図示するように、動画映像キャプチャ用フィールドfd20は、小型テレビを模式化したもので、画面部fd21と、ボタンスイッチ群fd22とを備える。
【0056】
図8に戻り、次いで、CPU30は、変数iに初期値0をセットして(ステップS132)、その後、変数iを値1だけインクリメントする(ステップS133)。その後、CPU30は、コマ画像表示用フィールドfd10に現在表示中のシナリオデータ、すなわち「シナリオ」のタブTB1にて選択されたシナリオデータ(以下、こうしたシナリオデータを「選択中のシナリオデータ」と呼ぶ)をシナリオ格納ファイルSFから読み出して、そのシナリオデータの「画像ファイル名」のデータアイテムDM3に格納される絵図データ(実際はそのファイル名)を先頭位置から順に数えて、上記変数iの数と一致する番数目の絵図データ(同上)を特定する(ステップS134)。
【0057】
なお、作業者は、必要に応じて、コマ画像表示用フィールドfd10に表示された絵図のコマをマウス20によりクリック操作することで、絵図データの特定位置をそのクリックされた絵図のコマに対応する位置に変更する(すなわち、上記変数iの値を変更する)ことができる(ステップS135)。
【0058】
その後、CPU30は、DVカメラ26から動画映像をキャプチャする処理を行なう(ステップS136)。このキャプチャの処理は、ウィンドウWDに表示した動画映像キャプチャ用のフィールドfd20を用いて行なう。以下、このキャプチャの処理について詳細に説明する。
【0059】
動画映像キャプチャ用のフィールドfd20の下方には、そのフィールドfd20の画面fd21に動画映像を再生したり、その再生を停止したり、早送りしたり、巻き戻したり、再生を一時中断する上述したボタンスイッチ群fd22が設けられている。作業者は、これらボタンスイッチ群fd22をマウス20により操作することで、コンピュータ10に接続されたDVカメラ26からの動画映像を自在に取り込んで、フィールドfd20の画面部fd21に再生することができる。さらに、ボタンスイッチ群fd22の右下には、キャプチャボタンfd23が設けられている。このキャプチャボタンfd23は、画面部fd21で再生される動画映像から所望の区間をキャプチャするためのものである。
【0060】
作業者は、ボタンスイッチ群fd22を操作して、動画映像キャプチャ用のフィールドfd20の画面部fd21にDVカメラ26からの動画映像を再生する。作業者は、キャプチャしたい開始点に動画映像が達すると、まず、ボタンスイッチ群fd22中の「ポーズ」ボタンもしくは「停止」ボタンをクリック操作して、再生を一旦停止する。その後、キャプチャボタンfd23を一度クリックする。キャプチャボタンfd23がクリックされると、動画映像の再生が再開され、キャプチャボタンfd23は、1度クリックされるとキャプチャしたい終点を指定する機能に切り替わることから、作業者は、次いで、キャプチャしたい範囲の終点まで再生が進んだ時点で、キャプチャボタンf23を再度クリックする。
【0061】
こうした一連のマウス20による操作を行なうことで、DVカメラ26で撮影した動画映像から所望の区間をキャプチャすることができる。なお、このキャプチャされた所望の区間の動画映像データ(以下、動画クリップとも呼ぶ)は、avi形式でHDD42に格納される。なお、avi形式の動画クリップには音声データも含まれる。また、このキャプチャ時に、動画クリップの先頭フレームを示す画像データが、上記avi形式の動画クリップと対になってHDDに格納される。
【0062】
ステップS136の実行後、CPU30は、ステップS134またはS135で特定された絵図データ(実際はそのファイル名)の直後に、上記ステップS136でキャプチャした動画クリップについての先頭フレームの画像データのファイル名を追加する処理を行なう(ステップS137)。
【0063】
図6に示すようなデータ構造の格納ファイルを備えるこの実施例で、図5に示すように、分類が「運動会」に、作品タイトルが「運動会3」に選択された場合には、前述したように、4番目のシナリオデータSD(4)が選択される。この結果、ウィンドウWD上のコマ画像表示用フィールドfd10には、図5に示すような「運動会3」のシナリオに含まれる特徴画像が表示される。こうした状態において、「キャプチャ」のタブTB2が選択された後に、動画映像キャプチャ用のフィールドfd20を用いて動画映像のキャプチャが最初に行なわれた場合、ステップS133では変数iが値1にセットされていることから、ステップS138でその変数iの値に対応する1番目の絵図データの直後に、上記キャプチャされた動画映像の先頭フレームのファイル名が追加されることになる。即ち、図10に示すように、4番目のシナリオデータSD(4)において、第1番目の絵図データのファイル名=”ezu41”と第2番目の絵図データのファイル名=”ezu42”との間に、キャプチャされた動画映像の先頭フレームのファイル名=”frame1”が追加されることになる。
【0064】
図8に戻り、ステップS137の実行後、ステップS137で更新されたシナリオデータに基づいて、コマ画像表示用フィールドfd10の内容を再表示する処理を行なう(ステップS138)。図11は、図10に示したシナリオデータSD(4)に基づいてコマ画像表示用フィールドfd10を再表示したウィンドウWDを示す説明図である。図11に示すように、第1番目の絵図のコマCM1と第2番目の絵図のコマCM2との間に、キャプチャされた動画映像の先頭フレームFM1が追加される。
【0065】
なお、ステップ137のシナリオデータの更新の際に、追加された先頭フレームのファイル名に対応する動画クリップと関連づけて、その追加された位置の直前に配置された絵図データの属性データがそのままコピーされた属性データを記憶する処理も行なっている。すなわち、追加された動画クリップに対し、その対応づけた絵図データの効果音等の属性データが自動的に設定される。なお、この属性データをコピーする処理は、属性データのうちの予め定られた種類のデータだけをコピーするようにすることもできるし、いずれの種類の属性データもコピーしないようにすることもできる。これらの切り替えは、画面上から作業者が自由に設定できる。
【0066】
図8に戻り、ステップS138の実行後、変数iがその最大値、即ち、選択状態にあるシナリオデータの画像ファイル名のデータアイテムDM3に格納される絵図データの数(ステップS137で追加する先頭フレームは数には入れない)を越えているかを判別する(ステップS139)。ここで、越えていないと判別されたときには、ステップS133に戻して、ステップS133以後のステップを繰り返し処理する。一方、ステップS139で変数iが最大値を超えたと判別された時には、ステップ13Aに処理を進めて、その他の処理を実行して、その後、「リターン」に抜けて、このキャプチャルーチンの処理を一旦終了する。ここで、その他の処理とは、後述するような2つの絵図のコマの間に複数の動画映像クリップを追加するような処理である。
【0067】
以上のように構成されたキャプチャルーチンによれば、動画映像キャプチャ用フィールドfd20を用いてDVカメラ26から動画映像データを1つキャプチャする毎に、そのキャプチャした動画クリップを、選択状態にあるシナリオデータSDに自動的に登録していく。なお、この登録は、第1番目の動画クリップを、第1番目の絵図データの直後に、第2番目の動画クリップを、第2番目の絵図データの直後にというように、「画像ファイル名」のデータアイテムDM3の格納順位を順に一つずつ後ろにずらしつつ行なう。また、このキャプチャルーチンによれば、作業者によって、コマ画像表示用フィールドfd10に表示された絵図のコマがマウス20によりクリック操作された上で、動画映像データのキャプチャが行なわれた場合には、そのキャプチャした動画映像クリップの登録の位置を、そのクリックされた絵図の画像データの直後に変更している。
【0068】
なお、このキャプチャルーチンでは、フローチャートには記さなかったが、コマ画像表示用フィールドfd10に表示された絵図のコマと絵図のコマとの間に追加された動画映像データの先頭フレーム(例えば、図11に示した先頭フレームFM1)が作業者によってクリックされた上で、動画映像データのキャプチャが行なわれた場合には、そのキャプチャした動画映像クリップの登録の位置を、そのクリックされたフレームの直後に変更している。この構成によれば、連続して並ぶ2つの絵図のコマの間に、複数の動画映像クリップを追加することが可能となる。また、コマ画像表示用フィールドfd10内において、動画映像クリップを示す先頭フレームのコマをマウス20のドラッグ&ドロップ操作により他の絵図データのコマの間に移動できる構成とすることもできる。
【0069】
キャプチャルーチンの処理が終了すると、図4のステップS140に処理は移行し、CPU30は、作業者によるマウス20の操作により、「編集」のタブTB3が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS140の処理を繰り返し実行して、タブTB3が選択されるのを待つ。一方、ステップS140で、「編集」のタブTB3が選択されたと判別された場合には、CPU30は、編集ルーチンに処理を移行する(ステップS150)。
【0070】
図12は、CPU30で実行される編集ルーチンの詳細を示すフローチャートである。図示するように、この編集ルーチンに処理が移行すると、CPU30は、まず、動画映像を表示するための動画映像表示用のフィールドfd30をウィンドウWDに表示する(ステップS151)。図13は、このときのウィンドウWDの一例を示す説明図である。図示するように、この動画映像表示用フィールドfd30は、「キャプチャ」のタブTB21が選択されたときに表示された図9に示した動画映像キャプチャ用フィールドfd20をほぼそのまま用いて、大きく相違する点は、ボタンスイッチ群fd32以外に設けられるスイッチ類にある。ボタンスイッチ群fd32の左側に、「IN」、「OUT」と記されたイン点、アウト点指定用のボタンスイッチfd33,fd34が設けられている。このイン点、アウト点指定用のボタンスイッチfd33,fd34は、動画映像クリップのうちから編集に必要とする部分をトリミングするために用いるものである。
【0071】
図12に戻り、ステップS151の実行後、CPU30は、選択中のシナリオデータに登録されたいずれかの動画映像クリップを動画映像表示用のフィールドfd30に再生する処理を開始する(ステップS152)。具体的には、作業者による、コマ画像表示用フィールドfd10に表示された各コマのうちの一の動画映像クリップの先頭フレームをクリックする操作を受けて、その先頭フレームに対応する動画映像データをHDD42から読み出して、動画映像表示用フィールドfd30にその動画映像データを再生する処理を開始する。
【0072】
作業者は、動画映像表示用フィールドfd30の画面部fd31に再生される動画映像を見ながら、トリミングしたい開始点に来たとき、イン点指定用のボタンスイッチfd33をクリックして、トリミングしたい終了点に来たとき、アウト点指定用のボタンスイッチfd34をクリックする。CPU30は、ステップS152の実行後、上記イン点指定用のボタンスイッチfd33からの入力があるか否かを判別する(ステップS153)。ここで、その入力がないと判別された場合には、ステップS153の処理を繰り返して、イン点指定用のボタンスイッチfd33からの入力があるの待つ。一方、ステップS153でその入力があると判別された場合には、再生中の動画映像データに対してその再生している位置を開始点として指定する(ステップS154)。
【0073】
ステップS154の実行後、CPU30は、上記アウト点指定用のボタンスイッチfd34からの入力があるか否かを判別する(ステップS155)。ここで、その入力がないと判別された場合には、ステップS155の処理を繰り返して、アウト点指定用のボタンスイッチfd34からの入力があるの待つ。一方、ステップS155でその入力があると判別された場合には、再生中の動画映像データに対してその再生している位置を終了点として指定する(ステップS156)。
【0074】
なお、この実施例では、画面部fd31に動画映像を再生した上でイン点、アウト点を指定していたが、これに替えて動画映像の表示位置を調整するスライダを画面上に表示して、このスライダをマウスにより操作した上でイン点、アウト点を指定する構成とすることもできる。
【0075】
図14は、上記開始点および終了点の指定がなされた動画映像データを模式的に示す説明図である。図示するように、動画映像データには、開始点と終了点とが記されている。この開始点と終了点との間(図中、ハッチングで示した領域)が、作業者に指定された編集に必要となる範囲、すなわち有効範囲となる。したがって、作業者は、「キャプチャ」のタブTB2からの作業によりキャプチャされた動画映像データに対して編集に使用する範囲を、必要に応じて微調整することができる。
【0076】
図12に戻り、ステップS156の実行後、CPU30は、ステップS152で開始した再生を終了して(ステップS157)、次いで、全ての編集を終えたか否かを判別する(ステップS158)。この判別は、他のタブTB1,TB2,TB4,TB5が選択されたかによって判別する。ここで、全ての編集を終えていないと判別された場合には、ステップS152に処理を戻して新たな編集を行なう。
【0077】
なお、図13に示すように、ボタンスイッチ群f32の右側には、ハサミのマークが記されたボタンスイッチfd35が設けられている。図12のフローチャートにはこのボタンスイッチfd35を用いた詳しい処理の流れは記さなかったが、このボタンスイッチfd35によって、登録された動画編集クリップを所望の地点で分割するといったことも可能である。
【0078】
一方、ステップS158で、全ての編集を終えたと判別された場合には、編集ルーチンを終了する。編集ルーチンの処理が終了すると、図4のステップS160に処理は移行し、CPU30は、作業者によるマウス20の操作により、「効果」のタブTB4が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS160の処理を繰り返し実行して、タブTB4が選択されるのを待つ。一方、ステップS160で、「効果」のタブTB4が選択されたと判別された場合には、CPU30は、効果ルーチンに処理を移行する(ステップS170)。
【0079】
この効果ルーチンに処理が移行すると、ウィンドウWDは、図15に示すような表示となる。この効果ルーチンは、このウィンドウWDから各種の入力作業を行なうことで、「編集」のタブTB3から編集されたシナリオデータに対して効果音、テロップ等を入れる作業を実行する。なお、ここでは詳細な処理の流れの記載は省略するが、図15中の「全体効果」のタブfd41がクリックされたときには、現在選択中のシナリオデータについて、そのシナリオデータから定まるストーリの全体に対して効果音等を施すことができ、また、「部分効果」のタブfd42がクリックされたときには、現在選択中のシナリオデータに登録される一の動画映像クリップに対して効果音等を施すことができる。なお、ここでは、前述した属性データを書き換えるようにしてその記録がなされてる。こうした属性データは、前述したように動画クリップに別体にて互いに関連づけがなされて記憶されているが、両者を一つのファイルの形に変換する処理は後述するレンダリング処理により実行されることになる。
【0080】
この効果ルーチンの処理が終了すると、図4のステップS180に処理は移行し、CPU30は、作業者によるマウス20の操作により、「出力」のタブTB5が選択されたか否かを判別する。ここで、選択されていないと判別された場合には、ステップS180の処理を繰り返し実行して、タブTB5が選択されるのを待つ。一方、ステップS180で、「出力」のタブTB5が選択されたと判別された場合には、CPU30は、出力ルーチンに処理を移行する(ステップS190)。
【0081】
図16は、CPU30で実行される出力ルーチンの詳細を示すフローチャートである。図示するように、この出力ルーチンに処理が移行すると、CPU30は、まず、ウィンドウWD内の動画映像表示用フィールドfd30に、DVカメラ出力を指示するカメラ出力ボタンスイッチを表示する(ステップS191)。図17は、このときのウィンドウWDの一例を示す説明図である。図示するように、この動画映像表示用フィールドfd30のボタンスイッチ群fd32の右側に、カメラ出力ボタンスイッチfd40が設けられている。
【0082】
図16に戻り、ステップS191の実行後、CPU30は、作業者によるマウス操作によって、カメラ出力ボタンスイッチfd40がクリックされたか否かを判別する(ステップS192)。ここで、クリックされていないと判別された場合には、ステップS192の処理を繰り返して、カメラ出力ボタンスイッチfd40がクリックされるのを待つ。一方、ステップS192で、カメラ出力ボタンスイッチfd40がクリックされたと判別された場合には、コマ画像表示用フィールドfd10に現在表示中のシナリオデータ(選択中のシナリオデータ)をシナリオ格納ファイルSFから読み出す(ステップS193)。
【0083】
その後、CPU30は、そのシナリオデータに基づいてレンダリング処理を行なうことで、DVカメラ26への出力が可能な最終的な動画映像作品を作成する(ステップS194)。詳しくは、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3に格納される、動画映像クリップの先頭フレームを示すファイル名を先頭位置から順に読み出して、読み出した都度に、そのファイル名の先頭フレームに対応する動画映像クリップを読み出してレンダリングして、出力ファイルに先頭位置から順に書き出す。なお、この動画映像クリップにおいて、図14で示した開始点および終了点が指定されている場合には、その開始点から終了点までの範囲を出力ファイルに書き出すものとする。開始点および終了点の指定のない動画映像クリップについては全体をそのまま書き出す。
【0084】
この結果、この出力ファイルには、選択中のシナリオデータに登録された全ての動画映像クリップがその登録の順序、即ち、対応づけのなされた絵図データの配列順序と一致する順序で配列されることになる。こうしてシナリオデータに登録される全ての動画映像クリップを一の出力ファイルに書き出すことで、その出力ファイルからなる動画映像作品が作成される。例えば、図10に示すシナリオデータSD(4)のような構成の場合、”frame1”、”frame2”、…の各動画クリップがつなげられた動画映像作品が作成されることになる。なお、この出力ファイルはDVコーデックのデータ形式となっている。
【0085】
ステップS194の実行後、上記出力ファイルをDVカメラ26に出力する(ステップS195)。その後、リターンに抜けて、この出力ルーチンを終了する。なお、この出力ルーチンでは、作成した動画映像作品をDVカメラ26に書き戻す構成としたが、他のデータ形式のファイルで外部に出力することもできる。詳細には、「ファイル」のボタンfd51をクリックして図示しない出力ファイル変更用のフィールドを開いて、このフィールドから「MPEG」等の他のデータ形式を指定することで、動画映像作品を他のデータ形式のファイルで外部に出力することができる。
【0086】
また、上記出力ファイル変更用のフィールドから「絵図データも含む」という指示を行なうことで、上記出力ファイルのような動画映像クリップだけを含む構成に替えて、動画映像クリップとともに絵図データを含む出力ファイルを作成することもできる。この構成によれば、イラストの絵図がまず映ってから、そのイラストに関わる動画映像クリップが映し出され、次いで、次のイラストの絵図が映って、そのイラストに関わる動画映像クリップが続いて映し出されるといった、動画映像作品が作成されることになる。例えば、図10に示すシナリオデータSD(4)のような構成の場合、”ezu1”、”frame1”、”ezu2”、”frame2”、…の絵図データと動画クリップとが組となってつなげられた動画映像作品が作成されることになる。
【0087】
上記出力ルーチンの処理が終了すると、図4のステップS190を抜けて、動画映像編集処理のルーチンを終了する。
【0088】
なお、この動画映像編集処理のルーチンでは、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の5種類のタブTB1,TB2,TB3,TB4,TB5がこの順でマウス20の操作によりクリックされることで、各作業が実行されているが、これに替えて、一の作業が済むと、次の作業が自動的に実行されるように構成してもよい。また、こうしたタブの形態で各作業を進ませる構成に替えて、ウィザード形式の「進む」、「戻る」のボタンで各作業を進ませる構成としてもよい。
【0089】
以上のように構成されたこの実施例のコンピュータシステムによれば、予め用意したシナリオに含まれる特徴的な映像場面の絵図データに、各動画映像データを対応づけていくことで、各動画映像データはそれら映像場面の配列順序と一致する順序で配列される。このため、各動画映像データは予め用意したシナリオに従って配列されることになる。したがって、複数の動画映像データを良質な配列で並べる編集作業を容易に行なうことができる。
【0090】
また、この実施例では、DVカメラ26から動画映像データをキャプチャする作業を行ないながら、対応先の画像データへの対応づけがなされることから、作業性および操作性に優れている。特にこの実施例では、対応先の画像データが自動的に1つずつずれていくことから、素早く簡単に編集を行なうことができる。また、自動的にすべての画像データへの対応づけを作業者に促すことから、必要な動画映像を編集し忘れといったことがない。さらに、この実施例では、キャプチャした動画映像データに対して有効となる区間を指定することができることから、映像データに対して編集に使用する範囲を、必要に応じて微調整することができる。
【0091】
また、この実施例では、出力ファイルの形で出力される動画映像作品を、シナリオの特徴的な映像場面を示す絵図の画像データと映像データとが組をなして順につなげられたものに選択的に切り替えることができる。このために、動画映像データではなく、絵図の画像データも映すことができることから、より趣味性の高い映像作品を提供することができる。
【0092】
さらに、この実施例には、図3で示した上記オープニング/エンディング出力部51b−1およびオープニング/エンディング付与部51e−1により実現される、動画映像作品に自動的にオープニング画面、エンディング画面を挿入する機能が設けられている。この点について、以下詳述する。
【0093】
図18は、この実施例における「環境設定」のダイアログボックスDBの一例を示す説明図である。コンピュータプログラムに従って実行される動画映像編集の処理において、図示しないメインメニューから「設定」ボタン(図示せず)がマウス20によりクリックされると、この「環境設定」のダイアログボックスDBが表示されることになる。図示するように、「環境設定」のダイアログボックスDBには、「作業フォルダ」、「クリップ再生時の設定」、「オープニング画面/エンディング画面の設定」および「DVカメラの設定」用の各入力用フィールドfd61,fd62,fd63,fd64が備えられている。
【0094】
ここで特に関係のあるのは、「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63である。この入力用フィールドfd63には、オープニング画面のチェックボックスcb1と、エンディング画面のチェックボックスcb2とが設けられており、各チェックボックスcb1,cb2がマウス20によりクリックされると、その指定された画面を動画映像作品に自動的に挿入するという設定がなされる。
【0095】
「環境設定」のダイアログボックスDBによって環境設定の指示がなされると、CPU30は、そのダイアログボックスDBの入力内容に従って各種の設定を行なう。「オープニング画面/エンディング画面の設定」については、入力用フィールドfd63からの入力内容に従って、シナリオ格納ファイルSFを更新する処理を行なう。図6で表わしたのが、シナリオ格納ファイルSFであるが、ここでは、CPU30は、このシナリオ格納ファイルSFを更新する処理を行なう。
【0096】
詳細には、CPU30は、上記「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63において、オープニング画面のチェックボックスcb1がチェックされているときに、シナリオ格納ファイルSFに、オープニング画面を示す先頭画像データのファイル名を挿入する。また、CPU30は、上記入力用フィールドfd63において、エンディング画面のチェックボックスcb2がチェックされているときに、シナリオ格納ファイルSFに、エンディング画面を示す最後尾画像データのファイル名を挿入する。図19は、ステップS200による更新後のシナリオ格納ファイルSF′の一例を示す説明図である。図示するように、先頭画像データのファイル名(例えば、”openfr”)の挿入位置は、第1番目の絵図のコマezu71の手前、すなわち、「画像ファイル名」のデータアイテムDM3の先頭位置であり、最後尾画像データのファイル名(例えば”endfr”)の挿入位置は、最終の絵図の後方、すなわち、「画像ファイル名」のデータアイテムDM3の最後尾位置である。
【0097】
図20は、オープニング画面OPの一例を示す説明図である。このオープニング画面OPには、「タイトル」、「場所」および「日付」の3項目ofd1,ofd2,ofd3が掲載されている。「タイトル」の項目ofd1には、シナリオ格納ファイルSFの「分類」のデータアイテムDM1に格納された内容が入力されている。すなわち、結婚式、運動会、旅行、子供の成長記録、動物園といったシナリオに対応したタイトルが入力されている。「場所」の項目ofd2には、初期状態として、”in_____”が仮に入力され、後述するステップで、場所を示す文字列に書き換えられる。ダミーの文字列としては、”in ここに場所をいれて下さい”といった作業者に入力を促すものとすることもできる。「日付」の項目ofd3には、初期状態として、”00/00/00”が仮に入力され、後述するステップで、DVテープに記録されている日付に書き替えられる。
【0098】
図21は、エンディング画面EPの一例を示す説明図である。このエンディング画面EPには、「エンディング文字」、「撮影者」および「編集者」の3項目efd1,efd2,efd3が掲載されている。「エンディング文字」の項目efd1には、例えば、「END」とか「終」といった文字列が入力されている。「撮影者」の項目efd2には、初期状態として、”撮影_____”が仮に入力され、後述するステップで、撮影者を示す文字列に替えられる。ダミーの文字列としては、”撮影 ここに場所をいれて下さい”といった作業者に入力を促すものとすることもできる。「編集者」の項目efd3には、初期状態として、”編集_____”が仮に入力され、後述するステップで、編集者を示す文字列に書き替えられる。ダミーの文字列としては、”編集 ここに場所をいれて下さい”といった入力を促すものとすることもできる。
【0099】
図20および図21で示したオープニング画面OPおよびエンディング画面EPを示す先頭画像データおよび最後尾画像データは、ビットマップ形式の画像データで、上述したファイル名でもってHDD42に格納される。
【0100】
このコンピュータシステムでは、上述したように、図4で示したフローチャートに従って処理が実行されることによって、「シナリオ」、「キャプチャ」、「編集」、「効果」、「出力」の各作業が適宜実行される。「シナリオ」の作業は、前述したように、図7で示したシナリオルーチンに従って実行されるが、ここでは、前述したように、シナリオ格納ファイルSFの「画像ファイル名」のデータアイテムDM3に、先頭画像データおよび最後尾画像データの各ファイル名が格納されていることから、シナリオルーチンのステップS116で表示される絵図データ(すなわち、選択された分類のシナリオに対応する絵図データ)は、オープニング画面OPおよびエンディング画面EPの各画像データを含んだものとなる。図22は、シナリオルーチンの実行後のウィンドウWDの一例を示す説明図である。図示するように、コマ画像表示用フィールドfd10に格納される、長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示され、その枠組の最後尾には、エンディング画面EPが表示されることになる。
【0101】
なお、図22に示した例は、「オープニング画面/エンディング画面の設定」用の入力用フィールドfd63において、オープニング画面のチェックボックスcb1とエンディング画面のチェックボックスcb2とが共にチェックされた場合であり、オープニング画面のチェックボックスcb1がチェックされ、エンディング画面のチェックボックスcb2がチェックされていない場合には、上記長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示され、その枠組の最後尾には、エンディング画面EPは表示されることはない。また、オープニング画面のチェックボックスcb1がチェックされていなくて、エンディング画面のチェックボックスcb2がチェックされている場合には、上記長尺上のフィルムを模した枠組の先頭には、オープニング画面OPが表示されずに、その枠組の最後尾には、エンディング画面EPが表示される。なお、両チェックボックスcb1,cb2が共にチェックされていない場合には、上記長尺上のフィルムを模した枠組には、オープニング画面OPもエンディング画面EPが表示されることはない。
【0102】
この実施例では、上述したように、「環境設定」のダイアログボックスDBにおいて「オープニング画面/エンディング画面の設定」が行なわれた場合に、シナリオ格納ファイルSFにオープニング画面やエンディング画面を挿入するファイル更新を行ない、この更新後のシナリオ格納ファイルSF′を用いて、コマ画像表示用フィールドfd10へのシナリオの表示を行なっている。この結果、コマ画像表示用フィールドfd10に表示される、選択された分類についてシナリオは、オープニング画面やエンディング画面を含むものとなる。こうした構成に替えて、次のような他の態様によっても、コマ画像表示用フィールドfd10への表示を行なうことができる。
【0103】
この他の態様では、シナリオ格納ファイルSFは、図6のままで、オープニング画面やエンディング画面を付加するファイル更新は行なわない。そして、「シナリオ」の作業において、シナリオ格納ファイルSFに基づいてコマ画像表示用フィールドfd10に、選択された分類についての表示を行なう際に、まず、「オープニング画面/エンディング画面の設定」の設定内容に基づいて、先頭位置や最後尾位置に、無地色(例えばブルー)のコマの画像データを付加するようにする。すなわち、オープニング画面のチェックボックスcb1がチェックされている場合には、先頭位置にその無地色のコマの画像データの付加を行ない、エンディング画面のチェックボックスcb2がチェックされている場合には、最後尾位置にそのコマの画像データの付加を行なう。
【0104】
その後、その無地色のコマの画像データに、選択されたシナリオの分類(すなわち、ステップS112で選択された分類)に基づいて、オープニング画面OPについては、図20に例示するような「タイトル」、「場所」および「日付」の3項目ofd1,ofd2,ofd3を、エンディング画面EPについては、図21に例示するような「エンディング文字」、「撮影者」および「編集者」の3項目efd1,efd2,efd3をそれぞれ書き込む。この結果、上述した例と同様に、コマ画像表示用フィールドfd10に、オープニング画面やエンディング画面を含むシナリオ(選択された分類のシナリオ)を表示することができる。
【0105】
「キャプチャ」の作業は、前述したように、図8で示したキャプチャルーチンに従って実行されるが、ここでは、DVカメラ26から動画映像をキャプチャした際に、DVテープに記録されている日付を読込んで、その読込んだ日付でもって、オープニング画面OPを示す先頭画像データの「日付」の項目ofd3の部分を書換える処理(図示せず)が実行される。図23は、キャプチャルーチンの実行後のオープニング画面OPの一例を示す説明図である。このオープニング画面OPでは、「日付」の項目ofd3が、DVテープに記録されている日付に替えられている。「編集」の作業は、図12で示した編集ルーチンに従って実行される。
【0106】
「効果」の作業は、ここでは、前述したシナリオデータに対してテロップを入れる機能を使って、オープニング画面OPおよびエンディング画面EPを所望のものに書き換える処理を行なっている。図24は、この「効果」の作業時のウィンドウWDの一例を示す説明図である。図示において、ウィンドウ中のコマ画像表示用フィールドfd10に表示中のシナリオデータから、オープニング画面OPまたはエンディング画面EPを選択して、その後、「部分効果」のタブfd42に設けられたテロップ設定用のボタンTbtをクリックすることで、テロップ設定用のダイアログボックスを表示する。
【0107】
図25は、テロップ設定用のダイアログボックスTDBを示す説明図である。図示するように、テロップ設定用のダイアログボックスTDBには、選択された画像における上段/中段/下段の3つの領域に対してそれぞれ文字を入力するための文字列入力用フィールドTfd1,Tfd2,Tfd3と、左右方向を調整する調整用ボタン群Tfd4と、文字の入力結果を選択された画像とともに表示するプレビュー画面Tfd5とが設けられている。作業者は、文字列入力用フィールドTfd1,Tfd2,Tfd3に対して、入力したいテロップの文字列を入力して、プレビュー画面Tfd5に表示される文字列の位置を見ながら、調整用ボタン群Tfd4を駆使して、そのテロップの文字列の左右方向を調整することで、選択した画像上の所望の領域にテロップを貼り付けることができる。
【0108】
図25は、オープニング画面OPが選択状態にあるときを例示しており、このオープニング画面OPの各項目ofd1,ofd2,ofd3が、上段/中段/下段の文字列入力用フィールドTfd1,Tfd2,Tfd3にそれぞれ対応する。このため、上段の文字列入力用フィールドTfd1には、「タイトル」の項目ofd1に入力された内容が表示され、中段の文字列入力用フィールドTfd2には、「場所」の項目ofd2に入力された内容が表示され、下段の文字列入力用フィールドTfd3には、「日付」の項目ofd3に入力された内容が表示される。作業者は、こうしたオープニング画面OPの各項目ofd1,ofd2,ofd3に既に入力されている内容を見て、必要に応じて、文字列入力用フィールドTfd1,Tfd2,Tfd3の内容を書き換えることで、それら項目ofd1,ofd2,ofd3の内容を所望のものに書き換えるができる。エンディング画面EPについても、同様の操作で、「エンディング文字」、「撮影者」、「編集者」の各項目efd1,efd2,efd3の内容を書き換えることができる。
【0109】
「出力」の作業は、前述したように、図16で示した出力ルーチンに従って実行されるが、実際は、ステップ194の動画映像作品の作成処理は次のように構成されている。図26は、動画映像作品の作成処理の詳細を示すフローチャートである。図示するように、CPU30は、まず、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3中に、オープニング画面を示す先頭画像データのファイル名が存在するか否かを判別し(ステップS194a)、ここで、その先頭画像データのファイル名が存在すると判別された場合には、そのファイル名に対応するオープニングの画像データをHDD42から読み出してレンダリングして、その画像データを出力ファイルにまず書き出す(ステップS194b)。
【0110】
ステップS194bの実行後、CPU30は、「画像ファイル名」のデータアイテムDM3に格納される、動画映像クリップの先頭フレームを示すファイル名を先頭位置から順に読み出して、読み出した都度に、そのファイル名の先頭フレームに対応する動画映像クリップを読み出してレンダリングして、出力ファイルに先頭位置から順に書き出す(ステップS194c)。なお、ステップS194aで、オープニング画面を示す先頭画像データのファイル名が存在しないと判別された場合には、ステップS194bの処理を読み飛ばして、ステップS194cに処理を進める。
【0111】
ステップS194cの実行後、CPU30は、ステップS193で読み出したシナリオデータの「画像ファイル名」のデータアイテムDM3中に、エンディング画面を示す最後尾画像データのファイル名が存在するか否かを判別し(ステップS194d)、ここで、その最後尾画像データのファイル名が存在すると判別された場合には、そのファイル名に対応するエンディングの画像データをHDD42から読み出してレンダリングして、その画像データを出力ファイルに書き出す(ステップS194e)。なお、ステップS194dで、エンディング画面を示す最後尾画像データのファイル名が存在しないと判別された場合には、ステップS194eの処理を読み飛ばす。その後、ステップ194の動画映像作品の作成処理を終了する。その後、図16のステップS195に処理を進めて、上記出力ファイルをDVカメラ26に出力する。
【0112】
こうした構成の出力ルーチンの結果、DVカメラ26に出力される出力ファイルは、シナリオに従う動画映像作品であり、かつ、オープニング画面、エンディング画面が挿入された作品を表すものとなる。なお、この実施例においては、ビットマップ形式の先頭画像データや最後尾画像データの出力を、所定の時間(例えば、2,3秒)だけ継続するようになされている。なお、先頭画像データのレンダリング時には、画像が徐々に大きくなるようにフェードインさせ、また、最後尾画像データのレンダリング時には、画像が徐々に小さくなって、フェードアウトさせる構成とすることもできる。さらには、先頭画像データや最後尾画像データの再生時に、音楽が流れるように音声データをクリップする構成とすることもできる。
【0113】
以上のような構成のコンピュータシステムでは、映像作品にオープニング画面とエンディング画面とを付与することができることから、良質な映像作品を作成することができる。
【0114】
また、この実施例では、オープニング画面やエンディング画面に、所望の文字列を簡単な操作で付与することができる。また、オープニング画面にDVテープに記録されている日付を自動的に付与することができる。従って、容易に、より一層良質な映像作品を作成することができる。
【0115】
なお、前記実施例では、デジタルビデオカメラにより撮影して得られた動画映像データを編集する構成であったが、これに替えて、外部(例えば、他のコンピュータ)から動画映像データを受信してその動画映像データを編集する構成としてもよい。また、動画映像に限る必要もなく、デジタルカメラにより撮影して得られた静止画の映像データを編集する構成としてもよい。
【0116】
また、前記実施例における絵図データを、ビットマップ形式の画像データに替えて、他の形式、例えば、JPEGとかGIFの形式の画像データとすることもできる。また、オープニング画面を示す先頭画像データやエンディング画面を示す最後尾画像データを、ビットマップ形式の画像データに替えて、他の形式、例えば、JPEGとかGIFの形式の画像データとすることもできる。さらに、先頭画像データや最後尾画像データを動画の映像データとすることもできる。
【0117】
上記実施例において、オープニング画面やエンディング画面に、さらに、他の項目、例えば、作業者が自由に入力可能なコメント欄等を掲載する構成としてもよい。
【0118】
さらに他の態様として次のような構成とすることもできる。「シナリオ」のタブTB1に基づく作業が実行されない状態で、「編集」のタブTB2が選択されたときに、DVカメラ26から動画編集に必要な所望の区間の動画映像データをキャプチャするとともに、そのキャプチャした動画映像データを順に配列することが可能な構成とする。この配列の作業は、キャプチャした動画映像の動画クリップを、ウィンドウWD内のコマ画像表示用のフィールドfd10に順に並べることで行なわれる構成とする。このときに、先頭位置や最後尾位置に、無地色のコマの画像データを付加するようにする。すなわち、オープニング画面のチェックボックスcb1がチェックされている場合には、先頭位置にその無地色のコマの画像データの付加を行ない、エンディング画面のチェックボックスcb2がチェックされている場合には、最後尾位置にそのコマの画像データの付加を行なう。なお、その無地色のコマの画像データに簡単な「始まり」とか「終わり」の文字列を付加するようにすることができる。また、「効果」のタブTB4からの作業により、その無地色のコマの画像データ上に所望の文字列を書き込みすることができる構成とすることもできる。その後、「出力」のタブTB5が選択されたときに、レンダリングを行ない、オープニング画面を含む映像作品を作成する。あるいは、エンディング画面を含む映像作品を作成する。あるいは、オープニング画面とエンディング画面の双方を含む映像作品を作成する。
【0119】
以上、本発明の一実施例を詳述してきたが、本発明は、こうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲において種々なる態様にて実施することができるのは勿論のことである。
【図面の簡単な説明】
【図1】この発明の一実施例を適用するコンピュータシステムの外観図である。
【図2】コンピュータシステムのハードウェアの概略構成を示すブロック図である。
【図3】コンピュータ本体16によって動画映像の編集がなされる処理の様子を示すブロック図である。
【図4】CPU30で実行される動画映像編集処理ルーチンを示すフローチャートである。
【図5】「シナリオ」のタブTB1が選択されたときのウィンドウWDの一例を示す説明図である。
【図6】シナリオ格納ファイルSFの内容を模式的に示す説明図である。
【図7】シナリオルーチンの詳細を示すフローチャートである。
【図8】キャプチャルーチンの詳細を示すフローチャートである。
【図9】「キャプチャ」のタブTB2が選択されたときのウィンドウWDの一例を示す説明図である。
【図10】動画映像の対応づけがなされた後のシナリオ格納ファイルSFの内容を模式的に示す説明図である。
【図11】図10に示したシナリオデータSD(4)に基づいてコマ画像表示用フィールドfd10を再表示したウィンドウWDを示す説明図である。
【図12】編集ルーチンの詳細を示すフローチャートである。
【図13】「編集」のタブTB3が選択されたときのウィンドウWDの一例を示す説明図である。
【図14】開始点および終了点の指定がなされた動画映像データを模式的に示す説明図である。
【図15】「効果」のタブTB4が選択されたときのウィンドウWDの一例を示す説明図である。
【図16】出力ルーチンの詳細を示すフローチャートである。
【図17】「出力」のタブTB5が選択されたときのウィンドウWDの一例を示す説明図である。
【図18】「環境設定」のダイアログボックスDBの一例を示す説明図である。
【図19】更新後のシナリオ格納ファイルSF′の一例を示す説明図である。
【図20】オープニング画面OPの一例を示す説明図である。
【図21】エンディング画面EPの一例を示す説明図である。
【図22】シナリオルーチンの実行後のウィンドウWDの一例を示す説明図である。
【図23】キャプチャルーチンの実行後のオープニング画面OPの一例を示す説明図である。
【図24】「効果」の作業時のウィンドウWDの一例を示す説明図である。
【図25】テロップ設定用のダイアログボックスTDBを示す説明図である。
【図26】動画映像作品の作成処理の詳細を示すフローチャートである。
【符号の説明】
10…コンピュータ
12…CRTディスプレイ
16…コンピュータ本体
18…キーボード
20…マウス
22…ROM
24…CDドライブ
26…DVカメラ
30…CPU
31…ROM
32…RAM
33…表示画像メモリ
34…マウスインタフェース
35…キーボードインタフェース
36…CDC
37…HDC
38…CRTC
40…DVインタフェース
41…I/Oポート
42…HDD
44…モデム
46…公衆電話回線
48…サーバ
51…コンピュータプログラム
51a…シナリオ選択部
51b…絵図出力制御部
51c…動画映像キャプチャ部
51d…映像データ対応づけ部
51e…映像作品出力部
52…ビデオドライバ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for creating a continuous video work by ordering a plurality of video data indicating moving images or still images according to a scenario.
[0002]
[Prior art]
In recent years, with the widespread use of digital video cameras at home, the emergence of application programs that can easily edit video images has been desired. In such a conventional video editing application program, a strip-like container with a time called a timeline is prepared on the display screen, and the icon of the first frame of the video image prepared on the screen is also dragged and dragged with the mouse. By moving in order on the timeline by the drop operation, a moving image work in which a plurality of moving images with the first frame displayed are connected can be created.
[0003]
[Problems to be solved by the invention]
However, the above-described conventional technique has a problem that it is impossible to obtain a high-quality video work only by determining the arrangement order of the moving image.
[0004]
An object of the present invention is to make it possible to create a high-quality video work.
[0005]
[Means for solving the problems and their functions and effects]
As means for solving at least a part of the problems described above, the following configuration is adopted.
[0013]
The video editing method of the present invention comprises:
(A) selecting one scenario from one or more scenarios according to an external instruction;
(B) displaying a plurality of pieces of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) receiving an operation command by an operator from the screen of the display device, and selectively associating the plurality of video data with each image data displayed on the screen;
(D) arranging the video data correlated in the step (c) so as to coincide with the arrangement order of the corresponding image data to create one continuous video work;
With
The step (b)
(B1) comprising: displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data;
The step (d)
(D1) comprising the step of including the head image data in the video work,
It is characterized by that.
[0014]
According to the video editing method having such a configuration, by associating each video data with a characteristic video scene included in the scenario, each video data is arranged in an order that matches the arrangement order of the video scenes. . For this reason, each video data is arranged according to a scenario. Therefore, the editing work for arranging a plurality of videos in a high-quality arrangement can be easily performed without leaving the editing sense of the operator. Furthermore, since an opening screen on which at least a title corresponding to the scenario is posted can be added to the video work, a high-quality video work can be created.
[0015]
The video editing method may include a step of (e) assigning a desired character string to the opening screen indicated by the head image data. According to this configuration, since a desired character string can be given to the opening screen, it is possible to create a higher quality video work.
[0016]
In the video editing method, (f) reading the creation date of the video data from a recording medium on which the video data is recorded, and (g) assigning the creation date to the opening screen indicated by the head image data And the step of performing. According to this configuration, the creation date of the video data can be automatically given to the opening screen.
[0017]
In the above video editing method,
The step (b)
(B2) including a step of displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The step (d)
(D2) comprising the step of including the last image data in the video work,
It can be configured.
[0018]
According to this configuration, since the ending screen can be given to the video work, a high-quality video work can be created.
[0019]
The video editing method configured to add the ending screen may include a step of (h) adding a desired character string to the ending screen indicated by the tail image data. According to this configuration, since a desired character string can be assigned to the ending screen, it is possible to create a higher quality video work.
[0020]
In the video editing method of the present invention, the video data may be moving image data obtained by photographing with a digital video camera. According to this configuration, editing of a moving image from a digital video camera is possible.
[0024]
The video editing apparatus of the present invention
A video editing device for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
Scenario selection means for selecting one scenario from one or more scenario titles according to an external instruction;
Pictorial image output control means for displaying a plurality of image data respectively showing characteristic video scenes included in the selected scenario on the screen of the display device in an arrangement according to the order of the scenario;
Video data associating means for selectively associating each of the plurality of video data with respect to each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
Video work creation means for arranging each video data correlated by the video data correlation means so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work;
With
The picture output control means includes
Means for displaying top image data indicating an opening screen on which at least a title corresponding to the scenario is posted, at a top position of the plurality of image data;
The video work creating means is:
Means for including the head image data in the video work;
It is characterized by that.
[0025]
The computer program of the present invention is
A computer program for creating a series of video works by ordering a plurality of video data representing moving images or still images according to a scenario,
(A) a function of selecting one scenario from one or a plurality of scenarios according to an external instruction;
(B) a function of displaying a plurality of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a function of selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
(D) a function of arranging each video data associated by the function (c) so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work;
Is realized on a computer,
The function (b) is
(B1) A function of displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data,
The function (d) is
(D1) having a function of including the head image data in the video work;
It features a computer program.
[0026]
The video editing apparatus and computer program of the present invention configured as described above have the same operations and effects as the video editing method, respectively, and can easily perform editing work for arranging a plurality of videos in a high quality array. Both the effect and the effect of creating a high-quality video work.
[0027]
The recording medium of the present invention is characterized by a computer-readable recording medium on which the computer program of the present invention is recorded. This recording medium has the same operations and effects as the video editing methods, video editing apparatuses, and computer programs of the present invention.
[0028]
Other aspects of the invention
The present invention includes other aspects as follows. The 1st aspect is an aspect as a program supply apparatus which supplies the 1st or 2nd computer program of this invention via a communication path. In the first aspect, the above-described apparatus and method are realized by placing a computer program on a server or the like on a computer network, downloading a necessary program to a computer via a communication path, and executing the program. Can do.
[0029]
The second aspect is a video editing method for creating a continuous video work, wherein (a) preparing a top image data indicating an opening screen; and (b) including the top image data in the video work. And a step. A third aspect is a video editing method for creating a continuous video work, comprising: (a) preparing tail image data indicating an ending screen; and (b) adding the tail image data to the video work. Including the step of including. Furthermore, as another aspect, it is an aspect as an apparatus or computer program provided with each component of the 3rd or 4th aspect.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
In order to further clarify the configuration and operation of the present invention described above, embodiments of the present invention will be described based on examples. FIG. 1 is an external view of a computer system to which one embodiment of the present invention is applied. The computer system includes a
[0031]
FIG. 2 is a block diagram illustrating a schematic configuration of hardware of the computer system. As shown in the figure, the computer
[0032]
The
[0033]
The
[0034]
In this computer system, the operating system is stored in the
[0035]
Various configuration requirements of the present invention are realized by the
[0036]
Next, a description will be given of how a video image is edited by the computer system having the hardware configuration described above. FIG. 3 is a block diagram illustrating a process of editing a moving image by the computer
[0037]
Next, a plurality of pieces of image data (hereinafter referred to as pictorial data) each showing a characteristic video scene included in the scenario selected by the scenario selection unit 51a as a pictorial map (for example, a pictorial picture of an illustration) follow the order of the scenario. The array is displayed on the
[0038]
On the other hand, the moving
[0039]
Thereafter, each moving image video data associated by the video
[0040]
Further, the opening / ending
[0041]
Next, processing (moving image editing processing) according to the
[0042]
As shown in the figure, when the process is started, the
[0043]
The “capture” tab TB2 captures moving image data of a desired section necessary for moving image editing from the
[0044]
Note that the work performed when the “scenario” tab TB1 is selected corresponds to the scenario selection unit 51a and the picture
[0045]
In the window WD of the initial screen shown in FIG. 5, a state in which the above-described “scenario” tab TB1 is selected is displayed. As shown in the figure, the window WD of the initial screen includes three data input fields fd1, fd2, and fd3 of “selection of classification”, “selection of work title”, and “scene material”, and a plurality of still images. And the above-described frame image display field fd10 for displaying image data of the image.
[0046]
The “classification selection” field fd1 is used to select a classification for the scenario. For example, wedding, athletic meet, travel, child growth record, zoo, and the like are prepared as options. In response to a click operation of the
[0047]
FIG. 6 is an explanatory diagram schematically showing the contents of the scenario storage file SF. As illustrated, the scenario storage file SF stores a plurality of scenario data SD. One scenario data SD corresponds to one line in the figure, and is composed of three data items DM1, DM2, and DM3 of “classification”, “work title”, and “image file name”. The scenario data SD is sorted according to the contents of the “classification” data item DM1.
[0048]
Data indicating the classification of the scenario is stored in the “classification” data item DM1, and the choices in the field “fd1” of “classification selection” provided in the window WD are determined by the contents of the data item DM1. Data indicating a scenario is stored in the data item DM2 of “work title”, and the choices in the field “fd2” of the “selection of work title” are determined by the contents of the data item DM2. In the “image file name” data item DM3, as shown in the figure, for example, a plurality of file names of pictorial data stored in the
[0049]
Returning to the flowchart of FIG. 4, after the initial screen is displayed in step S100, the
[0050]
Next, the
[0051]
Although not described in the flowchart of FIG. 7, the following various processes are performed in this scenario routine. As shown in FIG. 5, a plurality of scene materials belonging to the contents selected in the data input field fd1 of “selection of classification” are displayed in the data input field fd3 of “scene material” of the window WD. Is done. The material of this scene is the same as the bitmap format image data displayed in the frame image display field fd10. By using the material of this scene, the worker can change the scenario as a set of picture data provided in advance in the form of the scenario storage file SF, and can create an original scenario.
[0052]
Specifically, the operator drags the image data of the material of one scene from the data input field fd3 of the “scene material” with the
[0053]
The contents stored in the data item DM3 of the “image file name” of the scenario storage file SF are clicked on one frame of the image data displayed in the frame image display field fd10, and the [Delete] key is selected from the
[0054]
When the scenario routine process ends, the process proceeds to step S120 in FIG. 4, and the
[0055]
FIG. 8 is a flowchart showing details of the capture routine executed by the
[0056]
Returning to FIG. 8, the
[0057]
If necessary, the operator clicks the frame of the picture displayed in the frame image display field fd10 with the
[0058]
Thereafter, the
[0059]
Below the field fd20 for moving picture capture, the above-mentioned button switch that plays the moving picture on the screen fd21 of the field fd20, stops the playback, fast forwards, rewinds, or pauses the playback. A group fd22 is provided. By operating these button switch groups fd22 with the
[0060]
The operator operates the button switch group fd22 to reproduce the moving image from the
[0061]
By performing a series of operations with the
[0062]
After execution of step S136, the
[0063]
In this embodiment provided with a storage file having a data structure as shown in FIG. 6, as shown in FIG. 5, when the classification is selected as “Sports Day” and the title of work is “Sports Day 3”, as described above. The fourth scenario data SD (4) is selected. As a result, in the frame image display field fd10 on the window WD, a feature image included in the “athletic meet 3” scenario as shown in FIG. 5 is displayed. In this state, after the “capture” tab TB2 is selected, when the moving image is first captured using the moving image capturing field fd20, the variable i is set to the
[0064]
Returning to FIG. 8, after the execution of step S137, based on the scenario data updated in step S137, a process for redisplaying the contents of the frame image display field fd10 is performed (step S138). FIG. 11 is an explanatory diagram showing a window WD in which the frame image display field fd10 is redisplayed based on the scenario data SD (4) shown in FIG. As shown in FIG. 11, the first frame FM1 of the captured moving image is added between the frame CM1 of the first picture and the frame CM2 of the second picture.
[0065]
When the scenario data is updated in step 137, the attribute data of the picture data arranged immediately before the added position is copied as it is in association with the movie clip corresponding to the file name of the added first frame. The process of storing the attribute data is also performed. That is, attribute data such as sound effects of the associated picture data is automatically set for the added video clip. In the process of copying the attribute data, it is possible to copy only predetermined types of data among the attribute data, or not to copy any type of attribute data. . These changes can be freely set by the operator from the screen.
[0066]
Returning to FIG. 8, after the execution of step S138, the variable i is the maximum value, that is, the number of picture data stored in the data item DM3 of the image file name of the scenario data in the selected state (the first frame added in step S137). Is not included in the number) (step S139). Here, when it is determined that the value does not exceed, the process returns to step S133, and the steps after step S133 are repeatedly processed. On the other hand, when it is determined in step S139 that the variable i has exceeded the maximum value, the process proceeds to step 13A, and other processes are performed. Thereafter, the process returns to “RETURN”, and the process of this capture routine is temporarily performed. finish. Here, the other process is a process of adding a plurality of moving image video clips between two frames of a picture as described later.
[0067]
According to the capture routine configured as described above, every time one moving image data is captured from the
[0068]
In this capture routine, although not shown in the flowchart, the first frame of the moving image data added between the frame of the picture displayed in the frame image display field fd10 (for example, FIG. 11). When the moving image data is captured after the operator clicked on the first frame FM1) shown in FIG. 1, the registered position of the captured moving image clip is set immediately after the clicked frame. It has changed. According to this configuration, it is possible to add a plurality of moving image video clips between two picture frames arranged in succession. Further, in the frame image display field fd10, a frame of the first frame indicating a moving image video clip can be moved between frames of other picture data by a drag and drop operation of the
[0069]
When the capture routine process ends, the process proceeds to step S140 in FIG. 4, and the
[0070]
FIG. 12 is a flowchart showing details of the editing routine executed by the
[0071]
Returning to FIG. 12, after executing step S151, the
[0072]
When the operator comes to the start point to be trimmed while watching the video image reproduced on the screen part fd31 of the video image display field fd30, the operator clicks the in-point designation button switch fd33 to end the point to be trimmed. Is clicked, the button switch fd34 for designating the out point is clicked. After executing step S152, the
[0073]
After executing step S154, the
[0074]
In this embodiment, the moving image is reproduced on the screen portion fd31 and the in point and the out point are designated. Instead, a slider for adjusting the moving image display position is displayed on the screen. The slider can be operated with the mouse and the IN point and OUT point can be designated.
[0075]
FIG. 14 is an explanatory diagram schematically showing moving image video data in which the start point and the end point are specified. As shown in the drawing, the moving image data has a start point and an end point. A range between the start point and the end point (indicated by hatching in the drawing) is a range necessary for editing designated by the operator, that is, an effective range. Therefore, the operator can finely adjust the range used for editing the moving image data captured by the work from the “capture” tab TB2 as necessary.
[0076]
Returning to FIG. 12, after executing step S156, the
[0077]
As shown in FIG. 13, a button switch fd35 with scissors marks is provided on the right side of the button switch group f32. Although the detailed flow of processing using the button switch fd35 is not described in the flowchart of FIG. 12, the registered moving image editing clip can be divided at a desired point by the button switch fd35.
[0078]
On the other hand, if it is determined in step S158 that all editing has been completed, the editing routine is terminated. When the processing of the editing routine ends, the process proceeds to step S160 in FIG. 4, and the
[0079]
When the processing shifts to this effect routine, the window WD is displayed as shown in FIG. The effect routine performs various input operations from this window WD, and thereby performs an operation of adding sound effects, telops, etc. to the scenario data edited from the “edit” tab TB3. Although detailed description of the processing flow is omitted here, when the “overall effect” tab fd41 in FIG. 15 is clicked, the scenario data currently selected is displayed in the entire story determined from the scenario data. A sound effect or the like can be applied to the “partial effect” tab fd42, and a sound effect or the like is applied to one video image clip registered in the currently selected scenario data. Can do. Here, the above-described attribute data is recorded so as to be rewritten. As described above, such attribute data is stored separately associated with the moving image clip, but the process of converting both into a single file form is executed by a rendering process described later. .
[0080]
When the processing of this effect routine is completed, the processing proceeds to step S180 in FIG. 4, and the
[0081]
FIG. 16 is a flowchart showing details of an output routine executed by the
[0082]
Returning to FIG. 16, after executing step S191, the
[0083]
Thereafter, the
[0084]
As a result, in this output file, all the moving picture video clips registered in the selected scenario data are arranged in the order of registration, that is, the order that matches the arrangement order of the associated picture data. become. In this way, by writing all the moving picture clips registered in the scenario data to one output file, a moving picture work composed of the output files is created. For example, in the case of a configuration such as scenario data SD (4) shown in FIG. 10, a moving image work in which each moving image clip of “
[0085]
After execution of step S194, the output file is output to the DV camera 26 (step S195). Thereafter, the process returns to return, and this output routine is terminated. In this output routine, the created moving image work is written back to the
[0086]
In addition, by giving an instruction “include picture data” from the output file change field, the output file includes picture data together with the video clip instead of the structure including only the video clip such as the output file. Can also be created. According to this configuration, the illustration picture is first shown, then the video clip related to the illustration is shown, and then the next illustration picture is shown, followed by the video clip related to the illustration. A video work will be created. For example, in the case of the configuration like the scenario data SD (4) shown in FIG. 10, the picture data of “ezu1”, “frame1”, “ezu2”, “frame2”,... Will be created.
[0087]
When the processing of the output routine is completed, the process exits step S190 of FIG. 4 and ends the moving image editing process routine.
[0088]
In this moving image editing process routine, the five types of tabs TB1, TB2, TB3, TB4, and TB5 of “scenario”, “capture”, “edit”, “effect”, and “output” are arranged in this order. Each operation is executed by clicking on the above operation, but instead, it may be configured such that the next operation is automatically executed when one operation is completed. Further, instead of the configuration in which each work is advanced in the form of such a tab, a configuration may be adopted in which each work is advanced by a “forward” or “back” button in a wizard format.
[0089]
According to the computer system of this embodiment configured as described above, each moving image video data is associated with the image data of the characteristic video scene included in the scenario prepared in advance. Are arranged in an order that matches the arrangement order of the video scenes. For this reason, each moving image data is arranged according to a scenario prepared in advance. Therefore, it is possible to easily perform an editing operation for arranging a plurality of moving image data in a high quality array.
[0090]
Further, in this embodiment, the work to capture the moving image data from the
[0091]
Also, in this embodiment, a moving image work output in the form of an output file is selectively selected as a combination of image data and image data of a picture showing a characteristic video scene of a scenario in a pair. You can switch to For this reason, not only moving image data but also image data of a picture can be displayed, so that a video work with higher hobby can be provided.
[0092]
Furthermore, in this embodiment, an opening screen and an ending screen are automatically inserted into the moving image work realized by the opening / ending
[0093]
FIG. 18 is an explanatory diagram showing an example of the “environment setting” dialog box DB in this embodiment. In a moving image editing process executed according to a computer program, when a “setting” button (not shown) is clicked with a
[0094]
Here, the input field fd63 for “setting of the opening screen / ending screen” is particularly relevant. This input field fd63 is provided with a check box cb1 for the opening screen and a check box cb2 for the ending screen. When the check boxes cb1 and cb2 are clicked with the
[0095]
When an environment setting instruction is given by the “environment setting” dialog box DB, the
[0096]
Specifically, the
[0097]
FIG. 20 is an explanatory diagram showing an example of the opening screen OP. On this opening screen OP, three items ofd1, ofd2, and ofd3 of “title”, “location”, and “date” are posted. In the “title” item ofd1, the content stored in the “classification” data item DM1 of the scenario storage file SF is input. That is, titles corresponding to scenarios such as weddings, athletic meet, travel, children's growth records, and zoos are entered. In the “location” item ofd2, “in_____” is temporarily input as an initial state, and is rewritten into a character string indicating the location in a step described later. As a dummy character string, it is possible to prompt the operator to input such as “in, place here”. In the “date” item ofd3, “00/00/00” is temporarily input as an initial state, and is rewritten to the date recorded on the DV tape in a later-described step.
[0098]
FIG. 21 is an explanatory diagram showing an example of the ending screen EP. In this ending screen EP, three items efd1, efd2, and efd3 of “ending character”, “photographer”, and “editor” are posted. For example, a character string such as “END” or “End” is input to the item “efd1” of “Ending Character”. In the item “efd2” of “photographer”, “photographing _____” is temporarily input as an initial state, and is changed to a character string indicating the photographer in a step described later. As a dummy character string, it is possible to prompt the operator to input such as “Please take a place here”. In the “editor” item efd3, “edit_____” is temporarily input as an initial state, and is rewritten to a character string indicating the editor in a later-described step. As a dummy character string, it is also possible to prompt for an input such as “Please enter a place here”.
[0099]
The first image data and the last image data indicating the opening screen OP and the ending screen EP shown in FIGS. 20 and 21 are bitmap format image data, and are stored in the
[0100]
In this computer system, as described above, processing is executed in accordance with the flowchart shown in FIG. 4, so that “scenario”, “capture”, “edit”, “effect”, and “output” operations are appropriately executed. Is done. As described above, the work of “scenario” is executed according to the scenario routine shown in FIG. 7. Here, as described above, the data item DM3 of “image file name” of the scenario storage file SF is the head. Since the file names of the image data and the last image data are stored, the picture data displayed in step S116 of the scenario routine (that is, the picture data corresponding to the selected classification scenario) is the opening screen OP. In addition, each image data of the ending screen EP is included. FIG. 22 is an explanatory diagram showing an example of the window WD after execution of the scenario routine. As shown in the figure, an opening screen OP is displayed at the beginning of a frame imitating a long film stored in the frame image display field fd10, and an ending screen EP is displayed at the end of the frame. Will be.
[0101]
The example shown in FIG. 22 is a case where both the opening screen check box cb1 and the ending screen check box cb2 are checked in the input field fd63 for “opening screen / ending screen setting”. When the check box cb1 on the opening screen is checked and the check box cb2 on the ending screen is not checked, the opening screen OP is displayed at the top of the frame imitating the above-mentioned long film, and the frame of the frame is displayed. At the end, the ending screen EP is not displayed. If the opening screen check box cb1 is not checked and the ending screen check box cb2 is checked, an opening screen OP is displayed at the top of the frame imitating the above-mentioned long film. Instead, an ending screen EP is displayed at the end of the frame. When both the check boxes cb1 and cb2 are not checked, the opening screen OP and the ending screen EP are not displayed on the frame imitating the long film.
[0102]
In this embodiment, as described above, when “opening screen / ending screen setting” is performed in the “environment setting” dialog box DB, the file update for inserting the opening screen and the ending screen into the scenario storage file SF is performed. The scenario is displayed in the frame image display field fd10 using the updated scenario storage file SF ′. As a result, the scenario for the selected classification displayed in the frame image display field fd10 includes an opening screen and an ending screen. In place of such a configuration, display in the frame image display field fd10 can be performed also by other modes as described below.
[0103]
In this other aspect, the scenario storage file SF remains as shown in FIG. 6, and the file update for adding the opening screen and the ending screen is not performed. In the “scenario” operation, when displaying the selected classification in the frame image display field fd10 based on the scenario storage file SF, first, the setting contents of the “opening screen / ending screen setting” are set. Based on the above, image data of a plain color (for example, blue) frame is added to the head position and the tail position. That is, when the check box cb1 on the opening screen is checked, the image data of the plain color frame is added to the head position, and when the check box cb2 on the ending screen is checked, The image data of the frame is added to the position.
[0104]
Thereafter, based on the classification of the selected scenario (that is, the classification selected in step S112), the opening screen OP includes “title” as illustrated in FIG. The “item” and “date” three items ofd1, ofd2, and ofd3, and the ending screen EP, the “ending character”, “photographer”, and “editor” three items efd1, efd2 as illustrated in FIG. , Efd3 are written respectively. As a result, as in the above-described example, a scenario including the opening screen and the ending screen (scenario of the selected classification) can be displayed in the frame image display field fd10.
[0105]
As described above, the “capture” operation is executed according to the capture routine shown in FIG. 8, but here, when a moving image is captured from the
[0106]
In the “effect” operation, here, a process of rewriting the opening screen OP and the ending screen EP to a desired one is performed using the above-described function for inserting a telop on the scenario data. FIG. 24 is an explanatory diagram showing an example of the window WD during the “effect” work. In the drawing, the opening screen OP or the ending screen EP is selected from the scenario data being displayed in the frame image display field fd10 in the window, and then a telop setting button provided in the “partial effect” tab fd42 By clicking Tbt, a dialog box for setting a telop is displayed.
[0107]
FIG. 25 is an explanatory diagram showing a dialog box TDB for setting a telop. As shown in the figure, the telop setting dialog box TDB includes character string input fields Tfd1, Tfd2, and Tfd3 for inputting characters to the upper, middle, and lower regions of the selected image. An adjustment button group Tfd4 for adjusting the horizontal direction and a preview screen Tfd5 for displaying a character input result together with a selected image are provided. The operator inputs the character string of the telop to be input to the character string input fields Tfd1, Tfd2, and Tfd3, and sets the adjustment button group Tfd4 while viewing the position of the character string displayed on the preview screen Tfd5. By making full use of the text string of the telop, the telop can be pasted in a desired area on the selected image.
[0108]
FIG. 25 exemplifies a case where the opening screen OP is in a selected state. The items ofd1, ofd2, and ofd3 of the opening screen OP are displayed in the upper / middle / lower character string input fields Tfd1, Tfd2, and Tfd3. Each corresponds. Therefore, the contents input in the “title” item ofd1 are displayed in the upper character string input field Tfd1, and the “location” item ofd2 is input in the middle character string input field Tfd2. The contents are displayed, and the contents input in the “date” item ofd3 are displayed in the lower character string input field Tfd3. The operator looks at the contents already entered in each item ofd1, ofd2, and ofd3 of the opening screen OP, and rewrites the contents of the character string input fields Tfd1, Tfd2, and Tfd3 as necessary. The contents of the items ofd1, ofd2, and ofd3 can be rewritten as desired. With respect to the ending screen EP, the contents of the items “efd1, efd2, efd3” of “ending character”, “photographer”, and “editor” can be rewritten by the same operation.
[0109]
As described above, the “output” operation is executed according to the output routine shown in FIG. 16, but in reality, the process of creating a moving image work in step 194 is configured as follows. FIG. 26 is a flowchart showing the details of the process of creating a moving image work. As shown in the figure, the
[0110]
After execution of step S194b, the
[0111]
After executing step S194c, the
[0112]
As a result of the output routine having such a configuration, the output file output to the
[0113]
In the computer system configured as described above, since an opening screen and an ending screen can be added to a video work, a high-quality video work can be created.
[0114]
In this embodiment, a desired character string can be given to the opening screen and the ending screen with a simple operation. Further, the date recorded on the DV tape can be automatically given to the opening screen. Therefore, it is possible to easily create an even higher quality video work.
[0115]
In the above embodiment, the moving image data obtained by photographing with the digital video camera is edited. Instead, the moving image data is received from the outside (for example, another computer). The moving image data may be edited. Further, the present invention is not limited to a moving image, and may be configured to edit still image video data obtained by photographing with a digital camera.
[0116]
In addition, the picture data in the above embodiment can be replaced with image data in a bitmap format, and can be in other formats, for example, JPEG or GIF format image data. In addition, the top image data indicating the opening screen and the last image data indicating the ending screen may be replaced with the image data in the bitmap format, and the image data in another format, for example, JPEG or GIF format. Furthermore, the top image data and the last image data can be used as video data of a moving image.
[0117]
In the above-described embodiment, another item such as a comment field that can be freely input by the operator may be posted on the opening screen or the ending screen.
[0118]
Further, as another aspect, the following configuration may be adopted. When the work based on the “scenario” tab TB1 is not executed and the “edit” tab TB2 is selected, the video video data of a desired section necessary for video editing is captured from the
[0119]
As mentioned above, although one Example of this invention was explained in full detail, this invention is not limited at all to such an Example, In the range which does not deviate from the summary of this invention, it can implement in various aspects. Of course.
[Brief description of the drawings]
FIG. 1 is an external view of a computer system to which an embodiment of the present invention is applied.
FIG. 2 is a block diagram showing a schematic configuration of hardware of a computer system.
FIG. 3 is a block diagram illustrating a process of editing a moving image by the computer
4 is a flowchart showing a moving image editing process routine executed by
FIG. 5 is an explanatory diagram illustrating an example of a window WD when a “scenario” tab TB1 is selected;
FIG. 6 is an explanatory diagram schematically showing the contents of a scenario storage file SF.
FIG. 7 is a flowchart showing details of a scenario routine.
FIG. 8 is a flowchart showing details of a capture routine.
FIG. 9 is an explanatory diagram showing an example of a window WD when a “capture” tab TB2 is selected.
FIG. 10 is an explanatory diagram schematically showing the contents of a scenario storage file SF after the association of the moving image.
11 is an explanatory diagram showing a window WD in which a frame image display field fd10 is re-displayed based on the scenario data SD (4) shown in FIG.
FIG. 12 is a flowchart showing details of an editing routine.
FIG. 13 is an explanatory diagram showing an example of a window WD when an “edit” tab TB3 is selected.
FIG. 14 is an explanatory diagram schematically showing moving image video data for which a start point and an end point are designated.
FIG. 15 is an explanatory diagram showing an example of a window WD when an “effect” tab TB4 is selected.
FIG. 16 is a flowchart showing details of an output routine.
FIG. 17 is an explanatory diagram illustrating an example of a window WD when an “Output” tab TB5 is selected.
FIG. 18 is an explanatory diagram illustrating an example of an “environment setting” dialog box DB;
FIG. 19 is an explanatory diagram showing an example of a scenario storage file SF ′ after update.
FIG. 20 is an explanatory diagram showing an example of an opening screen OP.
FIG. 21 is an explanatory diagram showing an example of an ending screen EP.
FIG. 22 is an explanatory diagram showing an example of a window WD after execution of a scenario routine.
FIG. 23 is an explanatory diagram showing an example of an opening screen OP after execution of a capture routine.
FIG. 24 is an explanatory diagram showing an example of a window WD at the time of “effect” work;
FIG. 25 is an explanatory diagram showing a dialog box TDB for setting a telop.
FIG. 26 is a flowchart illustrating details of a moving image work creation process.
[Explanation of symbols]
10 ... Computer
12 ... CRT display
16 ... computer body
18 ... Keyboard
20 ... Mouse
22 ... ROM
24 ... CD drive
26 ... DV camera
30 ... CPU
31 ... ROM
32 ... RAM
33 ... Display image memory
34 ... Mouse interface
35 ... Keyboard interface
36 ... CDC
37 ... HDC
38 ... CRTC
40 ... DV interface
41 ... I / O port
42 ... HDD
44 ... Modem
46 ... Public telephone line
48 ... Server
51. Computer program
51a ... scenario selection part
51b ... Picture output control unit
51c ... Video image capture unit
51d: Video data association unit
51e… Video output part
52 ... Video driver
Claims (15)
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択するステップと、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示するステップと、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づけるステップと
(d)前記ステップ(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成するステップと
を備えるとともに、
前記ステップ(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示するステップを備え、
前記ステップ(d)は、
(d1)前記先頭画像データを前記映像作品に含ませるステップを備える、
映像編集方法。A video editing method for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
(A) selecting one scenario from one or more scenarios according to an external instruction;
(B) displaying a plurality of pieces of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a step of selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from an operator on the screen of the display device; Arranging the video data correlated in the step (c) so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work, and
The step (b)
(B1) comprising: displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data;
The step (d)
(D1) comprising the step of including the head image data in the video work,
Video editing method.
(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与するステップ
を備える映像編集方法。The video editing method according to claim 1,
(E) A video editing method comprising a step of assigning a desired character string to the opening screen indicated by the head image data.
(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出すステップと、
(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与するステップと
を備える映像編集方法。The video editing method according to claim 1,
(F) reading a creation date of the video data from a recording medium recording the video data;
(G) A video editing method comprising: adding the creation date to an opening screen indicated by the head image data.
前記ステップ(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示するステップを備え、
前記ステップ(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませるステップを備える、
映像編集方法。The video editing method according to claim 1,
The step (b)
(B2) including a step of displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The step (d)
(D2) comprising the step of including the last image data in the video work,
Video editing method.
(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与するステップ
を備える映像編集方法。The video editing method according to claim 4,
(H) A video editing method comprising: adding a desired character string to an ending screen indicated by the last image data.
1または複数のシナリオタイトルの中から、外部からの指示に従って1のシナリオを選択するシナリオ選択手段と、
該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する絵図出力制御手段と、
前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける映像データ対応づけ手段と、
前記映像データ対応づけ手段により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する映像作品作成手段と
を備えるとともに、
前記絵図出力制御手段は、
前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する手段を備え、
前記映像作品作成手段は、
前記先頭画像データを前記映像作品に含ませる手段を備える、
映像編集装置。A video editing device for creating a continuous video work by ordering a plurality of video data indicating a moving image or a still image according to a scenario,
Scenario selection means for selecting one scenario from one or more scenario titles according to an external instruction;
Pictorial image output control means for displaying a plurality of image data respectively showing characteristic video scenes included in the selected scenario on the screen of the display device in an arrangement according to the order of the scenario;
Video data associating means for selectively associating each of the plurality of video data with respect to each image data displayed on the screen in response to an operation command from an operator on the screen of the display device;
Video work creation means for arranging each video data correlated by the video data correlation means so as to coincide with the arrangement order of the corresponding image data, and creating one continuous video work. As well as
The picture output control means includes
Means for displaying top image data indicating an opening screen on which at least a title corresponding to the scenario is posted, at a top position of the plurality of image data;
The video work creating means is:
Means for including the head image data in the video work;
Video editing device.
前記絵図出力制御手段は、
エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する手段を備え、
前記映像作品作成手段は、
前記最後尾画像データを前記映像作品に含ませる手段を備える、
映像編集装置。The video editing apparatus according to claim 7,
The picture output control means includes
Means for displaying tail image data indicating an ending screen at a tail position of the plurality of image data;
The video work creating means is:
Means for including the tail image data in the video work,
Video editing device.
(a)1または複数のシナリオの中から、外部からの指示に従って1のシナリオを選択する機能と、
(b)該選択されたシナリオに含まれる特徴的な映像場面を絵図によりそれぞれ示す複数の画像データを、当該シナリオの順序に従う配列で表示装置の画面に表示する機能と、
(c)前記表示装置の画面上からの作業者による操作指令を受けて、前記画面に表示された各画像データに対して、前記複数の映像データを選択的にそれぞれ対応づける機能と
(d)前記機能(c)により対応づけのなされた各映像データを、対応先の各画像データの配列順序と一致するように配列して、連続した一の映像作品を作成する機能と
をコンピュータに実現させるとともに、
前記機能(b)は、
(b1)前記シナリオに対応するタイトルが少なくとも掲載されたオープニング画面を示す先頭画像データを、前記複数の画像データの先頭位置に表示する機能を備え、
前記機能(d)は、
(d1)前記先頭画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラム。A computer program for creating a series of video works by ordering a plurality of video data representing moving images or still images according to a scenario,
(A) a function of selecting one scenario from one or a plurality of scenarios according to an external instruction;
(B) a function of displaying a plurality of image data each showing a characteristic video scene included in the selected scenario on a screen of a display device in an arrangement according to the order of the scenario;
(C) a function for selectively associating the plurality of video data with each image data displayed on the screen in response to an operation command from the operator on the screen of the display device; Arranging the video data correlated by the function (c) so as to coincide with the arrangement order of the corresponding image data, and causing the computer to create a continuous video work With
The function (b) is
(B1) A function of displaying head image data indicating an opening screen on which at least a title corresponding to the scenario is posted at a head position of the plurality of image data,
The function (d) is
(D1) having a function of including the head image data in the video work;
Computer program.
(e)前記先頭画像データで示されるオープニング画面に、所望の文字列を付与する機能
をコンピュータに実現させるためのコンピュータプログラム。A computer program according to claim 9,
(E) A computer program for causing a computer to realize a function of assigning a desired character string to the opening screen indicated by the head image data.
(f)前記映像データを記録している記録媒体から前記映像データの作成日を読み出す機能と、
(g)前記先頭画像データで示されるオープニング画面に、前記作成日を付与する機能と
をコンピュータに実現させるためのコンピュータプログラム。A computer program according to claim 9,
(F) a function of reading a creation date of the video data from a recording medium in which the video data is recorded;
(G) A computer program for causing a computer to realize the function of assigning the creation date to the opening screen indicated by the head image data.
前記機能(b)は、
(b2)エンディング画面を示す最後尾画像データを、前記複数の画像データの最後尾位置に表示する機能を備え、
前記機能(d)は、
(d2)前記最後尾画像データを前記映像作品に含ませる機能を備える、
コンピュータプログラム。A computer program according to claim 9,
The function (b) is
(B2) having a function of displaying tail image data indicating an ending screen at the tail position of the plurality of image data;
The function (d) is
(D2) having a function of including the last image data in the video work;
Computer program.
(h)前記最後尾画像データで示されるエンディング画面に、所望の文字列を付与する機能
をコンピュータに実現させるためのコンピュータプログラム。A computer program according to claim 12, comprising:
(H) A computer program for causing a computer to realize a function of assigning a desired character string to the ending screen indicated by the last image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001256747A JP3797158B2 (en) | 2001-08-27 | 2001-08-27 | VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001256747A JP3797158B2 (en) | 2001-08-27 | 2001-08-27 | VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003069944A JP2003069944A (en) | 2003-03-07 |
JP3797158B2 true JP3797158B2 (en) | 2006-07-12 |
Family
ID=19084522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001256747A Expired - Fee Related JP3797158B2 (en) | 2001-08-27 | 2001-08-27 | VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3797158B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006128880A (en) | 2004-10-27 | 2006-05-18 | Funai Electric Co Ltd | Dvd recorder connected to ieee 1394 serial bus, and digital video recording apparatus connected to ieee 1394 serial bus |
JP4693549B2 (en) * | 2005-08-25 | 2011-06-01 | 内外航空サービス株式会社 | Information providing system and program |
-
2001
- 2001-08-27 JP JP2001256747A patent/JP3797158B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003069944A (en) | 2003-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4261644B2 (en) | Multimedia editing method and apparatus | |
JP3219027B2 (en) | Scenario editing device | |
US9445016B2 (en) | Features such as titles, transitions, and/or effects which vary according to positions | |
US7903927B2 (en) | Editing apparatus and control method thereof, and program and recording medium | |
JP4424389B2 (en) | Movie creation device, movie creation method, and program | |
TWI280512B (en) | Information recording media and information recording method | |
US20060056796A1 (en) | Information processing apparatus and method and program therefor | |
JPH11341350A (en) | Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them | |
JP5701017B2 (en) | Movie playback apparatus, movie playback method, computer program, and storage medium | |
JP2008027492A (en) | Recording control device, recording control method, and program | |
JP4892074B2 (en) | Electronic device, image output method and program | |
JP2005026834A (en) | Annotation providing apparatus and annotation providing program | |
US20040091234A1 (en) | System and method of facilitating appliance behavior modification | |
KR20050003690A (en) | System and method of automatic moving picture editing and storage media for the method | |
JP4142382B2 (en) | Content creation system and content creation method | |
US20050265692A1 (en) | Apparatus, method, and program for image reproduction | |
US7398004B1 (en) | Software methods for authoring multimedia content to be written to optical media | |
US7844163B2 (en) | Information editing device, information editing method, and computer product | |
JPH11224266A (en) | Electronic video document preparation and utilization method and program storage medium | |
JP3797158B2 (en) | VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO | |
JP3826686B2 (en) | VIDEO EDITING METHOD, VIDEO EDITING DEVICE, AND RECORDING MEDIUM CONTAINING COMPUTER PROGRAM FOR EDITING VIDEO | |
JP4420987B2 (en) | Image editing device | |
JP2011193386A (en) | Electronic apparatus and image processing method | |
JP4752260B2 (en) | Information processing apparatus and information processing method | |
AU719329B2 (en) | Multi-media editing method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051213 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060410 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090428 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100428 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110428 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110428 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120428 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130428 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130428 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140428 Year of fee payment: 8 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |