JP4446140B2 - Information processing apparatus and method, and program storage medium - Google Patents

Information processing apparatus and method, and program storage medium Download PDF

Info

Publication number
JP4446140B2
JP4446140B2 JP2001000272A JP2001000272A JP4446140B2 JP 4446140 B2 JP4446140 B2 JP 4446140B2 JP 2001000272 A JP2001000272 A JP 2001000272A JP 2001000272 A JP2001000272 A JP 2001000272A JP 4446140 B2 JP4446140 B2 JP 4446140B2
Authority
JP
Japan
Prior art keywords
scene
images
scenario data
scenes
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001000272A
Other languages
Japanese (ja)
Other versions
JP2001285784A5 (en
JP2001285784A (en
Inventor
桂 福田
基之 鈴木
宗哲 大沢
謙太郎 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001000272A priority Critical patent/JP4446140B2/en
Publication of JP2001285784A publication Critical patent/JP2001285784A/en
Publication of JP2001285784A5 publication Critical patent/JP2001285784A5/ja
Application granted granted Critical
Publication of JP4446140B2 publication Critical patent/JP4446140B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および方法、並びにプログラム格納媒体に関し、特に、簡単に画像を編集することができるようにした、情報処理装置および方法、並びにプログラム格納媒体に関する。
【0002】
【従来の技術】
最近、パーソナルコンピュータの機能が向上し、テキストデータだけでなく、画像データも編集することができるようになってきた。
【0003】
【発明が解決しようとする課題】
しかしながら、画像を編集するには、操作機能をユーザが学習しなければならず、学習したとしても、所定の編集結果を得るには時間がかかる課題があった。
【0004】
本発明は、このような状況に鑑みてなされたものであり、簡単且つ迅速に画像を編集することができるようにするものである。
【0005】
【課題を解決するための手段】
本発明の情報処理装置は、少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶手段と、選択されたシナリオデータに基づいて、記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択手段と、選択されたシナリオデータの各シーンそれぞれに、選択手段により選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け手段とを備え、対応付け手段は、動画像のうちのトリミングが指示された所定区間をシーンに対応させることを特徴とする。
【0006】
上記複数のシーンは、それぞれ異なる所定の長さにすることができる。
【0007】
上記シーンの長さに合わせて、対応付け手段で対応付けされた複数の画像を修正する修正手段をさらに設けるようにすることができる。
【0008】
上記シナリオデータに基づいて、対応付け手段で対応付けされた複数の画像を連続して再生する再生手段をさらに設けるようにすることができる。
【0009】
上記再生手段は、シーンに対応付けされた所定の特殊効果情報に基づいて、複数の画像に特殊効果情報を適用して再生するようにすることができる。
【0010】
上記シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を任意に決定する決定手段をさらに備え、再生手段は、決定手段の決定結果に基づいて、複数の画像に特殊効果情報を適用して再生するようにすることができる。
【0011】
上記対応付け手段は、繰り返し連続再生を前提とする第1のシナリオデータと、繰り返し再生を前提としない第2のシナリオデータのうち、ユーザからの指令に対応するシナリオデータを用いて選択された複数の画像の対応付けを行うようにすることができる。
【0012】
記憶手段に記憶された、少なくとも一つの動画像であって、トリミングが指示された所定区間の部分の動画像を含む複数の画像を編集画像として登録する登録手段と、編集対象である複数の画像に関する情報を一覧表示する画像情報表示手段と、複数のシーンの順番に従って、対応付け手段で対応付けられた複数の画像に関する情報を並べて表示する出力情報表示手段をさらに設けるようにすることができる。
情報処理装置には、選択されたシナリオデータを構成する各シーン、およびそれらのシーンに対応付けされた所定の特殊効果情報を特定するための編集情報と、選択されたシナリオデータの各シーンに対応付けされた複数の画像とを記憶手段に記憶させる保存制御手段をさらに設けることができる。
情報処理装置には、選択されたシナリオデータに基づいて、対応付けされた複数の画像に、選択されたシナリオデータの各シーンに対応付けされた特殊効果情報により特定される特殊効果を適用して、特殊効果が適用された複数の画像を連続して再生させるための画像データを生成する生成手段をさらに設け、保存制御手段は、ユーザの指示に応じて、編集情報および複数の画像、または画像データの何れかを記憶手段に記憶させることができる。
【0014】
本発明の情報処理方法は、記憶手段が少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶ステップと、選択されたシナリオデータに基づいて、記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択ステップと、選択されたシナリオデータの各シーンそれぞれに、選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け処理ステップとを含み、対応付け処理ステップにおいて、動画像のうちのトリミングが指示された所定区間をシーンに対応させることを特徴とする。
【0017】
本発明の格納媒体のプログラムは、記憶手段が少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶ステップと、選択されたシナリオデータに基づいて、記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択ステップと、選択されたシナリオデータの各シーンそれぞれに、選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け処理ステップとを含む処理をコンピュータに実行させ、対応付け処理ステップにおいて、動画像のうちのトリミングが指示された所定区間をシーンに対応させることを特徴とする。
【0020】
本発明の情報処理装置及び方法、並びにプログラムにおいては、取得されたシーンに画像情報が対応付けされる。
【0021】
【発明の実施の形態】
以下、本発明に係る情報処理装置の一実施の形態を図面を参照して説明する。
【0022】
図1乃至図6は、本発明を適用した携帯型パーソナルコンピュータの構成例を表している。このパーソナルコンピュータ1は、ミニノート型のパーソナルコンピュータとされ、基本的に、本体2と、本体2に対して開閉自在とされている表示部3により構成されている。図1は、パーソナルコンピュータ1の表示部3を本体2に対して開いた状態を示す外観斜視図、図2は、その平面図、図3は、その表示部3を本体2に対して閉塞した状態を示す左側側面図、図4は、その表示部3を本体2に対して180度開いた状態を示す右側側面図、図5は、その正面図、図6は、その底面図である。
【0023】
本体2には、各種の文字や記号などを入力するとき操作されるキーボード4、マウスカーソルを移動させるときなどに操作されるスティック式ポインティングデバイス5が、その上面に設けられている。また、本体2の上面には、音を出力するスピーカ8−1および8−2と、表示部3に設けられているCCDビデオカメラ23で撮像するとき操作されるシャッタボタン10がさらに設けられている。
【0024】
表示部3は、ヒンジ9−1および9−2により、本体2に開閉自在に結合されている。本体2のヒンジ9−1とヒンジ9−2との間には、バッテリ7が着脱自在に装着されている。
【0025】
表示部3には、ツメ13−1および13−2が設けられており、図3に示すように、表示部3を本体2に対して閉塞した状態において、ツメ13−1および13−2に対向する位置における本体2には、ツメ13−1および13−2のそれぞれが嵌合する孔部6−1および6−2が設けられている(図2)。
【0026】
撮像部22の隣りには、マイクロホン24が取り付けられている。このマイクロホン24は、図6にも示すように、背面からの音も収音できるようになされている。
【0027】
本体2の左側面には、図3に示すように、排気孔11が設けられており、本体2の前面下部には、図5に示すように、吸気孔14が設けられている。さらに、排気孔11の隣には、PCMCIA(Personal Computer Memory Card International Association)が規定する規格に準拠したカード(PCカード)を挿入するためのスロット12が設けられている。
【0028】
表示部3の正面には、画像を表示するLCD(Liquid Crystal Display)21が設けられており、その上端部には、撮像部22が、表示部3に対して回動自在に設けられている。すなわち、この撮像部22は、LCD21と同一の方向と、その逆の方向(背面の方向)との間の180度の範囲の任意の位置に回動することができるようになされている。撮像部22には、CCDビデオカメラ23が取り付けられている。
【0029】
本体2の前面側には、電源ランプPL、電池ランプBL、メッセージランプML、その他のLEDよりなるランプが設けられている。なお、図1に示す符号40は、シャッタボタン10の隣に設けられた電源スイッチであり、図5に示す符号25は、CCDビデオカメラ23のフォーカスを調整する調整リングである。さらに、図6に示す符号26は、本体2内に増設メモリを取り付けるための開口部を被覆する蓋である。
【0030】
次に、パーソナルコンピュータ1の内部の構成について図7を参照して説明する。
【0031】
中央処理装置(CPU(Central Processing Unit))51は、例えば、インテル(Intel)(商号)社製のペンティアム(Pentium:商標)プロセッサ等で構成され、ホストバス52に接続されている。ホストバス52には、さらに、ブリッジ53(いわゆる、ノースブリッジ)が接続されており、ブリッジ53は、AGP(Accelerated Graphics Port)50を有し、PCI(Peripheral Component Interconnect/Interface)バス56に接続されている。
【0032】
ブリッジ53は、例えば、インテル社製のAGP Host Bridge Controllerである400BXなどで構成されており、CPU51およびRAM(Random-Access Memory)54(いわゆる、メインメモリ)等を制御する。さらに、ブリッジ53は、AGP50を介して、ビデオコントローラ57を制御する。なお、このブリッジ53とブリッジ(いわゆる、サウスブリッジ(PCI-ISA Bridge))58とで、いわゆるチップセットが構成されている。
【0033】
ブリッジ53は、さらに、キャッシュメモリ55とも接続されている。キャッシュメモリ55は、SRAM(Static RAM)などRAM54に比較して、より高速に書き込みまたは読み出しの動作を実行できるメモリで構成され、CPU51が使用するプログラムまたはデータをキャッシュする(一時的に記憶する)。
【0034】
なお、CPU51は、その内部に1次的な(キャッシュメモリ55に比較して、より高速に動作できるメモリで、CPU51自身が制御する)キャッシュメモリを有する。
【0035】
RAM54は、例えば、DRAM(Dynamic RAM)で構成され、CPU51が実行するプログラム、またはCPU51の動作に必要なデータを記憶する。具体的には、例えば、RAM54は、起動が完了した時点において、HDD67からロードされた、電子メールプログラム54A、オートパイロットプログラム54B、オペレーティングプログラム(OS)54C、シェーカプログラム54D、キャプチャプログラム54E、その他のアプリケーションプログラム54F1乃至54Fnを記憶する。
【0036】
電子メールプログラム54Aは、モデム75を介して電話回線76などの通信回線を介して、通信文(いわゆる、eメール)を授受するプログラムである。電子メールプログラム54Aは、着信メール取得機能を有している。この着信メール取得機能は、インターネットサービスプロバイダ77が備えるメールサーバ78に対して、そのメールボックス79内に使用者宛のメールが着信しているかどうかを確認して、使用者宛のメールがあれば取得する処理を実行する。
【0037】
オートパイロットプログラム54Bは、予め設定された複数の処理(またはプログラム)などを、予め設定された順序で順次起動して、処理するプログラムである。
【0038】
OS(Operating System)54Cは、例えばマイクロソフト(商号)社のいわゆるウィンドウズ(Windows)95(商標)若しくはウィンドウズ98(商標)、またはアップルコンピュータ(商号)社のいわゆるマックOS(商標)等に代表される、コンピュータの基本的な動作を制御するプログラムである。
【0039】
シェーカプログラム54Dは、自動編集処理を実行するプログラムである。キャプチャプログラム54Eは、CCDビデオカメラ23による撮像画像の取り込みを制御するプログラムである。
【0040】
ビデオコントローラ57は、AGP50を介してブリッジ53に接続されており、AGP50およびブリッジ53を介してCPU51から供給されるデータ(イメージデータまたはテキストデータなど)を受信して、受信したデータに対応するイメージデータを生成するか、または受信したデータをそのまま、内蔵するビデオメモリ(図示せず)に記憶する。ビデオコントローラ57は、表示部3のLCD21に、ビデオメモリに記憶されているイメージデータに対応する画像を表示させる。また、ビデオコントローラ57は、CCDビデオカメラ23から供給されたビデオデータをPCIバス56を介して、RAM54に供給する。
【0041】
PCIバス56には、サウンドコントローラ64が接続されている。サウンドコントローラ64は、マイクロホン24から音声に対応する信号を取り込み、音声に対応するデータを生成して、RAM54に出力する。また、サウンドコントローラ64は、スピーカ8を駆動して、スピーカ8に音声を出力させる。
【0042】
また、PCIバス56にはモデム75が接続されている。モデム75は、公衆電話回線76およびインターネットサービスプロバイダ77を介して、インターネット等の通信ネットワーク80またはメールサーバ78に所定のデータを送信するとともに、通信ネットワーク80またはメールサーバ78から所定のデータを受信する。
【0043】
PCカードスロットインターフェース111は、PCIバス56に接続され、スロット12に装着されたインターフェースカード112から供給されたデータを、CPU51またはRAM54に供給するとともに、CPU51から供給されたデータをインターフェースカード112に出力する。ドライブ113は、PCカードスロットインターフェース111およびインターフェースカード112を介して、PCIバス56に接続されている。
【0044】
ドライブ113は、必要に応じて装着される磁気ディスク121、光ディスク122、光磁気ディスク123、または半導体メモリ124に記録されているデータを読み出し、読み出したデータをインターフェースカード112、PCカードスロットインターフェース111、およびPCIバス56を介して、RAM54に供給する。
【0045】
また、PCIバス56にはブリッジ58(いわゆる、サウスブリッジ)も接続されている。ブリッジ58は、例えば、インテル社製のPIIX4E(商標)などで構成されており、IDE(Integrated Drive Electronics)コントローラ/コンフィギュレーションレジスタ59、タイマ回路60、IDEインターフェース61、およびUSBインターフェース68等を内蔵している。ブリッジ58は、IDEバス62に接続されるデバイス、またはISA/EIO(Industry Standard Architecture / Extended Input Output)バス63若しくはI/Oインターフェース69を介して接続されるデバイスの制御等、各種のI/O(Input / Output)を制御する。
【0046】
IDEコントローラ/コンフィギュレーションレジスタ59は、いわゆるプライマリIDEコントローラとセカンダリIDEコントローラとの2つのIDEコントローラ、およびコンフィギュレーションレジスタ(configuration register)等から構成されている(いずれも図示せず)。
【0047】
プライマリIDEコントローラには、IDEバス62を介して、HDD67が接続されている。また、セカンダリIDEコントローラには、他のIDEバスに、図示しないCD−ROMドライブまたはHDDなどの、いわゆるIDEデバイスが装着されたとき、その装着されたIDEデバイスが電気的に接続される。
【0048】
なお、HDD67には、電子メールプログラム67A、オートパイロットプログラム67B、OS67C、アプリケーションプログラムとしてシェーカプログラム67D、キャプチャプログラム67E、その他の複数のアプリケーションプログラム67F1乃至67Fn等が記録されている。HDD67に記録されている電子メールプログラム67A、オートパイロットプログラム67B、OS67C、シェーカプログラム67D、キャプチャプログラム67E、およびアプリケーションプログラム67F1乃至67Fn等は、起動(ブートアップ)処理の過程で、RAM54に順次供給され、ロードされる。
【0049】
USBインターフェース68は、USBポート107を介して、接続されているGPSアンテナ106から疑似雑音コードを受信して、受信した疑似雑音コードをPCIバス56を介して、RAM54に送信する。
【0050】
タイマ回路60は、各種プログラムからの要求に対応して、現在時刻を示すデータをPCIバス56を介して、CPU51に供給する。
【0051】
ISA/EIOバス63には、さらに、I/Oインターフェース69が接続されている。このI/Oインターフェース69は、エンベディットコントローラから構成され、その内部において、ROM70、RAM71、およびCPU72が相互に接続されている。
【0052】
ROM70は、IEEE1394インターフェースプログラム70A、LED制御プログラム70B、タッチパッド入力監視プログラム70C、キー入力監視プログラム70D、およびウェイクアッププログラム70E等を予め記憶している。
【0053】
IEEE1394インターフェースプログラム70Aは、IEEE1394ポート101を介して、IEEE1394で規定される規格に準拠するデータ(パケットに格納されているデータ)を送信するとともに受信する。LED制御プログラム70Bは、電源ランプPL、電池ランプBL、必要に応じてメッセージランプML、またはその他のLEDよりなるランプの点灯の制御を行う。タッチパッド入力監視プログラム70Cは、利用者の操作に対応したタッチパッド33からの入力を監視するプログラムである。
【0054】
キー入力監視プログラム70Dは、キーボード4またはその他のキースイッチからの入力を監視するプログラムである。ウェイクアッププログラム70Eは、ブリッジ58のタイマ回路60から供給される現在時刻を示すデータに基づいて、予め設定された時刻になったかどうかをチェックして、設定された時刻になったとき、所定の処理(またはプログラム)等を起動するために、パーソナルコンピュータ1を構成する各チップの電源を管理するプログラムである。
【0055】
ROM70には、さらにBIOS(Basic Input/Output System(基本入出力システム))70Gが書き込まれている。BIOS70Gは、OSまたはアプリケーションプログラムと周辺機器(タッチパッド33、キーボード4、またはHDD67等)との間で、データの受け渡し(入出力)を制御する。
【0056】
RAM71は、LED制御、タッチパッド入力ステイタス、キー入力ステイタス、若しくは設定時刻用の各レジスタ、またはIEEE1394I/Fレジスタ等を、レジスタ71A乃至71Fとして有している。例えば、LED制御レジスタは、電子メールプログラム54Aが起動されたとき、所定の値が格納され、格納されている値に対応して、メッセージランプMLの点灯が制御される。キー入力ステイタスレジスタは、所定の操作キーフラグが格納される。設定時刻レジスタは、使用者によるキーボード4などの操作に対応して、所定の時刻が設定される。
【0057】
また、このI/Oインターフェース69は、図示を省略したコネクタを介して、タッチパッド33、キーボード4、IEEE1394ポート101、およびシャッタボタン10等が接続され、スティック式ポインティングデバイス5、タッチパッド33、キーボード4、またはシャッタボタン10それぞれに対する操作に対応した信号をISA/EIOバス63に出力する。また、I/Oインターフェース69は、IEEE1394ポート101を介して、接続されている機器とのデータの送受信を制御する。さらに、I/Oインターフェース69には、電源ランプPL、電池ランプBL、メッセージランプML、電源制御回路73、およびその他のLEDよりなるランプが接続されている。
【0058】
電源制御回路73は、内蔵バッテリ74またはAC電源に接続されており、各ブロックに、必要な電源を供給するとともに、内蔵バッテリ74または周辺装置のセカンドバッテリの充電のための制御を行う。また、I/Oインターフェース69は、電源をオンまたはオフするとき操作される電源スイッチ40を監視している。
【0059】
I/Oインターフェース69は、電源がオフの状態でも、内部に設けられた電源により、IEEE1394インターフェースプログラム70A乃至ウェイクアッププログラム70Eを実行する。すなわち、IEEE1394インターフェースプログラム70A乃至ウェイクアッププログラム70Eは、常時動作している。
【0060】
図8は、シェーカプログラム54Dを起動した場合に、LCD21に表示される画像の表示例を表している。同図に示すように、画面の左上方には、素材トレイ201が表示される。素材トレイ201には、読み込みボタン211が表示されている。この読み込みボタン211は、ユーザが所定の画像情報を編集しようとした場合に、その編集対象とする情報を読み込もうとする時、ユーザにより操作される。この操作は、スティック式ポインティングデバイス5を操作することで行われる。なお、素材トレイ201は、図9に拡大して示されている。
【0061】
例えば、ユーザがキャプチャプログラム54Eを起動すると、ビデオコントローラ57は、CCDビデオカメラ23により撮像された画像をLCD21に出力し、表示させる。図10は、このようにして表示された画像の例を表している。
【0062】
ユーザが所定のタイミングでシャッターボタン10を操作すると、ビデオコントローラ57は、その時LCD21に表示されている静止画、または、動画データをRAM54に供給し、記憶させる。この画像データはまた、必要に応じて、RAM54からハードディスク67に供給され、記録される。
【0063】
ユーザは、このようにして、RAM54、またはハードディスク67に記憶された画像データを読み出し、読み込みボタン211を操作することで、その画像データを編集対象の画像(素材クリップ)として、RAM54に記憶させることができる。このようにしてシェイク対象とされた画像データは、素材トレイ201に素材クリップ212として表示される。図9に拡大して示されているように、素材クリップ212の右側には、その素材クリップのタイトル、動画と静止画の区別、並びに、再生時間が表示されている。スクロールバー213は、素材クリップ212の数が多くなり、素材トレイ201の範囲内にすべてを表示できなくなった場合に、素材クリップ212をスクロールさせるとき、ユーザにより操作される。
【0064】
なお、編集の対象(素材クリップ)とすることが可能なファイルは、図11に示すような.MOV,.AVIといった拡張子を有する動画、.BMP,.GIF,.JPG,.PNG,.PCTといった拡張子を有する静止画、または.WAV,.AIFといった拡張子を有する音楽とすることができる。
【0065】
素材トレイ201の右側には、再生画面221が表示されている。ユーザにより、スティック式ポインティングデバイス5が操作され、素材トレイ201に表示されている素材クリップ212のうち、所定のものが指定され、再生ボタン231が操作されると、その指定された画像が、再生画面221に再生表示される。この時、再生が進むにつれて、再生位置表示ボタン235は、左側から右側に再生位置に応じて、その表示位置が移動する。
【0066】
図12にも示すように、ポインタ234Lにより開始点を指定し、ポインタ234Rにより、終了点を指定することで、動画像の所定の範囲をトリミングすることができる。トリミングされた場合、そのファイルのうちの、トリミングされた画像データだけが、実質的な編集対象の画像とされる。
【0067】
指定範囲再生ボタン232が操作されると、このようにしてトリミングされた範囲だけが再生画面221に表示される。巻戻しボタン236が操作された場合、再生画面221の表示画像が時間的に、新しい画像から古い画像の方向に巻戻し表示される。早送りボタン237が操作された場合には、再生画面221に表示されている画像が早送りされる。
【0068】
ストーリ再生モードの状態でモードボタン233が操作されると、モードが編集モードに変更され、編集モードの状態において、モードボタン233が操作されると、モードは、ストーリ再生モードに変更される。
【0069】
編集モードにおいて、例えば、再生ボタン231が操作されると、その時素材トレイ201の中から指定されている素材クリップ212が再生画面221に表示されるが、ストーリ再生モードが設定されている状態において、再生ボタン231が操作されると、後述するように、出力トレイ291に表示されている、自動または手動で編集されたストーリ(シナリオ)が、始めから終わりまで再生される。
【0070】
マニュアルで(自動編集ではなく)編集処理を行うとき、ユーザは、素材トレイ201に表示されている素材クリップ212の中から、所定のものを選択し、図13に示す画像トラック301上の複数の画像表示部301Aの任意の位置にドラッグアンドドロップすることで、所望のシナリオ(ストーリ)を作成する。一旦所定の画像表示部301Aにドラッグアンドドロップした画像(素材クリップ)は、さらに他の位置の画像表示部301A上にドラッグアンドドロップすることで移動させることが可能である。
【0071】
ユーザは、素材トレイ201上に音楽ファイルが存在する場合には、その音楽ファイルのアイコン(素材クリップ212)を出力トレイ291上のBGMトラック302にドラッグアンドドロップすることで、その音声をBGMとして対応させることができる。BGMトラック302上の音楽情報が割り当てられた長さは、その音楽情報の長さに対応している。従って、その音楽情報の長さが短い場合には、さらに別の音楽情報をBGMドラッグ302上にドラッグアンドドロップすることで割り当てることができる。
【0072】
再生画面221の右側には、ボリュームボタン241、色調ボタン242、及び再生速度ボタン243が表示されている。ボリュームボタン241が操作されると、図14に示すようなウィンドウ331がボリュームボタン241の下に表示される。ユーザは、調整バー332を操作することで、編集対象とされている音声の出力時の音量を調整することができる。
【0073】
色調ボタン242が操作されると、図15に示すようなウィンドウ341が、色調ボタン242の下に表示される。この例においては、ユーザは、調整バー342を操作することで、X線、ハイコントラスト、そのまま、セピア、またはモノクロのうちのいずれかの色調を選択することができる。
【0074】
再生速度ボタン243が操作されると、図16に示すようなウィンドウ351が、再生速度ボタン243の下に表示される。ユーザは、調整バー352を操作することで、画像の再生速度を速くしたり、遅くしたり、調整することができる。
【0075】
再生速度ボタン243の下側には、エフェクト表示ボタン244が表示されている。ユーザは、後述する図17に表示されている選択ボタンアイコン364、または図18に表示されている選択ボタンアイコン362を、エフェクト表示ボタン244にドラッグアンドドロップすることで、そのエフェクトを、再生画面221に表示されている素材に対して、割り当てることができる。
【0076】
ボリュームボタン241乃至エフェクト表示ボタン244の右側には、特殊効果トレイ261が表示されている。この特殊効果トレイ261には、タグ271−1乃至271−4が表示されている。
【0077】
タグ271−2が選択されると、図17に示されるように、テキストウィンドウが表示される。このウィンドウには、編集対象とされている画像361が表示される。フォントボタン362は、エフェクトを付与するテキストのフォントを選択するとき操作される。テキスト入力ウィンドウ363には、ユーザがキーボード4を操作することで入力したテキストが表示される。選択ボタンアイコン364は、テキスト(文字列)に対して付加するエフェクトを選択するとき操作される。スクロールバー365は、選択ボタンアイコン364をスクロールさせるとき操作される。
【0078】
選択ボタンアイコン364のうち、所定のものをエフェクト表示ボタン244上にドラッグアンドドロップすることで、テキスト入力ウィンドウ363にその時入力表示されているテキストに対して、選択ボタンアイコン364で選択したテキストエフェクト(テキストアニメーション)を付加することができる。選択ボタンアイコン364をエフェクト表示ボタン244にドラッグアンドドロップした後、再生ボタン231を操作すると、選択したテキストエフェクトを付加した画像が、再生画面221に直ちに表示される。このようにして、ユーザは、テキストエフェクトをリアルタイムで確認することができる。
【0079】
図17の例においては、「斜め合体」のテキストアニメーションが再生画面221に表示されている。
【0080】
図18は、タグ271−3が選択された場合の表示例を表している。このタグ271−3が選択されると、同図に示すように、エフェクトウィンドウが表示される。このウィンドウには、編集対象とされている画像381が表示されるとともに、その下方にアニメーションエフェクトを選択するための選択ボタンアイコン362が表示される。スクロールバー363は、選択ボタンアイコン362をスクロールさせるとき操作される。
【0081】
この場合にも、選択ボタンアイコン362のうち、所定のものをエフェクト表示ボタン244上にドラッグアンドドロップすることで、所定のアニメーションエフェクトを選択することができる。この選択を行った後、再生ボタン231が操作されると、再生画面221にアニメーションエフェクトが付加された画像がリアルタイムで表示される。図18の例においては、「ときめき」のアニメーションエフェクトが表示されている。
【0082】
図19は、タグ271−4が選択された場合の表示例を表している。この場合、同図に示すように、トランジションウィンドウが表示される。このウィンドウには、選択ボタンアイコン391が表示され、ユーザは、複数の選択ボタンアイコン391の中から所定のものを選択することができる。この選択が行われた場合、表示部393にその選択されたトランジションに対応する模式的な画像が表示される。スクロールバー392が操作された場合、選択ボタンアイコン391がスクロールされる。
【0083】
ユーザは、所定の選択ボタンアイコン391を選択した後、それを図20に示す画像トラック301のトランジション表示部301Bにドラッグアンドドロップすることで、その前後に隣接する画像表示部301Aに表示されている画像(素材クリップ)に対してトランジションを付加することができる。
【0084】
例えば、ワイプのトランジションが設定された場合、図21に示すように、図の左側に表示されている画像が徐々に右側に移動しながら、次第に右側に表示されている画像を隠すようにして、トランジションが行われる。
【0085】
タグ271−1が選択されると、図22に拡大して示されているように、自動編集のためのシェーカウィンドウが表示される。このシェーカウィンドウには選択ボタン281−1乃至281−5が表示されている。この選択ボタン281−1乃至281−5には、それぞれ、所定のシナリオ(ストーリ)が予め対応されている。各シナリオには、それぞれ予め設定された所定の音楽が対応されており、その音楽は、図22の最も左側の選択ボタン281−1に対応するものが最もテンポの遅いものとされ、最も右側の選択ボタン281−5に対応するものが、最も速く激しいものとされている。それらの間の選択ボタン281−2乃至281−4に対応する音楽は、それぞれ、その中間のテンポの音楽とされている。
【0086】
具体的には、選択ボタン281−1にはアンビエント音楽(環境音楽)が、選択ボタン281−2にはピアノ曲が、選択ボタン281−3にはジャズ音楽が、選択ボタン281−4にはヒップホップ音楽が、そして選択ボタン281−5にはテクノ調音楽が、それぞれ対応付けられている。
【0087】
従って、これらの音楽に対応して、選択ボタン281−1に対応するシナリオを構成するシーンの数は比較的少ないもの(シーンの変化数が少ないもの)とされている。これに対して、選択ボタン281−5に対応されているシナリオは、そのシーン数が多いもの(シーンの変化の回数が多いもの)とされている。なお、選択ボタン281−1乃至281−5に対応しているシナリオの長さは、全て同一とされ、この例においては、30秒とされている。
【0088】
ループボタン282は、自動編集により生成する30秒のシナリオが、繰り返し再生されることを前提とするものとするとき、ユーザにより操作される。テキストシェイクボタン283は、テキスト(文字)をシェイクする時、ユーザにより操作される。このテキストシェイクボタン283が操作されると、ウィンドウ284が表示され、ユーザは、このウィンドウ284に、キーボード4を操作することで、編集対象とする(テキストシェイクする)テキスト(文字列)を入力することができる。この例においては、「頑張ろう」、「順子ちゃん」、「ハッピー!!」の3つの文字列が入力表示されている。
【0089】
シェイクボタン285は、シェイク(自動編集)を開始するとき、ユーザにより操作される。
【0090】
出力ボタン304が操作されると、図23に示すようなウィンドウ401が表示される。ユーザは、このウィンドウ401から所望の項目を選択する。これにより、出力トレイ291に表示された(手動または自動で編集された)情報の保存の形態を選択することができる。そのうちの、例えば、「簡易保存する」が選択された場合、使用された画像を含むファイルと、その画像の編集情報が保存される。この編集情報とは、例えば、図24に示すような情報である。図24において、最も左側のフレーム数は、そのシナリオを構成する各シーンの始まるタイミングを表している。図24の例においては、シナリオが、10個のシーンで構成されており、その最初のシーンは、第6フレームから始まることが表されている。
【0091】
次のアニメーションエフェクトは、そのシーンに対応されているアニメーションエフェクトの処理を表している。アニメーションエフェクトとしては、20個のエフェクトが用意されているため、0乃至19の値がそのエフェクトを表しており、その値の99は、アニメーションエフェクトが適用されていないことを表している。また、その値の−1は20個のアニメーションエフェクトの中から、ランダムに所定のものを選択することを表す。
【0092】
その次のトランジションは、8個のトランジションのうち、いずれのトランジションであるのかを表している。その値の99は、トランジションが適用されていないことを表す。さらにその次の値は、トランジションのタイミングを表している。
【0093】
色調エフェクトは、0乃至23の値が24種類の色調のうちのいずれであるのかを表している。その値の−1は、24種類の色調の中から所定のものをランダムに選択することを表している。その値の99は、色調のエフェクトが適用されないことを表している。
【0094】
最後の値は、黒マットを背景に使うか否かを表しており、その値の1は、黒マットを背景として使用することを表し、その値の0は、使用しないことを表している。
【0095】
これに対して、図23に示す、「通常のムービーとして保存する」が選択された場合、各シーンに割り当てられた画像に、図24に示すような編集情報を実際に適用して、そのようなエフェクトが付与された画像データが実際に生成される(レンダリングされる)。従って、この処理には、「簡易保存する」の場合に比べて、長い時間がかかる。換言すれば、「簡易保存する」を選択することで、保存時間を短い時間とすることができる。
【0096】
次に、図25乃至図27のフローチャートを参照して、シェーカ処理(自動編集処理)について説明する。なお、以下の処理は、特に、説明しない限り、基本的にシェーカプログラム54Dにより実行される。最初にステップS1において、指定されたファイルを素材クリップとして読み込み処理が実行される。すなわち、上述したように、ユーザは、キャプチャプログラム54Eを起動して、CCDビデオカメラ23より取り込まれた画像データのファイルや、マイクロホン24から入力された音声データのファイルのうち、所定のものを指定して、読み込みボタン211を操作することで、そのファイルを自動編集処理の対象(素材クリップ)として指定する。この指定処理が行われたとき、シェーカプログラム54Dは、指定されたファイルを素材クリップとして記憶し、そのファイルの最初のフレームの画像を処理し、素材クリップ212として、素材トレイ201に表示させる。指定された情報が音声情報である場合、素材クリップ212としては、予め用意された音声情報であることを表す画像が表示される。
【0097】
なお、この時取り込まれる情報は、CCDビデオカメラ23やマイクロホン24から取り込まれたものだけでなく、インターネット80から、モデム75を介して取り込まれたものや、磁気ディスク121、光ディスク122、光磁気ディスク123、半導体メモリ124などより、インターフェースカード112を介して取り込まれたものとすることも可能である。
【0098】
次に、ステップS2に進み、シェーカプログラム54Dは、シェイク対象として、テキストが入力されていれば、その入力されたテキストを取り込む処理を実行する。すなわち、ユーザは、自動編集処理を行うとき、タグ271−1を操作して、シェイカーウィンドウを表示させる(図22)。そしてテキストシェイクを行う場合、ユーザは、さらに、テキストシェイクボタン283を操作する。これにより、図22に示すように、ウィンドウ284が表示される。この時、ユーザは、キーボード4を操作して、シェイクすべきテキストを入力する。シェーカプログラム54Dはこのテキストを取り込み、ウィンドウ284に表示させる。
【0099】
また、ユーザは、5つのシェイカーボタン281−1乃至281−5から1つを指定する。上述したように、このシェイカーボタン281−1乃至281−5には、それぞれ所定のシナリオが予め対応されており、このシェイカーボタン281を選択することで、そのシナリオを選択することになる。そこで、シェーカプログラム54Dは、ステップS3において、シェイカーボタン281−1乃至281−5のうち、所定のものが指定されたら、それを記憶する処理を実行する。
【0100】
例えば、選択ボタン281−1には、図28(A)に示すようなシナリオが対応されている。このシナリオは、シーン1乃至シーン4の4つのシーンにより構成されている。シーン1乃至シーン4は、それぞれ時間T1乃至T4の長さを有している。そして、この例の場合、シーン1には、アニメーション効果が付加され、シーン2には、モノクロの色調整処理が行われる。そしてシーン1とシーン2の間には、トランジションが付加される。さらにこのシナリオには、音楽M1が対応されている。
【0101】
その詳細は後述するが、シェーカプログラム54Dは、素材トレイ201に表示された素材クリップの画像情報の中から所定のものをランダムに選択して、シーン1乃至シーン4に割り当てる処理を実行する。その結果、この予め用意されたシナリオに沿った編集処理が、シェーカプログラム54Dにより、自動的に行われることになる。
【0102】
図28(B)は、選択ボタン281−2に対応されているシナリオを表している。このシナリオは、シーン1乃至シーン5の5つのシーンにより構成されており、それぞれのシーンの長さは、T11乃至T15とされている。シーン2にはセピア色、シーン3にはランダム効果、シーン4とシーン5の間にはトランジションが付加されている。そして、音楽は、M2とされている。
【0103】
図示は省略するが、このようなシナリオが選択ボタン281−3乃至281−5にも対応され、予め用意されている。
【0104】
ステップS4において、シェーカプログラム54Dは、ループが指定されたら記憶する処理を実行する。すなわち、ユーザは、編集して得られたシナリオを連続して繰り返し再生することを前提とするとき、ループボタン282を操作する。この操作が行われたとき、ステップS4において、シェーカプログラム54Dは、それを記憶する。
【0105】
例えば、選択ボタン281−1に対応されているシナリオは、基本的に図28(A)に示すように構成されているのであるが、ループボタン282が操作されない場合の(連続して繰り返し再生しないことを前提とする)シーンは、より正確には、例えば図29(A)に示すように構成されている。すなわち、シーン1(SC1)の冒頭には、フェードインする部分SC1’が形成されており、最後のシーン4(SC4)には、フェードアウトする部分SC4’が形成されている。また、音楽M1にも、その最後には、無音部分M1’が形成されている。
【0106】
従って、図29(A)に示すように構成されているシナリオに基づいて編集された情報を、敢えて連続して繰り返し再生すると、図29(B)に示すようになる。すなわち、フェードインの部分SC1’により再生が開始され、シーン1、シーン2、シーン3、シーン4が再生された後、フェードアウトの部分SC4’により、1回目の再生が終了する。そしてそれに続いて、再び、フェードインのシーンSC1’の画像の再生が開始され、シーン1、シーン2、シーン3、シーン4と再生され、再びフェードアウト部分SC4’が表示される。音楽も、1回目の再生と2回目の再生の境界部分Aにおいては、無音部分M1’が再生される。従って、視聴者は、境界部分Aにおいて、一旦再生が終了したことを容易に認識することができる。
【0107】
これに対して、選択ボタン281−1が選択された後、さらにループボタン282も操作された場合には、図29(C)に示すようなシナリオが選択される。
【0108】
このシナリオは、シーン1乃至シーン4の4つのシーンにより構成されているが、シーン1の先頭と、シーン4の最後は、シーン4に続けて、シーン1が再生されたとしても、その変化が、例えば、シーン1とシーン2との切り替え、或いは、シーン2とシーン3の切り替え、さらには、シーン3とシーン4の切り替えのタイミングと同様に、シーンは変わるが、1つのシナリオが終了したと認識されないような構成とされている。すなわち、単に、画面が切り替えられたに過ぎないと認識され得るような構成とされている。
【0109】
同様に、音楽M1の先頭から終端部までの再生に続けて、再び音楽M1を連続して再生したとしても、その部分において、シーンが終了したと認識されないような構成とされている。
【0110】
その結果、図29(D)に示すように、シーン1乃至シーン4に続けて、再びシーン1乃至シーン4が連続して再生されたとしても、その境界部分Aにおいて、視聴者が1回目の再生が終了し、2回目の再生が開始されたと、直感的に認識する可能性は少ない。
【0111】
このように、シェーカプログラム54Dは、選択ボタン281−1乃至281−5に対応して、連続して繰り返し再生されないことを前提とするシナリオと、連続して繰り返し再生することを前提とするシナリオの2つのシナリオを有している。そして、ループボタン282が操作されない場合、前者が選択され、操作された場合、後者が選択される。
【0112】
次に、ステップS5において、シェーカプログラム54Dはシェイクボタン285が操作されたか否かを判定し、操作されていない場合、ステップS1に戻り、それ以降の処理を繰り返し実行する。シェイクボタン285が操作されたと判定された場合、ステップS6に進み、シェーカプログラム54Dは、ループが指定されているか否か、すなわち、ループボタン282が操作されたか否かを判定する。ループが指定されていると判定された場合、ステップS7に進み、シェーカプログラム54Dは、選択ボタン281−1乃至281−5のうち、操作されたものに対応するループ用のシナリオを選択する。これに対して、ステップS6において、ループが指定されていないと判定された場合、ステップS8において、シェーカプログラム54Dは、選択ボタン281−1乃至281−5のうち、選択されたものに対応する非ループ用のシナリオを選択する。
【0113】
ステップS7、またはステップS8の処理の後、ステップS9に進み、シェーカプログラム54Dは、素材トレイ201に表示されている素材クリップ212のそれぞれに、ID(識別番号)を割り当てる。そしてステップS10において、シェーカプログラム54Dは、素材クリップのうちの1つを乱数で選択する。換言すれば、ステップS9の処理で割り当てたIDの中から1つのIDをランダムに選択することで、1つの素材クリップが選択される。
【0114】
ステップS11において、シェーカプログラム54Dは、ステップS10の処理で選択された素材クリップをステップS7、またはステップS8の処理で選択されたシナリオ中の1つのシーン(今の場合、最初のシーン)に対応させる。
【0115】
ステップS12において、全てのシーンに対する素材クリップの対応付け処理が終了したか否かが判定され、まだ終了していない場合、ステップS10に戻り、それ以降の処理が繰り返し実行される。このようにして、例えば、図28(A)に示すシーン1、シーン2、シーン3、シーン4に対して、それぞれ所定の素材クリップが対応付けされる。
【0116】
ステップS12において、全てのシーンに対する対応付け処理が終了したと判定された場合、ステップS13に進み、シェーカプログラム54Dは、1つのシーンを選択する。例えば、ここで、先頭のシーンが選択される。ステップS14において、シェーカプログラム54Dは、ステップS13で選択されたシーンの長さが、そのシーンに対応付けられた素材クリップの長さより短いか否かを判定する。選択されたシーンの長さが対応づけられた素材クリップの長さより短い場合には、ステップS15に進み、シェーカプログラム54Dは、素材クリップの中のシーンに対応させる部分を乱数で決定する。例えば、素材クリップの長さが5秒であり、対応するシーンの長さが1秒である場合、5秒間のうちの、どの1秒間の画像をそのシーンに対応させるかが、1から5までの数字を乱数で発生させて、決定される。
【0117】
一方、ステップS14において、選択されたシーンの長さが対応づけられた素材クリップの長さより短くないと判定された場合、ステップS16に進み、シェーカプログラム54Dは、素材クリップの長さをシーンの長さに合うように延長する処理を実行する。例えば、素材クリップの長さが1秒であり、シーンの長さが5秒であるような場合、素材クリップの長さを5倍に延長することで(1/5倍の速度で再生することで)、すなわち、スローモーション再生させることで、素材クリップの長さとシーンの長さが対応される。
【0118】
ステップS15、またはステップS16の処理の後、ステップS17に進み、シェーカプログラム54Dは、そのシナリオでは、そのシーンにエフェクトが指定されているか否かを判定する。例えば、今、処理対象とされているシーンが、図28(A)におけるシーン1である場合、このシーン1には、アニメーション効果が指定されている。このような場合、ステップS18に進み、シェーカプログラム54Dは、エフェクトが決定されているか否かを判定する。すなわちエフェクトの指定には、図28(A)のシーン1における場合のように、エフェクトがアニメーション効果というように、既に決定されている場合と、例えば、図28(B)のシーン3における場合のように、ランダム効果として指定されている場合がある。ランダム効果の場合、エフェクトを付加することは決められているが、どのエフェクトを適用するのかはまだ決定されていない。したがって、このような場合には、ステップS19に進み、シェーカプログラム54Dは、予め用意されている、例えば、24個のエフェクトの中から、乱数を発生させ、1つのエフェクトを決定する。
【0119】
ステップS18で、エフェクトが既に決定されていると判定された場合、またはステップS19で、エフェクトが決定された場合、ステップS20に進み、シェーカプログラム54Dは、シーンに対応された素材クリップに対して、決定されたエフェクトを対応させる。
【0120】
ステップS17において、シーンにエフェクトが指定されていないと判定された場合、ステップS18乃至ステップS20の処理は不要であるので省略される。
【0121】
次にステップS21において、シェーカプログラム54Dは、トランジションの指定がなされているか否かを判定する。トランジションの指定が成されている場合には、ステップS22に進み、シェーカプログラム54Dは、次の素材クリップとの間にトランジションを設定する。これにより、例えば、現在処理対象とされているシーンと次に処理対象とされているシーンの画面が切り替えられる時、例えば、図21に示すようなワイプ効果が付与されて、画面が切り替えられることになる。
【0122】
ステップS21において、トランジションの指定がないと判定された場合、ステップS22の処理は、不要であるので、スキップされる。
【0123】
ステップS23において、シェーカプログラム54Dは、テキストが取り込まれているか否かを判定する。すなわち、上述したように、テキストシェイクを行う場合には、ステップS2において、その対象とされるテキストが取り込まれている。この場合、ステップS24に進み、シェーカプログラム54Dは、今、処理対象とされているシーンにおいて、テキストをシェイクするか否かをランダムに決定する。ステップS25において、シェーカプログラム54Dは、テキストシェイクをすると決定されたか否かを判定し、テキストシェイクをすると決定されたと判定された場合、ステップS26に進み、取り込まれているテキストの中から1つのテキストをランダムに選択する。例えば、図22に示すように、3つのテキストが取り込まれている場合、そのうちの1つのテキストが今処理対象とされているシーンに対応されるものとして選択される。
【0124】
次に、ステップS27において、シェーカプログラム54Dは、テキストの挿入位置をランダムに決定する。この例の場合、テキストの挿入位置は、画面の中央、右上、左上、左下、右下の5つとされており、この5つの位置から、1つの位置がランダムに決定される。
【0125】
ステップS25において、テキストシェイクをしないと判定された場合、ステップS26とステップS27の処理はスキップされる。また、ステップS23において、テキストが取り込まれていないと判定された場合には、ステップS24乃至ステップS27の処理はスキップされる。
【0126】
次にステップS28において、全てのシーンに対する処理が終了したか否かが判定され、まだ全てのシーンに対する処理が終了していない場合には、ステップS13に戻り、次のシーンに対して、上述した場合と同様の処理が実行される。
【0127】
ステップS28において、全てのシーンに対する処理が終了したと判定された場合、ステップS29に進み、シェーカプログラム54Dは、編集したシナリオに対応する画像を出力トレイ291の画像トラック301に表示させる。この時、画像トラック301の画像表示部301Aには、各シーンの先頭のフレームの画像が表示され、トランジション表示部301Bには、トランジションが存在する場合には、そのトランジションに対応する画像(図19)が表示される。
【0128】
以上の処理を、模式的に説明すると、図30に示すようになる。
【0129】
すなわち、この例の場合、素材クリップとして、素材クリップCL1乃至CL5が、指定されている。また、ユーザが指定した選択ボタン281の操作により、1つのシナリオが決定されている。このシナリオは、この例の場合、シーンSC1乃至SCnのn個のシーンで構成されている。このうちシーンSC3は、セピア色の色調整が行われ、シーンSCn-1には、ランダム効果が付与され、シーンSCnは、セピア色の色調整が行われる。また、シーンSC2とSC3の間、シーンSC3とSC4の間、シーンSCn-1とシーンSCnの間には、それぞれ、トランジションが形成される。シーンSC1の長さは2秒、シーンSC2の長さは2.2秒、シーンSC3の長さは4.0秒、シーンSCn-3の長さは1秒、シーンSCn-1の長さは5秒、シーンSCnの長さは3秒とされている。また、このシーンに対応する音楽も予め決定されている。これらは既に、シェーカプログラム54Dにより予め用意されているものである。
【0130】
これに対して、シェーカプログラム54Dは、5個の素材クリップCL1乃至CL5の中から所定のものをランダムに選択し、各シーンSC1乃至SCnに割り当てる。そして、例えば、シーンSCn-3に素材クリップCL5が割り当てられた場合、シーンSCn-3の長さは1秒であるのに対して、素材クリップCL5の長さは、1秒以上存在する。そこで、この場合、素材クリップCL5の再生時刻がt1からt4までの間のうちの、ランダムに選択された時刻t2からt3までの間の1秒の長さの部分がシーンSCn-3に割り当てられる。
【0131】
このようにして、ユーザは素材クリップを指定するだけで、自動的に、所定の編集処理された画像情報を得ることができる。素材クリップの割り当ては、ランダムに決定されるため、同一の素材クリップを選択したとしても、基本的には異なる編集結果が得られることになる。
【0132】
出力トレイ291に編集結果が表示された状態において、再生ボタン231が操作されると、シェーカプログラム54Dは、その編集されたシナリオ(予め用意したシナリオを修正したもの)に対応する画像を再生画面221に表示させる。ユーザは、これにより、編集結果を確認することができる。
【0133】
再生画面221で確認を行った後、ユーザが出力ボタン304を操作すると、図23に示すようなウィンドウ401が表示される。ユーザは、このウィンドウ401に表示された項目の中から、所定の項目を選択することで、編集の結果得られた情報を所定の形式で保存することができる。
【0134】
「通常のムービーとして保存する」が選択された場合、シェーカプログラム54Dは、選択された素材クリップに編集情報を実際に適用して、レンダリング処理を実行する。その結果、実際に、例えば、所定の効果が付与された画像が形成され、その画像が指定された記憶媒体(例えば、ハードディスク67)に記憶される。
【0135】
しかしながら、レンダリング処理には、比較的長い時間がかかる。これに対して、「簡易保存する」が選択された場合には、実際のレンダリング処理は実行されず、編集対象として選択された素材クリップのファイルと編集情報(図24に示すような情報)が保存される。したがって、レンダリング処理する場合に比べて、保存処理を短い時間で完了することが可能となる。
【0136】
なお、図25乃至図27のフローチャートに示す処理においても、実際にレンダリング処理が行われるのではなく、図24に示すような編集情報が作成されるだけの処理である。その結果、例えば、30秒の長さのシナリオをせいぜい10秒程度の短い時間で編集することが可能となる。
【0137】
上記した処理を実行するプログラムは、図7に示すように、パーソナルコンピュータ1に内蔵されている記録媒体としてのハードディスク67や半導体メモリとしてのROM70に予めインストールした状態でユーザに提供することができる。
【0138】
あるいはまた、プログラムは、フロッピーディスクなどの磁気ディスク121、CD-ROM(Compact Disk-Read Only Disk)などの光ディスク122、MDなどの光磁気ディスク123、半導体メモリ124などの記録媒体に、一時的あるいは永続的に格納し、パッケージソフトウエアとして提供することができる。
【0139】
さらに、プログラムは、ダウンロードサイトから、デジタル衛星放送用の人工衛星を介して、パーソナルコンピュータ1に無線で転送したり、ローカルエリアネットワーク、インターネットといったネットワークを介して、パーソナルコンピュータ1に有線で転送し、パーソナルコンピュータ1において、内蔵するハードディスク67などに格納させることができる。
【0140】
本明細書における媒体とは、これら全ての媒体を含む広義の概念を意味するものである。
【0141】
また、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0142】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0143】
【発明の効果】
以上の如く、本発明の情報処理装置、情報処理方法、並びにプログラムによれば、画像情報のうち、所定のものを選択し、シーンに対応させるようにしたので、迅速且つ簡単に、編集処理を行うことが可能となる。
【図面の簡単な説明】
【図1】 本発明を適用したパーソナルコンピュータの外観の構成を示す斜視図である。
【図2】 本発明を適用したパーソナルコンピュータの外観の構成を示す平面図である。
【図3】 本発明を適用したパーソナルコンピュータの外観の構成を示す左側側面図である。
【図4】 本発明を適用したパーソナルコンピュータの外観の構成を示す右側側面図である。
【図5】 本発明を適用したパーソナルコンピュータの外観の構成を示す正面図である。
【図6】 本発明を適用したパーソナルコンピュータの外観の構成を示す底面図である。
【図7】図1のパーソナルコンピュータの内部の構成例を示すブロック図である。
【図8】図1のLCD21の表示例を示す図である。
【図9】図8の素材トレイの部分の表示例を示す図である。
【図10】図7のCCDビデオカメラから取り込んだ画像の表示例を示す図である。
【図11】図8の素材トレイに取り込む画像ファイルの例を示す図である。
【図12】図8の再生画面のトリミングの例を示す図である。
【図13】図8の出力トレイのクリップの並び替えを説明する図である。
【図14】図8のボリュームボタンが操作された場合のウィンドウの表示例を示す図である。
【図15】図8の色調ボタンが操作された場合のウィンドウの表示例を示す図である。
【図16】図8の再生速度ボタンが操作された場合の表示例を示す図である。
【図17】図8の特殊効果トレイのテキストウィンドウの表示例を示す図である。
【図18】図8の特殊効果トレイのエフェクトウィンドウの表示例を示す図である。
【図19】図8の特殊効果トレイのトランジションウィンドウの表示例を示す図である。
【図20】図8の出力トレイのトランジションを適用した場合の表示例を示す図である。
【図21】ワイプ効果を説明する表示例を示す図である。
【図22】図8の特殊効果トレイのシェーカウィンドウの表示例を示す図である。
【図23】図8の出力ボタンを操作した場合に表示されるウィンドウの表示例を示す図である。
【図24】簡易保存の編集情報の例を示す図である。
【図25】シェーカ処理を説明するフローチャートである。
【図26】シェーカ処理を説明するフローチャートである。
【図27】シェーカ処理を説明するフローチャートである。
【図28】シーンの構成を説明する図である。
【図29】連続して繰り返し再生することを前提とする、シーンの構成を説明する図である。
【図30】シェーカ処理を説明する図である。
【符号の説明】
1 パーソナルコンピュータ, 9−1および9−2 ヒンジ, 54D,57D シェーカプログラム, 54E,67E キャプチャプログラム, 201 素材トレイ, 212 素材クリップ, 221 再生画面, 231 再生ボタン, 241 ボリュームボタン, 242 色調ボタン, 243 再生速度ボタン, 244 エフェクト表示ボタン, 261 特殊効果トレイ,271−1乃至271−4 タグ, 281−1乃至281−5 選択ボタン, 282 ループボタン, 283 テキストシェイクボタン, 291 出力トレイ, 301 画像トラック, 301A 画像表示部, 301B トランジション表示部, 302 BGMトラック
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and method, and a program storage medium, and more particularly, to an information processing apparatus and method, and a program storage medium that can easily edit an image.
[0002]
[Prior art]
Recently, the functions of personal computers have been improved, and it has become possible to edit not only text data but also image data.
[0003]
[Problems to be solved by the invention]
However, in order to edit an image, the user has to learn an operation function, and even if learned, there is a problem that it takes time to obtain a predetermined editing result.
[0004]
The present invention has been made in view of such a situation, and enables an image to be edited easily and quickly.
[0005]
[Means for Solving the Problems]
  The information processing apparatus of the present inventionContains at least one videoStorage means for storing a plurality of images and a plurality of scenario data composed of a plurality of scenes, and stored in the storage means based on the selected scenario dataContains at least one videoSelection means for selecting a plurality of images at random, and each scene of the selected scenario data selected by the selection meansContains at least one videoAssociation means for associating a plurality of images;And the associating means associates a predetermined section of the moving image instructed for trimming with the scene.It is characterized by.
[0006]
The plurality of scenes can have different predetermined lengths.
[0007]
  Matched by the matching means according to the length of the above scenepluralCorrection means for correcting the image may be further provided.
[0008]
Based on the scenario data, a reproducing unit that continuously reproduces a plurality of images associated by the associating unit may be provided.
[0009]
The reproduction means can apply the special effect information to a plurality of images for reproduction based on predetermined special effect information associated with the scene.
[0010]
Further comprising a determining means for arbitrarily determining special effect information to be associated with the scene from a plurality of special effect information, and the reproducing means applies the special effect information to the plurality of images based on the determination result of the determining means. And play it.
[0011]
  the aboveThe associating means uses scenario data corresponding to a command from the user among the first scenario data premised on repeated continuous reproduction and the second scenario data not premised on repeated reproduction.Multiple selected imagesAssociation can be performed.
[0012]
  Stored in the storage means, Including at least one moving image that is a portion of a predetermined section instructed to be trimmedRegistration means for registering a plurality of images as edit images, image information display means for displaying a list of information on a plurality of images to be edited, and a plurality of images associated by the association means according to the order of the plurality of scenes Further, output information display means for displaying information related to each other can be further provided.
  The information processing device corresponds to each scene of the selected scenario data, editing information for specifying each scene constituting the selected scenario data, and predetermined special effect information associated with the scene, and the selected scenario data. A storage control means for storing the attached plurality of images in the storage means can be further provided.
  The information processing apparatus applies a special effect specified by special effect information associated with each scene of the selected scenario data to a plurality of associated images based on the selected scenario data. And a generation unit that generates image data for continuously reproducing the plurality of images to which the special effect is applied, and the storage control unit is configured to edit the information and the plurality of images or the image according to a user instruction. Any of the data can be stored in the storage means.
[0014]
  In the information processing method of the present invention, the storage meansContains at least one videoA storage step for storing a plurality of images and a plurality of scenario data composed of a plurality of scenes, and the storage means based on the selected scenario dataContains at least one videoA selection step for selecting a plurality of images at random, and each scene of the selected scenario data is selected for each scene.Contains at least one videoAn association processing step for associating a plurality of images;In the association processing step, a predetermined section instructed to be trimmed in the moving image is associated with the scene.
[0017]
  The storage medium program of the present invention is stored in the storage means.Contains at least one videoA storage step for storing a plurality of images and a plurality of scenario data composed of a plurality of scenes, and the storage means based on the selected scenario dataContains at least one videoA selection step for selecting a plurality of images at random, and each scene of the selected scenario data is selected for each scene.Contains at least one videoAn association processing step for associating a plurality of images;In the association processing step, a predetermined section in which trimming is instructed in the moving image is associated with a scene.
[0020]
In the information processing apparatus and method, and program of the present invention, image information is associated with the acquired scene.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of an information processing apparatus according to the present invention will be described with reference to the drawings.
[0022]
1 to 6 show a configuration example of a portable personal computer to which the present invention is applied. The personal computer 1 is a mini-notebook type personal computer, and basically includes a main body 2 and a display unit 3 that can be opened and closed with respect to the main body 2. 1 is an external perspective view showing a state in which the display unit 3 of the personal computer 1 is opened with respect to the main body 2, FIG. 2 is a plan view thereof, and FIG. 3 shows the display unit 3 closed with respect to the main body 2. 4 is a left side view showing the state, FIG. 4 is a right side view showing a state where the display unit 3 is opened 180 degrees with respect to the main body 2, FIG. 5 is a front view thereof, and FIG. 6 is a bottom view thereof.
[0023]
The main body 2 is provided with a keyboard 4 that is operated when inputting various characters and symbols, and a stick-type pointing device 5 that is operated when moving a mouse cursor. Further, the upper surface of the main body 2 is further provided with speakers 8-1 and 8-2 that output sound and a shutter button 10 that is operated when taking an image with the CCD video camera 23 provided in the display unit 3. Yes.
[0024]
The display unit 3 is connected to the main body 2 by hinges 9-1 and 9-2 so as to be freely opened and closed. A battery 7 is detachably mounted between the hinge 9-1 and the hinge 9-2 of the main body 2.
[0025]
The display unit 3 is provided with claws 13-1 and 13-2. In the state where the display unit 3 is closed with respect to the main body 2, as shown in FIG. The body 2 at the opposite position is provided with holes 6-1 and 6-2 into which the claws 13-1 and 13-2 are respectively fitted (FIG. 2).
[0026]
A microphone 24 is attached next to the imaging unit 22. As shown in FIG. 6, the microphone 24 can collect sound from the back side.
[0027]
As shown in FIG. 3, an exhaust hole 11 is provided on the left side surface of the main body 2, and an intake hole 14 is provided at the lower front portion of the main body 2 as shown in FIG. 5. Further, a slot 12 for inserting a card (PC card) conforming to a standard defined by PCMCIA (Personal Computer Memory Card International Association) is provided next to the exhaust hole 11.
[0028]
An LCD (Liquid Crystal Display) 21 for displaying an image is provided on the front surface of the display unit 3, and an imaging unit 22 is provided at an upper end portion thereof so as to be rotatable with respect to the display unit 3. . That is, the imaging unit 22 can be rotated to an arbitrary position within a range of 180 degrees between the same direction as the LCD 21 and the opposite direction (rear direction). A CCD video camera 23 is attached to the imaging unit 22.
[0029]
On the front side of the main body 2, a power lamp PL, a battery lamp BL, a message lamp ML, and other lamps including LEDs are provided. A reference numeral 40 shown in FIG. 1 is a power switch provided next to the shutter button 10, and a reference numeral 25 shown in FIG. 5 is an adjustment ring for adjusting the focus of the CCD video camera 23. Further, reference numeral 26 shown in FIG. 6 is a lid that covers an opening for mounting the additional memory in the main body 2.
[0030]
Next, the internal configuration of the personal computer 1 will be described with reference to FIG.
[0031]
The central processing unit (CPU (Central Processing Unit)) 51 is composed of, for example, a Pentium (trademark) processor manufactured by Intel (trade name), and is connected to the host bus 52. The host bus 52 is further connected with a bridge 53 (so-called north bridge). The bridge 53 has an AGP (Accelerated Graphics Port) 50 and is connected to a PCI (Peripheral Component Interconnect / Interface) bus 56. ing.
[0032]
The bridge 53 is configured by, for example, 400BX, which is an AGP Host Bridge Controller manufactured by Intel, and controls a CPU 51 and a RAM (Random-Access Memory) 54 (so-called main memory). Further, the bridge 53 controls the video controller 57 via the AGP 50. The bridge 53 and the bridge (so-called south bridge (PCI-ISA Bridge)) 58 constitute a so-called chip set.
[0033]
The bridge 53 is further connected to the cache memory 55. The cache memory 55 is configured by a memory that can execute a write or read operation at a higher speed than the RAM 54 such as an SRAM (Static RAM), and caches (temporarily stores) a program or data used by the CPU 51. .
[0034]
The CPU 51 includes a cache memory that is primary (a memory that can operate at a higher speed than the cache memory 55 and that is controlled by the CPU 51 itself).
[0035]
The RAM 54 is composed of, for example, a DRAM (Dynamic RAM), and stores a program executed by the CPU 51 or data necessary for the operation of the CPU 51. Specifically, for example, the RAM 54 is loaded from the HDD 67 when the activation is completed, and an e-mail program 54A, an autopilot program 54B, an operating program (OS) 54C, a shaker program 54D, a capture program 54E, and the like. Application programs 54F1 to 54Fn are stored.
[0036]
The e-mail program 54 </ b> A is a program for sending and receiving communication text (so-called e-mail) via a modem 75 and a communication line such as a telephone line 76. The e-mail program 54A has an incoming mail acquisition function. This incoming mail acquisition function confirms whether or not mail addressed to the user is received in the mail box 79 against the mail server 78 provided in the Internet service provider 77, and if there is mail addressed to the user. Execute the acquisition process.
[0037]
The autopilot program 54B is a program for sequentially starting and processing a plurality of preset processes (or programs) in a preset order.
[0038]
The OS (Operating System) 54C is represented by, for example, the so-called Windows 95 (trademark) or Windows 98 (trademark) of Microsoft (trade name), or the so-called Mac OS (trademark) of Apple Computer (trade name). A program for controlling basic operations of a computer.
[0039]
The shaker program 54D is a program that executes automatic editing processing. The capture program 54E is a program that controls capturing of a captured image by the CCD video camera 23.
[0040]
The video controller 57 is connected to the bridge 53 via the AGP 50, receives data (image data or text data) supplied from the CPU 51 via the AGP 50 and the bridge 53, and receives an image corresponding to the received data. Data is generated or received data is stored as it is in a built-in video memory (not shown). The video controller 57 displays an image corresponding to the image data stored in the video memory on the LCD 21 of the display unit 3. Further, the video controller 57 supplies the video data supplied from the CCD video camera 23 to the RAM 54 via the PCI bus 56.
[0041]
A sound controller 64 is connected to the PCI bus 56. The sound controller 64 takes in a signal corresponding to the sound from the microphone 24, generates data corresponding to the sound, and outputs the data to the RAM 54. Further, the sound controller 64 drives the speaker 8 and causes the speaker 8 to output sound.
[0042]
A modem 75 is connected to the PCI bus 56. The modem 75 transmits predetermined data to the communication network 80 such as the Internet or the mail server 78 via the public telephone line 76 and the Internet service provider 77 and receives predetermined data from the communication network 80 or the mail server 78. .
[0043]
The PC card slot interface 111 is connected to the PCI bus 56 and supplies the data supplied from the interface card 112 installed in the slot 12 to the CPU 51 or the RAM 54 and outputs the data supplied from the CPU 51 to the interface card 112. To do. The drive 113 is connected to the PCI bus 56 via the PC card slot interface 111 and the interface card 112.
[0044]
The drive 113 reads data recorded in the magnetic disk 121, the optical disk 122, the magneto-optical disk 123, or the semiconductor memory 124 that is mounted as necessary, and reads the read data to the interface card 112, the PC card slot interface 111, The data is supplied to the RAM 54 via the PCI bus 56.
[0045]
A bridge 58 (so-called south bridge) is also connected to the PCI bus 56. The bridge 58 is configured by, for example, PIIX4E (trademark) manufactured by Intel, and includes an IDE (Integrated Drive Electronics) controller / configuration register 59, a timer circuit 60, an IDE interface 61, a USB interface 68, and the like. ing. The bridge 58 controls various devices such as devices connected to the IDE bus 62 or devices connected via an ISA / EIO (Industry Standard Architecture / Extended Input Output) bus 63 or an I / O interface 69. Control (Input / Output).
[0046]
The IDE controller / configuration register 59 includes two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, a configuration register, and the like (both not shown).
[0047]
An HDD 67 is connected to the primary IDE controller via an IDE bus 62. Further, when a so-called IDE device such as a CD-ROM drive or HDD (not shown) is attached to another IDE bus, the attached IDE device is electrically connected to the secondary IDE controller.
[0048]
The HDD 67 stores an e-mail program 67A, an autopilot program 67B, an OS 67C, a shaker program 67D, a capture program 67E, and a plurality of other application programs 67F1 to 67Fn as application programs. The e-mail program 67A, autopilot program 67B, OS 67C, shaker program 67D, capture program 67E, application programs 67F1 to 67Fn, etc. recorded in the HDD 67 are sequentially supplied to the RAM 54 in the course of startup (boot-up) processing. Loaded.
[0049]
The USB interface 68 receives the pseudo noise code from the connected GPS antenna 106 via the USB port 107 and transmits the received pseudo noise code to the RAM 54 via the PCI bus 56.
[0050]
The timer circuit 60 supplies data indicating the current time to the CPU 51 via the PCI bus 56 in response to requests from various programs.
[0051]
An I / O interface 69 is further connected to the ISA / EIO bus 63. The I / O interface 69 is composed of an embedded controller, in which a ROM 70, a RAM 71, and a CPU 72 are mutually connected.
[0052]
The ROM 70 stores in advance an IEEE 1394 interface program 70A, an LED control program 70B, a touch pad input monitoring program 70C, a key input monitoring program 70D, a wake-up program 70E, and the like.
[0053]
The IEEE 1394 interface program 70A transmits and receives data (data stored in a packet) conforming to the standard defined by IEEE 1394 via the IEEE 1394 port 101. The LED control program 70B controls the lighting of the power lamp PL, the battery lamp BL, the message lamp ML as necessary, or other lamps composed of LEDs. The touch pad input monitoring program 70C is a program for monitoring an input from the touch pad 33 corresponding to a user's operation.
[0054]
The key input monitoring program 70D is a program for monitoring input from the keyboard 4 or other key switches. The wake-up program 70E checks whether or not a preset time has been reached based on the data indicating the current time supplied from the timer circuit 60 of the bridge 58. When the preset time is reached, the wake-up program 70E This is a program for managing the power supply of each chip constituting the personal computer 1 in order to start processing (or program) or the like.
[0055]
The ROM 70 is further written with a BIOS (Basic Input / Output System) 70G. The BIOS 70G controls data transfer (input / output) between the OS or application program and peripheral devices (touchpad 33, keyboard 4, HDD 67, etc.).
[0056]
The RAM 71 has registers for LED control, touch pad input status, key input status, or set time, or an IEEE 1394 I / F register as registers 71A to 71F. For example, the LED control register stores a predetermined value when the e-mail program 54A is activated, and the lighting of the message lamp ML is controlled in accordance with the stored value. The key input status register stores a predetermined operation key flag. The set time register is set with a predetermined time corresponding to the operation of the keyboard 4 or the like by the user.
[0057]
The I / O interface 69 is connected to the touch pad 33, the keyboard 4, the IEEE 1394 port 101, the shutter button 10, and the like via a connector (not shown), and the stick type pointing device 5, the touch pad 33, the keyboard. 4 or a signal corresponding to an operation on each shutter button 10 is output to the ISA / EIO bus 63. Further, the I / O interface 69 controls transmission / reception of data with a connected device via the IEEE 1394 port 101. Further, the I / O interface 69 is connected to a power lamp PL, a battery lamp BL, a message lamp ML, a power control circuit 73, and other lamps including LEDs.
[0058]
The power control circuit 73 is connected to a built-in battery 74 or an AC power supply, supplies necessary power to each block, and performs control for charging the built-in battery 74 or a second battery of a peripheral device. The I / O interface 69 monitors the power switch 40 that is operated when the power is turned on or off.
[0059]
The I / O interface 69 executes the IEEE 1394 interface program 70A to the wake-up program 70E by the power supply provided therein even when the power is off. That is, the IEEE 1394 interface program 70A to the wake-up program 70E are always operating.
[0060]
FIG. 8 shows a display example of an image displayed on the LCD 21 when the shaker program 54D is activated. As shown in the figure, a material tray 201 is displayed at the upper left of the screen. A read button 211 is displayed on the material tray 201. This read button 211 is operated by the user when trying to read the information to be edited when the user tries to edit predetermined image information. This operation is performed by operating the stick-type pointing device 5. The material tray 201 is shown enlarged in FIG.
[0061]
For example, when the user activates the capture program 54E, the video controller 57 outputs an image captured by the CCD video camera 23 to the LCD 21 for display. FIG. 10 shows an example of an image displayed in this way.
[0062]
When the user operates the shutter button 10 at a predetermined timing, the video controller 57 supplies the still image or moving image data currently displayed on the LCD 21 to the RAM 54 for storage. The image data is also supplied from the RAM 54 to the hard disk 67 and recorded as necessary.
[0063]
In this way, the user reads the image data stored in the RAM 54 or the hard disk 67 and operates the read button 211 to store the image data in the RAM 54 as an image to be edited (material clip). Can do. The image data to be shaken in this way is displayed as a material clip 212 on the material tray 201. As shown in an enlarged view in FIG. 9, on the right side of the material clip 212, the title of the material clip, the distinction between the moving image and the still image, and the playback time are displayed. The scroll bar 213 is operated by the user when scrolling the material clip 212 when the number of the material clips 212 increases and all of the material clips 212 cannot be displayed within the range of the material tray 201.
[0064]
Note that files that can be edited (material clips) are videos with extensions such as .MOV and .AVI, .BMP, .GIF, .JPG, .PNG, and .PCT as shown in FIG. Still images with extensions such as, or music with extensions such as .WAV and .AIF.
[0065]
On the right side of the material tray 201, a playback screen 221 is displayed. When the user operates the stick-type pointing device 5 to specify a predetermined one of the material clips 212 displayed on the material tray 201 and operates the play button 231, the specified image is reproduced. Reproduced and displayed on the screen 221. At this time, as the playback proceeds, the playback position display button 235 moves from the left side to the right side in accordance with the playback position.
[0066]
As shown in FIG. 12, a predetermined range of the moving image can be trimmed by designating the start point with the pointer 234L and designating the end point with the pointer 234R. When the image is trimmed, only the trimmed image data in the file is regarded as a substantial image to be edited.
[0067]
When the designated range playback button 232 is operated, only the trimmed range is displayed on the playback screen 221. When the rewind button 236 is operated, the display image on the playback screen 221 is rewinded and displayed in the direction from the new image to the old image in terms of time. When the fast forward button 237 is operated, the image displayed on the playback screen 221 is fast forwarded.
[0068]
When the mode button 233 is operated in the state of the story playback mode, the mode is changed to the edit mode. When the mode button 233 is operated in the state of the edit mode, the mode is changed to the story playback mode.
[0069]
In the edit mode, for example, when the playback button 231 is operated, the material clip 212 designated from the material tray 201 at that time is displayed on the playback screen 221, but in the state where the story playback mode is set, When the playback button 231 is operated, as described later, a story (scenario) that is displayed on the output tray 291 and edited automatically or manually is played back from the beginning to the end.
[0070]
When the editing process is performed manually (instead of automatic editing), the user selects a predetermined one from the material clips 212 displayed on the material tray 201, and performs a plurality of operations on the image track 301 shown in FIG. A desired scenario (story) is created by dragging and dropping the image display unit 301A at an arbitrary position. An image (material clip) once dragged and dropped onto the predetermined image display unit 301A can be moved by further dragging and dropping onto the image display unit 301A at another position.
[0071]
When a music file exists on the material tray 201, the user drags and drops the music file icon (material clip 212) onto the BGM track 302 on the output tray 291 so that the sound is handled as BGM. Can be made. The length of the music information allocated on the BGM track 302 corresponds to the length of the music information. Therefore, when the length of the music information is short, further music information can be assigned by dragging and dropping it onto the BGM drag 302.
[0072]
On the right side of the playback screen 221, a volume button 241, a color tone button 242, and a playback speed button 243 are displayed. When the volume button 241 is operated, a window 331 as shown in FIG. 14 is displayed below the volume button 241. The user can adjust the volume at the time of outputting the sound to be edited by operating the adjustment bar 332.
[0073]
When the color tone button 242 is operated, a window 341 as shown in FIG. 15 is displayed below the color tone button 242. In this example, the user can select the color tone of X-ray, high contrast, sepia, or monochrome as it is by operating the adjustment bar 342.
[0074]
When the playback speed button 243 is operated, a window 351 as shown in FIG. 16 is displayed below the playback speed button 243. The user can operate the adjustment bar 352 to increase, decrease, or adjust the image reproduction speed.
[0075]
Below the playback speed button 243, an effect display button 244 is displayed. The user drags and drops the selection button icon 364 displayed in FIG. 17 (to be described later) or the selection button icon 362 displayed in FIG. 18 onto the effect display button 244, thereby reproducing the effect on the playback screen 221. Can be assigned to the material displayed in.
[0076]
A special effect tray 261 is displayed on the right side of the volume button 241 to the effect display button 244. On the special effect tray 261, tags 271-1 to 271-4 are displayed.
[0077]
When the tag 271-2 is selected, a text window is displayed as shown in FIG. In this window, an image 361 to be edited is displayed. The font button 362 is operated when selecting the font of the text to which the effect is applied. The text input window 363 displays text input by the user operating the keyboard 4. The selection button icon 364 is operated when selecting an effect to be added to text (character string). The scroll bar 365 is operated when the selection button icon 364 is scrolled.
[0078]
By dragging and dropping a predetermined one of the selection button icons 364 onto the effect display button 244, the text effect selected by the selection button icon 364 for the text that is currently displayed in the text input window 363 ( Text animation) can be added. When the playback button 231 is operated after the selection button icon 364 is dragged and dropped onto the effect display button 244, an image to which the selected text effect is added is immediately displayed on the playback screen 221. In this way, the user can check the text effect in real time.
[0079]
In the example of FIG. 17, the text animation of “oblique coalescing” is displayed on the playback screen 221.
[0080]
FIG. 18 shows a display example when the tag 271-3 is selected. When this tag 271-3 is selected, an effect window is displayed as shown in FIG. In this window, an image 381 to be edited is displayed, and a selection button icon 362 for selecting an animation effect is displayed below the image 381. The scroll bar 363 is operated when the selection button icon 362 is scrolled.
[0081]
Also in this case, a predetermined animation effect can be selected by dragging and dropping a predetermined one of the selection button icons 362 onto the effect display button 244. When the playback button 231 is operated after making this selection, an image with an animation effect added is displayed on the playback screen 221 in real time. In the example of FIG. 18, the animation effect “Tokimeki” is displayed.
[0082]
FIG. 19 shows a display example when the tag 271-4 is selected. In this case, a transition window is displayed as shown in FIG. In this window, a selection button icon 391 is displayed, and the user can select a predetermined one from a plurality of selection button icons 391. When this selection is performed, a schematic image corresponding to the selected transition is displayed on the display unit 393. When the scroll bar 392 is operated, the selection button icon 391 is scrolled.
[0083]
After the user selects a predetermined selection button icon 391, the user drags and drops it on the transition display section 301B of the image track 301 shown in FIG. 20, so that it is displayed on the adjacent image display section 301A. Transitions can be added to images (material clips).
[0084]
For example, when a wipe transition is set, as shown in FIG. 21, the image displayed on the left side of the figure gradually moves to the right side, and gradually hides the image displayed on the right side. Transition is performed.
[0085]
When the tag 271-1 is selected, a shaker window for automatic editing is displayed as shown in an enlarged manner in FIG. Selection buttons 281-1 to 281-5 are displayed in this shaker window. Each of the selection buttons 281-1 to 281-5 is associated with a predetermined scenario (story) in advance. Each scenario is associated with predetermined music set in advance, and the music corresponding to the leftmost selection button 281-1 in FIG. 22 is the slowest tempo, and the rightmost music is the rightmost. The one corresponding to the selection button 281-5 is the fastest and most intense. The music corresponding to the selection buttons 281-2 to 281-4 between them is the music of the intermediate tempo.
[0086]
Specifically, the selection button 281-1 has ambient music (environmental music), the selection button 281-2 has piano music, the selection button 281-3 has jazz music, and the selection button 281-4 has hip music. Hop music and techno music are associated with the selection buttons 281-5, respectively.
[0087]
Accordingly, the number of scenes constituting the scenario corresponding to the selection button 281-1 corresponding to these music is relatively small (the number of scene changes is small). In contrast, the scenario corresponding to the selection button 281-5 has a large number of scenes (a large number of scene changes). Note that the lengths of the scenarios corresponding to the selection buttons 281-1 to 281-5 are all the same, and in this example, the length is 30 seconds.
[0088]
The loop button 282 is operated by the user when it is assumed that a 30-second scenario generated by automatic editing is repeatedly reproduced. The text shake button 283 is operated by the user when the text (character) is shaken. When this text shake button 283 is operated, a window 284 is displayed, and the user inputs text (character string) to be edited (text shake) by operating the keyboard 4 in this window 284. be able to. In this example, three character strings “Let's do our best”, “Junko-chan”, and “Happy!” Are entered and displayed.
[0089]
The shake button 285 is operated by the user when starting shake (automatic editing).
[0090]
When the output button 304 is operated, a window 401 as shown in FIG. 23 is displayed. The user selects a desired item from this window 401. Thereby, it is possible to select a storage form of information displayed on the output tray 291 (manually or automatically edited). For example, when “simple save” is selected, a file including the used image and editing information of the image are saved. This editing information is, for example, information as shown in FIG. In FIG. 24, the leftmost frame number represents the start timing of each scene constituting the scenario. In the example of FIG. 24, the scenario is composed of 10 scenes, and the first scene is shown to start from the sixth frame.
[0091]
The next animation effect represents the processing of the animation effect corresponding to the scene. Since 20 effects are prepared as animation effects, a value from 0 to 19 represents the effect, and a value of 99 represents that no animation effect is applied. Further, the value −1 represents that a predetermined one is randomly selected from the 20 animation effects.
[0092]
The next transition indicates which of the eight transitions is the transition. The value 99 indicates that no transition is applied. The next value represents the timing of the transition.
[0093]
The color tone effect indicates which of 24 color tones is a value from 0 to 23. The value of -1 indicates that a predetermined one is randomly selected from 24 color tones. The value 99 indicates that the color tone effect is not applied.
[0094]
The last value indicates whether or not the black mat is used as the background. The value 1 indicates that the black mat is used as the background, and the value 0 indicates that the black mat is not used.
[0095]
On the other hand, when “save as a normal movie” shown in FIG. 23 is selected, editing information as shown in FIG. 24 is actually applied to the image assigned to each scene, and so on. The image data to which the various effects are applied is actually generated (rendered). Therefore, this process takes a longer time than the case of “simple saving”. In other words, by selecting “simple save”, the save time can be shortened.
[0096]
Next, the shaker process (automatic editing process) will be described with reference to the flowcharts of FIGS. The following processing is basically executed by the shaker program 54D unless otherwise described. First, in step S1, the designated file is read as a material clip and executed. That is, as described above, the user activates the capture program 54E and designates a predetermined one of the image data file captured from the CCD video camera 23 and the audio data file input from the microphone 24. Then, by operating the read button 211, the file is designated as an automatic editing process target (material clip). When this designation processing is performed, the shaker program 54D stores the designated file as a material clip, processes the image of the first frame of the file, and displays it as the material clip 212 on the material tray 201. When the designated information is audio information, an image indicating that the audio information is prepared in advance is displayed as the material clip 212.
[0097]
Information captured at this time is not only information acquired from the CCD video camera 23 and the microphone 24 but also information acquired from the Internet 80 via the modem 75, the magnetic disk 121, the optical disk 122, and the magneto-optical disk. 123, the semiconductor memory 124, and the like can be taken in via the interface card 112.
[0098]
Next, in step S2, the shaker program 54D executes a process of capturing the input text if the text is input as a shake target. That is, when performing the automatic editing process, the user operates the tag 271-1 to display a shaker window (FIG. 22). When performing text shake, the user further operates the text shake button 283. As a result, a window 284 is displayed as shown in FIG. At this time, the user operates the keyboard 4 to input text to be shaken. Shaker program 54D captures this text and displays it in window 284.
[0099]
Further, the user designates one of the five shaker buttons 281-1 to 281-5. As described above, a predetermined scenario is associated with each of the shaker buttons 281-1 to 281-5 in advance, and by selecting the shaker button 281, the scenario is selected. Therefore, when a predetermined one of the shaker buttons 281-1 to 281-5 is designated in step S3, the shaker program 54D executes a process of storing it.
[0100]
For example, the scenario shown in FIG. 28A is associated with the selection button 281-1. This scenario is composed of four scenes 1 to 4. Scenes 1 through 4 have times T1 through T4, respectively. In this example, an animation effect is added to the scene 1, and a monochrome color adjustment process is performed on the scene 2. A transition is added between scene 1 and scene 2. Further, this scenario corresponds to music M1.
[0101]
Although the details will be described later, the shaker program 54D executes a process of randomly selecting a predetermined one from the image information of the material clip displayed on the material tray 201 and assigning it to the scenes 1 to 4. As a result, the editing process according to the scenario prepared in advance is automatically performed by the shaker program 54D.
[0102]
FIG. 28B shows a scenario corresponding to the selection button 281-2. This scenario is composed of five scenes 1 to 5, and the length of each scene is T11 to T15. The scene 2 has a sepia color, the scene 3 has a random effect, and a transition between the scenes 4 and 5 is added. The music is M2.
[0103]
Although illustration is omitted, such a scenario corresponds to the selection buttons 281-3 to 281-5 and is prepared in advance.
[0104]
In step S4, the shaker program 54D executes a process of storing when a loop is designated. That is, the user operates the loop button 282 on the premise that the scenario obtained by editing is repeatedly reproduced continuously. When this operation is performed, the shaker program 54D stores it in step S4.
[0105]
For example, the scenario corresponding to the selection button 281-1 is basically configured as shown in FIG. 28 (A), but when the loop button 282 is not operated (does not repeat repeatedly). More accurately, the scene is configured as shown in FIG. 29A, for example. That is, a fade-in portion SC1 'is formed at the beginning of the scene 1 (SC1), and a fade-out portion SC4' is formed in the last scene 4 (SC4). The music M1 also has a silent portion M1 'at the end.
[0106]
Therefore, when information edited based on the scenario configured as shown in FIG. 29A is repetitively reproduced, the result is as shown in FIG. 29B. That is, the reproduction is started by the fade-in part SC1 ', and after the scene 1, the scene 2, the scene 3, and the scene 4 are reproduced, the first reproduction is finished by the fade-out part SC4'. Subsequently, the reproduction of the image of the fade-in scene SC1 'is started again, scene 1, scene 2, scene 3, and scene 4 are reproduced, and the fade-out portion SC4' is displayed again. As for the music, the silent part M1 'is reproduced at the boundary part A between the first reproduction and the second reproduction. Therefore, the viewer can easily recognize that the reproduction has once ended at the boundary portion A.
[0107]
On the other hand, when the loop button 282 is further operated after the selection button 281-1 is selected, a scenario as shown in FIG. 29C is selected.
[0108]
This scenario is composed of four scenes, scene 1 to scene 4, but the beginning of scene 1 and the end of scene 4 are changed even if scene 1 is played after scene 4. For example, it is assumed that one scene has been completed although the scene changes as in the timing of switching between scene 1 and scene 2, or switching between scene 2 and scene 3, and switching between scene 3 and scene 4. The configuration is such that it is not recognized. That is, it is configured such that it can be recognized that the screen is simply switched.
[0109]
Similarly, even if the music M1 is continuously reproduced again from the beginning to the end of the music M1, the configuration is such that the scene is not recognized as being completed at that portion.
[0110]
As a result, as shown in FIG. 29D, even if the scenes 1 to 4 are continuously reproduced again after the scenes 1 to 4, the viewer can play the first time at the boundary portion A. When the reproduction is finished and the second reproduction is started, there is little possibility of intuitive recognition.
[0111]
As described above, the shaker program 54D corresponds to the selection buttons 281-1 to 281-5 and includes scenarios that are assumed not to be repeatedly reproduced continuously and scenarios that are assumed to be continuously repeated. There are two scenarios. When the loop button 282 is not operated, the former is selected, and when the loop button 282 is operated, the latter is selected.
[0112]
Next, in step S5, the shaker program 54D determines whether or not the shake button 285 has been operated. If the shake button 285 has not been operated, the process returns to step S1, and the subsequent processing is repeatedly executed. If it is determined that the shake button 285 has been operated, the process proceeds to step S6, and the shaker program 54D determines whether or not a loop has been designated, that is, whether or not the loop button 282 has been operated. When it is determined that the loop is designated, the process proceeds to step S7, and the shaker program 54D selects a scenario for the loop corresponding to the operated one of the selection buttons 281-1 to 281-5. On the other hand, if it is determined in step S6 that the loop is not designated, in step S8, the shaker program 54D selects the non-selected one corresponding to the selected one of the selection buttons 281-1 to 281-5. Select a scenario for the loop.
[0113]
After the processing of step S7 or step S8, the process proceeds to step S9, and the shaker program 54D assigns an ID (identification number) to each of the material clips 212 displayed on the material tray 201. In step S10, the shaker program 54D selects one of the material clips with a random number. In other words, one material clip is selected by randomly selecting one ID from the IDs assigned in step S9.
[0114]
In step S11, the shaker program 54D associates the material clip selected in the process of step S10 with one scene (in this case, the first scene) in the scenario selected in the process of step S7 or step S8. .
[0115]
In step S12, it is determined whether or not the process of associating the material clips with respect to all scenes has been completed. If it has not been completed yet, the process returns to step S10, and the subsequent processes are repeatedly executed. In this way, for example, predetermined material clips are associated with scene 1, scene 2, scene 3, and scene 4 shown in FIG.
[0116]
If it is determined in step S12 that the association processing for all scenes has been completed, the process proceeds to step S13, and the shaker program 54D selects one scene. For example, here, the first scene is selected. In step S14, the shaker program 54D determines whether or not the length of the scene selected in step S13 is shorter than the length of the material clip associated with the scene. When the length of the selected scene is shorter than the length of the associated material clip, the process proceeds to step S15, and the shaker program 54D determines a portion corresponding to the scene in the material clip with a random number. For example, if the length of the material clip is 5 seconds and the length of the corresponding scene is 1 second, which one second of the 5 seconds corresponds to the scene from 1 to 5. This number is determined by generating a random number.
[0117]
On the other hand, if it is determined in step S14 that the length of the selected scene is not shorter than the length of the associated material clip, the process proceeds to step S16, and the shaker program 54D sets the length of the material clip to the length of the scene. The extension process is executed to suit the size. For example, if the length of the material clip is 1 second and the length of the scene is 5 seconds, the length of the material clip is extended by 5 times (playing back at 1/5 times the speed) In other words, the length of the material clip corresponds to the length of the scene by performing slow motion playback.
[0118]
After the process of step S15 or step S16, the process proceeds to step S17, and the shaker program 54D determines whether or not an effect is designated for the scene in the scenario. For example, when the scene to be processed is the scene 1 in FIG. 28A, an animation effect is designated for the scene 1. In such a case, the process proceeds to step S18, and the shaker program 54D determines whether an effect has been determined. In other words, the effect is designated when the effect has already been determined as in the case of scene 1 in FIG. 28A, for example, in the case of scene 3 in FIG. 28B. As such, it may be specified as a random effect. In the case of a random effect, it is decided to add an effect, but it has not yet been decided which effect is applied. Accordingly, in such a case, the process proceeds to step S19, and the shaker program 54D generates a random number from, for example, 24 effects prepared in advance, and determines one effect.
[0119]
If it is determined in step S18 that the effect has already been determined, or if the effect has been determined in step S19, the process proceeds to step S20, and the shaker program 54D applies the material clip corresponding to the scene to the material clip. Correspond to the determined effect.
[0120]
If it is determined in step S17 that no effect is designated for the scene, the processing in steps S18 to S20 is unnecessary and is omitted.
[0121]
Next, in step S21, the shaker program 54D determines whether or not a transition is designated. If the transition is designated, the process proceeds to step S22, and the shaker program 54D sets a transition with the next material clip. As a result, for example, when the screen of the scene currently being processed and the screen of the next scene to be processed are switched, for example, the wipe effect as shown in FIG. 21 is applied and the screen is switched. become.
[0122]
If it is determined in step S21 that no transition is designated, the process in step S22 is unnecessary and is skipped.
[0123]
In step S23, the shaker program 54D determines whether text is captured. That is, as described above, when text shake is performed, in step S2, the target text is captured. In this case, the process proceeds to step S24, and the shaker program 54D randomly determines whether or not to shake the text in the scene currently being processed. In step S25, the shaker program 54D determines whether it has been determined to perform text shake. If it is determined that text shake has been determined, the process proceeds to step S26, where one text is selected from the captured text. Select at random. For example, as shown in FIG. 22, when three texts are captured, one of them is selected as corresponding to the scene that is currently processed.
[0124]
Next, in step S27, the shaker program 54D randomly determines the text insertion position. In this example, there are five text insertion positions, ie, the center, upper right, upper left, upper left, lower left, and lower right of the screen, and one position is randomly determined from these five positions.
[0125]
If it is determined in step S25 that the text shake is not performed, the processes in steps S26 and S27 are skipped. If it is determined in step S23 that no text has been captured, the processes in steps S24 to S27 are skipped.
[0126]
Next, in step S28, it is determined whether or not the processing for all scenes has been completed. If the processing for all scenes has not yet been completed, the processing returns to step S13, and the above-described processing is performed for the next scene. The same processing as in the case is executed.
[0127]
If it is determined in step S28 that the processing for all the scenes has been completed, the process proceeds to step S29, and the shaker program 54D displays an image corresponding to the edited scenario on the image track 301 of the output tray 291. At this time, the image of the first frame of each scene is displayed on the image display section 301A of the image track 301, and if there is a transition, the image corresponding to the transition (FIG. 19) is displayed on the transition display section 301B. ) Is displayed.
[0128]
The above process is schematically described as shown in FIG.
[0129]
That is, in this example, material clips CL1 to CL5 are designated as material clips. One scenario is determined by the operation of the selection button 281 designated by the user. In this example, this scenario is composed of n scenes SC1 to SCn. Of these, scene SC3 is color-adjusted in sepia, and scene SCn-1Is given a random effect, scene SCnThe sepia color adjustment is performed. Also, between scenes SC2 and SC3, between scenes SC3 and SC4, scene SCn-1And scene SCnIn between, a transition is formed. Scene SC1 is 2 seconds long, Scene SC2 is 2.2 seconds long, Scene SC3 is 4.0 seconds long, Scene SCn-3Is 1 second in scene SCn-1Is 5 seconds in scene SCnIs 3 seconds long. The music corresponding to this scene is also determined in advance. These are already prepared in advance by the shaker program 54D.
[0130]
On the other hand, the shaker program 54D randomly selects a predetermined one from the five material clips CL1 to CL5, and each scene SC1 to SC.nAssign to. And, for example, scene SCn-3If material clip CL5 is assigned to scene SCn-3Is 1 second, whereas the length of the material clip CL5 is 1 second or longer. Therefore, in this case, the portion of the length of 1 second between the time t2 and t3 selected at random among the playback time of the material clip CL5 from t1 to t4 is the scene SC.n-3Assigned to.
[0131]
In this way, the user can automatically obtain the image information subjected to the predetermined editing process only by designating the material clip. Since the assignment of the material clip is determined at random, even if the same material clip is selected, basically different editing results are obtained.
[0132]
When the playback button 231 is operated while the editing result is displayed on the output tray 291, the shaker program 54 </ b> D displays an image corresponding to the edited scenario (a scenario prepared in advance) as a playback screen 221. To display. Thus, the user can check the editing result.
[0133]
When the user operates the output button 304 after confirming on the reproduction screen 221, a window 401 as shown in FIG. 23 is displayed. The user can save information obtained as a result of editing in a predetermined format by selecting a predetermined item from the items displayed in the window 401.
[0134]
When “save as a normal movie” is selected, the shaker program 54D actually applies the editing information to the selected material clip and executes the rendering process. As a result, for example, an image with a predetermined effect is actually formed, and the image is stored in a designated storage medium (for example, the hard disk 67).
[0135]
However, the rendering process takes a relatively long time. On the other hand, when “simple save” is selected, the actual rendering process is not executed, and the material clip file selected as the editing target and the editing information (information as shown in FIG. 24) are stored. Saved. Therefore, the storage process can be completed in a shorter time compared to the rendering process.
[0136]
Note that the processing shown in the flowcharts of FIGS. 25 to 27 is not actual rendering processing, but only processing for creating editing information as shown in FIG. As a result, for example, a scenario having a length of 30 seconds can be edited in a short time of about 10 seconds at most.
[0137]
As shown in FIG. 7, the program for executing the above-described processing can be provided to the user in a state where it is preinstalled in a hard disk 67 as a recording medium built in the personal computer 1 or a ROM 70 as a semiconductor memory.
[0138]
Alternatively, the program is stored temporarily on a recording medium such as a magnetic disk 121 such as a floppy disk, an optical disk 122 such as a CD-ROM (Compact Disk-Read Only Disk), a magneto-optical disk 123 such as an MD, and a semiconductor memory 124. It can be stored permanently and provided as packaged software.
[0139]
Furthermore, the program is transferred from the download site to the personal computer 1 wirelessly via a digital satellite broadcasting artificial satellite, or to the personal computer 1 via a network such as a local area network or the Internet. In the personal computer 1, it can be stored in a built-in hard disk 67 or the like.
[0140]
The medium in this specification means a broad concept including all these media.
[0141]
Further, in this specification, the steps for describing the program provided by the medium may be performed in parallel or individually even if not necessarily performed in time series, as well as processes performed in time series in the order described. This includes the processing to be executed.
[0142]
In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0143]
【The invention's effect】
As described above, according to the information processing apparatus, the information processing method, and the program of the present invention, since predetermined information is selected from the image information and is made to correspond to the scene, the editing process can be performed quickly and easily. Can be done.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of a personal computer to which the present invention is applied.
FIG. 2 is a plan view showing an external configuration of a personal computer to which the present invention is applied.
FIG. 3 is a left side view showing an external configuration of a personal computer to which the present invention is applied.
FIG. 4 is a right side view showing an external configuration of a personal computer to which the present invention is applied.
FIG. 5 is a front view showing an external configuration of a personal computer to which the present invention is applied.
FIG. 6 is a bottom view showing an external configuration of a personal computer to which the present invention is applied.
7 is a block diagram illustrating an internal configuration example of the personal computer in FIG. 1; FIG.
8 is a diagram showing a display example of the LCD 21 in FIG. 1. FIG.
9 is a diagram showing a display example of a portion of the material tray in FIG. 8. FIG.
10 is a diagram showing a display example of an image captured from the CCD video camera of FIG.
11 is a diagram showing an example of an image file to be imported into the material tray of FIG.
12 is a diagram showing an example of trimming of the playback screen of FIG. 8. FIG.
13 is a diagram for explaining rearrangement of clips on the output tray in FIG. 8; FIG.
14 is a diagram showing a display example of a window when the volume button of FIG. 8 is operated.
15 is a diagram showing a display example of a window when the color tone button of FIG. 8 is operated.
16 is a diagram showing a display example when the playback speed button of FIG. 8 is operated.
17 is a view showing a display example of a text window of the special effect tray in FIG. 8. FIG.
18 is a view showing a display example of an effect window of the special effect tray in FIG. 8. FIG.
19 is a view showing a display example of a transition window of the special effect tray in FIG. 8. FIG.
20 is a diagram showing a display example when the output tray transition of FIG. 8 is applied. FIG.
FIG. 21 is a diagram illustrating a display example illustrating a wipe effect.
22 is a view showing a display example of a shaker window of the special effect tray of FIG. 8. FIG.
FIG. 23 is a diagram showing a display example of a window displayed when the output button of FIG. 8 is operated.
FIG. 24 is a diagram illustrating an example of simple save editing information.
FIG. 25 is a flowchart illustrating shaker processing.
FIG. 26 is a flowchart illustrating shaker processing.
FIG. 27 is a flowchart illustrating shaker processing.
FIG. 28 is a diagram for explaining a configuration of a scene.
FIG. 29 is a diagram for explaining the structure of a scene on the premise that continuous reproduction is repeated.
FIG. 30 is a diagram illustrating a shaker process.
[Explanation of symbols]
1 Personal computer, 9-1 and 9-2 Hinge, 54D, 57D Shaker program, 54E, 67E Capture program, 201 Material tray, 212 Material clip, 221 Playback screen, 231 Playback button, 241 Volume button, 242 Color button, 243 Playback speed button, 244 effect display button, 261 special effect tray, 271-1 to 271-4 tag, 281-1 to 281-5 selection button, 282 loop button, 283 text shake button, 291 output tray, 301 image track, 301A Image display section, 301B Transition display section, 302 BGM track

Claims (12)

少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶手段と、
選択された上記シナリオデータに基づいて、上記記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択手段と、
上記選択されたシナリオデータの各シーンそれぞれに、上記選択手段により選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け手段と
を備え、
上記対応付け手段は、上記動画像のうちのトリミングが指示された所定区間を上記シーンに対応させる
ことを特徴とする情報処理装置。
Storage means for storing a plurality of images including at least one moving image and a plurality of scenario data composed of a plurality of scenes;
Selection means for randomly selecting a plurality of images including at least one moving image stored in the storage means based on the selected scenario data;
Association means for associating each scene of the selected scenario data with a plurality of images including at least one moving image selected by the selection means;
With
The associating means associates a predetermined section of the moving image instructed for trimming with the scene.
An information processing apparatus characterized by that .
上記複数のシーンは、それぞれ異なる所定の長さである
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the plurality of scenes have different predetermined lengths.
上記シーンの長さに合わせて、上記対応付け手段で対応付けされた複数の上記画像を修正する修正手段を
さらに備えることを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a correction unit that corrects the plurality of images associated by the association unit according to the length of the scene.
上記シナリオデータに基づいて、上記対応付け手段で対応付けされた複数の上記画像を連続して再生する再生手段を
さらに備えることを特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, further comprising: a reproducing unit that continuously reproduces the plurality of images associated by the association unit based on the scenario data.
上記再生手段は、上記シーンに対応付けされた所定の特殊効果情報に基づいて、複数の上記画像に上記特殊効果情報を適用して再生する
ことを特徴とする請求項4に記載の情報処理装置。
5. The information processing apparatus according to claim 4, wherein the reproduction unit reproduces the special effect information applied to a plurality of the images based on predetermined special effect information associated with the scene. .
上記シーンに対して複数の特殊効果情報の中から対応付ける特殊効果情報を任意に決定する決定手段をさらに備え、
上記再生手段は、上記決定手段の決定結果に基づいて、複数の上記画像に上記特殊効果情報を適用して再生する
ことを特徴とする請求項4に記載の情報処理装置。
A decision means for arbitrarily determining special effect information associated with the scene from a plurality of special effect information;
The information processing apparatus according to claim 4, wherein the reproduction unit reproduces the special effect information applied to a plurality of the images based on a determination result of the determination unit.
上記対応付け手段は、繰り返し連続再生を前提とする第1のシナリオデータと、繰り返し再生を前提としない第2のシナリオデータのうち、ユーザからの指令に対応するシナリオデータを用いて上記選択された複数の画像の対応付けを行う
ことを特徴とする請求項1に記載の情報処理装置。
The association means is selected using the scenario data corresponding to the command from the user out of the first scenario data based on repeated continuous playback and the second scenario data not based on repeated playback. The information processing apparatus according to claim 1, wherein a plurality of images are associated.
上記記憶手段に記憶された、少なくとも一つの動画像であって、トリミングが指示された上記所定区間の部分の動画像を含む複数の画像を編集画像として登録する登録手段と、
編集対象である複数の上記画像に関する情報を一覧表示する画像情報表示手段と、
複数の上記シーンの順番に従って、上記対応付け手段で対応付けられた複数の上記画像に関する情報を並べて表示する出力情報表示手段と
をさらに備えることを特徴とする請求項1に記載の情報処理装置。
Registration means for registering a plurality of images, which are at least one moving image stored in the storage means, including a moving image of a portion of the predetermined section instructed to be trimmed, as an edited image;
Image information display means for displaying a list of information on the plurality of images to be edited;
The information processing apparatus according to claim 1, further comprising: an output information display unit configured to display information related to the plurality of images associated by the association unit side by side in accordance with an order of the plurality of scenes.
上記選択されたシナリオデータを構成する各シーン、およびそれらの上記シーンに対応付けされた所定の特殊効果情報を特定するための編集情報と、上記選択されたシナリオデータの各シーンに対応付けされた複数の画像とを上記記憶手段に記憶させる保存制御手段をさらに備える
ことを特徴とする請求項1に記載の情報処理装置。
Editing scenes for specifying the scenes constituting the selected scenario data, and predetermined special effect information associated with the scenes, and the scenes of the selected scenario data The information processing apparatus according to claim 1, further comprising storage control means for storing a plurality of images in the storage means.
上記選択されたシナリオデータに基づいて、上記対応付けされた複数の画像に、上記選択されたシナリオデータの各シーンに対応付けされた上記特殊効果情報により特定される特殊効果を適用して、上記特殊効果が適用された上記複数の画像を連続して再生させるための画像データを生成する生成手段をさらに備え、
上記保存制御手段は、ユーザの指示に応じて、上記編集情報および上記複数の画像、または上記画像データの何れかを上記記憶手段に記憶させる
ことを特徴とする請求項9に記載の情報処理装置。
Based on the selected scenario data, applying the special effect specified by the special effect information associated with each scene of the selected scenario data to the plurality of associated images, A generating unit that generates image data for continuously reproducing the plurality of images to which the special effect is applied;
The information processing apparatus according to claim 9, wherein the storage control unit stores the editing information and the plurality of images or the image data in the storage unit in accordance with a user instruction. .
記憶手段が少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶ステップと、
選択された上記シナリオデータに基づいて、上記記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択ステップと、
上記選択されたシナリオデータの各シーンそれぞれに、上記選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け処理ステップと
を含み、
上記対応付け処理ステップにおいて、上記動画像のうちのトリミングが指示された所定区間を上記シーンに対応させる
ことを特徴とする情報処理方法。
A storage step in which the storage means stores a plurality of images including at least one moving image and a plurality of scenario data composed of a plurality of scenes;
A selection step of randomly selecting a plurality of images including at least one moving image stored in the storage unit based on the selected scenario data;
An association processing step of associating a plurality of images including at least one selected moving image with each of the scenes of the selected scenario data;
Including
In the association processing step, a predetermined section instructed to be trimmed in the moving image is associated with the scene.
An information processing method characterized in that.
記憶手段が少なくとも一つの動画像を含む複数の画像と、複数のシーンで構成される複数のシナリオデータとを記憶する記憶ステップと、
選択された上記シナリオデータに基づいて、上記記憶手段に記憶された少なくとも一つの動画像を含む複数の画像をランダムに選択する選択ステップと、
上記選択されたシナリオデータの各シーンそれぞれに、上記選択された少なくとも一つの動画像を含む複数の画像を対応させる対応付け処理ステップと
を含む処理をコンピュータに実行させ、
上記対応付け処理ステップにおいて、上記動画像のうちのトリミングが指示された所定区間を上記シーンに対応させる
ことを特徴とするコンピュータが読み取り可能なプログラムが格納されているプログラム格納媒体。
A storage step in which the storage means stores a plurality of images including at least one moving image and a plurality of scenario data composed of a plurality of scenes;
A selection step of randomly selecting a plurality of images including at least one moving image stored in the storage unit based on the selected scenario data;
An association processing step of associating a plurality of images including at least one selected moving image with each of the scenes of the selected scenario data;
Causes the computer to execute processing including
In the association processing step, a predetermined section instructed to be trimmed in the moving image is associated with the scene.
Program storage medium having computer-readable program is stored, characterized in that.
JP2001000272A 2000-01-26 2001-01-05 Information processing apparatus and method, and program storage medium Expired - Lifetime JP4446140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001000272A JP4446140B2 (en) 2000-01-26 2001-01-05 Information processing apparatus and method, and program storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-16613 2000-01-26
JP2000016613 2000-01-26
JP2001000272A JP4446140B2 (en) 2000-01-26 2001-01-05 Information processing apparatus and method, and program storage medium

Publications (3)

Publication Number Publication Date
JP2001285784A JP2001285784A (en) 2001-10-12
JP2001285784A5 JP2001285784A5 (en) 2008-02-07
JP4446140B2 true JP4446140B2 (en) 2010-04-07

Family

ID=26584158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001000272A Expired - Lifetime JP4446140B2 (en) 2000-01-26 2001-01-05 Information processing apparatus and method, and program storage medium

Country Status (1)

Country Link
JP (1) JP4446140B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060120623A1 (en) * 2003-08-11 2006-06-08 Matsushita Electric Industrial Co., Ltd. Of Osaka, Japan Photographing system and photographing method
US20050206751A1 (en) 2004-03-19 2005-09-22 East Kodak Company Digital video system for assembling video sequences
JP4665793B2 (en) 2006-02-20 2011-04-06 株式会社ニコン Moving image file generation program and electronic camera
JP4424389B2 (en) 2007-08-24 2010-03-03 ソニー株式会社 Movie creation device, movie creation method, and program
JP4596060B2 (en) 2008-08-29 2010-12-08 ソニー株式会社 Electronic device, moving image data section changing method and program
JP2011193386A (en) * 2010-03-16 2011-09-29 Toshiba Corp Electronic apparatus and image processing method
JP5941867B2 (en) * 2013-04-11 2016-06-29 株式会社ランディード Image playback system

Also Published As

Publication number Publication date
JP2001285784A (en) 2001-10-12

Similar Documents

Publication Publication Date Title
US7085995B2 (en) Information processing apparatus and processing method and program storage medium
US11301113B2 (en) Information processing apparatus display control method and program
US7797620B2 (en) Information processing apparatus and processing method, and program storage medium
JPH11341350A (en) Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
JP4305971B2 (en) Information processing apparatus and method, and recording medium
JP4892074B2 (en) Electronic device, image output method and program
JP4446140B2 (en) Information processing apparatus and method, and program storage medium
JP5110706B2 (en) Picture book image reproduction apparatus, picture book image reproduction method, picture book image reproduction program, and recording medium
JP5044503B2 (en) Effect image playback device, effect image playback method, effect image playback program, and recording medium
JP2005044409A (en) Information reproducing device, information reproducing method, and information reproducing program
JP2003046935A (en) Data editing method, information processor, server, data editing program and recording medium
JP2006338779A (en) Content dividing device, content restoring device, and content dividing method, content restoring method, and program therefor
JP4336511B2 (en) Data transfer device, data transfer system, and program
JP2005020202A (en) Reproduction apparatus, reproduction method, and recording medium and program for them
JP3873542B2 (en) Recording apparatus and recording method
JP2003272361A (en) Information recording and reproducing device, program, and computer-readable recording medium
JP2003122607A (en) Image information preserving device
JP2004343471A (en) Reproduction information file creating program
JPH10257438A (en) Program information reproducing method
KR20070005918A (en) Optical disc, player for the optical disc and its play back method
JP2001202378A (en) Device and method for processing data and storage medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20091202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4446140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term