JP2006109211A - 動画合成装置 - Google Patents

動画合成装置 Download PDF

Info

Publication number
JP2006109211A
JP2006109211A JP2004294778A JP2004294778A JP2006109211A JP 2006109211 A JP2006109211 A JP 2006109211A JP 2004294778 A JP2004294778 A JP 2004294778A JP 2004294778 A JP2004294778 A JP 2004294778A JP 2006109211 A JP2006109211 A JP 2006109211A
Authority
JP
Japan
Prior art keywords
video
composition
input
moving image
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004294778A
Other languages
English (en)
Inventor
Kiyoji Honda
廉治 本田
Kinichi Motosaka
錦一 本坂
Masahiro Muikaichi
正弘 六日市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004294778A priority Critical patent/JP2006109211A/ja
Publication of JP2006109211A publication Critical patent/JP2006109211A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】動画像の合成時に、編集操作なしに動画の合成を行なう動画合成装置を提供すること。
【解決手段】合成用動画記憶部114に格納されている合成用動画ファイル103は、入力映像に付加する映像効果の制御を示す入力映像制御情報105と、入力映像制御情報105の映像効果を付加するタイミングを示す同期情報104と、入力映像と合成する合成用映像106を有し、入力映像制御情報105と同期情報104を解析する入力映像制御情報解析部107と、入力映像制御情報解析部107から取得した同期情報104を入力映像に付加し、入力映像制御情報105に従って効果を付加する入力映像効果・同期情報付加部102と、同期情報104と合成用映像106の解析を行い同期合成部109へ送る合成用映像制解析御部108と、入力映像と合成用映像を同期情報104を用いて合成する同期合成部109を備える。
【選択図】図1

Description

本発明は動画編集技術、特に、動画の合成や編集を行なう動画合成装置に関するものである。
従来、放送などの分野では、コンピュータやハードディスク等からなるノンリニア編集装置が用いられている。従来のノンリニア編集装置では、編集に先立って編集の対象となる複数の映像や音声を表すデータが蓄積されており、複数の映像を並べる順序や複数の映像に対する効果(エフェクト処理、合成処理など)等をユーザが指定することにより映像編集情報を作成し、蓄積された各データを、映像編集情報に基づいて放送内容等に合わせた編集を行なっている(例えば、特許文献1参照)。
更に、詳細に説明すると、従来例のノンリニア編集装置では、編集に先立って、編集の対象となる映像、音声を表す蓄積データが所定のフォーマット(例えば、DVCPRO、MPEG規格等に準拠するフォーマット)で蓄積されている。ユーザは、複数の映像を並べる順序や複数の映像接続方法等を指定し、これらの指示に応じて映像編集情報が作成される。作成された映像編集情報に基づいて、蓄積されている蓄積データの中から必要となる映像音声蓄積データの読み出しが指示され、映像(及び、この映像に伴う音声。以下同様)に映像効果(及び音声効果、映像効果又は音声効果を特殊効果と呼ぶ)が加えられることで映像が編集される。編集後の映像は、画面に表示され、また、ビデオデッキにセットされた磁性テープに記録され、磁気テープに記録された映像が放送等に用いられることとなる。
映像効果の追加や合成については、例えば、各々が映像をデコードすることのできる2台のデコーダ、及び、デコードされた映像に処理を施すための映像音声合成部を含んでおり、1台のデコーダにてデコードされた1本の映像に対して色変更処理、モザイク処理や、フェードイン、フェードアウト等の画面の切り替え効果を付加する処理(エフェクト処理)を施し、また、2台のデコーダにて並列にデコードされた2本の映像に対して、ワイプ方式(ある表示画面に対して右から左へ、又は上から下へと他の表示画面を重ねることにより表示画面を切り替える方式)、ディゾルブ方式(ある表示画像から他の表示画像へと順次濃度を変えていくことにより表示画像を切り替える方式)などの画面切り替え効果を付加する処理(エフェクト処理)に伴う映像の合成、ピクチャ・イン・ピクチャ(ある映像上に縮小されたほかの映像をはめ込むこと)による映像の合成がなされる。
特開2002−232827号公報
しかしながら、前記従来の技術では、編集対象の映像を一旦画面に表示し、ユーザが表示中の映像を確認しながら各指示を入力指定する編集操作を行なう必要があった。そのため、組み込み機器等でその場で気軽に合成効果を付加することはできなかった。
本発明は、前記従来の課題を解決するもので、合成時のユーザによる編集作業をなくし、動画同士を合成しつつ、合成する動画に合わせた特殊効果を付加するといった機能を提供することを目的とする。
前記従来の課題を解決するために、本発明の動画合成装置は、複数の映像を合成処理する動画合成装置であって、合成する映像のうち1つを入力する映像入力手段と、同期情報と入力映像制御情報と合成用映像を有する合成用動画ファイルを取得する合成用動画取得手段と、前記合成用動画ファイルの前記入力映像制御情報と前記同期情報を解析する入力映像制御情報解析手段と、前記映像入力手段からの入力映像に、合成時に複数の映像を同期させるために使用する前記同期情報を付加する入力映像効果・同期情報付加手段と、前記同期情報が付加された入力映像と前記合成用動画ファイルの合成用映像を、前記同期情報に基づいて合成する同期合成手段とを備え、合成用動画ファイルの内容に従って動画合成の処理をおこなう。
本構成によって、合成時の編集操作がなくなり、前もって用意する合成する動画と合成する映像を入力することにより、2つの動画を合成しつつ映像に合わせた特殊効果を付加するといった機能を提供することができる。
本発明の動画合成装置によれば、ビデオカメラなどリアルタイムの映像を入力する機器において、リアルタイムに入力される動画に対し、編集操作なしに、入力したその場で動画同士の合成を行い、効果を付加できるようになる。
また、本発明の動画合成装置によれば、動画入力より前もって映像効果の制御情報を生成することにより、同じ制御情報を用いることが可能となり、同じ規則に従った複数の映像を出力することが可能となる。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における動画合成装置の構成図である。まず、図1の構成要素について説明する。
図1において、映像入力部101は、合成する映像のうちの1つを入力する。
合成用動画記憶部114は、合成用動画ファイルを記憶および管理を行う。
合成用動画ファイル103は、合成用動画記憶部114に格納されており、映像入力部101から入力される入力映像に付加する映像効果の制御を示す入力映像制御情報105と、入力映像制御情報105の映像効果を合成用動画のどのタイミングで入力映像に付加するかということをはかるための同期情報104と、入力映像と合成する合成用映像106を有している。入力映像制御情報105は、例えば、videoに付加する効果の種類としては、モザイク、フェード、ネガポジ、セピア、ソラリ、ストレッチ、パステルのようなデジタル効果と、ワイプ、ピクチャ・イン・ピクチャ、ディゾルブ処理等の特殊効果がある。また、audioに付加する効果の種類としては、エコー、空間演出を行うリバーブ、グラフィックイコライザを利用した音響効果等がある。また、合成用動画ファイル103に含まれる合成用映像106は、映像データそのものであってもよいし、対象の映像データを識別するための識別子や格納位置(アドレスなど)を示す情報であってもよい。また、ここでは、合成用動画記憶部114に格納されているとしたが、合成用動画ファイルを外部から取得するよう構成してもよい。
操作部113は、合成用動画記憶部114から入力映像と合成する合成用動画ファイルを選択する機能と、合成の開始・停止を指示する機能を有する。例えば、ユーザがボタンやキーを入力操作することにより指示を決定し、決定した指示を受け取って対応する処理を実施する。
入力映像制御情報解析部107は、操作部113からの指示を受け取り、合成用動画記憶部114に記憶されている合成用動画ファイル103から入力映像制御情報105と同期情報104を取得し、取得した入力映像制御情報105と同期情報104を解析する。
合成用映像制解析御部108は、操作部113からの指示を受け取り、合成用動画記憶部114に記憶されている合成用動画ファイル103から同期情報104と合成用映像106を取得し、取得した同期情報104と合成用映像106の解析を行い、同期合成部109へ送る。
入力映像効果・同期情報付加部102は、映像入力部101から受け取った入力映像に対して、入力映像制御情報解析部107により得られる同期情報104を付加し、入力映像制御情報105に従ってデジタル効果または特殊効果等の映像編集を行う。
同期合成部109は、同期情報104を有する入力映像と、同期情報104を有する合成用映像を、同期情報104を利用して合成して、合成した動画を出力する。
動画記録部110は、同期合成部109が合成した動画を受け取り、動画ファイルとして動画記憶部111へと記憶する。
動画再生部112は、同期合成部109が合成した動画を受け取り、動画ファイルとして再生を行なう。
以上により、映像入力部101から入力される入力映像を、前もって記憶されている合成用映像106と合成して、記録または再生することが可能となる。
図2は、本発明の実施の形態1における動画合成出力のフローチャートである。図2に従い、本発明の動画合成方法を説明する。なお、既に映像入力部101は、外部から映像の入力中であり、合成用動画ファイルを選択して動画合成処理を開始した場合の一例である。合成用動画ファイルを選択した後で、外部からの映像入力を開始し、そのタイミングに合わせて動画合成処理を開始してもよい。
まず、合成用動画ファイル指定のステップ201において、操作部113は、合成用動画記憶部114から合成用動画ファイル103を選択する。
次に合成用動画入力のステップ202において、操作部113は、入力映像制御情報解析部107と合成用映像解析制御部108と同期合成部109に合成の開始を通知する。開始が通知された入力映像制御情報解析部107と合成用映像解析制御部108は、合成用動画記憶部114から選択された合成用動画ファイル103を取得する。
次に解析のステップ203において、入力映像制御情報解析部107は、取得した合成用動画ファイル103の解析を行い、同期情報104と入力映像制御情報105を抽出する。
映像解析制御のステップ204において、合成用映像解析制御部108は、取得した合成用動画ファイル103のから同期情報104と合成用映像106を抽出して解析を行い、同期制御部109に通知する。
同期情報・効果付加ステップ205において、入力映像効果・同期情報付加部102は、解析のステップ203の結果得られる同期情報104を映像入力に付加し、入力映像制御情報105をもとに入力映像に対してデジタル効果または特殊効果等の映像編集を行なう。videoに付加する効果の種類としては、モザイク、フェード、ネガポジ、セピア、ソラリ、ストレッチ、パステルのようなデジタル効果と、ワイプ、ピクチャ・イン・ピクチャ、ディゾルブ処理等の特殊効果がある。また、audioに付加する効果の種類としては、エコー、空間演出を行うリバーブ、グラフィックイコライザを利用した音響効果等がある。
合成のステップ206において、同期合成部109は、入力映像効果・同期情報付加部102と合成用映像解析制御部108から受け取ったそれぞれの動画に付加された同期情報を利用して、これら2つの動画を合成する。合成技術に関しては一般的なクロマキーによる手法がある。一例として、合成用映像106において入力映像を表示したい領域をキー色で設定し、その領域に入力映像を重ねることで合成を行なう。また、同期情報104に基づいた合成用映像106の位置を確認し、終端であれば始端に戻るといった合成用映像106の読み込み制御を行うことにより、合成用動画ファイルよりも長い時間記録する場合などに、動画ファイルを繰り返して使用することにより、入力映像の長さに合わせて、任意の時間、動画を合成することで可能となる。
合成動画出力のステップ207において、同期合成部109が合成処理した動画を出力する。動画記録部110は、同期合成部109から合成動画を受け取り、動画記憶部111へと記憶する。また、動画再生部112は、同期合成部109から合成動画を受け取り、再生出力を行なう。なお、動画記録部110と動画再生部112の両方が処理を行うとしたが、どちらか一方のみが合成動画を受け取って、処理を行ってもよい。
終了判定のステップ208において、操作部113は、合成動画の出力を終了するか判定制御を行う。操作部113は、ユーザから終了が指示されると、合成処理終了と判定し(ステップ208がYES)、同期合成部109に合成の終了を指示することで、合成処理を終了する。一方、ユーザからの終了指示がなければ(ステップ208がNO)、ステップ205に遷移し、動画の合成を継続する。
なお、本実施の形態1では合成停止時に操作部113が同期合成部109に対して停止指示をするようにしていたが、操作部113が入力映像効果・同期情報付加部102と入力映像制御情報解析部107と合成用映像解析制御部108に停止を通知することにより、合成用動画103を解析し同期情報104を読み取ったところまでを完全に合成して停止することもできる。同じく、操作部113が動画記録部110や動画再生部112に指示すれば、即時に記録を停止したり、再生を停止することもできる。
かかる構成によれば、前もって合成用動画ファイルを準備しておくことで、合成時における動画合成のための編集作業を合成する動画の選択と合成開始・停止の指示のみで行うことができる。
(実施の形態2)
図3は、本発明の実施の形態2における動画合成装置の構成図である。まず、図3の構成要素について説明する。
図3において、映像入力部301は、合成する映像のうちの1つを入力する。
合成用動画ファイル304は、合成用動画記憶部318に格納されており、映像入力部301から入力される入力映像に付加する映像効果の制御を示す入力映像制御情報306と、入力映像制御情報105の映像効果を合成用動画のどのタイミングで入力映像に付加するかということをはかるための同期情報305と、入力映像と合成する合成用映像307と、繰り返し再生等の合成用映像307に対する制御情報である合成用映像制御情報308を有している。入力映像制御情報306は、例えば、videoに付加する効果の種類としては、モザイク、フェード、ネガポジ、セピア、ソラリ、ストレッチ、パステルのようなデジタル効果と、ワイプ、ピクチャ・イン・ピクチャ、ディゾルブ処理等の特殊効果がある。また、audioに付加する効果の種類としては、エコー、空間演出を行うリバーブ、グラフィックイコライザを利用した音響効果等がある。また、合成用動画ファイル304に含まれる合成用映像307は、映像データそのものであってもよいし、対象の映像データを識別するための識別子や格納位置(アドレスなど)を示す情報であってもよい。
操作部316は、合成用動画記憶部114から入力映像と合成する合成用動画ファイルを選択する機能と、合成の開始・停止を指示する機能を有する。例えば、ユーザがボタンやキーを入力操作することにより指示を決定し、決定した指示を受け取って対応する処理を実施する。
合成用映像制御情報解析部302は、入力映像の既存の画像解析手法によりビデオ・オーディオの成分分析といった解析処理を行い、合成用動画ファイルを制御するための情報、例えば、入力映像の音量や輝度の調整などを抽出する。
入力映像制御情報解析部309は、操作部113からの指示を受け取り、合成用動画記憶部318に記憶されている合成用動画ファイル304から、入力映像制御情報306と同期情報305を取得し、取得した入力映像制御情報306と同期情報305を解析する。
入力映像効果・同期情報付加部303は、映像入力部301から受け取った入力映像に対して、入力映像制御情報解析部309により得られる同期情報305を付加し、更に、入力映像制御情報309から得られる入力映像制御情報306に従い、デジタル効果または特殊効果等の映像編集を行う。
合成用映像解析制御部310は、操作部113からの指示を受け取り、合成用動画記憶部318に記憶されている合成用動画ファイル304から同期情報305と合成用映像307と合成用映像制御情報308を取得し、取得した合成用映像制御情報308を解析し、解析結果に基づき合成用映像307のどの部分を合成するかを決定し、合成用効果付加部311に決定した映像と同期情報305を送信する。
合成用映像効果付加部311は、合成用映像解析制御部310から受け取った映像に対して、合成用映像制御情報解析部302が抽出した制御情報をもとに、音量調整や輝度調整といった制御を行う。例えば、抽出した入力映像の輝度に応じて、合成用映像の対応する映像の輝度を調整したり、入力映像の音量に応じて、合成用映像の音量を調整するなどを行う。
同期合成部312は、入力映像効果・同期情報付加部303から通知される入力映像と、合成用映像効果負株311から通知される合成用映像を、同期情報305を利用して合成して、合成した動画を出力する。
動画記録部313は、同期合成部312が合成した動画を受け取り、動画ファイルとして動画記録部314へ記録する。
動画再生部315は、同期合成部312が合成した動画を受け取り、動画ファイルとして再生を行なう。
以上により、映像入力部301から入力される入力映像を、前もって記憶されている合成用映像307と合成する際に、入力映像の輝度や音量などの情報や合成用映像制御情報を用いることにより、合成用映像の調整した後で、入力映像の合成を行なうことが可能となる。
図4は、本発明の実施の形態2における動画合成記録のフローチャートである。図4に従い、本発明の動画合成方法を説明する。なお、既に映像入力部301は、外部から映像の入力中であり、合成用動画ファイルを選択して動画合成処理を開始した場合の一例である。
まず、合成用動画指定のステップ501において、操作部316は、合成用動画記憶部318から合成用動画ファイル304を選択する。
次に、合成用動画入力502において、操作部316は、入力映像制御情報解析部309と合成用映像解析制御部310と同期合成部312と合成用映像制御情報解析部302に合成の開始を通知する。開始が通知された入力映像制御情報解析部309と合成用映像解析制御部310は、合成用動画記憶部318から選択された合成用動画ファイル304を取得する。
次に解析のステップ503において、入力映像制御情報解析部309は、取得した合成用動画ファイル304の解析を行い、同期情報305と入力映像制御情報306を抽出する。
映像解析制御のステップ504において、合成用映像解析制御部310は、取得した合成用動画ファイル304から同期情報305と合成用映像307を抽出して解析を行い、合成用映像付加部311に通知する。なお、図6に示すように、合成用動画ファイル304内に、合成用映像制御情報308を有することで、この制御方法を記述して合成用映像解析制御部310で解析制御を行ってもよい。図6の説明は、後述する。
同期情報・効果付加のステップ505において、入力映像効果・同期情報付加部303は、入力映像制御情報付加部309により得られる同期情報305を映像入力に付加し、入力映像制御情報306をもとに入力映像に対してデジタル効果または特殊効果等の映像編集を行なう。効果の種類には、モザイク付加、フェード効果、ネガポジ反転、セピア処理のようなデジタル効果と、ワイプ、ピクチャ・イン・ピクチャ、ディゾルブ処理等の特殊効果がある。
解析のステップ506において、合成用映像制御情報解析部302は、入力映像301に対して、既存の画像解析手法によりビデオ・オーディオの成分分析といった解析処理を行い、音量や輝度の調整など合成用動画ファイルを制御する情報を抽出し、合成用映像効果付加部311に通知する。
効果付加のステップ507において、合成用映像効果付加部311は、合成用映像制御情報解析部302の解析結果を受け取り、受け取った結果に基づき効果を付加する。この効果付加は、入力映像の輝度が高ければ、合成用映像の対応する映像の輝度を調整すること。入力映像の音量が高ければ、合成用映像の音量を調整するなどである。
合成のステップ508において、合成制御部312は、入力映像効果・同期情報付加部303と合成用映像効果付加部311から受け取ったそれぞれの映像に付加されている同期情報を利用して、これら2つの動画の同期をとり、フレームの合成を行う。
合成動画出力のステップ509において、同期合成部312が合成処理した動画を出力する。動画記録部313は、同期合成部312から合成動画を受け取り、動画記憶部314へと記憶する。また、動画再生部315は、同期合成部312から合成動画を受け取り、再生出力を行なう。なお、動画記録部313と動画再生部315の両方が処理を行うとしたが、どちらか一方のみが合成動画を受け取って、処理を行ってもよい。
入力停止判断のステップ510において、操作部316は、映像入力部301からの入力映像の入力を停止するかの判定制御を行なう。操作部316は、ユーザから停止が指示されると、入力停止を判定し(ステップ510がYes)、同期合成部312に入力の停止を指示することで、入力映像停止時間を決定し、映像入力部301からの映像の使用を停止する(ステップ511)。
終了判定のステップ512において、同期合成部312は、合成用映像制御情報308、または、操作部316からの終了指示に基づいて、合成処理終了と判定し(ステップ512がYES)、同期制御部312に合成の終了を指示することで、合成処理を終了する。一方、合成処理を終了しない場合(ステップ512がNO)、ステップ505に遷移し、動画の合成を継続する。
図5、図6および図7を使用して、具体的に合成処理について説明する。
図5は、合成用映像307の構成の一例を示している。図5において、stream(a)621、stream(b)622、stream(c)623は、合成用映像307を構成する3つの映像である。同期情報601、602、603は、それぞれstream(a)の先頭から5(s)後、stream(b)の先頭から10(s)後、stream(b)の先頭から2(s)後の同期情報である。合成用映像制御情報611、612、613は、それぞれstream(a)の先頭から5(s)後、stream(b)の先頭から10(s)後、stream(b)の先頭から2(s)後の合成用映像制御情報である。
図6は、図5の合成用映像630に対応する合成用映像制御情報701の記述内容である。合成用映像制御情報701において、再生順序および繰り返し制御に関する指定を合成制御情報701のように記述しておき、合成用映像解析制御部310において、合成制御情報308(701)を参照し、記録開始からstream(a)の終了まで(30秒間)はstream(a)を合成用映像として使用する。次に入力映像が停止するまではstream(b)を合成映像として繰り返し使用する。最後に入力映像停止後にエンディングなどの用途にstream(c)を合成(挿入)指定することができる。なお、次映像への移行要因としてユーザがボタンを押すなど操作部301からの操作により合成映像の開始を指定してもよい。
図4のステップ505における効果付加について、図5で示す合成用映像を利用して説明する。合成開始後5秒の位置での効果は映像のaudio、videoともに80%の割合でfade効果を付加するという処理を実行する。合成を続け、合成開始後40秒の位置では、入力映像の画面サイズをL×Mとした座標系を想定して、x=1/2×L、y=1/5×Mの位置を始点とする幅1/4×L、高さ1/8×Mの矩形領域にモザイク処理を行うという指定である。図7はこのときの入力映像のどの領域に対してエフェクトを付加するのかを示した画面イメージである。
また、図4のステップ511で入力停止した後、出力を継続する場合(ステップ512がNo)について、図5で示す合成用映像を用いて説明する。入力停止指示以降なので、stream(c)の合成用映像制御情報が参照される。入力停止指示から2(s)後の同期情報は603に対応し、合成用映像制御情報は613に対応する。合成用映像制御情報701を参照し、合成停止指示後の挿入するように指定されている映像を合成するように指定する。合成用映像効果付加部311は、同期情報および合成用映像制御情報に従い、エフェクトを付加する。また、同期合成部312は、入力映像の映像が無いため、合成用映像のみを合成(挿入)することになる。合成用映像630の映像stream(c)623の終端まで繰り返した後に、出力終了判断512において、yesの分岐に進み記録を停止する。
なお、本実施の形態では、合成用映像制御情報は映像の1フレームに対して1つ指定しているが、全区間または開始時刻と終了時刻を指定することにより、区間指定してもよい。
かかる構成によれば、前もって合成用動画ファイルを準備しておくことで、合成時における動画合成のための編集作業を合成する動画の選択と合成開始・停止の指示のみで行うことができる。また、入力映像の変化に応じて、合成用映像の色合いや音量の微調整など、合成用映像の調整ができる。
本発明にかかる動画合成装置は、前もって準備した合成用動画ファイルに基づいて動画合成を行なうことができ、ムービー記録・再生機などのAV機器等に有用である。また、携帯電話やPCなど映像編集機能を有する機器などの用途にも応用できる。
本発明の実施の形態1における動画合成装置の構成図 本発明の実施の形態1における動画合成装置の動画合成出力処理の一例を示すフローチャート 本発明の実施の形態2における動画合成装置の構成図 本発明の実施の形態2における動画合成装置の動画合成出力処理の一例を示すフローチャート 本発明の実施の形態2における合成用動画ファイルの一例を示す図 本発明の実施の形態2における合成用映像制御情報の記述例を示す図 本発明の実施の形態2における映像効果付加の領域指定の画面イメージを示す図
符号の説明
101 映像入力部
102 入力映像効果・同期情報付加部
103 合成用動画ファイル
104 同期情報
105 入力映像制御情報
106 合成用映像
107 入力映像制御情報解析部
108 合成用映像解析制御部
109 同期合成部
110 動画記録部
111 動画記憶部
112 動画再生部
113 操作部
301 映像入力部
302 合成用映像制御情報解析部
303 入力映像効果・同期情報付加部
304 合成用動画ファイル
305 同期情報
306 入力映像制御情報
307 合成用映像
308 合成用映像制御情報
309 入力映像制御情報解析部
310 合成用映像解析制御部
311 合成用映像効果付加部
312 同期合成部
313 動画記録部
314 動画ファイル
315 動画再生部
316 操作部
318 合成用動画記憶部
601 同期情報
602 同期情報
603 同期情報
611 合成用映像制御情報
612 合成用映像制御情報
613 合成用映像制御情報
621 合成用映像601を構成する映像stream(a)
622 合成用映像601を構成する映像stream(b)
623 合成用映像601を構成する映像stream(c)
630 合成用映像
701 合成用映像制御情報

Claims (5)

  1. 複数の映像を合成処理する動画合成装置であって、
    合成する映像のうち1つを入力する映像入力手段と、
    同期情報と入力映像制御情報と合成用映像を有する合成用動画ファイルを取得する合成用動画取得手段と、
    前記合成用動画ファイルの前記入力映像制御情報と前記同期情報を解析する入力映像制御情報解析手段と、
    前記映像入力手段からの入力映像に、合成時に複数の映像を同期させるために使用する前記同期情報を付加する入力映像効果・同期情報付加手段と、
    前記同期情報が付加された入力映像と前記合成用動画ファイルの合成用映像を、前記同期情報に基づいて合成する同期合成手段とを備えた動画合成装置。
  2. 前記合成用動画ファイルの合成用映像を解析し、解析結果に基づき合成用映像を制御する合成用映像解析手段を備えることを特徴とする請求項1記載の動画合成装置。
  3. 前記合成用動画ファイルを1つ以上記憶する合成用動画記憶手段と、
    前記合成用動画記憶手段に記憶されている前記合成用動画ファイルを選択する選択手段を備えたことを特徴とする請求項2記載の動画合成装置。
  4. 前記合成用動画ファイルは、合成用映像制御情報を更に備え、
    前記合成用映像解析制御手段は、前記合成用動画ファイルの前記合成用映像制御情報を解析し、解析結果に基づき合成用映像を制御することを特徴とする請求項3記載の動画合成装置。
  5. 入力映像を解析する合成用映像制御情報解析手段と、
    前記合成用映像制御情報解析手段により得られた解析結果に基づき合成用映像を制御する合成用映像効果付加手段を備えたことを特徴とする請求項4記載の動画合成装置。
JP2004294778A 2004-10-07 2004-10-07 動画合成装置 Pending JP2006109211A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004294778A JP2006109211A (ja) 2004-10-07 2004-10-07 動画合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294778A JP2006109211A (ja) 2004-10-07 2004-10-07 動画合成装置

Publications (1)

Publication Number Publication Date
JP2006109211A true JP2006109211A (ja) 2006-04-20

Family

ID=36378390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294778A Pending JP2006109211A (ja) 2004-10-07 2004-10-07 動画合成装置

Country Status (1)

Country Link
JP (1) JP2006109211A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017538331A (ja) * 2014-10-28 2017-12-21 ゼットティーイー コーポレーションZte Corporation ビデオキャプチャの処理方法、システム及び装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017538331A (ja) * 2014-10-28 2017-12-21 ゼットティーイー コーポレーションZte Corporation ビデオキャプチャの処理方法、システム及び装置
US10289914B2 (en) 2014-10-28 2019-05-14 Zte Corporation Method, system, and device for processing video shooting

Similar Documents

Publication Publication Date Title
US9025936B2 (en) Video processing apparatus, method of adding time code, and methode of preparing editing list
JP2006157893A (ja) 撮像装置
US20120237178A1 (en) Scenario editing apparatus and scenario editing method, image capturing apparatus and control method thereof, and scenario editing system
JP5214730B2 (ja) 合成装置および合成方法
JP4330968B2 (ja) 再生装置、記録装置、再生プログラム、及び再生プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4973935B2 (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
JP2008283708A (ja) 再生装置
JP2006109211A (ja) 動画合成装置
JP2006270805A (ja) 簡易映像編集方法及びそれを備えた電子装置
KR101285382B1 (ko) 동영상 편집 기능을 구비한 동영상 촬영 장치 및 방법
JP3507767B2 (ja) マルチメディアコンテンツ再生システム及びマルチメディアコンテンツ再生方法
JP4127205B2 (ja) 画像記録装置
JP2006049988A (ja) デジタルデータ記録再生装置
JP3566216B2 (ja) デジタル音声映像情報の記録装置
JP7267568B2 (ja) 映像・音声合成方法
JPH1051734A (ja) 動画像編集装置および動画像編集方法
JP2006157697A (ja) 録画再生装置
KR101980414B1 (ko) 확장형 비디오 렌더링 방법 및 시스템
JP2005191826A (ja) 映像編集装置、映像再生装置、アングル映像表示用データ及びそのアングル映像表示用データを記録した記録媒体、映像編集方法、映像再生方法
JP4769168B2 (ja) ノンリニア編集装置及びノンリニア編集方法
JP2008236138A (ja) 動画編集プログラム
JP2008311808A (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体
JP3985775B2 (ja) 編集画像表示制御装置と編集画像表示制御方法およびプログラム
JP2006180091A (ja) コンテンツ合成装置及び方法
JP2015154372A (ja) 記録装置及び方法