JP4556146B2 - 情報処理装置および方法、プログラム、並びに情報処理システム - Google Patents

情報処理装置および方法、プログラム、並びに情報処理システム Download PDF

Info

Publication number
JP4556146B2
JP4556146B2 JP2008103390A JP2008103390A JP4556146B2 JP 4556146 B2 JP4556146 B2 JP 4556146B2 JP 2008103390 A JP2008103390 A JP 2008103390A JP 2008103390 A JP2008103390 A JP 2008103390A JP 4556146 B2 JP4556146 B2 JP 4556146B2
Authority
JP
Japan
Prior art keywords
information
image
unit
partial
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008103390A
Other languages
English (en)
Other versions
JP2009253953A (ja
Inventor
純一 荻窪
典雅 尾崎
淳 大貫
慶太 白根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008103390A priority Critical patent/JP4556146B2/ja
Priority to US12/401,187 priority patent/US8558846B2/en
Priority to EP09156835A priority patent/EP2109082A3/en
Priority to CN200910133776.XA priority patent/CN101557475B/zh
Publication of JP2009253953A publication Critical patent/JP2009253953A/ja
Application granted granted Critical
Publication of JP4556146B2 publication Critical patent/JP4556146B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置および方法プログラム、並びに情報処理システムに関し、特に、より複雑な画像合成処理をより低遅延に行うことができるようにした情報処理装置および方法プログラム、並びに情報処理システムに関する。
従来、様々な画像処理が存在している(例えば、特許文献1および特許文献2)。例えば、特許文献1には、多角柱等の3次元形状に入力画像をマッピングする方法が記載されている。特許文献2には、1枚の画像に拡大、縮小、シフト、変形等の特殊効果を付与する方法が記載されている。
また、複数の画像を用いた画像処理も様々なものが考えられている(例えば、特許文献3乃至特許文献5)。特許文献2、特許文献3、および特許文献5には、一方の画像を他方の画像の一部に嵌め込んだ状態で表示させる所謂ピクチャインピクチャの方法が記載されている。また、特許文献4には、2枚の画像を混合する比の制御方法が記載されている。
特許3117097号 特許3503168号 特許3480648号 特許3700871号 特許4003508号
しかしながら、多数(多系統)の入力画像のそれぞれより自由曲線で囲まれる枠内に収まる部分画像を切り出し、例えば縮小等の加工を施し、互いを組み合わせたり、CG(Computer Graphics)画像やさらに他の画像を重畳させたりして1枚の出力画像を生成する等の、より複雑な画像処理の方法については記載されていない。
このようなより複雑な画像処理は、従来、録画保存された画像データに対して(オフライン状態で)行われていたが、近年においては、例えばスポーツ中継のような、即時的に(リアルタイムに)撮影された画像が放送される、所謂ライブ放送(生放送)においても、このような、より複雑な画像処理が要求されるようになってきた。つまり、より短い遅延で、より複雑な画像処理を行うことが要求されるようになってきた。
しかしながら、オフライン状態における編集処理による従来の方法では、画像データ保存が必要であるので、このような要求に応えることが困難になる恐れがあった。
また、特許文献2、特許文献3、および特許文献5に記載の装置や、従来の、所謂スイッチャと称される装置は、画像の一部の矩形領域に他方の画像を埋め込むという簡易な合成処理しか行わない。特許文献4に記載の装置も、重畳させる2枚の画像の混合比を制御するのみである。従って上述したような、より複雑な画像処理を実現させることは困難であった。
さらに、特許文献1乃至特許文献5に記載の方法を組み合わせることが考えられるが、その場合、画像処理の段数が増大するので、画像処理による遅延も増大してしまう。従って、上述したような、ライブ放送においてより複雑な画像処理を実現させることは困難である恐れがあった。
本発明はこのような問題を解決するためのものであり、より複雑な画像合成処理をより低遅延に行うことができるようにするものである。
本発明の一側面の情報処理装置は、画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出す切り出し手段と、前記切り出し手段により切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正するサイズ補正手段と、前記サイズ補正手段により画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する合成手段とを備える情報処理装置である。
前記切り出し手段は、第1の制御情報により指定される切り出し方法で、前記部分画像の切り出しを行い、前記サイズ補正手段は、前記部分画像を、前記第1の制御情報により指定される画像サイズに補正し、前記合成手段は、前記第1の制御情報により指定される繋ぎ合わせ方で前記部分画像同士を繋ぎ合わせることができる。
複数の画像の重ね合わせ方を指定する第2の制御情報により指定される重ね合わせ方で、前記合成手段により生成される前記合成画像にCG(Computer Graphics)情報を重畳させるCG情報合成手段をさらに備えることができる。
前記第1の制御情報および前記第2の制御情報を記憶する記憶手段と、前記記憶手段より前記第1の制御情報および前記第2の制御情報を読み出し、前記第1の制御情報を前記切り出し手段、前記サイズ補正手段、および前記合成手段に供給し、前記第2の制御情報を前記CG情報合成手段に供給する読み出し手段をさらに備えることができる。
前記読み出し手段は、前記記憶手段より読み出した前記第1の制御情報から、前記複数の画像のそれぞれに対する制御情報である部分制御情報を生成し、生成した複数の部分制御情報を前記切り出し手段および前記サイズ補正手段に供給し、前記切り出し手段は、各画像に対して、各画像に対応する部分制御情報により指定される切り出し方法で前記部分画像の切り出しを行い、前記サイズ補正手段は、各部分画像を、各部分画像に対応する部分制御情報により指定される画像サイズに補正することができる。
前記記憶手段により記憶されている前記第1の制御情報および前記第2の制御情報をそれぞれ所定の方法で圧縮されており、前記読み出し手段は、前記記憶手段より読み出した前記第1の制御情報および前記第2の制御情報を、それぞれの圧縮方法に対応する方法で復号してから供給することができる。
前記記憶手段は、前記第1の制御情報および前記第2の制御情報を合成パターン毎に管理し、前記読み出し手段は、指定された合成パターンの前記第1の制御情報および前記第2の制御情報を前記記憶手段より読み出して供給することができる。
前記合成パターンの進行を制御する進行制御指示を受け付ける進行制御指示受付手段をさらに備え、前記読み出し手段は、前記進行制御指示受付手段により受け付けられた前記進行制御指示に基づいて前記合成パターンにおける処理対象位置を特定し、前記処理対象位置に対応する第1の制御情報および前記第2の制御情報を読み出して供給することができる。
前記CG情報の構成の変更指示を受け付ける変更指示受付手段をさらに備え、前記読み出し手段は、前記変更指示受付手段により受け付けられた前記変更指示に基づいて、前記第1の情報および前記第2の情報を更新することができる。
前記複数の画像に対して前処理を行う前処理手段をさらに備え、前記切り出し手段は、前記前処理手段により前処理された前記複数の画像より前記部分画像を切り出すことができる。
前記前処理手段は、前記前処理として、インタレース方式の前記複数の画像をプログレッシブ方式に変換することができる。
前記前処理手段は、前記前処理として、前記複数の画像のそれぞれより顔画像を検出し、前記切り出し手段により切り出される前記部分画像の中心座標を決定することができる。
前記複数の画像のそれぞれに対応する音声情報を、それぞれの前記音声情報の合成方法を指定する情報である音声合成情報に従って合成する音声合成手段をさらに備えるようにすることができる。
前記自由曲線により切り出す部分は、マスク画像情報により指定されるようにすることができる。
前記マスク画像情報においては、画像の切り出し部分が画素単位で指定されるようにすることができる。
本発明の一側面の情報処理方法は、画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出し切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正し画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成するステップを含む情報処理方法である。
本発明の一側面のプログラムは、画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出し、切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正し、画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成するステップを含む処理をコンピュータに実行させるプログラムである。
本発明の他の側面の情報処理システムは、画像の一部を部分画像として切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出す切り出し手段と、前記切り出し手段により切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正するサイズ補正手段と、前記スイッチャパネルに対して入力されたユーザの指示に従って、前記サイズ補正手段により画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する合成手段とを備える情報処理装置と、前記情報処理装置により生成された前記合成画像と、前記合成画像のバックグランドとなる画像として入力されたバックグランド画像とを重畳する重畳手段を備えるスイッチャと、前記情報処理装置、又は、前記スイッチャに対する指示を行うスイッチャパネルとを有する。
本発明の一側面においては、画像の一部を部分画像として自由曲線により切り出す切り出し処理が複数の画像に対して行われ、複数の画像のそれぞれより部分画像が切り出され、切り出された複数の部分画像のそれぞれについて、画像サイズが補正され、画像サイズが補正された部分画像同士が繋ぎ合わせられて1枚の合成画像が生成される。
本発明の他の側面においては、その情報処理装置において、画像の一部を部分画像として切り出す切り出し処理が複数の画像に対して行われ、前記複数の画像のそれぞれより部分画像が切り出され、切り出された複数の前記部分画像のそれぞれについて、画像サイズが補正され、スイッチャパネルに対して入力されたユーザの指示に従って、画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像が生成される。また、スイッチャにおいては、前記情報処理装置により生成された前記合成画像と、前記合成画像のバックグランドとなる画像として入力されたバックグランド画像とが重畳され、前記前記スイッチャパネルにおいては、前記情報処理装置、又は、前記スイッチャに対する指示が行われる。
本発明によれば、画像を処理することができる。特に、より複雑な画像合成処理をより低遅延に行うことができる。
図1は、本発明を適用した画像処理システムの構成例を示すブロック図である。
図1において、画像処理システム100は、より複雑な画像合成処理をより低遅延に行うシステムであり、画像合成装置111、スイッチャ112、およびスイッチャパネル113が、例えばインターネットに代表されるネットワーク110を介して互いに接続されている。
画像合成装置111は、より複雑な画像合成処理をより低遅延に行う装置である。画像合成装置111の複数の入力系統にはそれぞれ、画像情報および音声情報よりなる画像音声情報(第1入力画像音声情報乃至第4入力画像音声情報)が入力される。画像合成装置111は、制御情報に従って、各入力画像音声情報の画像情報より、自由曲線(任意の曲線)等で作られた枠内の部分画像を切り出し、所定のサイズに縮小(または拡大)する。画像合成装置111は、それらの部分画像を互いに組み合わせて合成画像を作成し、その合成画像を画像情報として、所定の専用ケーブル等を介して、スイッチャ112に供給する。画像合成装置111は、画像情報以外にも、その画像情報に対応する情報(例えば、音声情報や、スイッチャ112における画像合成のための制御情報であるキー情報)を、所定の専用ケーブル等を介して、スイッチャ112に供給する。
スイッチャ112は、第5入力画像音声情報の画像をバックグラウンド画像とし、これに、画像合成装置111より供給される画像(合成画像)を、キー情報に従って重畳する。スイッチャ112は、合成結果を出力画像情報および出力音声情報として出力する。
なお、画像合成装置111の入力系統の数は複数であればいくつであってもよい。また、出力系統の数も任意である。また、スイッチャ112の入力系統の数も複数であればいくつであってもよく、出力系統の数も任意である。以下においては、説明の便宜上、画像合成装置111が4系統の入力と1系統の出力を備え、スイッチャ112が2系統の入力と1系統の出力を備える場合について説明する。
また、画像合成装置111およびスイッチャ112が、画像情報に対応する上述した以外の情報を入出力するようにしてもよい。
スイッチャパネル113は、スイッチやレバー等を有するユーザインタフェースデバイスであり、例えば、合成パターンの指定や合成開始指示等のユーザからの指示を受け付け、その情報を画像合成装置111やスイッチャ112に供給する。画像合成装置111やスイッチャ112は、そのユーザ指示に基づいて各種処理を行う。
図2は、本発明を適用した画像合成装置主な構成例を示すブロック図である。
図2に示される画像合成装置111は、図1の画像処理システム100を構成する装置であり、図2に示されるように、情報読み出し制御部131、記憶部132、入力部133、前処理部134、入力画像処理部135、合成処理部136、およびキー生成部137を有する。
情報読み出し制御部131は、記憶部132に記憶されている情報を読み出して処理し、所定の情報を所定のタイミングで、入力画像処理部135、合成処理部136、またはキー生成部137に供給する。例えば、情報読み出し制御部131は、第1部分マスク情報乃至第4部分マスク情報を、入力画像処理部135の、画像切り出し部151−1乃至画像切り出し部151−4、並びに、サイズ補正部152−1乃至サイズ補正部152−4に供給する。また、例えば、情報読み出し制御部131は、全体マスク情報を合成処理部136の画像合成部161に供給する。さらに、情報読み出し制御部131は、例えば、キー情報付きCG情報を合成処理部136のCG合成部162に供給する。また、情報読み出し制御部131は、例えば、音声情報や音声合成情報を合成処理部136の音声合成部163に供給する。さらに、例えば、情報読み出し制御部131は、キー情報および全体マスク情報をキー生成部137に供給する。
各情報についての説明は後述する。
記憶部132は、例えばハードディスクやフラッシュメモリ等の記憶媒体を有し、合成処理に関する制御情報等を予め記憶している。入力部133は、例えばスイッチやボタン等のユーザインタフェースや、ネットワーク110に接続されるネットワークインタフェース等をを備える。入力部133は、例えば、ユーザ入力やネットワーク110を介して接続される他の装置より供給される情報を受け付け、情報読み出し制御部131に供給する。
前処理部134は、各系統の入力画像に対して、合成の前に必要な処理を行う。前処理部134は、IP変換部141−1乃至IP変換部141−4を有する。IP変換部141−1は、第1入力画像音声情報の画像情報がインタレース方式の場合、プログレッシブ方式に変換する(IP変換を行う)。同様に、IP変換部141−2は第2入力画像音声情報の画像情報をIP変換し、IP変換部141−3は第3入力画像音声情報の画像情報をIP変換し、IP変換部141−4は第4入力画像音声情報の画像情報をIP変換する。
IP変換処理が行われた各入力画像音声情報は、入力画像処理部135に供給される。つまり、入力画像処理部135に入力される第1入力画像音声情報乃至第4入力画像音声情報の画像情報はプログレッシブ方式である。なお、前処理部134の入力画像がプログレッシブ方式の場合、このIP変換処理は省略される。
以上の様に前処理においてIP変換されるので、入力画像処理部135、合成処理部136、およびキー生成部137において画像情報に対して行われる各処理はフレーム単位で行われる。なお、インタレース方式の入力画像に対してIP変換せずに、入力画像処理部135、合成処理部136、およびキー生成部137においてフィールド毎に各処理を行うことも可能である。以下においては、フレームとフィールドを区別して説明する必要が無い場合、これらをまとめてピクチャと称する。つまり、入力画像処理部135、合成処理部136、およびキー生成部137における各処理は、ピクチャ(フレームまたはフィールド)単位で行われる。
入力画像処理部135は、画像切り出し部151およびサイズ補正部152を有する。画像切り出し部151は、入力された画像情報よりマスク情報に指定される部分を切り出す。画像切り出し部151は、画像切り出し部151−1乃至画像切り出し部151−4を有する。
画像切り出し部151−1は、第1入力画像音声情報の画像情報の各ピクチャから、情報読み出し制御部131より供給される第1部分マスク情報により指定される範囲を切り出し、その切り出した部分画像をサイズ補正部152−1に供給する。画像切り出し部151−2は、第2入力画像音声情報の画像情報の各ピクチャから、情報読み出し制御部131より供給される第2部分マスク情報により指定される範囲を切り出し、その切り出した部分画像をサイズ補正部152−2に供給する。画像切り出し部151−3は、第3入力画像音声情報の画像情報の各ピクチャから、情報読み出し制御部131より供給される第3部分マスク情報により指定される範囲を切り出し、その切り出した部分画像をサイズ補正部152−3に供給する。画像切り出し部151−4は、第1入力画像音声情報の画像情報の各ピクチャから、情報読み出し制御部131より供給される第4部分マスク情報により指定される範囲を切り出し、その切り出した部分画像をサイズ補正部152−4に供給する。
サイズ補正部152は、画像切り出し部151において切り出された部分画像の画像サイズを補正する。より具体的には、サイズ補正部152は、各部分画像を繋ぎ合わせた合成画像の画像サイズが所定のサイズとなるように、各部分画像の画像サイズを補正(縮小または拡大)する。
サイズ補正部152は、サイズ補正部152−1乃至サイズ補正部152−4を有する。サイズ補正部152−1は、画像切り出し部151−1において切り出された部分画像の画像サイズを、情報読み出し制御部131より供給される第1部分マスク情報により指定される縮小率(または拡大率)で補正する。サイズ補正部152−2は、画像切り出し部151−2において切り出された部分画像の画像サイズを、情報読み出し制御部131より供給される第2部分マスク情報により指定される縮小率(または拡大率)で補正する。サイズ補正部152−3は、画像切り出し部151−3において切り出された部分画像の画像サイズを、情報読み出し制御部131より供給される第3部分マスク情報により指定される縮小率(または拡大率)で補正する。サイズ補正部152−4は、画像切り出し部151−4において切り出された部分画像の画像サイズを、情報読み出し制御部131より供給される第4部分マスク情報により指定される縮小率(または拡大率)で補正する。
サイズ補正部152−1は、サイズ補正した部分画像を合成処理部136の画像合成部161に供給する。また、サイズ補正部152−1は、第1入力画像音声情報の音声情報(処理対象のピクチャに対応する部分の音声情報)を音声合成部163に供給する。同様に、サイズ補正部152−2は、サイズ補正した部分画像を合成処理部136の画像合成部161に供給し、第2入力画像音声情報の音声情報(処理対象のピクチャに対応する部分の音声情報)を音声合成部163に供給する。
サイズ補正部152−3も同様に、サイズ補正した部分画像を合成処理部136の画像合成部161に供給し、第3入力画像音声情報の音声情報(処理対象のピクチャに対応する部分の音声情報)を音声合成部163に供給する。サイズ補正部152−4も同様に、サイズ補正した部分画像を合成処理部136の画像合成部161に供給し、第4入力画像音声情報の音声情報(処理対象のピクチャに対応する部分の音声情報)を音声合成部163に供給する。
合成処理部136は、画像や音声の合成処理を行う。合成処理部136は、画像合成部161、CG合成部162、および音声合成部163を有する。画像合成部161は、サイズ補正部152−1乃至サイズ補正部152−4より供給される部分画像を、情報読み出し制御部131より供給される全体マスク情報に従って繋ぎ合わせ、合成画像を生成し、それをCG合成部162に供給する。CG合成部162は、画像合成部161より供給される合成画像に、情報読み出し制御部131より供給されるキー情報付きCG情報を重畳させ、その合成画像を出力画像情報として出力する。音声合成部163は、情報読み出し制御部131より供給される音声合成情報に基づいて、サイズ補正部152−1乃至サイズ補正部152−4より供給される音声情報や、情報読み出し制御部131より供給される音声情報を、適宜合成したり選択したりして出力音声情報を生成し、出力する。
キー生成部137は、情報読み出し制御部131より供給される全体マスク情報に従って、情報読み出し制御部131より供給されるキー情報を更新し、出力用のキー情報、すなわち出力画像情報に対応するキー情報を生成し、出力する。
図1を参照して説明したように、画像合成装置111より出力される出力音声情報、出力画像情報、および出力キー情報は、それぞれ専用のケーブル等を介して、スイッチャ112に供給される。
次に、各情報について説明する。最初に、図3を参照して制御情報について説明する。
図3に示されるように、画像合成装置111の記憶部132には、予め、全体マスク情報171、キー情報付きCG情報174、音声情報176、および音声合成情報177が記憶されている。
マスク情報は、画像の切り出し方や繋ぎ合わせ方等の合成方法を示す制御情報である。全体マスク情報171は、画像全体(ピクチャ全体)について合成方法を示すマスク情報である。図2に示されるように、全体マスク情報171は、マスク画像情報172およびマスクメタ情報173を有する。
マスク画像情報172は、合成結果である合成画像の構造を示す情報である。つまり、マスク画像情報172は、合成画像の全画素について、どの入力系統の画像を合成結果として選択するかを指定する。換言すれば、マスク画像情報172は、部分画像の形状および切り出された部分画像の繋ぎ合わせ方を指定する。この指定は画素単位で行われ、マスク画像情報172は、ビットマップ情報として構成される。
図3においては、その指定の様子(ビットマップ)を模式的に示している。図3の例の場合、画像全体が4つの領域に分割され、左上の領域(「1」の領域)内の各画素には、第1入力画像音声情報の部分画像を指定する値(例えば「1」)が割り当てられ、右上の領域(「2」の領域)内の各画素には、第2入力画像音声情報の部分画像を指定する値(例えば「2」)が割り当てられ、左下の領域(「3」の領域)内の各画素には、第3入力画像音声情報の部分画像を指定する値(例えば「3」)が割り当てられている。この値は、数字であってもよいし、文字または記号等であってもよい。なお、右下の領域(「5」の領域)には、他の装置において別の画像を重畳させる予定であり、この領域の各画素には、どの部分画像も指定しないことを示す値(例えば「5」)が割り当てられる。この値も、数字であってもよいし、文字または記号等であってもよい。
このような指定を画素単位で行うことにより、マスク画像情報172は、任意の形状の部分画像を切り出すように指定することが容易にできるとともに、複雑な形状の部分画像の繋ぎ合わせ方も容易に指定することができる。例えば、マスク画像情報172は、切り出しの枠となる領域の境界線を自由曲線(任意の曲線)とすることも容易に行うことができ、また、その自由曲線状に切り出された部分画像の繋ぎ合わせ方も容易に指定することができる。
マスクメタ情報173は、マスク画像情報172の付加情報であり、例えば、切り出しの中心角、回転角、および縮小率等の、マスク画像情報172で示されない情報を含む。
この全体マスク情報171は、記憶部132に予め記憶されるが、記憶部132の記憶領域の有効利用(領域確保)や、読み出し時のバス帯域の有効利用(帯域確保)のために、所定の方法で圧縮されて情報量が低減された状態で記憶される。圧縮方法は任意であるが、例えばランレングス符号化によって圧縮される。
情報読み出し制御部131は、図3に示されるように復号部181、分割部182、および保持部183を有する。情報読み出し制御部131は、記憶部132より全体マスク情報171を読み出すと、復号部181において復号し、分割部182において入力系統毎のマスク情報を生成する。第1部分マスク情報171−1は、全体マスク情報171から第1入力画像音声情報に関する情報のみが抽出されて生成された、第1の入力系統に対するマスク情報(部分マスク情報)である。第2部分マスク情報171−2は、全体マスク情報171から第2入力画像音声情報に関する情報のみが抽出されて生成された、第2の入力系統に対するマスク情報(部分マスク情報)である。第3部分マスク情報171−3は、全体マスク情報171から第3入力画像音声情報に関する情報のみが抽出されて生成された、第3の入力系統に対するマスク情報(部分マスク情報)である。第4部分マスク情報171−4は、全体マスク情報171から第4入力画像音声情報に関する情報のみが抽出されて生成された、第4の入力系統に対するマスク情報(部分マスク情報)である。
分割部182は、生成した第1部分マスク情報171−1乃至第4部分マスク情報171−4、並びに、分割前の全体マスク情報171を、RAM(Random Access Memory)等の記憶領域を有する保持部183に保持させる。
情報読み出し制御部131は、保持部183に保持されている第1部分マスク情報171−1乃至第4部分マスク情報171−4を所定のタイミングで入力画像処理部135のそれぞれが対応する入力系統に供給する。このように必要な情報のみを各入力系統に供給するので、画像切り出し部151およびサイズ補正部152は、不要な制御情報を取り扱う必要がないので、効率よく各処理を行うことができる。また、記憶部132においてはそれらの部分マスク情報を1つの全体マスク情報171として記憶させることにより、例えば重複する情報を省略することができるなど、情報量を低減させることができる。また、部分マスク情報を1つの全体マスク情報171として記憶させることにより、読み出し処理や復号処理の回数を低減させ、処理の効率を向上させることができる。
また、情報読み出し制御部131は、保持部183に保持されている全体マスク情報171を、画像合成部161およびキー生成部137に、それぞれ所定のタイミングで供給する。
キー情報付きCG情報174は、画像情報であるCG情報に、一方の画像を他方の画像に重畳させるときに使用される制御情報であるキー情報が付加された情報である。CG情報は、RGB等の3色のビットマップである。キー情報は、どの部分に他の画像を重畳(合成)させるかを画素単位で指定する1色(グレースケール)のビットマップである。キー情報は、スイッチャ112においても利用可能な一般的な制御情報である。
図3の画像174Aは、このキー銃砲付きCG情報174を模式的に表わしたものであり、黒く塗りつぶされた部分がキー情報であり、その他の斜線模様の部分(「Catch You!」の文字を含む)がCG情報である。
このキー情報付きCG情報174も、記憶部132に予め記憶されるが、記憶部132の記憶領域の有効利用(領域確保)や、読み出し時のバス帯域の有効利用(帯域確保)のために、所定の方法で圧縮されて情報量が低減された状態で記憶される。例えば、キー情報付きCG情報174は、4:2:2:4のYCbCrA信号に変換されてから圧縮される。この圧縮方法は任意である。
情報読み出し制御部131は、図3に示されるように復号部184および抽出部185を有する。情報読み出し制御部131は、記憶部132よりキー情報付きCG情報174を読み出すと、復号部184において復号し、抽出部185においてキー情報付きCG情報174よりキー情報175を抽出する。画像175Aは、キー情報175を模式的に示したものである。画像174Aと比べて分かるように、黒塗りつぶしの部分(つまりキー情報)のみが抽出されている。
抽出部185は、抽出したキー情報175、並びに、抽出元のキー情報付きCG情報174を保持部183に保持させる。
情報読み出し制御部131は、保持部183に保持されているキー情報175を所定のタイミングでキー生成部137に供給する。また、情報読み出し制御部131は、保持部183に保持されているキー情報付きCG情報174を所定のタイミングでCG合成部162に供給する。
以上のように、キー情報付きCG情報174よりキー情報175のみを抽出してキー生成部137に供給することにより、キー生成部137は、不要な制御情報(CG情報)を取り扱う必要がないので、効率よく出力用のキー情報の生成を行うことができる。また、キー情報175をキー情報付きCG情報174より抽出して生成するようにすることにより、つまり、記憶部132には、キー情報付きCG情報174のみを記憶させるようにすることにより、情報量を低減させる(記憶領域やバス帯域をより有効に利用する)ことができる。また、読み出し処理や復号処理の回数を低減させ、処理の効率を向上させることができる。
音声情報176は、例えば入力画像にCG情報を重畳させる際の効果音等、各入力画像音声情報に含まれない音声情報である。音声合成情報177は、各入力画像音声情報の音声情報の音声合成方法を指定する制御情報である。例えば、音声合成情報177には、各入力系統の音声情報のいずれか1つを選択し、さらに、音声情報176を合成される等の指示情報が含まれる。
情報読み出し制御部131は、記憶部132より音声情報176および音声合成情報177を読み出すとそれらを保持部183に保持させ、所定のタイミングにおいて、その音声情報176および音声合成情報177を音声合成部163に供給する。
画像合成装置111においては、以上のような制御情報が使用される。
なお、このような制御情報は、合成パターン毎に用意される。合成パターンとは、入力画像の合成方法のことである。例えば、入力画像をどのように処理し、どのように繋ぎ合わせ、どのようなCG情報をどのように重畳させて合成画像を生成するかは任意である。また、画像合成装置111により行われる合成処理の長さは、任意であり、1枚のピクチャに対して行われるものであってもよいし、複数のピクチャ(所定の期間)にわたって行われるものでもよい。また、複数のピクチャにわたって合成処理を行う場合、その合成期間の最初から最後まで全てのピクチャにおいて、互いに完全に同一の構成(デザイン)で各画像が合成されるようにしても良いし、ピクチャ毎にその構成(デザイン)が変化するようにしてもよい。また、その変化の仕方も任意である。
このような合成方法の違いを合成パターンと称する。このような合成方法の違いは、マスク情報やキー情報付きCG情報等の、合成方法を制御する制御情報の内容の違いで示される。従って、これらの制御情報は、合成パターン毎に用意されることになる。また、複数のピクチャにわたって合成処理を行い、かつ、ピクチャ毎にその構成(デザイン)が変化する合成パターン(動的な合成パターン)の場合、各制御情報は、ピクチャ毎に用意される(制御情報の内容がピクチャ毎に変化することにより、合成画像の構成(デザイン)が動的に変化する)。
記憶部132は、このような複数の制御情報を、合成パターン毎にまとめて管理する。
次に、各入力系統の画像の合成の様子について図4を参照して説明する。
図4において、画像191−1は第1入力画像音声情報の画像情報を示しており、画像191−2は第2入力画像音声情報の画像情報を示しており、画像191−3は第3入力画像音声情報の画像情報を示しており、画像191−4は第4入力画像音声情報の画像情報を示している。
画像切り出し部151−1は、第1部分マスク情報171−1に含まれる切り出し形状や中心座標等の情報に基づいて、画像191−1より部分画像192−1を切り出す。図4において、画像切り出し部151−1とサイズ補正部152−1との間に示される画像191−1内の黒線は、部分画像192−1の輪郭、つまり、切り出し形状を示しており、×印は、その中心点を示している。
サイズ補正部152−1は、第1部分マスク情報171−1に含まれる縮小率等の情報に基づいて、このように切り出された部分画像192−1のサイズを補正(縮小または拡大)し、画像193−1を生成する。図4の例において、画像193−1は、部分画像192−1の縮小画像である。画像193−1は、合成処理部136に供給される。
画像切り出し部151−2は、第2部分マスク情報171−2に含まれる切り出し形状や中心座標等の情報に基づいて、画像191−2より部分画像192−2を切り出す。サイズ補正部152−2は、第2部分マスク情報171−2に含まれる縮小率等の情報に基づいて、このように切り出された部分画像192−2のサイズを補正(縮小または拡大)し、画像193−2を生成する。図4の例において、画像193−2は、部分画像192−2の縮小画像である。画像193−2は、合成処理部136に供給される。
画像切り出し部151−3は、第3部分マスク情報171−3に含まれる切り出し形状や中心座標等の情報に基づいて、画像191−3より部分画像192−3を切り出す。サイズ補正部152−3は、第3部分マスク情報171−3に含まれる縮小率等の情報に基づいて、このように切り出された部分画像192−3のサイズを補正(縮小または拡大)し、画像193−3を生成する。図4の例において、画像193−3は、部分画像192−3の縮小画像である。画像193−3は、合成処理部136に供給される。
画像切り出し部151−4も、第4部分マスク情報171−4に含まれる切り出し形状や中心座標等の情報に基づいて、画像191−4より画像の切り出しを行うが、図4の例においては、第4部分マスク情報171−4では、部分画像を切り出すように指示されていない(図3のマスク画像情報172参照)。従って、画像切り出し部151−4は、部分画像を生成せず、また、サイズ補正部152−4もサイズ補正を行わない。
合成処理部136は、以上のように供給された画像193−1乃至画像193−3、並びに、情報読み出し制御部131より供給されるキー情報付きCG情報174を合成し、合成画像194を生成する。この合成画像194は、画像193−1乃至画像193−3を、全体マスク情報171のマスク画像情報172が示すとおりに繋ぎ合わせ、さらに、キー情報付きCG情報を重畳したものである。合成画像194の黒く塗りつぶされた部分は、キー情報である。
以上のように、マスク情報等の制御情報に基づいて、入力画像等より合成画像194が生成される。また、この合成処理に対応して、キー生成部137は、全体マスク情報171およびキー情報175から出力用のキー情報195を生成する。キー生成部137は、全体マスク情報171に基づいて、キー情報175から、部分画像やCG情報の部分を除去し、出力用のキー情報195を生成する。つまり、このキー情報195は、合成画像194に対応する。
以上のような画像合成処理の流れの例を、図5のフローチャートを参照して説明する。
画像合成装置111の電源がオンされたりサスペンド状態が解除されたりすると、画像合成処理が開始される。画像合成処理が開始されると、情報読み出し制御部131は、ステップS101において、制御情報読み出し処理を行い、全ての合成パターンの、全体マスク情報171、キー情報付きCG情報174、音声情報176、および音声合成情報177等の制御情報を記憶部132より読み出す。
ステップS102において、情報読み出し制御部131は、合成開始指示を受け付けるまで待機する。ステップS103において、入力部133が、例えば画像合成装置111を操作するユーザにより入力された、または、ネットワーク110を介してスイッチャパネル113より供給された合成パターンの指定および合成開始指示を受け付けると、情報読み出し制御部131は、処理をステップS104に進める。ステップS104において、情報読み出し制御部131は、保持部183に保持されている、指定された合成パターンの処理対象ピクチャの制御情報を各部に供給する。
ステップS105において、前処理部134(IP変換部141−1乃至IP変換部141−4)は、各入力画像に対してIP変換を行う。ステップS106において、画像切り出し部151(画像切り出し部151−1乃至画像切り出し部151−4)は、各部分マスク情報に基づいて各入力画像の切り出しを行う。ステップS107において、サイズ補正部152(サイズ補正部152−1乃至サイズ補正部152−4)は、各部分マスク情報に基づいて、各切り出し画像(切り出された部分画像)のサイズ補正を行う。
ステップS108において、画像合成部161は、全体マスク情報171に基づいて、各切り出し画像(切り出された部分画像)を繋ぎ合わせることにより合成画像を生成する。ステップS109において、CG合成部162は、合成画像にキー情報付きCG情報を合成する。ステップS110において、音声合成部163は、指定された合成パターンの音声合成情報177に応じて音声情報の合成を行う。
ステップS111において、指定された合成パターンの全体マスク情報171に基づいて、キー情報175から出力用キー情報195を生成する。
ステップS112において、情報読み出し制御部131は、合成パターンの全ピクチャを処理したか否かを判定し、未処理のピクチャが存在すると判定した場合、処理対象ピクチャを次のピクチャに更新し、処理をステップS104に戻し、それ以降の処理を実行させる。すなわち、画像合成装置111は、ステップS104乃至ステップS112の各処理をピクチャ毎に繰り返す。
そして、ステップS112において、合成パターンの全てのピクチャを処理したと判定した場合、情報読み出し制御部131は、処理をステップS113に進め、画像合成処理を終了するか否かを判定する。終了しないと判定した場合、情報読み出し制御部131は、処理をステップS102に戻し、それ以降の処理を実行させる。また、ステップS113において、例えば、画像の入力が停止したり、ユーザ指示があったり等、何らかの理由により画像合成処理を終了すると判定した場合、情報読み出し制御部131は、画像合成処理を終了する。
図6に合成パターンの例を示す。図6には、ある合成パターンの全体マスク情報およびその全体マスク情報より生成される第1部分マスク情報、第2部分マスク情報、第3部分マスク情報、および第4部分マスク情報が上から順に模式的に示されている。なお、図6において、時系列は、左から右に向かって進む。
全体マスク情報に示されるように、最初、合成画像全体には、バックグラウンド画像が表示される。時刻が進むと、合成画像の左上の領域に、第1の入力系統の画像情報が徐々に左側から右側に向かって挿入される。さらに時刻が進むと、合成画像の右上の領域に、第2の入力系統の画像情報が徐々に右側から左側に向かって挿入される。さらに時刻が進むと、合成画像の左下の領域に、第3の入力系統の画像情報が徐々に左側から右側に向かって挿入される。
第1部分マスク情報乃至第4部分マスク情報において、斜線で示される部分は部分画像として抽出されない領域であり、白抜きの部分は部分画像として抽出される領域である。また、×印は、抽出される部分画像の中心点を示す。
最初、全体マスク情報において、画像全体にバックグラウンド画像が割り当てられているとき、第1部分マスク情報乃至第4部分マスク情報のいずれにおいても、部分画像の切り出しの指示はない。そして、全体マスク情報において、第1の入力系統の画像情報が徐々に左側から右側に向かって挿入されると、第1部分マスク情報において、その動きに従って、切り出す領域が右から左に広げられていく。続いて、全体マスク情報において、第2の入力系統の画像情報が徐々に右側から左側に向かって挿入されると、第2部分マスク情報において、その動きに従って、切り出す領域が左から右に広げられていく。さらに続いて、全体マスク情報において、第3の入力系統の画像情報が徐々に左側から右側に向かって挿入されると、第3部分マスク情報において、その動きに従って、切り出す領域が右から左に広げられていく。
なお、全体マスク情報において第4の系統の画像の合成は指示されていないので、第4部分マスク情報では、切り出しの指示はない。
以上のように、各制御情報がピクチャ毎に用意されるので、画像合成装置111は、合成の仕方がピクチャ毎に変化するような動的な合成パターンも容易に実現することができる。
次に、図5のステップS101において実行される制御情報読み出し処理の流れの例を図7のフローチャートを参照して説明する。
制御情報読み出し処理が開始されると、情報読み出し制御部131は、ステップS131において、処理対象合成パターンを選択する。記憶部132においては、制御情報は合成パターン毎に管理されているので、情報読み出し制御部131は、制御情報を合成パターン毎に読み出す。
処理対象合成パターンを選択すると情報読み出し制御部131は、ステップS132において、処理対象合成パターンの全体マスク情報171を全て(合成パターンの全ピクチャについて)記憶部132より読み出す。ステップS133において、復号部181は、読み出された全ての全体マスク情報171を所定の方法で復号する。ステップS134において、分割部182は、全ての全体マスク情報171から、それぞれ入力系統毎の部分マスク情報を生成する。ステップS135において、保持部183は、各部分マスク情報および全体マスク情報171を全て保持する。
ステップS136において、情報読み出し制御部131は、処理対象合成パターンのキー情報付きCG情報174を全て(合成パターンの全ピクチャについて)記憶部132より読み出す。ステップS137において、復号部184は、読み出された全てのキー情報付きCG情報を所定の方法で復号する。ステップS138において、抽出部185は、全てのキー情報付きCG情報174からそれぞれキー情報175を抽出する。ステップS139において、保持部183は、キー情報付きCG情報およびキー情報を全て保持する。
ステップS140において、情報読み出し制御部131は、処理対象合成パターンの音声情報176および音声合成情報177を全て(合成パターンの全ピクチャについて)記憶部132より読み出す。ステップS141において、保持部183は、読み出した全ての音声情報176および音声合成情報177を保持する。
ステップS142において、情報読み出し制御部131は、全ての合成パターンの制御情報を読み出したか否かを判定し、未処理の合成パターンが存在すると判定した場合、処理をステップS143に進め、未処理の合成パターンを1つ選択し、処理対象合成パターンとする。ステップS143の処理を終了すると、情報読み出し制御部131は、処理をステップS132に戻し、それ以降の処理を繰り返す。すなわち、合成パターン毎に、ステップS132乃至ステップS143の処理が繰り返し実行される。
そして、ステップS142において、全ての合成パターンの情報を読み出したと判定した場合、情報読み出し制御部131は、情報読み出し処理を終了し、処理を図5のステップS101に戻し、それ以降の処理を実行させる。
以上のように、予め制御情報を全て読み出しておくことにより、画像合成装置111は、画像合成時の記憶部132へのアクセス数を低減させることができ、合成処理の効率を向上させることができる。
以上のように、画像合成装置111は、部分マスク情報を用いて各入力系統の入力画像の切り出しやサイズ補正を行って部分画像を生成し、全体マスク情報、キー情報付きCG情報、音声合成情報等の制御情報を用いてそれらの部分画像を合成する。従って、画像合成装置111は、自由曲線での切り出しや繋ぎ合わせ等の高度な画像合成処理や、構成が動的に変化するような複雑な合成パターンも、図2に示されるように少ない処理段数により実現することができる。つまり、画像合成装置111は、より複雑な画像合成処理をより低遅延に行うことができる。
図1に戻り、画像処理システム100のユーザは、スイッチャパネル113のスイッチやスライダ等のユーザインタフェースを操作し、上述したような、より複雑な画像合成処理の実行開始指示や合成パターン選択指示など、各種の制御指示を入力する。スイッチャパネル113は、その受け付けた指示を、画像合成装置111またはスイッチャ112に、ネットワーク110を介して適切に供給する。画像合成装置111は、入力部133においてその指示を受け付け、その指示に従って画像合成処理を行う。スイッチャ112も同様に、スイッチャパネル113より供給されるユーザ指示に基づいて、第5入力画像音声情報(バックグラウンド画像情報)と、画像合成装置111より供給される画像情報、音声情報、およびキー情報との合成を行う。
このように画像処理システム100は、画像合成装置111を適用することにより、従来のスイッチャを複数並べて合成処理を行わせる場合よりも少ない処理段数でより複雑な合成処理を行うことができる。つまり、画像処理システム100は、より複雑な画像合成処理をより低遅延に行うことができる。
このような画像処理システム100は、例えば、テレビジョン放送等における所謂ライブ放送(生放送)における即時的な編集(リアルタイム編集)に使用される。ライブ放送は、撮影した画像をできるだけ低遅延に放送する手法であり、撮影と放送が略同時刻に行われる(リアルタイムに放送される)。例えば、野球、サッカー、テニス、ゴルフ、バレーといった各種スポーツの試合の様子を放送する番組、コンサートやお祭りのような各種イベントの様子を放送する番組、事件・事故現場の様子を放送するニュース番組等において利用される。
しかしながら、ライブ放送においては、撮影した画像をできるだけ低遅延に放送しなければならないため、編集を行う時間が極端に制限される。従って、ライブ放送においては、一般的に、画像の切り替えや予め決められたパターンの画像処理等といった簡易的な編集を即時的に行うリアルタイム編集が行われる。
しかしながら、このような簡易的な編集では効果的な演出を施すことが困難である場合があった。例えば、サッカーの試合において、シュートがゴールに入り得点が入ったときは、試合として盛り上がる瞬間である。従って、サッカーの試合を放送する番組(所謂サッカー中継)においても、視聴者の感情をより盛り上げるような演出を施すことが望ましい。
従来においても、例えば、ピクチャインピクチャを利用して、得点した選手や注目選手のアップの画像、得点した瞬間の監督やコーチの様子、または客席の様子等複数の画像を1画面にまとめて放送したりすることが行われている。
しかしながら、このような演出も低遅延に行わなければならないため、ピクチャインピクチャも四角や円等単純な形状の画像の重ね合わせでしかなく、例えば上述したような自由曲線での画像の切り出し、その切り出した部分画像の繋ぎ合わせ、複雑なCG情報の合成、さらに構成(デザイン)の動的な変化などといった、より凝った演出を行うことは困難であった。
上述したように、画像処理システム100(画像合成装置111)は、より複雑な画像合成処理を、例えば数ピクチャ程度といった低遅延に行うことができるので、このようなリアルタイム編集に用いることにより、意匠性に優れた、視覚的効果の高い演出を実現することができる。つまり、例えば、サッカーの試合を放送する番組において、画像処理システム100(画像合成装置111)を用いてリアルタイム編集を行うことにより、例えば得点が入った直後等に、見栄えのよい演出を行うことができ、視聴者の感情をより盛り上げるような演出を施すことができる。
なお、以上においては、画像合成装置111が、切り出した部分画像のサイズ補正を行うように説明したが、このサイズ補正の代わりに、もしくは、このサイズ補正に加えてさらに、例えば部分画像を回転させる等、他の処理を行うようにしてもよい。例えば、全体マスク情報171のマスクメタ情報173に回転角の情報を登録するようにし、入力画像処理部135がそのマスクメタ情報173に基づいて切り出された部分画像を2次元方向または3次元方向に回転させるようにしてもよい。これにより、画像合成装置111は、さらに視覚的効果を高めた合成画像を生成することができる。
また、入力画像処理部135が、回転やサイズ補正の他にも、例えば、明暗調整、ノイズ除去、変形、色相調整、特殊効果等、任意の画像処理を部分画像に対して施すようにしてもよい。
さらに、画像合成装置111は、単体の編集装置としても使用可能である。その場合、基本的に、入力系統に入力される画像の合成のみで合成処理が完結するので(画像合成装置111の後段において合成処理が行われないので)、キー生成部137は省略することができる。
以上においては、画像合成処理は、予め複数用意された中からユーザ等によって選択された合成パターンに従って行われるように説明した。つまり、この場合、ユーザは、合成パターンを指定し、処理実行開始を指示するのみであり、画像合成装置111は、その指示に従って指定された合成パターンの画像合成を実現する。しかしながら、これ以外にも、例えば、合成パターンの進行速度や進行方向を、合成処理実行中にユーザが制御することができるようにしてもよい。
図8に合成パターンの進行例を示す。図8において、横軸が合成パターンの進行(ピクチャ)を示し、縦軸が時系列を示す。図8Aに示されるように、時刻0から時刻tまでの間に、番号「0」のピクチャから番号「p」のピクチャまで進む合成パターンを基本とする。
例えば、ユーザが合成パターンの進行速度を2倍に速めるように指示すると、図8Bに示されるように、時刻t/2において合成パターンが番号「p」のピクチャまで進むようにしてもよい。この場合、例えば、ピクチャ毎に用意されたマスク情報等の制御情報が、1ピクチャ分ずつ選択され、連続する入力画像の各ピクチャに割り当てられる。また、ユーザが合成パターンの進行速度を1/2倍に遅くするように指示すると、図8Cに示されるように、時刻tにおいて合成パターンが番号「p/2」のピクチャまで進むようにしてもよい。この場合、例えば、1ピクチャ分のマスク情報等の制御情報が、入力画像の連続する2枚のピクチャに割り当てられる。
さらに、例えば、ユーザが合成パターンの進行を逆方向とするように指示する(逆再生させる)と、図8Dに示されるように、時系列が進むにつれ、番号「p」のピクチャから番号「0」のピクチャまで戻るようにしてもよい。この場合、例えば、ピクチャ毎に用意されたマスク情報等の制御情報の選択順が逆順となる。
また、例えば、ユーザが合成パターンの進行を飛ばすように指示する(ジャンプさせる)と、図8Eに示されるように、合成パターンの進行が番号「p1」のピクチャから番号「p2」のピクチャにジャンプする(その間のピクチャが省略される)ようにしてもよい。この場合、例えば、番号「p1」のピクチャの制御情報が割り当てられた入力画像のピクチャの次のピクチャに対して、番号「p2」のピクチャの制御情報が割り当てられる。
さらに、例えば、ユーザが合成パターンの進行を繰り返すように指示する(リピートさせる)と、図8Fに示されるように、同一ピクチャの合成処理が繰り返し実行されるようにしてもよい。この場合、例えば、同じマスク情報等の制御情報が、入力画像の複数のピクチャに割り当てられる。
また、例えば、ユーザが合成パターンの進行を任意に指示し、図8Gに示されるように、合成パターンの進行が自由曲線(任意の曲線)状となるように合成処理が実行されるようにしても良い。
この場合、情報読み出し制御部131は、図9に示されるように、保持部183とともに、再生ピクチャ特定部301、および制御情報供給部302を有する。ユーザがスイッチャパネル113を操作し、スローや早送り等の速度指定、逆戻しや繰り返し等の再生パターン指定、または、ジャンプ先指定などの再生ピクチャ指定等を入力すると、その指定は、入力部133を介して再生ピクチャ特定部301に供給される。
再生ピクチャ特定部301は、入力された、速度指定、再生パターン指定、または再生ピクチャ指定に基づいて、次に処理対象とする、合成パターンにおけるピクチャ(つまり、合成パターンにおける処理対象位置(ピクチャ))を指定する再生ピクチャ指定に変換し、その再生ピクチャ指定を制御情報供給部302に供給する。制御情報供給部302は、再生ピクチャ指定により指定されたピクチャの制御情報(マスク情報やキー情報付きCG情報等)を、保持部183より読み出し、入力画像処理部135や合成処理部136に供給する。つまり、ユーザの指示した進行パターンに応じて制御情報が選択されて読み出され、各部において使用される。これにより、ユーザの指示した進行パターンに応じて合成パターンが進行する。つまり、ユーザは、自由に合成パターンの進行を即時的に(リアルタイムに)制御することができる。
この場合の画像合成処理の流れの例を図10のフローチャートを参照して説明する。
図10に示される画像合成処理は、図5の画像合成処理に対応する処理である。ステップS301乃至ステップS303の各処理は、図5のステップS101乃至ステップS103の各処理と同様に実行される。
図10のステップS304において、入力部133は、ユーザまたはスイッチャパネル113より再生制御指示を受け付ける。ステップS305において、再生ピクチャ特定部301は、再生制御指示に基づいて、再生ピクチャを特定する。ステップS306において、制御情報供給部302は、指定された合成パターンの再生ピクチャの制御情報を各部に供給する。
ステップS307乃至ステップS315の各処理は、図5のステップS105乃至ステップS113の各処理と同様に実行される。
以上のように、画像処理システム100(画像合成装置111)は、ユーザの指示に従って、即時的に(リアルタイムに)合成パターンの進行を制御することができる。
なお、上述した各種制御情報は、画像合成処理よりも前に予め生成される。その生成の様子を図11に示す。
最初に、所定のツールなどを使ってCG情報の生成が行われる(処理331)。この処理331によりCG情報351、キー情報352、およびマスク画像情報353が生成される。処理331が終了すると、次に、マスク情報の生成が行われる(処理332)。この処理332においては、上述したマスク画像情報353と、縮小率361、回転角362、および中心座標363等を含むマスクメタ情報354とが合成され、マスク情報355が生成される。
以上のように生成されたCG情報351、キー情報352、およびマスク情報355が、画像合成装置に記録される(処理333)。このとき、CG情報351およびキー情報352は、キー情報付きCG情報として圧縮されて記憶される。また、マスク情報355は、所定の方式で圧縮されて記憶される。
そして、試験的に、それらの制御情報を用いて合成処理が行われ、合成結果の確認が行われる(処理334)。合成結果に不満が残る場合、パラメータ等の修正を行う(処理335)。修正が終了すると処理331や処理332に戻され、それ以降の処理が実行される。
以上のようなワークフローに従って制御情報は事前に生成される。
なお、これらの制御情報を、ユーザが即時的に(リアルタイムに)更新することができるようにしても良い。例えば、図12に示されるように、キー情報付きCG情報をモニタ等に表示し、ユーザがその表示されたキー情報付きCG情報をマウスやタッチペン等で操作して変形させ、CG情報等の構成(デザイン)を更新する(すなわち、合成画像の構成を更新する)ことができるようにしてもよい。例えば、図12Aに示されるように表示されたキー情報付きCG情報371を、図12Bに示されるキー情報付きCG情報381のように、中央部分の位置をずらすように変形させると、そのキー情報付きCG情報371に対応するキー情報372やマスク情報373(図12A)の構成も、キー情報382やマスク情報383(図12B)のように、キー情報付きCG情報の変化に合わせて変化する。
このような場合、制御情報の更新を容易にするために、キー情報付きCG情報やマスク画像情報は、ビットマップではなく、頂点座標およびテクスチャ情報として記憶部132に記憶される。そして、情報読み出し制御部131は、それらの情報を保持部183より読み出す際に、即時的に(リアルタイムに)レンダリングを行い、ビットマップに変換して各部に供給する。
つまり、図13に示されるように、記憶部132には、キー情報付きCG情報用レンダリング情報401、全体マスク情報402、音声情報176、および音声合成情報177が記憶される。キー情報付きCG情報用レンダリング情報401は、頂点座標情報411およびテクスチャ情報412よりなり、後述するレンダリング処理によりビットマップのキー情報付きCG情報に変換される。
全体マスク情報402は、マスク画像情報用レンダリング情報421およびマスクメタ情報173を有する。マスク画像情報用レンダリング情報421は、頂点座標情報431およびテクスチャ情報432よりなり、後述するレンダリング処理によりビットマップのマスク画像情報に変換される。
つまり、頂点座標およびテクスチャ情報の場合も、形式が異なるだけでその情報の内容は、ビットマップの場合と同様である。
これらの情報は、保持部183に供給され保持される。
ユーザは、スイッチャパネル113を操作し、図12を参照して説明したように、CGデザイン変更指示を入力する。入力部133は、そのCGデザイン変更指示を取得すると、そのCGデザイン変更指示をCG変更用座標情報生成部451に供給する。
情報読み出し制御部131は、保持部183の他に、CG変更用座標情報生成部451、およびリアルタイムレンダリング部452を有する。CG変更用座標情報生成部451は、入力部133を介して入力されたCGデザイン変更指示に基づいて、処理対象ピクチャにおけるデザイン変更後の座標情報を生成し、それをリアルタイムレンダリング部452に供給する。リアルタイムレンダリング部452は、処理対象ピクチャのキー情報付きCG情報用レンダリング情報401を保持部183より取得すると、CG変更用座標情報生成部451より取得した変更後の座標情報に基づいてレンダリングを行い、ビットマップのキー情報付きCG情報やキー情報を生成する。同様に、リアルタイムレンダリング部452は、保持部183より処理対象ピクチャのマスク画像情報用レンダリング情報421を取得し、CG変更用座標情報生成部451より取得した変更後の座標情報に基づいてレンダリングを行い、ビットマップのマスク画像情報を生成する。リアルタイムレンダリング部452は、そのマスク画像情報を用いて全体マスク情報や部分マスク情報を生成する。リアルタイムレンダリング部452は、生成したそれらの情報を各部に供給する。
この場合の画像合成処理の流れの例を図14および図15のフローチャートを参照して説明する。なお、このフローチャートは、図5の画像合成処理のフローチャートに対応する。
図14のステップS401乃至ステップS403の各処理は、図5のステップS101乃至ステップS103の各処理と同様に実行される。ただし、ステップS401の制御情報読み出し処理においては、部分マスク情報の生成やキー情報の抽出等の処理は省略される。
図14のステップS404において、入力部133は、CGデザイン変更指示を受け付ける。ステップS405において、CG変更用座標情報生成部451は、CGデザイン変更指示に基づいて、処理対象ピクチャのCG変更用座標情報を算出する。
ステップS406において、リアルタイムレンダリング部452は、指定された合成パターンの処理対象ピクチャのキー情報付きCG情報用レンダリング情報401を保持部183より取得する。ステップS407において、リアルタイムレンダリング部452は、各種座標情報およびテクスチャ情報に基づいてレンダリングを行い、ビットマップのキー情報付きCG情報を生成する。さらに、リアルタイムレンダリング部452は、その生成したビットマップのキー情報付きCG情報からキー情報(ビットマップ)を抽出する。ステップS408において、リアルタイムレンダリング部452は、キー情報付きCG情報およびキー情報(いずれもビットマップ)を各部に供給する。
ステップS409において、リアルタイムレンダリング部452は、指定された合成パターンの処理対象ピクチャのマスク画像情報用レンダリング情報421を保持部183より取得する。ステップS410において、リアルタイムレンダリング部452は、各種座標情報およびテクスチャ情報に基づいてレンダリングを行い、ビットマップのマスク画像情報を生成する。ステップS411において、リアルタイムレンダリング部452は、そのマスク画像情報から、全体マスク情報や部分マスク画像情報を生成し、さらに、各部分マスク情報並びに全体マスク情報を各部に適宜供給する。
ステップS412において、情報読み出し制御部131は、指定された合成パターンの処理対象ピクチャの音声情報及び音声合成情報を保持部183より読み出し、音声合成部163に供給する。
図15のステップS421乃至ステップS429の各処理は、図5のステップS105乃至ステップS113の各処理と同様に実行される。
以上のように、画像処理システム100(画像合成装置111)は、画像合成中にユーザがその合成画像の構成を変更するように制御情報を更新させることができる。
なお、以上においては、前処理としてIP変換を行う場合について説明したが、この前処理は、入力画像に対して行われる処理であれば、どのような処理であってもよい。例えば、図16に示されるように、IP変換の代わりに、各入力画像より顔検出が行われ、検出された顔画像を中心として画像の切り出しが行われるようにしてもよい。
図16において、前処理部134には、IP変換部141−1乃至IP変換部141−4の代わりに、顔検出部501−1乃至顔検出部501−4が設けられている。
顔検出部501−1は、第1入力画像音声情報の画像情報に対して顔検出を行い、検出された顔画像の位置に基づいて、切り出しの中心座標を設定する。顔検出部501−1は、設定した中心座標を、第1入力画像音声情報とともに、画像切り出し部151−1に供給する。画像切り出し部151−1は、その中心座標を用いて、情報読み出し制御部131より供給される第1部分マスク情報の中心座標を更新し、更新後の第1部分マスク情報に基づいて部分画像の切り出しを行う。
顔検出部501−2は、第2入力画像音声情報の画像情報に対して顔検出を行い、検出された顔画像の位置に基づいて、切り出しの中心座標を設定する。顔検出部501−2は、設定した中心座標を、第2入力画像音声情報とともに、画像切り出し部151−2に供給する。画像切り出し部151−2は、その中心座標を用いて、情報読み出し制御部131より供給される第2部分マスク情報の中心座標を更新し、更新後の第2部分マスク情報に基づいて部分画像の切り出しを行う。
顔検出部501−3は、第3入力画像音声情報の画像情報に対して顔検出を行い、検出された顔画像の位置に基づいて、切り出しの中心座標を設定する。顔検出部501−3は、設定した中心座標を、第3入力画像音声情報とともに、画像切り出し部151−3に供給する。画像切り出し部151−3は、その中心座標を用いて、情報読み出し制御部131より供給される第3部分マスク情報の中心座標を更新し、更新後の第3部分マスク情報に基づいて部分画像の切り出しを行う。
顔検出部501−4は、第4入力画像音声情報の画像情報に対して顔検出を行い、検出された顔画像の位置に基づいて、切り出しの中心座標を設定する。顔検出部501−4は、設定した中心座標を、第4入力画像音声情報とともに、画像切り出し部151−4に供給する。画像切り出し部151−4は、その中心座標を用いて、情報読み出し制御部131より供給される第4部分マスク情報の中心座標を更新し、更新後の第4部分マスク情報に基づいて部分画像の切り出しを行う。
この場合の画像合成処理の流れの例を図17のフローチャートを参照して説明する。なお、このフローチャートは、図5の画像合成処理のフローチャートに対応する。
図17のステップS501乃至ステップS504の各処理は、図5のステップS101乃至ステップS104の各処理と同様に実行される。
図17のステップS505において、前処理部134の顔検出部501−1乃至顔検出部501−4は、各入力画像に対して顔検出を行う。顔検出部501−1乃至顔検出部501−4は、ステップS506において、検出結果に基づいて、切り出しの中心座標を決定する。ステップS507において、画像切り出し部151(画像切り出し部151−1乃至画像切り出し部151−4)は、ステップS506において決定された値を用いて、各部分マスク情報(の中心座標)を更新する。
ステップS508乃至ステップS515の各処理は、図5のステップS106乃至ステップS113の各処理と同様に実行される。
以上のように、前処理部134において、入力画像より顔画像を検出し、その顔の位置に基づいて切り出し位置を決定することにより、入力画像処理部135は、より適切な絵柄の部分画像を切り出すことができる。つまり、画像合成装置111は、合成結果(合成画像)の視覚的効果をより向上させることができる。
なお、以上において、マスク画像情報172やキー情報付きCG情報174のようなビットマップデータは、所定の方式で圧縮されて記憶部132に記憶されるように説明した。この圧縮方法の具体的な例について以下に説明する。
まず、マスク画像情報172について説明する。マスク画像情報172は、図3に模式的に示されるように、どの入力系統の画像を合成結果として選択するかを画素単位で指定している。この各画素の指定順は、どのような順序でも可能であるが、処理の容易化のためにラスタスキャン方式で行われる。つまり、図3に模式的に示されるように、マスク画像情報172は、同じ値のデータが連続する(繰り返しが多い)傾向が強いという特徴を有する。
そこで、マスク画像情報172は、例えばバイト単位でランレングス符号化することにより効率よく圧縮することができる。つまり、マスク画像情報172をランレングス符号化により符号化することにより、画像合成装置111は、記憶領域やバス領域の利用効率を向上させることができる。
なお、ランレングス符号化の場合、値とその値が連続する長さを指定するのみであるので、圧縮後のデータ構造は比較的単純になる。従って、情報読み出し制御部131は、マスク画像情報172の復号処理を容易かつ高速に行うことができる。
次に、キー情報付きCG情報174(キー情報およびCG情報)について説明する。CG情報は、表示用の情報であるので、一般的に、マスク画像情報172と比較して絵柄が複雑になる。また、合成パターンにおいて、CG情報は、動画像とする場合が多く、ピクチャ間で大きく変化する傾向が強いという特徴を有する。
このような特徴を有するキー情報付きCG情報を、例えば離散コサイン変換や動きベクトルを用いる圧縮符号化で符号化する場合、合成画像において、所謂モスキートノイズのような視覚的に目立つノイズが発生する可能性が高くなる恐れがある。つまり、合成画像の体感的な画質を低減させやすい。
これに対して、例えば、ウェーブレット変換を用いる圧縮符号化の場合、情報損失等が発生しても、合成画像は、解像度が低下する(所謂ぼける)傾向にあるので、視覚的には目立ちにくい。つまり、合成画像の体感的な画質を低減させにくい。
また、ピクチャ単位で処理されるので、イントラ符号化の方が復号処理が容易になり好適である。
従って、キー情報付きCG情報174の符号化には、ウェーブレット変換を用いるイントラ符号化方式の圧縮符号化を用いるのが望ましい。ただし、JPEG2000(Joint Photographic Experts Group 2000)方式の場合、処理の負荷が大きい。
そこで、ウェーブレット変換を用い、かつ、ピクチャよりも小さいデータ単位で処理を行う圧縮符号化方式をキー情報付きCG情報174の符号化に適用する。
以下、この圧縮符号化方式について説明する。
図18は、この圧縮符号化方式の符号化装置の構成例を示すブロック図である。図18において、符号化装置600は、ウェーブレット変換部610、途中計算用バッファ部611、係数並び替え用バッファ部612、係数並び替え部613、レート制御部614、およびエントロピ符号化部615を有する。
符号化装置600に入力された画像データは、途中計算用バッファ部611に一時的に溜め込まれる。ウェーブレット変換部610は、途中計算用バッファ部611に溜め込まれた画像データに対してウェーブレット変換を施す。すなわち、ウェーブレット変換部610は、途中計算用バッファ部611から画像データを読み出して分析フィルタによりフィルタ処理を施して低域成分および高域成分の係数のデータを生成し、生成された係数データを途中計算用バッファ部611に格納する。ウェーブレット変換部610は、水平分析フィルタと垂直分析フィルタとを有し、画像データ群に対して、画面水平方向と画面垂直方向の両方について分析フィルタ処理を行う。ウェーブレット変換部610は、途中計算用バッファ部611に格納された低域成分の係数データを再度読み出し、読み出した係数データに対して分析フィルタによるフィルタ処理を施して、高域成分および低域成分の係数のデータをさらに生成する。生成された係数データは、途中計算用バッファ部611に格納される。
ウェーブレット変換部610は、この処理を垂直方向および水平方向に低域な成分に対して再帰的に繰り返す。ウェーブレット変換では、例えば図19に概略的に示されるように、画像データを空間周波数の高い帯域と低い帯域とに分割する処理を、分割の結果得られる空間周波数の低い帯域のデータに対して再帰的に繰り返す。こうして、空間周波数の低い帯域のデータをより小さな領域に追い込んでいくことで、効率的な圧縮符号化を可能とする。
なお、図19は、画像データの最低域成分領域に対する低域成分の領域Lおよび高域成分の領域Hへの分割処理を3回、繰り返し、分割の階層の総数を示す分割レベル=3とした場合の例である。図19において、"L"および"H"は、それぞれ低域成分および高域成分を表し、"L"および"H"の順序は、前側が横方向に分割した結果の帯域を示し、後側が縦方向に分割した結果の帯域を示す。また、"L"および"H"の前の数字は、その領域の階層を示しており、低域成分の階層ほど小さい値で表されている。
また、図19の例から分かるように、画面の右下の領域から左上の領域にかけて段階的に処理がなされ、低域成分が追い込まれていく。すなわち、図19の例では、画面の右下の領域が最も低域成分の少ない(高域成分が最も多く含まれる)領域3HHとされる、画面が4分割された左上の領域は、さらに4分割され、この4分割された領域のうち左上の領域がさらに4分割される。最も左上隅の領域は、最も低域成分を多く含む領域0LLとされる。低域成分に対して繰り返し変換および分割を行うのは、画像のエネルギが低域成分に集中しているためである。
ウェーブレット変換部610は、以上のようにウェーブレット変換を繰り返し、分解レベルが所定レベルに達したら、途中計算用バッファ部611から係数データを読み出し、読み出された係数データを係数並び替え用バッファ部612に書き込む。
係数並び替え部613は、係数並び替え用バッファ部612に書き込まれた係数データを復号時において逆ウェーブレット変換される順で読み出し、エントロピ符号化部615に供給する。エントロピ符号化部615は、供給された係数データを、例えばハフマン符号化や算術符号化といった所定のエントロピ符号化方式で符号化する。
エントロピ符号化部615は、レート制御部614と連動的に動作し、出力される圧縮符号化データのビットレートが略一定値となるように制御される。すなわち、レート制御部614は、エントロピ符号化部615からの符号化データ情報に基づき、エントロピ符号化部615により圧縮符号化されたデータのビットレートが目標値に達した時点あるいは目標値に達する直前でエントロピ符号化部615による符号化処理を終了するように制御する制御信号を、エントロピ符号化部615に対して供給する。エントロピ符号化部615は、レート制御部614から供給される制御信号に応じて符号化処理が終了した時点で、符号化データを出力する。
なお、エントロピ符号化部615が、係数並び替え部613から読み出された係数データに対して、最初に量子化を行い、得られた量子化係数に対してハフマン符号化や算術符号化等の情報源符号化処理を施すようにすれば、さらに圧縮効果の向上を期待することができる。この量子化の方法としてはどのようなものを用いても良く、例えば、一般的な手段、つまり、以下の式(1)に示されるような、係数データWを量子化ステップサイズΔで除算する手法を用いれば良い。
量子化係数=W/Δ ・・・(1)
この時の量子化ステップサイズΔは、例えばレート制御部614において算出される。
なお、ウェーブレット変換部610は、ウェーブレット変換によるフィルタ処理を、画面の縦方向について、数ライン毎の処理に分割して、複数回に分けて段階的に行う。このライン数は、高域成分と低域成分とに再帰的に2分解した後に、1ライン分の最低域成分が生成されるために必要なライン数に基づく。
なお、以下において、この最低域成分の1ライン分(最低域成分のサブバンドの1ライン分の係数データ)を生成するために必要な、他のサブバンドも含めたラインの集まりを、プレシンクト(またはラインブロック)と称する。ここでラインとは、ウェーブレット変換前の画像データに対応するピクチャ若しくはフィールド内、または各サブバンド内において形成される1行分の画素データ若しくは係数データのことを示す。すなわち、プレシンクト(ラインブロック)とは、ウェーブレット変換前の元の画像データにおける、ウェーブレット変換後の最低域成分のサブバンド1ライン分の係数データを生成するために必要なライン数分の画素データ群、または、その画素データ群をウェーブレット変換して得られる各サブバンドの係数データ群のことを示す。
図20は、5×3フィルタを用いて、分解レベル=2までウェーブレット変換によるフィルタ処理を施した例である。ウェーブレット変換部610において、図20Aに一例が示されるように、入力画像データの第1ラインから第7ラインに対して1回目のフィルタ処理が水平および垂直方向にそれぞれ行われる(図6AのIn−1)。
1回目のフィルタ処理の分解レベル=1の処理において、図20Bに一例が示されるように、分解レベル=1で形成される領域HH、領域HLおよび領域LHのそれぞれに配置される(図20BのWT−1)。また、分解レベル=1で形成される領域LLは、分解レベル=2による水平および垂直方向のフィルタ処理でさらに4分割される。
ウェーブレット変換部610による2回目以降のフィルタ処理では、4ライン毎にフィルタ処理が行われ(図20AのIn−2・・・)、分解レベル=1で2ラインずつの係数データが生成され(図20BのWT−2)、分解レベル=2で1ラインずつの係数データが生成される。それらの係数データは、図20Bに一例が示されるように、分解レベル1で形成される領域HH、領域HLおよび領域LHの、1回目のフィルタ処理で生成された係数データの次から配置される。同様に、分解レベル=1による領域LL内において、分解レベル=2のフィルタ処理で生成された1ライン分の係数が領域LLに配置され、1ライン分の係数が領域HH、領域HLおよび領域LHにそれぞれ配置される。
図20Bのようにウェーブレット変換されたデータを復号した際には、図20Cに一例が示されるように、符号化側の第1ライン乃至第7ラインによる1回目のフィルタ処理に対して、復号側の1回目の合成処理による第1ラインが出力される(図20CのOut−1)。以降、符号化側の2回目から最後の回の前までのフィルタ処理に対して、復号側で4ラインずつが出力される(図20CのOut−2・・・)。そして、符号化側の最後の回のフィルタ処理に対して、復号側で8ラインが出力される。
ウェーブレット変換部610で高域成分側から低域成分側へと生成された係数データは、係数並び替え用バッファ部612に順次格納される。係数並び替え部613は、上述した係数データの並び替えが可能となるまで係数並び替え用バッファ部612に係数データが蓄積されると、係数並び替え用バッファ部612から、復号時の合成処理(逆ウェーブレット変換処理)に必要な順に並び替えて係数データを読み出す。読み出された係数データは、エントロピ符号化部615に順次、供給される。
以上のように、符号化装置600は、1ピクチャの画像データを、複数のプレシンクトに分割し、そのプレシンクト毎に符号化を行う。図21にその様子を模式的に示す。
キー情報付きCG情報174を、以上のような方法で符号化して記憶部132に記憶させる場合の復号部184の構成例を図22に示す。
記憶部132より読み出されたキー情報付きCG情報174は、図22の復号部184のエントロピ復号部621に供給され、エントロピ符号を復号され、係数データとされる。係数データは、係数バッファ部622に格納される。逆ウェーブレット変換部623は、係数バッファ部622に格納された係数データを用いて、合成フィルタによる合成フィルタ処理を行い、合成フィルタ処理の結果を再び係数バッファ部622に格納する。逆ウェーブレット変換部623は、この処理を分解レベルに応じて繰り返して、復号された画像データ、すなわち、ベースバンドの(非圧縮の)キー情報付きCG情報174を得る。
以上のように、この圧縮符号化方式の場合、JPEG2000方式の場合よりも容易に復号することができ、復号処理の負荷を軽減させることができる。なお、この圧縮符号化方式の場合、上述したように符号化時に係数の並び替えを行っているので、復号時における処理の負荷がさらに軽減される。
なお、圧縮効率の観点からすれば、例えばMPEG(Moving Picture Experts Group)方式の方が効率がよい。従って、例えば、動きが小さく、かつ、例えば100種類以上の画像を含むようなデータ量の多いCG情報の場合、MPEG方式により圧縮するようにするのが望ましい。ただし、その場合、復号部184もMPEG方式に対応させる必要がある。さらに、上述したような各種の符号化方式を適宜組み合わせて使用するようにしてもよい。その場合、復号部184は、それら全ての方式に対応する必要がある。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図23に示されるような情報処理システムとして構成されるようにしてもよい。
図23は、上述した一連の処理をプログラムにより実行する情報処理システムの構成の例を示すブロック図である。
図23に示されるように、情報処理システム800は、情報処理装置801、その情報処理装置801とPCIバス(Peripheral Components Interconnect bus)802によって接続された、記憶装置803、複数台のビデオテープレコーダ(VTR:Video Tape Recorder)であるVTR804-1乃至VTR804−S、ユーザがこれらに対する操作入力を行うためのマウス805、キーボード806、並びに操作コントローラ807により構成されるシステムであり、インストールされたプログラムによって、上述したような画像符号化処理や画像復号処理等を行うシステムである。
例えば情報処理システム800の情報処理装置801は、RAID(Redundant Arrays of Independent Disks)でなる大容量の記憶装置803に記憶されている動画コンテンツを符号化して得られた符号化データを記憶装置803に記憶させたり、記憶装置803に記憶されている符号化データを復号して得られた復号画像データ(動画コンテンツ)を記憶装置803に記憶させたり、符号化データや復号画像データをVTR804-1乃至VTR804−Sを介してビデオテープに記録したりすることができる。また、情報処理装置801は、VTR804-1乃至VTR804−Sに装着されたビデオテープに記録された動画コンテンツを記憶装置803に取り込み得るようにもなされている。その際、情報処理装置801が、動画コンテンツを符号化するようにしてもよい。
情報処理装置801は、マイクロプロセッサ901、GPU(Graphics Processing Unit)902、XDR-RAM(Extreme Data Rate - Random Access Memory)903、サウスブリッジ904、HDD(Hard Disk Drive)905、USB(Universal Serial Bus)インタフェース(USB I/F)906、およびサウンド入出力コーデック907を有している。
GPU902は専用のバス911を介してマイクロプロセッサ901に接続される。XDR-RAM903は専用のバス912を介してマイクロプロセッサ901に接続される。サウスブリッジ904は、専用のバスを介してマイクロプロセッサ901のI/Oコントローラ944に接続される。このサウスブリッジ904には、HDD905、USBインタフェース906、および、サウンド入出力コーデック907も接続されている。このサウンド入出力コーデック907にはスピーカ921が接続されている。また、GPU902にはディスプレイ922が接続されている。
またサウスブリッジ904には、さらに、PCIバス802を介して、マウス805、キーボード806、VTR804-1乃至VTR804−S、記憶装置803、並びに、操作コントローラ807が接続されている。
マウス805およびキーボード806は、ユーザの操作入力を受け、PCIバス802およびサウスブリッジ904を介して、ユーザの操作入力の内容を示す信号を、マイクロプロセッサ901に供給する。記憶装置803およびVTR804-1乃至VTR804−Sは、所定のデータを記録または再生できるようになされている。
PCIバス802にはさらに、必要に応じてドライブ808が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア811が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてHDD905にインストールされる。
マイクロプロセッサ901は、OS(Operating System)等の基本プログラムを実行する汎用のメインCPU(Central Processing Unit)コア941と、メインCPUコア941に内部バス945を介して接続された複数(この場合8個)のRISC(Reduced Instruction Set Computer)タイプの信号処理プロセッサである、サブCPUコア942-1乃至サブCPUコア942-8と、例えば256[MByte]の容量を持つXDR-RAM903に対するメモリコントロールを行うメモリコントローラ943と、サウスブリッジ904との間でデータの入出力を管理するI/O(In/Out)コントローラ944とが1チップに集積されたマルチコア構成でなり、例えば動作周波数4[GHz]を実現している。
このマイクロプロセッサ901は、起動時、HDD905に格納された制御プログラムに基づき、HDD905に格納されている必要なアプリケーションプログラムを読み出してXDR-RAM903に展開し、この後このアプリケーションプログラム及びオペレータ操作に基づいて必要な制御処理を実行する。
例えば、図2に示される画像合成装置111の構成のうち、点線121により囲まれる部分の処理部により行われる処理、すなわち、IP変換等の前処理や情報読み出し制御処理等をマイクロプロセッサ901により実行させ、点線122によりかこまれる部分の処理部により行われる処理、すなわち、画像切り出し、サイズ補正、各種合成等の画像に関する処理をGPU902により実行させる。
なお、記憶部132は、例えばHDD905、記憶装置803、またはリムーバブルメディア811が装着されたドライブ808等により実現し、入力部133は、例えば、マウス805、キーボード806、USB/IF906、または図示せぬネットワークインタフェース等により実現する。また、情報読み出し制御部131において、復号部181、分割部182、復号部184、および抽出部185が行う各処理は、マイクロプロセッサ901により実行し、保持部183は、XDR-RAM903により実現する。
なお、マイクロプロセッサ901は、複数のコアを有するので、処理の実行を適宜並列化し、複数の処理を同時並列的に進行させるようにすることもできる。また、各処理に対するコアの割り当て方も任意である。
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。
この記録媒体は、例えば、図23に示されるように、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM,DVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア811により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているHDD905や記憶装置803等で構成される。もちろん、記録媒体は、ROMやフラッシュメモリ等の半導体メモリであってもよい。
以上においては、マイクロプロセッサ901内に8個のサブCPUコアが構成されるように説明したが、これに限らず、サブCPUコアの数は任意である。また、マイクロプロセッサ901が、メインCPUコアとサブCPUコアのような複数のコアにより構成されていなくてもよく、シングルコア(1つのコア)により構成されるCPUを用いるようにしてもよい。また、マイクロプロセッサ901の代わりに複数のCPUを用いるようにしてもよいし、複数の情報処理装置を用いる(すなわち、本発明の処理を実行するプログラムを、互いに連携して動作する複数の装置において実行する)ようにしてもよい。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
なお、以上において、1つの装置として説明した構成を分割し、複数の装置として構成するようにしてもよい。逆に、以上において複数の装置として説明した構成をまとめて1つの装置として構成されるようにしてもよい。また、各装置の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置の構成の一部を他の装置の構成に含めるようにしてもよい。つまり、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した画像処理システムの構成例を示すブロック図である。 本発明を適用した画像合成装置の主な構成例を示すブロック図である。 制御情報を説明する図である。 入力画像の合成の様子の例を示す図である。 画像合成処理の流れの例を説明するフローチャートである。 マスク情報の時間的変化の例を説明する図である。 制御情報読み出し処理の流れの例を説明するフローチャートである。 合成パターンの進行方法の例を説明する図である。 情報読み出し制御部の構成例を示すブロック図である。 画像合成処理の流れの、他の例を説明するフローチャートである。 制御情報制作のワークフローの例を説明する図である。 制御情報更新の様子の例を説明する図である。 情報読み出し制御部の、他の構成例を示すブロック図である。 画像合成処理の流れの、さらに他の例を説明するフローチャートである。 画像合成処理の流れの、さらに他の例を説明する、図14に続くフローチャートである。 本発明を適用した画像合成装置の、他の構成例を示すブロック図である。 画像合成処理の流れの、さらに他の例を説明するフローチャートである。 符号化装置の構成例を示すブロック図である。 ウェーブレット変換について概略的に説明するための略線図である。 ウェーブレット変換および逆ウェーブレット変換の流れを概略的に示す略線図である。 ピクチャの構成例を示す模式図である。 復号部の構成例を示すブロック図である。 本発明を適用した情報処理システムの構成例を示すブロック図である。
符号の説明
100 画像処理システム, 111 画像合成装置, 131 情報読み出し制御部, 134 前処理部, 136 合成処理部, 137 キー生成部, 151 画像切り出し部, 152 サイズ補正部, 161 画像合成部, 162 CG合成部, 181 復号部, 182 分割部, 183 保持部, 184 復号部, 185 抽出部, 301 再生ピクチャ特定部, 302 制御情報供給部, 451 CG変更用座標情報生成部, 452 リアルタイムレンダリング部, 501−1乃至501−4 顔検出部

Claims (18)

  1. 画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出す切り出し手段と、
    前記切り出し手段により切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正するサイズ補正手段と、
    前記サイズ補正手段により画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する合成手段と
    を備える情報処理装置。
  2. 前記切り出し手段は、第1の制御情報により指定される切り出し方法で、前記部分画像の切り出しを行い、
    前記サイズ補正手段は、前記部分画像を、前記第1の制御情報により指定される画像サイズに補正し、
    前記合成手段は、前記第1の制御情報により指定される繋ぎ合わせ方で前記部分画像同士を繋ぎ合わせる
    請求項1に記載の情報処理装置。
  3. 複数の画像の重ね合わせ方を指定する第2の制御情報により指定される重ね合わせ方で、前記合成手段により生成される前記合成画像にCG(Computer Graphics)情報を重畳させるCG情報合成手段をさらに備える
    請求項2に記載の情報処理装置。
  4. 前記第1の制御情報および前記第2の制御情報を記憶する記憶手段と、
    前記記憶手段より前記第1の制御情報および前記第2の制御情報を読み出し、前記第1の制御情報を前記切り出し手段、前記サイズ補正手段、および前記合成手段に供給し、前記第2の制御情報を前記CG情報合成手段に供給する読み出し手段をさらに備える
    請求項3に記載の情報処理装置。
  5. 前記読み出し手段は、前記記憶手段より読み出した前記第1の制御情報から、前記複数の画像のそれぞれに対する制御情報である部分制御情報を生成し、生成した複数の部分制御情報を前記切り出し手段および前記サイズ補正手段に供給し、
    前記切り出し手段は、各画像に対して、各画像に対応する部分制御情報により指定される切り出し方法で前記部分画像の切り出しを行い、
    前記サイズ補正手段は、各部分画像を、各部分画像に対応する部分制御情報により指定される画像サイズに補正する
    請求項4に記載の情報処理装置。
  6. 前記記憶手段により記憶されている前記第1の制御情報および前記第2の制御情報をそれぞれ所定の方法で圧縮されており、
    前記読み出し手段は、前記記憶手段より読み出した前記第1の制御情報および前記第2の制御情報を、それぞれの圧縮方法に対応する方法で復号してから供給する
    請求項4に記載の情報処理装置。
  7. 前記記憶手段は、前記第1の制御情報および前記第2の制御情報を合成パターン毎に管理し、
    前記読み出し手段は、指定された合成パターンの前記第1の制御情報および前記第2の制御情報を前記記憶手段より読み出して供給する
    請求項4に記載の情報処理装置。
  8. 前記合成パターンの進行を制御する進行制御指示を受け付ける進行制御指示受付手段をさらに備え、
    前記読み出し手段は、前記進行制御指示受付手段により受け付けられた前記進行制御指示に基づいて前記合成パターンにおける処理対象位置を特定し、前記処理対象位置に対応する第1の制御情報および前記第2の制御情報を読み出して供給する
    請求項7に記載の情報処理装置。
  9. 前記CG情報の構成の変更指示を受け付ける変更指示受付手段をさらに備え、
    前記読み出し手段は、前記変更指示受付手段により受け付けられた前記変更指示に基づいて、前記第1の情報および前記第2の情報を更新する
    請求項4に記載の情報処理装置。
  10. 前記複数の画像に対して前処理を行う前処理手段をさらに備え、
    前記切り出し手段は、前記前処理手段により前処理された前記複数の画像より前記部分画像を切り出す
    請求項1に記載の情報処理装置。
  11. 前記前処理手段は、前記前処理として、インタレース方式の前記複数の画像をプログレッシブ方式に変換する
    請求項10に記載の情報処理装置。
  12. 前記前処理手段は、前記前処理として、前記複数の画像のそれぞれより顔画像を検出し、前記切り出し手段により切り出される前記部分画像の中心座標を決定する
    請求項10に記載の情報処理装置。
  13. 前記複数の画像のそれぞれに対応する音声情報を、それぞれの前記音声情報の合成方法を指定する情報である音声合成情報に従って合成する音声合成手段をさらに備える
    請求項1に記載の情報処理装置。
  14. 前記自由曲線により切り出す部分は、マスク画像情報により指定される
    請求項1に記載の情報処理装置。
  15. 前記マスク画像情報においては、画像の切り出し部分が画素単位で指定される
    請求項14に記載の情報処理装置。
  16. 画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出し、
    切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正し、
    画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する
    ステップを含む情報処理方法。
  17. 画像の一部を部分画像として自由曲線により切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出し、
    切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正し、
    画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する
    ステップを含む処理をコンピュータに実行させるプログラム。
  18. 画像の一部を部分画像として切り出す切り出し処理を複数の画像に対して行い、前記複数の画像のそれぞれより部分画像を切り出す切り出し手段と、
    前記切り出し手段により切り出された複数の前記部分画像のそれぞれについて、画像サイズを補正するサイズ補正手段と、
    スイッチャパネルに対して入力されたユーザの指示に従って、前記サイズ補正手段により画像サイズが補正された前記部分画像同士を繋ぎ合わせて1枚の合成画像を生成する合成手段と
    を備える情報処理装置と、
    前記情報処理装置により生成された前記合成画像と、前記合成画像のバックグランドとなる画像として入力されたバックグランド画像とを重畳する重畳手段を備えるスイッチャと、
    前記情報処理装置、又は、前記スイッチャに対する指示を行うスイッチャパネルと
    を有する情報処理システム。
JP2008103390A 2008-04-11 2008-04-11 情報処理装置および方法、プログラム、並びに情報処理システム Expired - Fee Related JP4556146B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008103390A JP4556146B2 (ja) 2008-04-11 2008-04-11 情報処理装置および方法、プログラム、並びに情報処理システム
US12/401,187 US8558846B2 (en) 2008-04-11 2009-03-10 Information processing device and method, and program
EP09156835A EP2109082A3 (en) 2008-04-11 2009-03-31 Information processing device, method and program
CN200910133776.XA CN101557475B (zh) 2008-04-11 2009-04-13 信息处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103390A JP4556146B2 (ja) 2008-04-11 2008-04-11 情報処理装置および方法、プログラム、並びに情報処理システム

Publications (2)

Publication Number Publication Date
JP2009253953A JP2009253953A (ja) 2009-10-29
JP4556146B2 true JP4556146B2 (ja) 2010-10-06

Family

ID=40847795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103390A Expired - Fee Related JP4556146B2 (ja) 2008-04-11 2008-04-11 情報処理装置および方法、プログラム、並びに情報処理システム

Country Status (4)

Country Link
US (1) US8558846B2 (ja)
EP (1) EP2109082A3 (ja)
JP (1) JP4556146B2 (ja)
CN (1) CN101557475B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410237B1 (en) 2006-06-26 2019-09-10 Sprint Communications Company L.P. Inventory management integrating subscriber and targeting data
US10068261B1 (en) 2006-11-09 2018-09-04 Sprint Communications Company L.P. In-flight campaign optimization
JP4650579B2 (ja) * 2009-03-30 2011-03-16 日本ビクター株式会社 ビデオデータ記録装置、ビデオデータ再生装置、およびビデオデータ記録方法、ビデオデータ再生方法
JP5631086B2 (ja) * 2010-07-12 2014-11-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP2012044407A (ja) * 2010-08-18 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012099876A (ja) * 2010-10-29 2012-05-24 Sanyo Electric Co Ltd 画像処理装置、撮像装置、画像処理方法、プログラム
JP5484310B2 (ja) * 2010-12-24 2014-05-07 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2012191486A (ja) 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム
US10405173B1 (en) 2013-06-05 2019-09-03 Sprint Communications Company L.P. Method and systems of collecting and segmenting device sensor data while in transit via a network
US9590938B1 (en) 2013-09-11 2017-03-07 Sprint Communications Company L.P. System and method for identifying a mobile device with near real time visualization to action
US10410241B1 (en) 2013-11-27 2019-09-10 Sprint Communications Company L.P. Swipe screen advertisement metrics and tracking
US9734515B1 (en) 2014-01-09 2017-08-15 Sprint Communications Company L.P. Ad management using ads cached on a mobile electronic device
US10013707B1 (en) 2014-01-21 2018-07-03 Sprint Communications Company L.P. Address modification for advertisement mediation
US10055757B1 (en) 2014-01-21 2018-08-21 Sprint Communications Company L.P. IP address hashing in advertisement gateway
US9836771B1 (en) 2014-01-21 2017-12-05 Sprint Communications Company L.P. Client mediation and integration to advertisement gateway
US9984395B1 (en) 2014-01-21 2018-05-29 Sprint Communications Company L.P. Advertisement mediation of supply-demand communications
US10782864B1 (en) 2014-04-04 2020-09-22 Sprint Communications Company L.P. Two-axis slider graphical user interface system and method
US10535082B1 (en) 2014-04-22 2020-01-14 Sprint Communications Company L.P. Hybrid selection of target for advertisement campaign
US9508090B1 (en) 2014-09-24 2016-11-29 Sprint Communications Company L.P. End user participation in mobile advertisement
US9818133B1 (en) 2014-10-20 2017-11-14 Sprint Communications Company L.P. Method for consumer profile consolidation using mobile network identification
CN109120869A (zh) * 2018-11-07 2019-01-01 深圳市道通智能航空技术有限公司 双光图像整合方法、整合设备及无人机
CN109922319B (zh) * 2019-03-26 2020-10-09 重庆英卡电子有限公司 基于多核cpu的rtsp协议多视频流并行预处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083193A (ja) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd 画像伝送システムおよび画像送信装置、画像撮像装置
JP2005107967A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像合成装置及び方法
JP2005354332A (ja) * 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6018773A (ja) 1983-07-13 1985-01-30 Fujitsu Ltd パルス幅測定方法
KR920003118B1 (ko) 1988-06-20 1992-04-20 피피지 인더스트리즈, 인코포레이티드 중합가능한 계면활성제
JPH03117097A (ja) 1989-09-29 1991-05-17 Nec Corp 2線4線変換装置
JP2543613B2 (ja) 1990-04-20 1996-10-16 株式会社ケンウッド グラフィックイコライザ
US5049993A (en) * 1990-10-03 1991-09-17 Bell Communications Research, Inc. Format conversion preprocessing method and circuit
JP3117097B2 (ja) 1992-01-28 2000-12-11 ソニー株式会社 画像変換装置
JP3503168B2 (ja) 1994-01-19 2004-03-02 ソニー株式会社 ビデオ特殊効果装置
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
JP3700871B2 (ja) 1995-11-11 2005-09-28 ソニー株式会社 画像変換装置
US6008860A (en) * 1995-12-29 1999-12-28 Thomson Consumer Electronics, Inc. Television system with provisions for displaying an auxiliary image of variable size
JP3480648B2 (ja) 1996-11-12 2003-12-22 ソニー株式会社 ビデオ信号処理装置及びビデオ信号処理方法
US6331860B1 (en) * 1999-11-24 2001-12-18 Xerox Corporation Method and apparatus for stitching scanned image segments together to form an oversized document
US20030159143A1 (en) 2002-02-21 2003-08-21 Peter Chan Systems and methods for generating a real-time video program guide through video access of multiple channels
JP4003508B2 (ja) 2002-04-02 2007-11-07 ソニー株式会社 画像合成装置及び画像合成方法
FI115943B (fi) * 2003-12-12 2005-08-15 Nokia Corp Järjestely informaation esittämiseksi näytöllä
JP4284288B2 (ja) * 2005-03-10 2009-06-24 株式会社東芝 パターン認識装置及びその方法
JP4692364B2 (ja) * 2006-04-11 2011-06-01 富士ゼロックス株式会社 電子会議支援プログラム、電子会議支援方法、電子会議システムにおける情報端末装置
CN100428788C (zh) * 2006-07-14 2008-10-22 杭州国芯科技有限公司 开机画面录制的方法
JP2008103390A (ja) 2006-10-17 2008-05-01 Renesas Technology Corp 半導体装置の製造方法
US8132096B1 (en) * 2007-03-26 2012-03-06 Hewlett-Packard Development Company, L.P. Image composition evaluation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083193A (ja) * 1998-06-26 2000-03-21 Matsushita Electric Ind Co Ltd 画像伝送システムおよび画像送信装置、画像撮像装置
JP2005107967A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像合成装置及び方法
JP2005354332A (ja) * 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム

Also Published As

Publication number Publication date
EP2109082A2 (en) 2009-10-14
JP2009253953A (ja) 2009-10-29
US20090256858A1 (en) 2009-10-15
EP2109082A3 (en) 2010-07-21
CN101557475A (zh) 2009-10-14
CN101557475B (zh) 2013-07-10
US8558846B2 (en) 2013-10-15

Similar Documents

Publication Publication Date Title
JP4556146B2 (ja) 情報処理装置および方法、プログラム、並びに情報処理システム
JP6410913B2 (ja) 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
US8503809B2 (en) Information processing apparatus and method to entropy code upon processing of predetermined number of precincts
US9912965B2 (en) Stereoscopic video encoding and decoding methods and apparatus
US20180098090A1 (en) Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters
JP5144237B2 (ja) 画像処理装置、その制御方法、プログラム
DE102014207607B4 (de) System und Verfahren zur Verarbeitung von Videodaten
DE102020108357A1 (de) Umkodieren vorhergesagter bilder in live-videostream-anwendungen
TW200904195A (en) Information processing device and method, and information processing system
JP7415936B2 (ja) 情報処理装置および情報処理方法
JP2014183353A (ja) 映像処理装置、映像再生装置、映像処理方法、映像再生方法及び映像処理システム
JP2005286472A (ja) 画像処理装置および画像処理方法
Ballard et al. Rats: adaptive 360-degree live streaming
CN102272793A (zh) 缩放已压缩图像帧的方法和***
JP2004129217A (ja) 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2007522732A (ja) スクリーンに表示される画像のアスペクト比の変更
JP6387511B2 (ja) 画像データ処理方法
JP6732337B2 (ja) 画像データ処理方法
WO2009093557A1 (ja) マルチ画面表示装置
JP2013518458A (ja) デジタルビデオストリーム内の情報及び/又はアプリケーションデータを転送する方法、及び、ビデオストリームを生成及び再生するための関連装置
JP2005341398A (ja) 情報処理装置および方法、並びにプログラム
JP2001145020A (ja) 画像編集装置及び方法
JP2004357313A (ja) 画像情報処理装置及び画像情報処理方法
JP2006340300A (ja) 信号処理方法及び信号処理装置、並びに信号処理プログラム及び情報記録媒体
WO2018105515A1 (ja) 画像データ処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100707

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees